一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目

之前人物换装还得用 SD ,

电脑配置不够还跑不了,

今天看到阿里推出了虚拟试穿的项目

Outfit Anyone

直接放图会比较直观,

一张人物照片 + 一套衣服的照片,

就能看到这套衣服的上身图。

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

Outfit Anyone

不仅可以用正常的服装,

还可以用奇奇怪怪的东西,

比如说你用个人物照片 + 水果,

漫画手绘的图片也可以,

还是再放张图展示一下。

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

这样就能非常清晰的看到

Outfit Anyone 的作用了,

操作步骤也是非常简单,

体验链接

https://huggingface.co/spaces/HumanAIGC/OutfitAnyone

可能会因为使用的人数过多显示报错😅

左边是一张人物图,

中间是服装的图片,

右边是生成的新图片。

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

当你上传或选择图片之后

点击最下方的 Run 按钮,

就能看到你给 ta 选的人物服装图。

这大大降低了新手的使用门槛。

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

这是基于条件扩散模型的时装技术,

简单介绍一下扩散模型,

这和其他生成模型一样,

实现从噪声生成目标样本。

从单个图像来看这个过程,

扩散过程就像不断往图像上加噪声

直到图像变成一个纯噪声,

逆向扩散就是从蠢噪声生成一张图像的过程。

放个图展示下,

从上到下分别是:

扩散过程和逆向扩散过程。

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

在 Outfit Anyone 中,

条件扩散模型用来实现虚拟试穿,

实现在不同场景、不同体形的情况下模拟试穿不同服装的上身效果

在模型内部,

网络被分为两个独立的流程,

分别处理模特和服装的数据。

这两个流程在一个融合网络中汇聚,

帮助服装的细节特征嵌入到模特的特征中。

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

Outfit Anyone

能够处理各种体型

在实际应用中,

我们能看到自己穿上不同风格、

不同类型的服装下的样子,

还能提供更多的选择和灵感。

Outfit Anyone 加上

Animate Anyone 还能生成换装视频

《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区《一键换衣!阿里推出「Outfit Anyone」虚拟试穿项目》- 投稿作者:十九洲 - 发布于:GetAI社区

不过 Animate Anyone 只甩了个演示,

啥也没给,感兴趣的话可以收藏跟踪一下。

万一出货了还能先一步体验体验。

Animate Anyone 地址:

https://github.com/HumanAIGC/AnimateAnyone

Outfit Anyone 项目地址:

https://humanaigc.github.io/outfit-anyone/

不知道搞电商服装摄影的饭碗还端得稳不稳。

 

0

评论0

请先
显示验证码