全系標配滿級防水,OPPO A5 系列新品正式發布

AR 試穿為什么不好玩?原來是因為……
沒有 AI 的 AR 不好玩
隨著 618 電商節第二波高潮的開啟,各種廠商的平臺戰報、調查數據、分析報告也蜂擁而至。從最新的一份調查分析報告來看,服飾類依然是個大熱門,在消費者已購買/意向購買商品品類中占比達到了 50.06%,僅次于美妝護膚類。

然而,線上購物在越來越火的同時,也逐漸暴露出越來越多的問題。以熱門的服飾類為例,消費者很難從商品介紹頁想象出自己上身的真實效果,甚至評論區的買家秀和賣家秀一度成為網絡上的熱門談資。
基于此,不同電商平臺推出了一系列的創新舉措,比如得物、淘寶等推出的 AR 試穿,直播間里的主播展示、在線互動,但是受限于 AR 技術的發展程度、主播與消費者之間的形體差異、溝通效率、傳遞信息的偏差等,這些措施并沒有真正行之有效地解決服飾上身的實際效果給用戶足夠的參考。


在追求虛擬試穿的趣味性、互動性以及用更「務實」的方式提供足夠的參考信息之間如何做好平衡,對于廠商而言是個需要去面對的難題。
Google 最新推出的虛擬試穿解決方案,則是選擇了后者。
借由一種被稱為 diffusion 的技術,Google 最新的生成式 AI 可以向你展示不同的衣服在不同體型的真實模特身上的穿戴效果。
相對于其他同類型的虛擬試穿方案,Google 的這項服務能夠將褶皺、折疊、包裹、拉伸和陰影等一些細節但是很重要的細節一覽無余地展示出來,換言之,能更加真實地展示出衣物在不同體型、姿勢上所呈現的物理效果。并且能避免如錯位等帶來的視覺上的缺陷。

這樣的精準效果由基于 diffusion 的 AI 模型實現,Google 也分享了這一 AI 模型的機制。
首先需要解釋的是 diffusion。Diffusion(擴散)是逐步向圖像中添加額外的像素(或者叫噪點)的過程,直到圖片變得無法識別。然后,再完全消除噪點,從而高質量地重建原始圖像。
類似 Imagen 這樣的文本到圖像(text-to-image) 使用 diffusion 以及來自大語言模型的文本,使得用戶輸入的文本能夠生成逼真的圖像。

Google 最新的試穿效果的實現正是受這一工作機制的啟發,不過與 Imagen 不同的是,在這個過程中,Google 的輸入對象并非文本,而是一組圖像,即衣服和人。
衣服和人對應的圖像被分別發送至各自的神經網絡(U-net),然后在一個被稱為「cross-attention」的過程中共享信息,最終生成一個輸出——著裝人物的真實圖像。
這種基于圖像的 diffusion 和 cross-attention 的結合構成了 Google 的這個新的 AI 模型。

基于這個模型的用途,對該模型的訓練方式也有別于 Imagen(后者使用大模型進行數據訓練)。Google 使用 Shopping Graph 來對其進行訓練,Shopping Graph 是涵蓋了產品、賣家、品牌等信息的全球最全面的數據集。
訓練的數據類型為圖像,每組圖像包括兩個穿著不同、姿勢不同的人,如一個側身站立、穿著襯衫的人,另一個人則是正面站立。訓練開始后,AI 模型將學習將側立姿勢的人身上的襯衫向正面站立的人身上進行匹配(反之亦然),直到它可以從所有角度生成襯衫在正面站立的人身上的逼真圖像。
而為了提升最終的效果,Google 使用了數百萬個不同服裝和人物的隨機圖像重復了這一過程,最終呈現出衣服在不同情況下展現出的真實效果。
這項服務目前已經在美國開放,用戶可以通過 Shopping Graph 來進行女式上衣的試穿,目前支持 Anthropologie、LOFT、 H&M 和 Everlane 等品牌。此后這項服務將會支持男式上衣以及更多的品牌和商品。
此外,為了更進一步提升衣服的選購體驗,Google 還同步推出了一項延伸服務。在搜索的關聯結果中,除了傳統的價格過濾項,Google 還提供了顏色、風格、款式等其他過濾選項,而這些選項也是基于機器學習和視覺匹配算法實現的。

灣里小結
虛擬試穿(Virtual try-on,VTO)實際上已有多年的發展歷史,這與其廣闊的市場空間密不可分。
根據相關報道,全球虛擬試衣間市場規模預計將由 2019 年的 30.7942 億美元增長至 2025 年底的 65.6547 億美元,復合年增長率(CAGR)為 13.44%。
廣闊的市場空間意味著廣闊的發展機遇,但是發展帶來的新的問題如何更好地解決卻是整個行業都需要慎重思考的難題。
AR 試穿某種程度上解決了用戶試穿的問題,但是不成熟的技術讓其為用戶能提供的真實價值需要畫上問號。相比而言,Google 這種形式上更加「樸素」的解決方案或許才是用戶心中真正想要的答案。
主筆:陳述 / 深圳灣
編輯:曉月 / 深圳灣
題圖來源:Designers