首發(fā)不到一月即眾籌超百萬,這只 AI 萌寵是如何俘獲年輕白領(lǐng)的芳心廓块? | CES2025
AR 試穿為什么不好玩蝌衔?原來是因?yàn)椤?/p>
沒有 AI 的 AR 不好玩
隨著 618 電商節(jié)第二波高潮的開啟,各種廠商的平臺(tái)戰(zhàn)報(bào)噩斟、調(diào)查數(shù)據(jù)曹锨、分析報(bào)告也蜂擁而至。從最新的一份調(diào)查分析報(bào)告來看剃允,服飾類依然是個(gè)大熱門艘希,在消費(fèi)者已購買/意向購買商品品類中占比達(dá)到了 50.06%,僅次于美妝護(hù)膚類硅急。
然而覆享,線上購物在越來越火的同時(shí),也逐漸暴露出越來越多的問題营袜。以熱門的服飾類為例撒顿,消費(fèi)者很難從商品介紹頁想象出自己上身的真實(shí)效果,甚至評(píng)論區(qū)的買家秀和賣家秀一度成為網(wǎng)絡(luò)上的熱門談資荚板。
基于此凤壁,不同電商平臺(tái)推出了一系列的創(chuàng)新舉措,比如得物跪另、淘寶等推出的 AR 試穿拧抖,直播間里的主播展示、在線互動(dòng)免绿,但是受限于 AR 技術(shù)的發(fā)展程度唧席、主播與消費(fèi)者之間的形體差異、溝通效率嘲驾、傳遞信息的偏差等淌哟,這些措施并沒有真正行之有效地解決服飾上身的實(shí)際效果給用戶足夠的參考。
在追求虛擬試穿的趣味性辽故、互動(dòng)性以及用更「務(wù)實(shí)」的方式提供足夠的參考信息之間如何做好平衡徒仓,對(duì)于廠商而言是個(gè)需要去面對(duì)的難題。
Google 最新推出的虛擬試穿解決方案誊垢,則是選擇了后者掉弛。
借由一種被稱為 diffusion 的技術(shù),Google 最新的生成式 AI 可以向你展示不同的衣服在不同體型的真實(shí)模特身上的穿戴效果喂走。
相對(duì)于其他同類型的虛擬試穿方案殃饿,Google 的這項(xiàng)服務(wù)能夠?qū)Ⅰ薨櫋⒄郫B缴啡、包裹壁晒、拉伸和陰影等一些細(xì)節(jié)但是很重要的細(xì)節(jié)一覽無余地展示出來瓷们,換言之业栅,能更加真實(shí)地展示出衣物在不同體型秒咐、姿勢(shì)上所呈現(xiàn)的物理效果。并且能避免如錯(cuò)位等帶來的視覺上的缺陷碘裕。
這樣的精準(zhǔn)效果由基于 diffusion 的 AI 模型實(shí)現(xiàn)携取,Google 也分享了這一 AI 模型的機(jī)制。
首先需要解釋的是 diffusion帮孔。Diffusion(擴(kuò)散)是逐步向圖像中添加額外的像素(或者叫噪點(diǎn))的過程雷滋,直到圖片變得無法識(shí)別。然后文兢,再完全消除噪點(diǎn)晤斩,從而高質(zhì)量地重建原始圖像。
類似 Imagen 這樣的文本到圖像(text-to-image) 使用 diffusion 以及來自大語言模型的文本姆坚,使得用戶輸入的文本能夠生成逼真的圖像澳泵。
Google 最新的試穿效果的實(shí)現(xiàn)正是受這一工作機(jī)制的啟發(fā),不過與 Imagen 不同的是兼呵,在這個(gè)過程中兔辅,Google 的輸入對(duì)象并非文本,而是一組圖像击喂,即衣服和人维苔。
衣服和人對(duì)應(yīng)的圖像被分別發(fā)送至各自的神經(jīng)網(wǎng)絡(luò)(U-net),然后在一個(gè)被稱為「cross-attention」的過程中共享信息懂昂,最終生成一個(gè)輸出——著裝人物的真實(shí)圖像介时。
這種基于圖像的 diffusion 和 cross-attention 的結(jié)合構(gòu)成了 Google 的這個(gè)新的 AI 模型。
基于這個(gè)模型的用途凌彬,對(duì)該模型的訓(xùn)練方式也有別于 Imagen(后者使用大模型進(jìn)行數(shù)據(jù)訓(xùn)練)潮尝。Google 使用 Shopping Graph 來對(duì)其進(jìn)行訓(xùn)練,Shopping Graph 是涵蓋了產(chǎn)品饿序、賣家勉失、品牌等信息的全球最全面的數(shù)據(jù)集。
訓(xùn)練的數(shù)據(jù)類型為圖像原探,每組圖像包括兩個(gè)穿著不同乱凿、姿勢(shì)不同的人,如一個(gè)側(cè)身站立咽弦、穿著襯衫的人徒蟆,另一個(gè)人則是正面站立。訓(xùn)練開始后型型,AI 模型將學(xué)習(xí)將側(cè)立姿勢(shì)的人身上的襯衫向正面站立的人身上進(jìn)行匹配(反之亦然)段审,直到它可以從所有角度生成襯衫在正面站立的人身上的逼真圖像。
而為了提升最終的效果闹蒜,Google 使用了數(shù)百萬個(gè)不同服裝和人物的隨機(jī)圖像重復(fù)了這一過程寺枉,最終呈現(xiàn)出衣服在不同情況下展現(xiàn)出的真實(shí)效果抑淫。
這項(xiàng)服務(wù)目前已經(jīng)在美國開放,用戶可以通過 Shopping Graph 來進(jìn)行女式上衣的試穿姥闪,目前支持 Anthropologie始苇、LOFT、 H&M 和 Everlane 等品牌筐喳。此后這項(xiàng)服務(wù)將會(huì)支持男式上衣以及更多的品牌和商品催式。
此外,為了更進(jìn)一步提升衣服的選購體驗(yàn)避归,Google 還同步推出了一項(xiàng)延伸服務(wù)荣月。在搜索的關(guān)聯(lián)結(jié)果中,除了傳統(tǒng)的價(jià)格過濾項(xiàng)梳毙,Google 還提供了顏色喉童、風(fēng)格、款式等其他過濾選項(xiàng)顿天,而這些選項(xiàng)也是基于機(jī)器學(xué)習(xí)和視覺匹配算法實(shí)現(xiàn)的堂氯。
灣里小結(jié)
虛擬試穿(Virtual try-on,VTO)實(shí)際上已有多年的發(fā)展歷史牌废,這與其廣闊的市場空間密不可分咽白。
根據(jù)相關(guān)報(bào)道,全球虛擬試衣間市場規(guī)模預(yù)計(jì)將由 2019 年的 30.7942 億美元增長至 2025 年底的 65.6547 億美元鸟缕,復(fù)合年增長率(CAGR)為 13.44%晶框。
廣闊的市場空間意味著廣闊的發(fā)展機(jī)遇,但是發(fā)展帶來的新的問題如何更好地解決卻是整個(gè)行業(yè)都需要慎重思考的難題懂从。
AR 試穿某種程度上解決了用戶試穿的問題授段,但是不成熟的技術(shù)讓其為用戶能提供的真實(shí)價(jià)值需要畫上問號(hào)。相比而言番甩,Google 這種形式上更加「樸素」的解決方案或許才是用戶心中真正想要的答案侵贵。
主筆:陳述 / 深圳灣
編輯:曉月 / 深圳灣
題圖來源:Designers