久久人妻熟女中文字幕av蜜芽,91超碰潮喷色偷偷伊人,夜夜躁日日躁狠狠久久av,狠狠躁18三区二区一区

Google AI 推出 MediaPipe Diffusion 插件:可在設(shè)備上實現(xiàn)可控的文本到圖像生成|全球快資訊

首頁 > 探索 > > 正文

日期:2023-07-03 16:51:02    來源:站長之家    


【資料圖】

站長之家(ChinaZ.com) 7月3日消息:Diffusion 模型近年來在文本到圖像生成方面得到廣泛應(yīng)用,并取得了顯著的成功,從而在圖像質(zhì)量、推理性能和創(chuàng)造性范圍方面實現(xiàn)了重大改進。然而,在難以用文字明確定義的條件下,有效的生成管理仍然是一個挑戰(zhàn)。

由谷歌研究人員開發(fā)的 MediaPipe Diffusion 插件使得用戶可以在設(shè)備上執(zhí)行文本到圖像的生成,并進行用戶控制。在這項研究中,谷歌延伸了之前關(guān)于設(shè)備上大型生成模型的 GPU 推理的工作,提出了低成本的可編程文本到圖像創(chuàng)建解決方案,可以集成到現(xiàn)有的 Diffusion 模型及其 LoRA 變體中。

Diffusion 模型中模擬了迭代去噪的圖像生成過程。Diffusion 模型的每一次迭代都以受噪聲污染的圖像開始,并以目標概念的圖像結(jié)束。通過文本提示的語言理解極大地增強了圖像生成過程。文本嵌入通過交叉注意力層與文本到圖像生成模型關(guān)聯(lián)起來。然而,物體的位置和姿態(tài)等細節(jié)可能更難以通過文本提示傳達。研究人員通過額外的模型將條件圖像中的控制信息引入到 Diffusion 中。

Plug-and-Play、ControlNet 和 T2I Adapter 方法經(jīng)常用于生成受控的文本到圖像輸出。Plug-and-Play 使用 Diffusion 模型的副本(Stable Diffusion1.5 版本的 860M 參數(shù))和廣泛使用的去噪 Diffusion 隱式模型(DDIM)反演方法來從輸入圖像中推導(dǎo)出初始噪聲輸入。

通過自注意力從復(fù)制的 Diffusion 中提取空間特征,并使用 Plug-and-Play 將其注入到文本到圖像 Diffusion 中。ControlNet 構(gòu)建了 Diffusion 模型編碼器的可訓(xùn)練副本,并通過一個帶有零初始化參數(shù)的卷積層連接到編碼條件信息,然后傳遞給解碼器層。不幸的是,這導(dǎo)致了模型的顯著增大,Stable Diffusion1.5 版本的參數(shù)約為 4.5 億個,相當于 Diffusion 模型本身的一半。T2I Adapter 在較小的網(wǎng)絡(luò)(77M 參數(shù))下實現(xiàn)了可比較的受控生成結(jié)果。條件圖像是 T2I Adapter 的唯一輸入,其結(jié)果被用于所有后續(xù)的 Diffusion 周期。然而,這種適配器樣式不適用于移動設(shè)備。

MediaPipe Diffusion 插件是谷歌開發(fā)的一個獨立網(wǎng)絡(luò),旨在使條件生成變得高效、靈活和可擴展。

作為一種便攜式的設(shè)備上文本到圖像創(chuàng)建范式,MediaPipe Diffusion 插件可以免費下載使用。它接收一個條件圖像,并通過多尺度特征提取將特征添加到 Diffusion 模型的編碼器中的適當尺度上。

當與文本到圖像 Diffusion 模型結(jié)合使用時,插件模型將一個條件信號添加到圖像生成過程中。谷歌希望插件網(wǎng)絡(luò)只有 600 萬個參數(shù),使其成為一個相對簡單的模型。

MediaPipe:https://developers.google.com/mediapipe

關(guān)鍵詞:

下一篇:馬塔:感謝伊卡爾迪送我土超冠軍獎杯,但他在任意球賭注上輸了_世界微頭條
上一篇:最后一頁

科技

 
祁阳县| 天峨县| 隆尧县| 仪陇县| 奇台县| 龙州县| 泽普县| 湛江市| 额敏县| 宣恩县| 龙江县| 吴川市| 茶陵县| 军事| 宁蒗| 富川| 祁连县| 彩票| 扎兰屯市| 浦江县| 驻马店市| 五华县| 织金县| 廊坊市| 棋牌| 蒙自县| 荆州市| 扶沟县| 遂平县| 北宁市| 乌鲁木齐市| 中超| 澄迈县| 城市| 无棣县| 杂多县| 肇州县| 普格县| 比如县| 收藏| 拜泉县|