研究人員開創(chuàng)光學生成模型,引領可持續(xù)生成式AI新時代加州大學洛杉磯分校的研究團隊成功創(chuàng)建出光學生成模型,能夠利用光的物理特性而非傳統(tǒng)電子計算來生成新穎圖像。這是人工智能 (AI) 和光子學的重大飛躍。該工作發(fā)表在《自然》雜志上,研究提出了一種生成式AI新范式,可在實現(xiàn)可擴展高性能內(nèi)容創(chuàng)作的同時顯著降低能耗。 以擴散模型和大語言模型為代表的生成模型構成了當今AI革命的技術支柱。這些系統(tǒng)能生成逼真的圖像、視頻和類人文本,但其快速發(fā)展也伴隨著高昂代價:激增的能耗需求、龐大的碳足跡以及日益復雜的硬件要求。運行此類模型需要大規(guī)模計算基礎設施,引發(fā)了對其長期可持續(xù)性的擔憂。 由阿伊多甘·奧茲詹教授領銜的UCLA團隊另辟蹊徑。他們的系統(tǒng)不依賴純數(shù)字計算,而是通過光學方式執(zhí)行生成過程——利用光固有的并行性和速度實現(xiàn)單次曝光成像。這種方法解決了AI領域的核心瓶頸問題:性能與能效的平衡。 該模型將淺層數(shù)字編碼器與自由空間衍射光學解碼器集成,以一體化系統(tǒng)進行訓練。隨機噪聲首先被處理為"光學生成種子",投射至空間光調(diào)制器并由激光照射。當光束穿過靜態(tài)預優(yōu)化的衍射解碼器時,會產(chǎn)生符合目標數(shù)據(jù)統(tǒng)計分布特征的圖像。與需要數(shù)百至數(shù)千次迭代步驟的數(shù)字擴散模型不同,這種成像過程僅需通過淺層數(shù)字網(wǎng)絡進行初始編碼和光照即可瞬間完成。 為驗證該方法,團隊在多個數(shù)據(jù)集上展示了數(shù)值模擬和實驗結果。模型成功生成了手寫數(shù)字、時尚單品、蝴蝶、人臉的全新圖像,甚至創(chuàng)作出受梵高啟發(fā)的藝術品。根據(jù)標準圖像質(zhì)量指標評估,光學生成輸出在統(tǒng)計特性上與先進擴散模型的結果相當。模型還實現(xiàn)了多彩色圖像生成和高分辨率梵高風格藝術創(chuàng)作,彰顯了光學生成式AI方法的創(chuàng)作潛力。 研究人員開發(fā)了兩種框架:單次曝光光學生成模型(通過單次光學曝光生成圖像)和迭代光學生成模型(模擬數(shù)字擴散過程逐步優(yōu)化輸出)。這種靈活性使得同一光學硬件僅需更新編碼種子和預訓練衍射解碼器即可執(zhí)行多重任務。 迭代光學生成模型 除高效性與多功能性外,該團隊還證實光學生成模型可提供內(nèi)置隱私保護功能。由隨機噪聲生成的單個編碼相位圖案,可通過不同波長光照實現(xiàn)多路復用,每個通道僅能由唯一匹配的衍射表面解碼。這種機制創(chuàng)造了安全的多路復用圖像生成模式——若無正確解碼器,波長復用內(nèi)容將無法被讀取,這是標準自由空間解碼技術因串擾問題無法實現(xiàn)的能力。 這種物理"密鑰鎖"機制確保未授權者無法重構傳輸至授權用戶的波長復用生成內(nèi)容,為安全通信、防偽技術和個性化內(nèi)容分發(fā)提供了新可能。研究人員還指出光學生成模型在可穿戴設備領域的應用潛力,這些場景對緊湊型低功耗設計有迫切需求。 通過用納米加工被動表面替代笨重的調(diào)制器,或采用集成光子技術,此類模型可嵌入智能眼鏡、AR/VR頭顯或移動平臺。這種實施方案將實現(xiàn)實時移動生成式AI,通過可穿戴便攜系統(tǒng)將高級內(nèi)容創(chuàng)作直接帶給用戶。 這項突破具有深遠意義:光學生成模型可大規(guī)模降低AI的能耗足跡,在實現(xiàn)可持續(xù)部署的同時解鎖超高速推理能力。其應用前景涵蓋生物醫(yī)學成像、診斷技術、沉浸式媒體和邊緣計算等對低功耗分布式AI需求旺盛的領域。 論文通訊作者Aydogan Ozcan教授表示:"我們的研究證明光學技術可大規(guī)模執(zhí)行生成式AI任務,通過在推理過程中消除繁重的迭代數(shù)字計算,光學生成模型為瞬時高能效AI系統(tǒng)開辟了新道路,這可能徹底改變?nèi)粘<夹g。" 展望未來,團隊預見到納米加工與光子集成技術進步將催生緊湊型低成本光學生成設備。其無需數(shù)字瓶頸即可生成多樣化輸出的能力,有望推動安全通信、隱私保護內(nèi)容傳輸和分布式AI系統(tǒng)的未來發(fā)展。 通過這項研究,UCLA研究人員還為機器創(chuàng)造力指明了可持續(xù)、可擴展的發(fā)展方向,標志著光子學與人工智能的融合可能改變21世紀的計算范式。 該研究的作者包括來自加州大學洛杉磯分校薩繆利工程學院的 Shiqi Chen 博士、Yuhang Li、Yuntian Wang 博士、Hanlong Chen 和 Aydogan Ozcan 博士。 相關鏈接:https://dx.doi.org/10.1038/s41586-025-09446-5 |




