光學矩陣乘法將如何改變人工智能
當前的人工智能世界耗電且計算有限。模型開發的軌跡很快,但隨著這種進步,需要大幅增加計算能力。現有的基于晶體管的計算正在接近其物理極限,并且已經難以滿足這些不斷增長的計算需求。
大型企業已經嘗試通過開發自己的定制芯片解決方案來解決這個問題。然而,硬件瓶頸可能過于嚴重,無法用傳統的電子處理器來克服。那么,技術如何才能充分滿足對計算能力呈指數級增長的需求呢?

矩陣乘法
在大型語言模型中,90%以上的計算任務都使用矩陣乘法。通過以結構化方式進行乘法和加法的基本運算,矩陣乘法支持人工智能的不同功能塊。這不僅僅是語言模型。這種基本的線性代數運算是幾乎每種神經網絡的基礎:實現神經元的大規模互連,執行圖像分類和對象檢測的卷積,處理順序數據等。這是一個簡單的概念,但對于有效操縱和轉換支持人工智能和無數其他應用的數據來說是不可或缺的,因此矩陣乘法的重要性怎么估計都不為過。
隨著人工智能模型變得越來越大,必須執行更多的矩陣運算,這意味著需要越來越多的計算能力。為了達到所需的性能,即使是現在,電子產品也被推到了極限。還有其他選擇嗎?
光學矩陣乘法
光學已經以多種方式用于改變我們的生活,最引人注目的是光纖網絡中的光通信。光學計算自然是下一步。數字電子學需要大量晶體管來執行最簡單的算術運算,而光學計算則利用物理定律進行計算。輸入信息被編碼為光束,并利用光學的自然特性(例如干涉和衍射)執行矩陣乘法。信息可以以多種波長、偏振和空間模式進行編碼,從而允許無限量的并行處理,并且計算實際上以光速進行。
通過3D光學添加新維度
隨著登納德縮放定律和摩爾定律的結束,是時候重新審視計算的基礎知識了。數字電子產品本質上局限于“2D”布局——晶體管柵極和電路制造在晶圓上,計算是通過2D平面上不同單元之間的信息流動進行的。這種2D計算架構需要不斷增加的晶體管密度,導致嚴重的互連問題,并遭受臭名昭著的內存瓶頸。隨著3D堆疊存儲器的發展,2D設計的變革現已開始,但整個行業的適應還有很長的路要走。
現在,光學可以通過在3D空間中自然地執行計算來徹底改變游戲規則。添加新維度可以放松傳統計算中的許多限制。互連組件更容易,能源效率更高,并且它允許不斷增加的吞吐量(在給定時間內可以執行多少計算),而不影響延遲(每次計算執行的速度)。這對于3D光學來說是完全獨特的:無論是將10個數字相乘還是10,000個數字相乘,這一切都會以光速同時發生。這對光學處理器的可擴展性產生了巨大的影響,使其能夠達到當前數字處理器速度的1000倍。
除了3D光學固有的可擴展性之外,光學器件的時鐘速度可以提供比傳統電子器件快100倍的速度,并且波長復用(使用多個波長的光并行處理信息)的能力為進一步提高100倍打開了大門。將這一切結合在一起,使能夠以指數方式擴展計算速度,并具有更高的吞吐量、更低的延遲和更高的可靠性,而這些只有3D光學矩陣乘法才能提供。
這對人工智能意味著什么?
無論應用如何,矩陣乘法構成了所有人工智能計算的支柱。值得注意的是,3D光學帶來的高吞吐量和低延遲對于數據中心的人工智能推理任務特別有價值,這是一種由實時響應能力和效率推動的應用程序。
與傳統電子或集成光子學相比,3D光學計算在帶寬、延遲、速度和可擴展性方面取得顯著改進,再加上與現有機器學習算法的兼容性,有望徹底改變所有人工智能應用。

























