,我真不是法爺

就在林奇沉迷與遲疑於這位神孽以命運之力為他搭建的處理器的介面模組時,他卻戛然發現腦海裡同樣在動工的晶片走向了新的篇章。

迥異於他曾經構思的簡單cpu晶片模型,也並非最近才轉變思路的gpu晶片模型。

而是一種更為極端的晶片模型。

ai晶片。

眾所周知,晶片本身具有多種型別,以製程來分的話,微機與手機作為消費電子的關鍵,自然分配到的也是最好的消費級晶片,像每年各家手機廠商推出的最新款旗艦機,如果不搭配上最新的870/880晶片,都絕對對不起這個稱號。

哪怕這裡面有的晶片因為效能而發熱嚴重甚至成本巨大,但最新最強這個名頭,就是不能輕視之,不然消費者馬上在這一年教做人。

而這些晶片之外,剩下的還有不同種類的晶片,它們並不需要用到最為先進的5n製程,它們甚至用微控制器這些來控制即可,包括不限於ar,dsp這類,也就是總稱的cu晶片。

它們的製程再高也就28n級別,但卻是一筆龐大無比的消耗,諸如汽車便是這類晶片的消耗大頭,最簡單兩個車窗控制升降都需要,更別說自動輔助駕駛等複雜的功能模組。

而ai晶片則是一種在異化之上,比gpu走得還要更加極端的晶片型別。

如果是gpu比起cpu而言,是需求更加多的a單元。

那麼ai晶片則是專門針對ai演算法定製的專用晶片,所以執行ai演算法時能耗更低,效率更高。

林奇最初看著這位神孽以“創生聖言”激發他創造效率而萌生的“處理器”模組,很快就發現它與尋常晶片結構的不同之處。

像是自動駕駛這個類目,尋常的cpu處理器計算,則因為運算並非強項所以速度無法滿足需要,至於gpu晶片倒是滿足,但是它的成本過高與功耗都動輒超過了消費者承受範圍。

這時候,專門定製用來貼切這些應用場景的ai晶片便應運而生,像是谷歌早期訓練阿爾法狗還用的顯示卡晶片,後期便直接用自行研發的ai晶片來訓練。

林奇這時才懵懵懂懂的想起來。

ai晶片之所以能夠勝出,便在於ai演算法涉及到的太多卷積、殘差網路、全連線型別計算。

而這些計算本質上便是加法和乘法。

類似於林奇曾經接觸到的那些法術模型的計算。

要知道,一個成熟些的ai演算法,執行一次它的話,動輒便等價於上萬億次加法乘法計算。

而先進些的cpu處理器,算上多核一秒鐘的計算次數也就幾百億次。

來處理上萬億次便有著時間差距。

可像是谷歌開發的tpu1,它一秒鐘的計算次數,是接近100萬億次。

一秒鐘都把上萬億次計算的ai演算法執行了上百次了。

如果說gpu是專門從cpu中分離出去處理影象計算,那麼ai晶片則是專門分離處理ai演算法計算。

這一切,都源自於深度學習對於神經網路演算法的依賴!

偏偏。

此時的林奇看著這份硬是在自己腦海裡建立起來的奇蹟,已經坑不出半句話來。

說多少,那都是多餘。

法術模型本身涉及的便是最基本的加法乘法運算。

而林奇最初制定的方案,便是日後往人工智慧轉型,卻沒想到,居然還在這兒被硬生生地抬了一個臺階。

此時他重新望著對面的神孽,對方滿意地看著林奇。

很顯然,林奇看懂了ai晶片的構造,不會讓寶珠有蒙塵的一日。

“神經網路!”