財經(jīng)
財經(jīng) > 正文

ChatGPT階段大贏家是誰?

雖然公眾不清楚ChatGPT的出現(xiàn),對日常生活,到底意味著何等巨大的改變,但這不影響全球科技大小公司集體“蹭”點的熱情。

在A股市場,ChatGPT概念股被持續(xù)做多,在美國也一樣。最具AI色彩和技術能力的英偉達公司,股價從美股在2023年第一個交易日——1月3日的143.15美元,靠著ChatGPT的助推之下,截至2月14日收盤,漲幅高達52.20%。這是在半導體行業(yè)進入下行周期的背景下取得的。

ChatGPT需要什么樣的AI芯片?為什么贏麻的是英偉達?

為什么GPU是首選?

看上去很美的AI技術,商業(yè)化落地進展總是不及預期。但是,ChatGPT掀起的熱潮,卻成為AI未來商業(yè)化空間的最新想象。

ChatGPT是OpenAI公司于2022年11月發(fā)布的一款AI應用產(chǎn)品——對話機器人,能通過學習和理解人類語言實現(xiàn)人機對話。

與此前早已出現(xiàn)的如蘋果Siri最大的不同,ChatGPT的人機對話并不單調(diào)/弱智,ChatGPT能根據(jù)人類的反應做出富有邏輯性的上下文信息互動。

因此,ChatGPT不僅能做個性化搜索任務,也能做邏輯解析,甚至可根據(jù)不同的主題,自動生成不遜于人類智力水準的各種文件,如論文、新聞和各類報告等,還能完成高級輔助編程等自然語言任務。

如此“高智能”的應用工具,其爆發(fā)性無與倫比:發(fā)布兩個月,ChatGPT月活用戶就達到1億,成為史上增長最快的消費者應用程序。

這種“熾熱”不止C端用戶獨有,全球頂級科技巨頭微軟和谷歌等,包括國內(nèi)的百度、阿里等科技公司,都先后宣布在ChatGPT領域的資金和技術布局,比如微軟以100億美元入股OpenAI,谷歌剛發(fā)布了自研的BARD模型。

從底層技術角度看,ChatGPT是一種基于Transformer架構(gòu)的預訓練語言模型。這套模型,能通過海量語料數(shù)據(jù),自動訓練生成語法結(jié)構(gòu)和語句結(jié)構(gòu),這被稱為“生成類模型”。

ChatGPT應用和AI表達路徑,或語言模型主要功能,就是通過巨量數(shù)據(jù)做預訓練,之后就能理解C端用戶的語言指令,或更進一步根據(jù)用戶指令,生成相關文字結(jié)果并做文本輸出。

當前,AI生成類模型主要分兩類,一類是以ChatGPT為代表的語言類,另一種是以擴散模型(Diffusion)為代表的圖像類。

若要保證ChatGPT的Transformer(語義理解和形成有邏輯的語言輸出)效果,就必須擁有一個超大語言模型,即LLM(Large Language Model)。這個大模型有著極多的標簽參數(shù),便于NPU調(diào)用。技術論文顯示,ChatGPT參數(shù)量達到了驚人的1750億。若使用標準浮點數(shù),則占用的存儲空間能達到700GB。

如ChatGPT的參數(shù)量級,以及需要的Transformer效果,則運算硬件單元需要什么樣的類型或技術要求?

簡單來說,這需要三方面要求:分布式計算、內(nèi)存容量/帶寬、算力。

首先,單機訓練顯然無法勝任ChatGPT的效果要求,因此需要使用分布式計算;其次,在大規(guī)模分布式計算過程中,除了高算力,分布式計算節(jié)點之間的數(shù)據(jù)傳輸也極為重要。這對節(jié)點數(shù)據(jù)互聯(lián)帶寬提出了極高的要求。

第三,內(nèi)存容量,這個相對容易理解。做海量數(shù)據(jù)訓練,分布式計算節(jié)點的存儲空間,決定了節(jié)點數(shù)據(jù)量的多少。數(shù)據(jù)量級越大,AI訓練效率越高,結(jié)果自然也會相應越好。

如此就很清楚,符合ChatGPT需求的AI芯片主要不是CPU,而是包含NPU的GPU。所謂NPU,即嵌入式神經(jīng)網(wǎng)絡處理器(Neural-network Processing Units)。神經(jīng)網(wǎng)絡并不是指算法,而是一種特征提取方法。

決定神經(jīng)網(wǎng)絡優(yōu)劣的核心因素,在于擁有多少可供訓練的數(shù)據(jù)量。事實上,現(xiàn)在建模拼的不是算法,而是數(shù)據(jù)量級。

簡單來說,深度學習會把特征當作黑盒子,對原始數(shù)據(jù)做非常復雜的變換操作:輸入數(shù)據(jù)后,神經(jīng)網(wǎng)絡會自動提取特征。這些特征會讓機器認識其含義,根據(jù)不同的技術目標識別和學習到什么特征最合適。所以,深度學習解決的核心問題是提取特征。

英偉達成階段大贏家

ChatGPT的效果,需要分布式計算、內(nèi)存容量/帶寬和算力做保障。這決定了ChatGPT的算力硬件需求更多的是GPU。

除了上文提到的原因,還有一個要點在于,CPU發(fā)展到本世紀初,已越來越難以繼續(xù)維持每年50%的性能提升;此時,內(nèi)部包含數(shù)千個核心的GPU,卻能利用內(nèi)在的并行性,繼續(xù)提升性能。

更重要的是,GPU的眾核結(jié)構(gòu)更適合高并發(fā)的深度學習任務。比如基于眾核結(jié)構(gòu),英偉達推出的Triton解決方案。

這套Triton支持分布式訓練和分布式推理,能將一個大型模型的算力分解成多個部分,分配到多個GPU做相應處理,從而解決因參數(shù)量過大,導致的單個GPU主存無法容納的問題。

此外,語言類生成模型的主要計算類型是矩陣計算,而矩陣計算一直是GPU的強項。

值得一提的是,GPU這個縮寫,首創(chuàng)或定義公司即英偉達。

1993年,黃仁勛等三位電氣工程師聯(lián)合成立英偉達,主要面向游戲市場供應圖形處理器。1999年,英偉達推出顯卡GeForce 256,第一次將圖形處理器定義為“GPU”。

但是,讓GPU成為AI訓練首選芯片的除了硬件本身,還有英偉達在2006年推出的CUDA軟件開發(fā)平臺,以支持開發(fā)者用熟悉的CPU高級程序語言(如C語言/Java)開發(fā)深度學習模型,靈活調(diào)用英偉達GPU算力,還配套提供數(shù)據(jù)庫、排錯程序和API接口等一系列工具。

可以說,英偉達在深度學習和AI訓練計算領域的技術儲備,全球罕有對手。因此,在ChatGPT剛邁出商業(yè)化探索第一步之時,就被業(yè)界寄予厚望。

IDC亞太區(qū)研究總監(jiān)郭俊麗近日對媒體稱,就現(xiàn)階段ChatGPT表現(xiàn)的AI水平,其總算力消耗高達3640PF-days,需要至少1萬顆英偉達高端GPU做支撐。所謂3640PF-days,即每秒計算一千萬億次,需要持續(xù)運行3640天。

郭俊麗由此做出預計,在12個月內(nèi),ChatGPT很可能推動英偉達相關產(chǎn)品實現(xiàn)銷售額達35億-100億美元之巨。

看上去英偉達成了ChatGPT最大贏家,但對手也不是沒有,比如AMD。這家公司近年來在通用GPU領域,一直緊追英偉達,成長速度極快。2022年,AMD數(shù)據(jù)中心事業(yè)部營業(yè)額實現(xiàn)64%的同比高速增長。

此外還有英特爾。目前英特爾在GPU市場,已推出面向數(shù)據(jù)中心和AI的Xe HP架構(gòu),還有面向高性能計算的Xe HPC架構(gòu)。

當然,就英偉達GPU具有的標準通用屬性看,這家公司大概率會是ChatGPT在商業(yè)化初期較長時間內(nèi)的主要受益方。

英偉達CEO黃仁勛近期針對ChatGPT發(fā)表看法時指出,“ChatGPT 的出現(xiàn)對人工智能領域的意義,類似手機領域‘iPhone’的出現(xiàn)。這一刻在科技領域具有里程碑的意義,因為現(xiàn)在大家可以將所有關于移動計算的想法,匯集到了一個產(chǎn)品中?!?/p>

親愛的鳳凰網(wǎng)用戶:

您當前使用的瀏覽器版本過低,導致網(wǎng)站不能正常訪問,建議升級瀏覽器

第三方瀏覽器推薦:

谷歌(Chrome)瀏覽器 下載

360安全瀏覽器 下載

搜索| 东山县| 金山区| 大邑县| 扎兰屯市| 福海县| 桐城市| 滨州市| 郧西县| 科技| 临沭县| 浏阳市| 邢台县| 屏南县| 肇庆市| 银川市| 武威市| 清水县| 龙海市| 杭锦旗| 天气| 文山县| 余姚市| 尼木县| 手游| 东乡族自治县| 黄梅县| 卢龙县| 金寨县| 华坪县| 麻城市| 多伦县| 孟津县| 南郑县| 佛教| 滨海县| 都兰县| 秀山| 汉寿县| 鄯善县| 焦作市|