2023年2月21日 星期二

英偉達股價大漲,小眾存儲芯片“翻身”:火熱的ChatGPT還會催熱哪些芯片需求?

 https://finance.sina.com.cn/jjxw/2023-02-21/doc-imyhmxkw8722978.shtml

由OpenAI開發的聊天機器人( 10.860 , 0.18 , 1.69% ) ChatGPT於去年末發布後,由於表現驚艷,近期在全球刮起了一股猛烈的旋風。微軟和谷歌等巨頭在此類技術上投入巨資。在國內,百度和其他互聯網公司也表示正在開發此類技術,並即將推出。

  GPT即預訓練大語言模型(Generative Pre-trained Transformer),其基於自然語言處理模型Transformer進行預訓練,並不斷迭代提升模型能力。大語言模型等此類生成式AI通過海量數據( 24.290 , -0.64 , -2.57% )(維權)訓練,可以產生前所未有的高質量輸出,可用於搜索、對話機器人、圖像生成和編輯等。

  微軟使用ChatGPT技術,將其引入搜索引擎必應,借助對話式人工智能(AI),通過準確理解人類提問意圖並做出回答,給搜索帶來革新。除了文字,預訓練大模型還能生成圖像,與真人作畫相比不分高下的AI畫師過去數月多次湧現。

  ChatGPT崛起,相關應用用戶快速增長下,對運算基礎的算力要求越來越高,也將對相關的芯片提出了需求。因其背後技術將高度依賴AI處理能力,並涉及與之相關的網絡、存儲和算力基礎設施。

ChatGPT高度依賴AI計算能力,而向OpenAI提供GPU芯片的英偉達正成為最大受益者,摩爾線程摩爾學院院長李豐解釋,當人工智能模型通過算法生成內容時,即需要大量數據進行訓練,這一過程即在GPU集群進行,隨後訓練完成的模型又部署在GPU集群進行推斷,完成圖像生成、語言聊天等工作。

  “人工智能的算法是在不斷進步和迭代過程當中,GPU實際上兼顧了靈活度以及計算能力,”李豐稱,相比專用的AI芯片,GPU靈活性更強,又可以保證AI計算性能,因此受到開發者的歡迎。他提及,在全世界範圍內,主要的增長算力的來源來自於GPU。

  目前,ChatGPT背後的GPT-3.5模型已有超過1750億個參數,訓練成本高昂,根據國盛證券報告顯示,GPT-3訓練一次的成本約為140萬美元,對於一些更大的大型語言模型,訓練成本介於200萬美元至1200萬美元之間。

  以ChatGPT在今年1月的獨立訪客平均數1300萬計算,其對應芯片需求為3萬多片英偉達A100 GPU圖形處理器,初始投入成本約為8億美元。此外,據花旗集團預估,ChatGPT將可能促使英偉達相關產品在12個月內銷售額達到30億至110億美元。

  這意味著,ChatGPT等此類應用將會拉動英偉達GPU芯片需求。英偉達公司的GPU圖形處理器在大型AI模型培訓市場佔據主導地位,其股價今年已大漲55% 。

  一家大型IT廠商的人工智能部門負責人向界面新聞記者表示,目前在訓練端,英偉達是毫無疑問的冠軍,其他玩家爭奪的市場在於推斷端,這部分的任務量較小,對功耗、延遲更敏感。李豐就提及,摩爾線程已經在內部測試,完全部署在摩爾線程GPU上的AIGC平台不久即面世,這是包括了圖像生成、自然語言生成等一系列的內容生成平台。

  除了GPU,涉及計算能力的芯片類型還包括CPU、FPGA、ASIC等,不同類型的計算芯片進行組合,可以滿足不同AI模型的計算需要。

  專用AI芯片ASIC(專用集成電路)也有望未來在AI算力中佔據一席之地。谷歌此前發布了自研TPU(張量處理器)並多次迭代,這是谷歌特別設計用於機器學習的芯片。依照谷歌提供的數據,TPU計算效率是過往GPU十倍以上。谷歌將TPU部署在自家云平台上,未來該公司將推出的對話式AI服務Bard,也將基於TPU運行。

  在一個計算系統中,與計算相匹配必然還需要存儲、網絡等架構。無論是CPU、GPU,還是其它專用芯片,在計算過程中均將不可避免的被存儲、通信等進程打斷,需要行業參與者拿出對應解決方案。

  在ChatGPT熱潮下,一種小眾存儲芯片的名氣正隨著AI計算需求劇增而為外界所知,據《韓國經濟日報》報導,受惠於ChatGPT,隨著市場對GPU需求劇增,三星、SK海力士的HBM芯片贏得了額外的訂單,成為目前存儲芯片下行市場中,意外爆紅的芯片類型。

  HBM(High Bandwidth Memory,高帶寬存儲器)芯片是一種可以實現高帶寬的內存芯片,與普通DRAM內存相比,HBM可以提供更高的數據的傳輸速度,基於該特性,HBM主要應用於高性能計算場景中,如超級計算機、AI加速器、高性能服務器領域。

  HBM在與CPU及GPU協同工作中,可以提高機器學習和計算性能。目前ChatGPT的火熱發展已令英偉達等GPU廠商受益——ChatGPT使用了1萬多個英偉達的A100 GPU學習了龐大的文檔數據。而HBM可以安裝在加速卡中,英偉達A100就最高配備80GB HBM2內存。

  “HBM一直很難賣,因為價格是DRAM的3倍,但AI是HBM的殺手級應用。”TriOrient Investments副總裁Dan Nystedt稱。由於成本高昂,HBM一直難以大規模普及,市場推廣較慢,但預計AI應用將為其進一步打開市場規模。

  目前,由ChatGpt帶動的HBM需求已經引起了上游廠商的關注。SK海力士提及,目前已開發除第四代HBM產品,並於去年向英偉達供貨。三星半導體對界面新聞表示,基於人工智能技術的交互式AI的學習和推理需要高性能處理器和支持其高性能存儲器組合,這將積極地影響對存儲器的需求。

  針對AI應用,三星半導體介紹,已經在存儲芯片上結合人工智能處理器的HBM-PIM(Procee in Memory,存內計算)技術上取得了成果,併計劃與客戶共同構建PIM平台生態系統。

  根據市場調研機構Omdia在2021年預測,到2025年,HBM市場的總收入將達到25億美元,目前來看,這一數字隨著AI計算需求增長有望打破。

  長期來看,HBM配合CXL等新型數據傳輸協議也將在增強AI計算性能,並獲得行業巨頭支持。半導體諮詢機構集邦諮詢認為,CXL將隨著未來CPU內置CXL功能而普及化,在未來AI服務器中,可以見到更多使用HBM和CXL的聯合設計方案。

  ChatGPT參數量數以億計,無法在單台機器上進行有效的訓練或推理,因此需要使用分佈式計算。在分佈式計算中,機器之間的帶寬和高效的計算芯片變得至關重要,因為數據互連往往是瓶頸。在數據中心層面,業界期待被視為數據中心“第三顆芯片“的DPU解決此類問題。

  “ChatGPT這類語言類生成模型的參數量高達千億,幾乎不可能使用單機訓練和推理,而必須大量使用分佈式計算。”DPU開發商雲脈芯聯相關負責人告訴界面新聞,在進行分佈式計算時,就需要DPU做一些數據的處理和預處理,由DPU將任務分發給CPU、GPU和FPGA等進行計算。

  DPU即數據處理器(Data Processing Unit),用於處理海量數據,在雲數據中心中,數據在多個服務器之間來回流動。雲廠商通過將網卡改造為DPU,減輕CPU負擔,使其專注於更關鍵的任務,類似於公司前台可以緩解員工的工作量。

  業內還預計,除了GPU、HBM、DPU以外,由小芯粒技術Chiplet加持的芯片異構技術,也有望支持算力增長,Chiplet通過把不同芯片的能力模塊化,利用新的設計、互聯、封裝等技術,在一個封裝的產品中使用來自不同技術、不同製程甚至不同工廠的芯片。從半導體產業鏈端來看,包括IP授權、晶圓代工、封測等廠商為之提供關鍵的技術支持,可視為提升AI算力重要的基礎設施。包括Imagination、Arm、台積電、日月光等上下游廠商,將從中獲得增長。

 

 

 

沒有留言: