- Meta、OpenAI 和微軟表示,他們將使用 AMD 最新的 AI 晶片 Instinct MI300X,這表明科技公司希望找到對人工智慧至關重要的昂貴 Nvidia 圖形處理器的替代品。
- 如果 MI300X 在明年初開始發貨時足夠好且足夠便宜,那麼它可以降低開發人工智慧模型的成本。
- AMD執行長蘇姿豐預計,到2027年,人工智慧晶片市場將達到4,000億美元或更多,她表示希望AMD能在該市場佔據相當大的份額。
元、OpenAI 和微軟在AMD會議上表示在周三的投資者活動中,他們將使用 AMD 最新的 AI 晶片 Instinct MI300X。這是迄今為止最大的跡象,表明科技公司正在尋找昂貴的 Nvidia 圖形處理器的替代品,這些處理器對於創建和部署 OpenAI 的 ChatGPT 等人工智慧程式至關重要。
如果AMD最新的高階晶片在明年初開始出貨時足以滿足科技公司和雲端服務供應商建構和服務人工智慧模式的需求,那麼它可能會降低開發人工智慧模式的成本,並對英偉達飆升的人工智慧晶片銷售成長帶來競爭壓力。
AMD 執行長 Lisa Su 週三表示:“所有的興趣都集中在用於雲端的大型鋼鐵和大型 GPU 上。”
AMD表示MI300X是基於新的架構,這通常會帶來顯著的效能提升。其最顯著的特點是擁有 192GB 的 HBM3 尖端高性能內存,數據傳輸速度更快,可以適應更大的 AI 模型。
Su 直接將 MI300X 以及用它構建的系統與 Nvidia 的主要 AI GPU H100 進行了比較。
「這種性能的作用是直接轉化為更好的用戶體驗,」蘇說。“當你向模型提問時,你希望它能更快地返回,尤其是當答案變得更加複雜時。”
AMD 面臨的主要問題是,一直在 Nvidia 基礎上發展的公司是否會投入時間和金錢來增加另一家 GPU 供應商。「採用 AMD 需要付出努力,」Su 說。
AMD 週三告訴投資者和合作夥伴,它已經改進了名為ROCm 的軟體套件,以與Nvidia 的行業標準CUDA 軟體競爭,解決了一個關鍵缺陷,而這正是AI 開發人員目前更喜歡Nvidia 的主要原因之一。
價格也很重要。AMD 週三沒有透露 MI300X 的定價,但 Nvidia 的一款晶片售價約為 40,000 美元,Su 告訴記者,AMD 晶片的購買和運行成本必須低於 Nvidia 的晶片,才能說服客戶購買它。
週三,AMD 表示,它已經與一些最渴望 GPU 的公司簽約使用該晶片。根據研究公司 Omidia 最近的報告,Meta 和微軟是 2023 年 Nvidia H100 GPU 的兩個最大購買者。
Meta表示,它將使用MI300X GPU來處理AI推理工作負載,例如處理AI貼紙、影像編輯和操作其輔助。
微軟技術長 Kevin Scott 表示,該公司將透過其 Azure 網路服務提供對 MI300X 晶片的存取。
甲骨文的雲也將使用這些晶片。
OpenAI 表示,它將在其一款名為 Triton 的軟體產品中支援 AMD GPU,Triton 並不是像 GPT 那樣的大型語言模型,但用於人工智慧研究以存取晶片功能。
AMD 尚未預測該晶片的大規模銷售,僅預計 2024 年資料中心 GPU 總收入約為 20 億美元。英偉達報告僅最近一個季度的資料中心銷售額就超過 140 億美元,儘管該指標包括除GPU。
然而,AMD 表示,AI GPU 的總市場可能在未來四年內攀升至 4,000 億美元,是該公司先前預測的兩倍。這表明人們對高端人工智慧晶片的期望有多高,以及多麼令人垂涎——以及為什麼該公司現在將投資者的注意力集中在該產品線上。
蘇也向記者表示,AMD並不認為自己需要擊敗Nvidia才能在市場上取得好成績。
「我認為很明顯,英偉達現在必須佔據其中的絕大多數,」蘇告訴記者,他指的是人工智慧晶片市場。“我們相信到 2027 年,這個數字可能會超過 4000 億美元。我們可以從中分得一杯羹。”
沒有留言:
張貼留言