輝達挖角Groq執行長!20億美元授權交易掀併購風暴




圖/AI示意圖

商傳媒|記者責任編輯/綜合外電報導

根據《路透》報導,輝達(NVIDIA)近期宣布與AI晶片新創公司Groq簽署「非排他性授權協議」,同時挖角Groq創辦人兼執行長羅斯(Jonathan Ross)與多位高階工程團隊加入,儘管雙方否認直接併購,但市場盛傳交易金額高達20億美元。此市場消息再度凸顯科技巨頭在AI推論市場的激烈人才與技術爭奪戰,也引發美國監管機關對「假授權、真併購」的競爭疑慮。

輝達執行長黃仁勳在聖誕節期間內部信件中宣布:「我們將整合Groq的低延遲處理器至NVIDIA AI Factory架構,以擴大對推論與即時任務的支援。」儘管Groq公開澄清,雙方僅簽訂「非獨家授權協議」,仍將維持雲端服務營運,但實際上包含創辦人羅斯與總裁Sunny Madra在內的核心工程團隊已確認加入輝達。羅斯曾於Google主導TPU晶片計畫,被視為AI硬體領域的重量級人物。

Groq透過部落格聲明,強調仍將維持獨立營運,由現任營運長Simon Edwards接任CEO職位,且旗下雲端服務亦不受影響,但《CNBC》報導指出,輝達實際已支付高達20億美元現金,以「授權+挖角」形式取得關鍵技術與人才。針對該報導,Groq與輝達皆未正式回應。

據悉,這類「準併購模式」早已成為大型科技企業常態操作手法,藉由不直接併購公司本體、改以高額授權費與挖角方式避開反壟斷審查。先前Meta以150億美元「聘請」Scale AI創辦人,微軟也以6.5億美元交易方式納入一家AI新創的執行長。亞馬遜與輝達亦曾對Adept AI與其他AI公司採取類似策略。

伯恩斯坦(Bernstein)分析師Stacy Rasgon直言:「這些交易最大風險在於反壟斷審查,儘管以非排他授權為名,但實際上Groq的技術領導層與人才幾乎全數轉向輝達,市場競爭性已遭實質削弱。」

Groq為AI推論市場的明星新創之一,去年9月完成7.5億美元募資後估值倍增至69億美元,主打不依賴高頻寬記憶體(HBM)晶片,改以SRAM技術減少記憶體瓶頸,優化聊天機器人等應用速度;報導指出,Groq的LPU(Language Processing Unit),可能徹底改寫AI模型推論的運算架構與產業版圖。

LPU是什麼?Groq打造「專為推論而生」的晶片革命

相較訓練模型著重浮點運算與吞吐量,推論任務則更關注延遲控制與每個Token的預測穩定性。Groq推出的LPU專為推論設計,具備以下兩大特性:

  • 全片上SRAM架構

    Groq的晶片內建230MB SRAM,具備高達80TB/s的內部頻寬,完全擺脫高頻寬記憶體(HBM)延遲與功耗瓶頸,能在decode階段達成毫秒級回應。

  • 確定性執行(Deterministic Execution)

    LPU在編譯階段預先排程所有運算流程,消除推論階段的不穩定延遲,最大化管線利用率,大幅提升每秒Token輸出效能。

實測數據顯示,Groq的LPU平台在GPT-3.5等模型的decode效能中,每秒可生成超過185個Token,明顯領先競品。加上其功耗遠低於傳統GPU架構,成為雲端業者建構低延遲、高效率推論平台的潛力首選。

輝達將如何整合LPU進入自家AI工廠?

業界預測,輝達將把LPU納入其AI Factory機櫃架構中,與Rubin CPX等GPU協同運作:

  • GPU負責長上下文推論(Prefill)與大模型前段運算
  • LPU專職decode階段的快速回應

這種混合架構將為雲端業者(hyperscalers)提供最完整的推論解決方案,不僅加快AI應用響應速度,也為未來大型語言模型落地開啟低延遲、高效能的可行之路。


系統開發、資訊提供:精誠資訊股份有限公司
資料來源:台灣證券交易所、櫃買中心、台灣期貨交易所
本資料僅供參考所有資料以台灣證券交易所、櫃買中心公告為準
網路家庭版權所有、轉載必究 Copyright © PChome Online