四色草视频-四散的尘埃在线观看-四库国产精品成人-四虎最新网址入口-国产精品一区二区三区四区五区-国产精品一区二区三区四区

ChatGPT有多燒錢?大模型訓練一次200-1200萬美元

2023-02-19 20:31:04   來源:IT之家   評論:0   [收藏]   [評論]
導讀:  IT之家 2 月 19 日消息,ChatGPT 風靡全球后,科技巨頭們紛紛入局,生成式 AI 其背后以大模型為基礎的人工智能成為業界投入的方向。  IT之家了解到,所謂大模型,通常是在無標注的大數據集上,采用
  IT之家 2 月 19 日消息,ChatGPT 風靡全球后,科技巨頭們紛紛入局,生成式 AI 其背后以大模型為基礎的人工智能成為業界投入的方向。

  IT之家了解到,所謂“大模型”,通常是在無標注的大數據集上,采用自監督學習的方法進行訓練。之后在其他場景的應用中,開發者只需要對模型進行微調,或采用少量數據進行二次訓練,就可以滿足新應用場景的需要。

  然而,訓練通用大模型非常“燒錢”。據國盛證券報告《ChatGPT 需要多少算力》估算,GPT-3 訓練一次的成本約為 140 萬美元,對于一些更大的 LLM(大型語言模型),訓練成本介于 200 萬美元至 1200 萬美元之間。以 ChatGPT 在 1 月的獨立訪客平均數 1300 萬計算,其對應芯片需求為 3 萬多片英偉達 A100 GPU,初始投入成本約為 8 億美元,每日電費在 5 萬美元左右。

  如果將當前的 ChatGPT 部署到谷歌進行的每次搜索中,需要 512820.51 臺 A100 HGX 服務器和總共 4102568 個 A100 GPU,這些服務器和網絡的總成本僅資本支出就超過 1000 億美元。

  國盛證券認為,在公有云上,對于以谷歌等全球科技大企業而言,百萬至千萬美元級別的訓練成本并不便宜,但尚在可接受范圍內、并非昂貴。

分享到:
責任編輯:zsz

網友評論