生成式 AI 生態系簡介

Cheng En Li
7 min readJan 31, 2023

生成式 AI 模型發展至今,已經在文字、圖像、語音有所斬獲,可預見接下來市場的爆發性成長。當前的 AI 生態系中,軟體應用商(Application companies)、模型供應商(Model providers)、雲端基礎設施商(Infrastructure vendors)分別在產業鏈中扮演不同角色。本文將探討這些在上中下游的不同角色,各自的商業模式與挑戰。

什麼是生成式 AI?

AI 技術的演進可以追溯到 1950 年,當時 Alan Turing 在他的著名論文中提出了著名的「回答機器人」測試。此後,AI 研究者們開始探索可以讓機器擁有人類智慧的方法。

在 2000 年以前,AI 著重於分析與推論,從龐雜的資訊中歸納出規則,並根據規則對新的狀況進行推論(inference)。這種擅長分析類的 AI 是傳統上認為的 AI 。

到了2014 年開始,新的 AI 模型架構 GAN 問世,AI 領域開始往「創造」的方向走去。這類型的 AI,藉由不斷的生成與辨別,即可從真實世界的資料,創造出全新的文本。這使得 AI 技術的應用可以更加廣泛,也更加深入,可以應用於許多不同的領域,例如生成文字、程式碼、圖像、語音、影像等。2022年底由 Open AI 釋出的 chatGPT 即為文字型的應用。由於它能夠不斷的創造,此類型的 AI 被稱為生成式 AI 。

生成式 AI 模型如何被開發出來?

以文字型的生成式 AI 模型為例,模型開發可以分為以下步驟:

  1. 收集一份大量的已存在的文本資料,該資料要能夠代表想要模型產生的語言或風格。
  2. 對文本資料進行預處理,例如將文本分詞,將所有文字轉換為小寫等等。
  3. 使用一個機器學習演算法對預處理過的文本資料進行訓練,可以使用多種演算法,包括循環神經網路(RNN)和長短期記憶(LSTM)網路等。
  4. 調整模型的參數和超參數,並使用額外的訓練資料來微調模型,以便獲得最佳表現。
  5. 使用訓練後的模型生成樣本文本,並使用比較文本與原訓練資料,或者使用其他指標來評估模型的表現。
  6. 重複步驟 4 和 5,直到生成的文本品質符合期待為止。

上述的步驟牽涉到幾個關鍵資源:

  • 大量的資料
    GPT-3 模型使用的訓練資料高達 45 TB,如此大的資料量不是一般的組織或公司可以收集的。
  • 高昂的模型訓練運算資源
    大型模型的訓練,會使用大量的 GPU 或是 TPU 進行運算。OpenAI 沒有透露模型的訓練成本,不過據 AI 資料分析師 Tom Goldstein 說,OpenAI 每月至少花費 300 萬美元用於運行成本。
  • 頂尖的 AI 人才
    模型架構需要不斷調整、創新。走在 AI 科技前沿的組織或公司,例如:微軟投資的 Open AI、Alphabet 的 DeepMind、Facebook 等,科技巨頭們延攬了世界最頂尖的人才。

不難發現,以上資源都需要高資本支撐,而且幾乎所有的大型模型都是在雲端環境被訓練或使用。

生成式 AI 生態系三大要角:App, Model, Infrastructure

Source:https://a16z-com.translate.goog/2023/01/19/who-owns-the-generative-ai-platform/

當今生成式 AI 的生態系中,整體的技術棧(tech stack)大致定義如下:

  • 提供終端使用的應用(App)
  • 驅動 AI 運算的模型(Model)
  • 提供模型訓練與模型推論的雲端基礎設施(Infrastructure)

App

在過往的科技發展中,一般認為要成就一間大型的企業,必須要能掌握終端客戶,無論是個人消費者或是 B2B 客戶,得客戶者得天下。在當前蓬勃發展的 App 態勢下,至少在圖像生成、文案撰寫和程式碼編寫三個類別的產品,其年營收都已經超過一億美元。

然而用戶的快速增長僅是成為一方之霸的條件之一,更重要的事,增長必須要能創造獲利。過往在缺乏強大技術差異的情況下,B2B 和 B2C 的應用軟體商必須要透過網絡效應、累積使用者數據,或是建構日趨複雜但能涵蓋各種場景的工作流程來讓客戶離不開,而持續提供營收。

不過在生成式 AI 中,目前已經觀察到付費獲客率和留存率開始下降,且許多 App 依賴於相似的開源底層模型,且尚未發展出競爭者難以複製的明顯網絡效應或工作流程。唯一能夠確定的是,垂直整合的 App 才能發展出明顯的差異化,不過是否能夠因此獲利,尚未明朗。

Model

與使用量和聲量相比,目前模型供應商的相關收入看起來微不足道。

在圖像生成領域,Stability 公司旗下的 Stable Diffusion 內容生成模型有著簡單的用戶介面,完全開放圖片版權,開放源始碼,並允許用戶免費使用該工具,這些作法為他們匯聚了大量的社群用戶,同時也顯示出 Stability 並不急著盈利。

另一方面,在自然語言領域中,OpenAI 以 GPT-3 模型和 ChatGPT 佔據領先地位。但到目前為止,基於 OpenAI 構建的殺手級應用相對較少,且已經展開過一次降價。不過微軟 CEO Satya Nadella 表示,未來計劃將 chatGPT 整合進微軟所有產品中,屆時這些大型模型將成為微軟的印鈔機。

不過 GPT-3 這樣的閉源模型未來是否可以持續維持優勢,仍需觀察,目前已經看到由 Anthropic、Cohere 和 Character.ai 等公司構建的大型語言模型(LLM)已經接近 OpenAI 的表現水準。我們也可以從 Stable Diffusion 的例子看出,若開源模型的表現有一定水準,並且有大量用戶使用,將會使競爭者難以突破。

到目前為止,對於模型提供商來說,最顯著的商業模式是模型託管。隨著對模型 API 的需求快速增長,開源模型(例如 Hugging FaceReplicate)的託管服務使用量也與之成長,甚至在模型開發者和消費者之間形成了網絡效應。

Infrastructure

生成式 AI 所產製的內容,幾乎所有都是由雲端託管的 GPU 或 TPU 所產製出來。對上述的應用軟體公司、模型供應商或是模型託管的公司而言,運算力就是公司營運的根本。因此,生成式 AI 市場的大量資金最終流向了雲端基礎設施商,即當今的三大雲:Amazon AWS、Google GCP,以及 Microsoft Azure。

根據估計,平均而言,應用軟體公司將大約 20–40% 的收入用於模型推論和針對每個客戶的微調,這些費用通常直接支付給雲端基礎設施供應商或模型提供商,而模型提供商又將大約一半的收入用於雲基礎設施。估計當前的生成式 AI 的總營收有 10–20% 流向了雲端基礎設施商。

這些雲端基礎設施商每年在資本支出的費用就超過了 1000 億美元,以確保他們擁有最全面且最有競爭力的平台。同時,他們也受益於供應限制,因為他們可以優先使用稀缺晶片(例如 Nvidia A100 和 H100 GPU)。

結語

生成式 AI 的生態系中三個角色彼此關係緊密,我的小結如下:

  • 雲端基礎設施商坐擁營運樞紐,所有的金流最終皆會流向三大雲。不過別忘了,運算資源仍需要奠基在硬體上,目前 AI 晶片仍由 Nvidia 擁有最高市佔率,另外大部分的晶片都是由 TSMC 代工製造出來。生成式 AI 勢必也會推升了半導體業的需求。
  • 傳統的商業護城河仍然適用於生成式 AI 。生態系的每一份子會持續追求差異化,以鞏固自身的優勢地位。不過生成式 AI 是否會出現長期的、贏者通吃的態勢,仍在未定之天。

--

--