上周,AIGC 的變化讓世界變得瘋狂,每天醒來(lái)都可能是一個(gè)「新世界」。
但從另一個(gè)角度上來(lái)說(shuō),無(wú)論 AIGC 如何智能和顛覆,我們?nèi)匀惶幱凇概f世界」,或者準(zhǔn)確的說(shuō),應(yīng)該是「候補(bǔ)」世界。
不止是新 Bing,Github Copilot X,ChatGPT 的插件,Midjourney V5,以及 Adobe 的 Firefly,甚至是百度的文心一言,在你體驗(yàn)之前,都需要加入 Waitlist 名單進(jìn)行排隊(duì)等待名額。這個(gè)過(guò)程,像極了計(jì)劃經(jīng)濟(jì)的配給制。
隨著 AIGC 的服務(wù)越多,也包括原有的像是 GPT-4、Midjourney V5 的升級(jí),Waitlist 的時(shí)間仿佛被延長(zhǎng)。
Midjourney V5
直到如今,仍然有相當(dāng)多人還存在于新 Bing 的 Waitlist 之內(nèi),更別說(shuō)其他更新的生成式 AI 體驗(yàn)。
或許是對(duì) Waitlist 這個(gè)潛規(guī)則的無(wú)聲反抗,有人做了一個(gè)「一鍵進(jìn)行所有排隊(duì)」的網(wǎng)站。
不過(guò)諷刺的是,「一鍵加入」的功能還未做好,需要先加入 Waitlist 等待,且網(wǎng)站域名后綴是 wtf,怨氣拉滿(mǎn)。
候補(bǔ)名單的背后是為了更穩(wěn)的服務(wù)
當(dāng)我把這個(gè)問(wèn)題丟給 Bing,Bing 從 OpenAI 官方網(wǎng)站的三個(gè)頁(yè)面里找到了四個(gè)原因。
限制用戶(hù)數(shù)量,保證服務(wù)質(zhì)量和穩(wěn)定性。
收集用戶(hù)反饋,改進(jìn)服務(wù)功能和體驗(yàn)。
增加用戶(hù)期待和參與感,提高服務(wù)知名度和口碑。
篩選出符合目標(biāo)人群的用戶(hù),提高服務(wù)轉(zhuǎn)化率和留存率。
而這也更像是 OpenAI、微軟、Google 等大公司針對(duì)無(wú)限期 Wait 的一些官方話(huà)術(shù)。
相對(duì)來(lái)說(shuō),最先走入大眾的 ChatGPT,隨著模型的升級(jí),以及大幅度降價(jià),ChatGPT 的服務(wù)也出現(xiàn)過(guò)不少的波動(dòng)。
問(wèn)答列表的混亂,宕過(guò)機(jī),響應(yīng)慢等等穩(wěn)定性問(wèn)題。
而基于 OpenAI 的新 Bing 同樣也出現(xiàn)過(guò)過(guò)激的言辭,一直到現(xiàn)在,微軟也在限制新 Bing 的對(duì)話(huà)次數(shù)與長(zhǎng)度。
你可以說(shuō),限制使用 ChatGPT 和新 Bing 的人數(shù),能夠提供更穩(wěn)定和快速的響應(yīng)和內(nèi)容生成。
但要知道這些功能和服務(wù),已經(jīng)消耗了相當(dāng)?shù)馁Y源,幾乎占用了微軟 Azure 一半的算力。
目前,AIGC 還尚未迎來(lái)超級(jí) App,仍然處于一個(gè)快速迭代的過(guò)程,甚至也可以說(shuō)仍然是一個(gè) Beta 測(cè)試版本。
通過(guò)傳統(tǒng)的對(duì)話(huà)框與 AI 進(jìn)行交互,其實(shí)是與 2023 年人手一部智能手機(jī)的狀況不太相匹配。
AIGC 現(xiàn)在只能算是一個(gè)功能,而即將推出的 Copilot、Firefly 等才更像是個(gè)產(chǎn)品。
Office 365 的 Copilot 功能
但它們?nèi)匀贿€未向外開(kāi)放,躺在一個(gè)個(gè) Waitlist 里。
從某方面來(lái)說(shuō),微軟、Google、Adobe 還在「打磨」自己的產(chǎn)品,而從另一個(gè)方向來(lái)看,想要對(duì)所有人敞開(kāi)大門(mén),或者說(shuō) AI 成為每個(gè)人的 Copilot,還需要突破一些「瓶頸」。
蓬勃發(fā)展的 AIGC,或許開(kāi)始觸及瓶頸
這里的「瓶頸」,并非是外在表現(xiàn)的,生成式 AI 所遇到的倫理、法律法規(guī)或者說(shuō)其響應(yīng)的準(zhǔn)確度。
反而是 AI 背后提供算力的硬件,以及各種用于訓(xùn)練的云算力。
微軟正持續(xù)在 OpenAI 上大手筆的投入,先后投入幾十億美元,也逐步出現(xiàn)了基于 GPT-4 的新 bing,和后續(xù)還在 Waitlist 上的新 Office。
同時(shí),為了保證新 bing,以及后續(xù)具有 Copilot 功能的新 Office 能夠穩(wěn)定快速地響應(yīng)。
微軟也提供和預(yù)留了其 Azure 云服務(wù)的一半算力和運(yùn)算容量。
如此也導(dǎo)致了微軟內(nèi)部 Azure 算力資源的緊張。The Information 就采訪了微軟內(nèi)部員工,針對(duì)于有限的硬件運(yùn)算資源,微軟正在實(shí)行內(nèi)部硬件 Waitlist 制度。
微軟內(nèi)部其他開(kāi)發(fā)機(jī)器學(xué)習(xí)模型的團(tuán)隊(duì)和部門(mén),想要調(diào)用 Azure 的 AI 云服務(wù),需要逐級(jí)審批報(bào)備,并最終由一位副總裁來(lái)定奪。
就如同我們?cè)谂抨?duì)體驗(yàn)新的生成式 AI 服務(wù),除了新 bing 和新 Office 和 OpenAI 服務(wù)外,微軟其他部門(mén)也在等待多余的 Azure 云算力。
只是,隨著微軟 All in OpenAI 的策略,Azure 云相關(guān)算力和容量也顯得十分緊張。
除了內(nèi)部調(diào)用外,Azure 也提供了各種產(chǎn)品和服務(wù),包括 AI、計(jì)算、容器、混合云、物聯(lián)網(wǎng)等。
作為云服務(wù)供應(yīng)商 Azure 目前擴(kuò)展到全球 60 多個(gè)區(qū)域,其對(duì)外服務(wù)器產(chǎn)品和云服務(wù)收入占到微軟總營(yíng)收的 36%。
但與微軟內(nèi)部團(tuán)隊(duì)類(lèi)似,購(gòu)買(mǎi) Azure 的客戶(hù)也受到了算力受限的影響,尤其是想要調(diào)用 Azure OpenAI 依舊需要加入 Waitlist。
大概從 2022 年底,微軟就打算增加更多的硬件(GPU 或者 TPU)來(lái)擴(kuò)充更多的算力。
并且也與英偉達(dá)達(dá)成協(xié)議,為 Azure 增加數(shù)萬(wàn)個(gè) H100 GPU 計(jì)算卡,為后續(xù) OpenAI 提供更高的 AI 訓(xùn)練和推理效率。
不過(guò),目前微軟與英偉達(dá)并未透露在 Azure 當(dāng)中 H100 的部署情況,微軟內(nèi)部也只有一小部分團(tuán)隊(duì)擁有 H100 的調(diào)用權(quán)限(大概率是新 bing 和 Office),大部分的部門(mén)仍然被排除在外。
一塊 H100 大概的售價(jià)可能在 24 萬(wàn)元上下,以此為參考的話(huà),微軟為 Azure 擴(kuò)容則需要投入數(shù)億資金。
不止是微軟,Google、甲骨文這些云服務(wù)商,也在大力投入 GPU 等硬件為自己的云服務(wù)擴(kuò)容,準(zhǔn)備在 AIGC 徹底爆發(fā)之前,做好算力上的準(zhǔn)備。
英偉達(dá) CEO 黃仁勛與 OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever
但從 GTC 2022 發(fā)布到現(xiàn)在,英偉達(dá)并沒(méi)有對(duì)外公布 H100 的供應(yīng)和銷(xiāo)售情況,微軟對(duì)于 Azure 的擴(kuò)容計(jì)劃是否成效也不得而知。
而在今年的 GTC 2023 中,英偉達(dá)并沒(méi)有帶來(lái)關(guān)于 H100、A100 硬件上的進(jìn)展,而是一直在強(qiáng)調(diào)英偉達(dá)在云計(jì)算硬件上的優(yōu)勢(shì)。
并且其首席技術(shù)官也開(kāi)始強(qiáng)調(diào),「加密貨幣對(duì)于社會(huì)沒(méi)有任何有益的貢獻(xiàn)」,也從側(cè)面開(kāi)始強(qiáng)調(diào) AIGC 領(lǐng)域?qū)?huì)是英偉達(dá)接下來(lái) 30 多年所專(zhuān)注的領(lǐng)域。
隨著 AIGC 領(lǐng)域的持續(xù)迭代,大概從 2022 年 10 月份,英偉達(dá)的股價(jià)也隨之增長(zhǎng),一掃此前因?yàn)榧用茇泿潘ネ硕鴮?dǎo)致的業(yè)務(wù)下滑頹勢(shì)。
目前,英偉達(dá)的市值又達(dá)到了一個(gè)高點(diǎn),幾乎等同于 Intel、AMD、ARM 這三家市值之和。
但如此的高市值,似乎并沒(méi)有改善硬件的供應(yīng)狀況,反而隨著 Google、微軟等大企業(yè)不計(jì)成本資源地對(duì)云計(jì)算硬件投入,按照此前英偉達(dá)的供應(yīng)狀況,很可能再次出現(xiàn)工業(yè)顯卡慌的一個(gè)局面。
不止是硬件供應(yīng)狀況,這些高性能 GPU 組成的計(jì)算矩陣也有著很高的功率,單張 SXM 接口的 H100 計(jì)算卡功率就達(dá)到了 700W。
用于 AI 模型訓(xùn)練和大數(shù)據(jù)處理的計(jì)算中心的耗電量實(shí)際上也十分驚人。
在 2021 年,加州大學(xué)的 David Patterson、Joseph Gonzalez 通過(guò)研究表明,訓(xùn)練 GPT-3 大概需要耗費(fèi) 1.287 千兆瓦時(shí)的電力,它相當(dāng)于 120 個(gè)美國(guó)家庭一年的用電量。
同時(shí),這篇論文還發(fā)現(xiàn),訓(xùn)練 GPT-3 會(huì)產(chǎn)生 502 噸的碳排放,等同于 110 輛汽車(chē)的一年排放量。
他們也強(qiáng)調(diào)這只是一個(gè)模型的訓(xùn)練成本,隨著它涌入市場(chǎng),也會(huì)產(chǎn)生更多的資源消耗,可能要比訓(xùn)練成本還高。
OpenAI 的 GPT-3 使用了 1750 億個(gè)參數(shù)或者變量,而 GPT-4 的參數(shù)預(yù)計(jì)在 1750 億到 2800 億之間。對(duì)于能耗,云計(jì)算的需求只增不減。
為此,OpenAI CEO Sam Altman 在接受 The Verge 采訪時(shí)表示,OpenAI 正在尋找有效的方法來(lái)提升模型的性能和安全性。
換句話(huà)說(shuō),OpenAI 也在試圖通過(guò)更高效的算法來(lái)尋找節(jié)省訓(xùn)練運(yùn)行模型的硬件、電力資源。
Waitlist 的機(jī)制,從淺層次來(lái)看,它確保了當(dāng)前 AIGC 的使用體驗(yàn),以及相關(guān)服務(wù)的響應(yīng)速度。
但從深層次來(lái)看,它也是一場(chǎng)資源角力,是 GPU、TPU 為核心的云計(jì)算中心算力和容量的互相角力,也是宏觀上高投入高能耗的一場(chǎng)競(jìng)爭(zhēng)。
而到目前為止,AIGC 其實(shí)仍處于一個(gè)「盲盒」階段,對(duì)于資源的需求和占用也尚不明朗。
不過(guò),站在各種 AI 服務(wù)的 Waitlist 隊(duì)列里,確實(shí)很像在科幻電影里人們正不斷排隊(duì)進(jìn)入 AI 控制的工廠,為其運(yùn)行提供所需的資源。
Waitlist,既是虛擬世界里的候補(bǔ)名單,也可能是將來(lái)現(xiàn)實(shí)世界當(dāng)中的一則為 AI 服務(wù)的隊(duì)列。