AI 時代,「共享算力」是新碼農們的小黃車

來源:極客公園

撰文:徐珊

「Token 的成本正在暴跌。」

這句話放在兩年前,會讓每一個 AI 創業者興奮。從 2023 年到 2025 年,AI 推理成本下降了 99.7%。要知道,GPT-4 發布時每百萬 Token 成本是 37.5 美元,到 2025 年這個數字已經降至 0.14 美元。照這個趨勢,算力成本對創業者來說,應該不是問題才對。

但現實卻恰恰相反。

同一時期,全球企業 AI 雲端支出從 115 億美元暴漲到 370 億美元,整整翻了三倍。AI 進入 A2A 時代後,數十個智能體在反覆互動中,讓 Token 調用量呈指數級爆炸。這也導致了儘管 Token 單價更便宜了,但每個任務消耗的 Token 量卻瘋狂上漲。

顯然,算力正在成為這個時代最奇特的資源。它越來越便宜,但你花在它上的錢,只會越來越多。

對巨頭來說,這個問題可以靠自建算力中心來解決。但對大多數創業公司來說,他們只能站在公共算力市場裡,接受雲端供應商的定價,看著算力帳單一個月比一個月高,卻毫無議價能力。

共績科技創始人付智看到的,正是這個市場錯位所誕生的商機。

在他看來,要讓算力成本下降的解法並不只有只能等待成本自然下降,而是換一種使用算力的方式,同樣能讓算力成本開始下降。讓算力像電力一樣,隨取隨用,按需計費,把大量被閒置浪費的算力資源重新激活。

近日,共績科技完成 Pre-A 輪融資,投後估值 3.5 億人民幣,並計劃於近期啟動 A 輪融資。在算力賽道普遍承壓的 2025 年,這家用人工智能方法解決資源調度問題的科技公司悄悄做到了數千萬營收,客戶留存率接近 100%。

共績科技,正在把算力調度變成一門真正的生意。

共績科技創始人付智 圖源:共績科技

01 當 AI 公司爆了,算力成本這筆帳有了新解法

新品上線前夕,Remy 的團隊幾乎沒睡覺,隨時預備著突發情況的出現。

但真正當公司網站在 48 個小時湧入 50 萬用戶時,對一家剛從內測走向公測的 AI 新創來說,他們需要在短時間內把所有基礎設施擴容數十倍。儘管有所準備,上線前,Remy 提前測試過 Ucloud、阿里雲、華為雲等多個雲端服務平台,但當傾盆流量真正砸下來的那一刻,他們的最終解決方案商卻是共績科技。

簡單來說,共績科技做的事就是把閒置算力調度起來,再按需分配給有彈性需求的 AI 企業。無論是網吧夜裡空轉的機器、或者個人用戶的 4090,還是小機房的閒置資源,都能成為共績科技可調度的算力池的一部分。如果客戶不夠用,就隨時在算力池裡再調,隨用隨取。

那 48 小時裡,共績科技緊急為 Remy 調配了近 1900 張 GPU 卡。用戶每發起一次請求,就會生成一個新訂單;當用戶的計算完成,訂單立刻關閉。那一天,平台處理了超過一百萬個訂單。

「在峰值時刻,一般的算力服務商臨時能開出 20 張卡就已經很難了,更多情況下企業還需要等待,但等待也意味著流量流失,是企業絕對不想看到的。」付智談到這件事之後,Remy 使用的絕大部分算力都來自共績科技。

Remy 對算力的需求其實很簡單:每一次流量爆發時,用戶的點擊都能及時回應,算力的調用要快、要及時,同時成本要低。這些都是剛起步的 AI 新創對算力最基礎的需求。

相比之下,有一類 AI 應用客戶面對算力需求則是更小眾,但也更現實。

去年春節期間,有一家在景區做 AI 換裝拍照的公司找上了共績科技。他們倒不是不知道流量爆發的節點在什麼時候,但仍然很難算好算力這筆帳。

他們的 AI 設備多放在景區裡,一到節假日就人滿為患,算力需求激增。但是假期一過,算力的需求又幾乎歸零。「春節是全年最大的高峰,其餘大半年,景區裡沒什麼人。」他們告訴付智。

這樣的算力波動意味著:如果選擇按峰值租算力,等於平時 90% 的時間都在燒錢養卡;如果按照均值租算力,那春節期間肯定需求會崩,嚴重影響用戶體驗。「這樣的需求波動,在傳統的算力服務方案裡,比較難獲得一個合適方案。因為這種極端的峰谷差,在標準產品裡根本沒有對應的定價邏輯。」付智說道。

但這樣的情境,卻非常適合使用共績科技的算力共享平台。

那一個月,服務節點換了 1963 台個人電腦,整個春節,服務從未出現過一次穩定性問題。「相比客戶自己按峰值部署算力,我們幫他們節省了近 70% 的費用。」付智補充道。

這樣的時間波動型需求不僅出現在一些垂直小眾的場景裡,同樣也很常見於不少 AI 新秀公司。

liblib 是國內用戶量最大的 AI 圖片生成平台之一,他們曾在雲端供應商平台租了大量 GPU 卡。但如果仔細研究的話,他們發現這些 GPU 平均算下來,整體利用率只有 45%。

這也意味著,超過一半的卡,每天都在白白燒錢。

據付智介紹,其實像 liblib 這樣的企業並不算少數,幾乎所有以上班族為核心用戶的 AI 應用工具,都會遇到這個問題。白天用戶密集使用,夜裡用戶數大幅下降。如果按峰值配置算力,夜裡則空置率較高,但如果按均值配置,白天就很難滿足所有用戶需求。

AI 賽道看起來很熱鬧,但卡住公司發展生命線的,可能就是算力成本這筆帳。不少企業對算力預期過高,算力成本把現金流拖垮;也有企業對算力估算不足,在用量峰值時服務崩潰,用戶一走不回頭。

「AI 應用的流量天生就是波動的,算力市場的定價邏輯是為穩定需求設計的,算力成本的分配方式也一直停留在比較傳統的方式上。」付智說道。這也是為什麼當一家 AI 公司真正爆發時,算力成本這筆帳,需要一種新的算法。

過去,傳統的算力服務模式以長租合約為主。企業租一年,不管用不用,都需要為算力預付費用,算力閒置的成本主要由企業自己承擔。而共績科技做的,其實是把這筆成本遷移到另一個地方,也就是那些本來就有閒置算力、但自己跑不滿的人,例如個人用戶、網吧等等;這些算力本來就在浪費,把它們調度起來,不產生新的算力成本,也盤活了已存在的閒置算力。

「算力不是越多越好」付智說,「而是可以流動的、隨時可調用的,才好。」

02 彈性算力這筆生意,考驗的是能源調度能力

對付智來說,想做算力調度這筆生意的契機,其實來自於一個偶然的機會。

2023 年 5 月假期,正是 AI 浪潮剛剛萌芽的階段,付智在一個 AI 創業者社群裡丟了一條訊息。內容很簡單:我有一台 A100,租得越短越便宜,有需要的人來找我。

他當時其實沒有抱多大希望,畢竟只有一張顯卡。結果卻出乎意料,最後有 30 個人諮詢他,而且都很爽快地付了錢。

「我說誰付錢快我就把卡給誰。」他最後挑了 5 個人來服務。一張卡、5 個客戶,驗證了他想了很久的一個判斷:一般人開始需要算力了。

但他也清楚,這門生意之所以在那個時間點才成立,不是因為他運氣好,而是因為在那之前,這件事根本沒有條件做。

畢竟,1999 年就有人曾提出做算力共享,搭建了 BOINC 平台,幾十萬人貢獻算力,但當時做的是公益性的科學計算平台,人人可以免費使用。後來比特幣火熱的時候也有人考慮借著挖礦熱潮把閒置算力調度起來,但這並不合法。

想法一直都在,但土壤一直沒有。

畢竟,真正有高性能 GPU 的普通用戶,是 90 後、00 後們。在這之前,很少有人的個人電腦配備的是 4090。而讓個人電腦能安全運行 Linux 虛擬環境的 WSL1.0.0,也是在 2022 年才正式發布,更不用提遠端調用分散在各地的個人設備、讓它能被內網穿透的技術,到了 2021 年前後才算真正成熟。

供給端、需求端,以及技術條件,三項俱全,才讓這門生意在今天變得可能。

但付智覺得,真正發現「時機到了」的訊號並不是 DeepSeek,也不是一體機,而是 AI 的消費情境,正在從小眾工具滲透到普通人的日常娛樂。

「一旦這個進程加速,對算力的需求就不再是幾家大公司採購,而是要像電力一樣,需要被大規模、跨節點地調度分發。」付智說道。

這也是共績科技正在推進與國家算力中心談合作的原因。目前他們已參與建設京津冀、長三角、深圳、青海的省級算力調度平台,各地搭起來的調度系統在技術上都有共績的參與。

不過,「算力調度」這件事,比看起來要難得多。

算力調度和算力管理並非一概而論。付智把調度和管理做了一個區分:大廠做的是管理,把一堆機器納入同一套系統,知道誰在用、誰閒著,但很難實現跨地域、跨設備的動態分配。

而算力調度是另一回事,它需要把這個地方的峰值需求,用其他地方閒置的算力來填補。這在電腦工程裡其實沒有現成的解法,反而是能源領域的老問題。「削峰填谷」這個詞,本來就是電力系統的術語。

付智本科讀的是清華建築環境與能源應用工程,導師是能源領域的院士。他把能源調度的算法移植過來,解決的是算力版本的同一個問題,這也是共績最核心的壁壘。

當然,在工程化上,這套跨地域的調度體系也會遇到不少麻煩。例如,接入調度池的個人電腦,隨時可能「被占用」;如果用戶一開遊戲,這台機器就要退出,但下游客戶要求的服務不能斷。

付智選擇的是熱備加預測,也就是提前為每個任務備好冗餘節點,同時用累積的歷史數據預測每個供給方的上線規律,動態調整備份比例。資料越多,備份越精準,成本越低。「我原來得替你備兩台機器。但隨著使用,我現在只要備一台就夠了。」網路傳輸層也不穩定,共績的應對是同時接入三家頭部雲端供應商,付智提到:「不可能同時出問題。」

那雲端供應商為什麼不做彈性算力?

付智給出的解釋是,大廠看到了,但大廠的彈性算力在產品定位、定價策略上有所不同,共績的優勢是價格和調度效率。

彈性算力的核心矛盾在於:你得提前備好「隨時能調用」的算力,但這些算力在沒人用的時候就是純粹的閒置成本。一般算力服務商的彈性擴容大約是常規價格的 5 倍,或者讓客戶簽一年長約,由客戶承擔算力閒置的風險。

共績之所以能提供真正的彈性,是因為它用的資源本來就是閒置的,這些資源沒有被提前採購進來壓成本,它們本來就閒著,所以共績可以給出更有優勢的價格。

據付智分析,整個市場裡,80% 的算力需求走大廠的長租整包,剩下 20% 是有彈性需求的部分。付智不打算搶那 80%,他更專注的是那 20% 的市場,而且隨著 AI 應用持續成長,這 20% 的市場空間也會越來越大。「在別人那裡,租得越長越便宜;在我這裡,租得越短越便宜。」付智補充道。如今共績科技共享算力平台「suanli.cn」可以讓一般消費者按毫秒去租用相關算力。

共績科技團隊合影 圖源:共績科技

這樣的共享商業模式其實早已在其他領域獲得驗證。

付智把這門生意的本質比作 Airbnb:城市辦大型展會,周邊酒店全滿,Airbnb 把有閒置房間的居民和沒地方住的參會者撮合起來。算力版本的故事也是相同的路徑:AI 應用在版本發布、流量爆發的時刻需要大量算力,平時需求遠不及這個量;另一方面,個人用戶、網吧、小機房的算力在夜裡和工作日會有大量閒置,將兩邊連接起來,就是共績在做的事。

只不過,共享的不是房間,而是算力。

03 算力能源調度,AI 時代的「軟體定義基礎設施」

這條路,在國外也有人走過。比如說,RunPod 也在透過閒散算力提供彈性推理服務,2024 年拿到了英特爾資本和戴爾科技資本共同領投的 2000 萬美元種子輪,客戶裡有 Cursor、OpenAI、Perplexity。

但在美國做這件事,和在中國做,在付智看來,完全是兩回事。

AWS 從誕生起就一直在提供彈性算力,一開始就承諾按需取用,透過高價彈性服務去服務成熟的市場。但國內的雲端計算供應商更傾向於提供長租模式,相關優惠政策也傾向於此,並不太重視彈性服務,用戶對彈性算力的付費意願也比美國低得多。因此,如果把 RunPod 那套邏輯搬到國內,定價就走不通。

不過付智認為,算力調度並不是一門只看算力出租的生意。「共享算力可能只是一個敲門砖。」他說這話的時候沒有猶豫。在他的判斷裡,這門生意大概有兩三年的窗口期,只要算力供需錯位還在,這個縫隙就存在,但它不會永遠存在。

這種清醒,在創業者裡並不多見。但正因如此,他很早就開始想一件更根本的事:下一個真正爆發的 AI 應用會從哪裡長出來?這個判斷,將會直接決定算力需求的走向。對此,付智有兩個面向未來的判斷。

第一個是,根據他分析,中國的超級應用不會從 PC 端的生產力工具裡長出來,中國真正有機會的方向,是行動端的社交娛樂、結合供應鏈的跨境硬體,以及能嵌入真實生活場景的 AI 應用。

中國的互聯網從來沒有經歷過深厚的 PC 生產力工具時代,用戶直接從功能機時代跳到了行動互聯網。那些在美國跑出來的 AI 文件、AI 簡報、AI 代碼助手,背後依賴的是幾千萬個習慣在 PC 上辦公、願意為 SaaS 工具付費的用戶群體,而中國不是。「全中國有超過 1 億人需要寫 Word 嗎?我覺得可能沒有。」更麻煩的是,即便有這個需求,巨頭也會很快把這些功能做成免費外掛。

他反而在社交娛樂場景看到了高成長。他對話過很多做短劇、影視的從業者,問他們為什麼那麼積極地擁抱 AI,對方的回饋讓他有了新的想法:「我已經沒有什麼可失去的了,沒有人去看電影和電視劇了,我們已經快死了。」這些人是中國市場裡最積極擁抱 AI 的群體,不是因為最懂技術,而是因為退無可退。「現在,已經沒什麼人看電視、電影了。」

而對於 AI 硬體的發展,他也有一些不同的看法。

過去幾年,AI 硬體的主流思路是「萬物加對話框」,也就是說什麼設備都配上一個聊天視窗。付智覺得這個方向不對。「消費者不需要一個會寫詩的冰箱。」

真正有生命力的 AI 硬體,是進入用戶原本就有的高頻場景,讓 AI 在背後默默完成運轉,而不是拉著用戶專門坐下來跟它聊天。

就好比,寵物攝影機應該可以自動識別貓咪是否生病,景區相機自動完成換裝拍照。用戶什麼都不用改變,AI 悄悄把事情做完了。「如果這類硬體可以採用開源模型部署,流量爆發的時刻,也會成為彈性算力的客戶。」付智覺得這也是共績科技未來的成長點之一。

付智的第二個判斷,藏得更深,2024 年底就已經成形,但他等到今年才等到了驗證它的機會。

他認為,讓人直接去跟 AI 對話,本身就是一種效率浪費。人類資訊輸入輸出的速度有上限,一次只能提出一個問題,需要等答案出現再提下一個。但 AI 可以同時處理成千上萬個執行緒,在毫秒之間完成機器之間的資訊傳遞。「用人去驅動 AI,是用最慢的那一環,拖住了整個系統的速度。」

真正應該發生的,是 AI 與 AI 之間直接協作,A2A。一個任務下達,觸發一組 AI 的連鎖運轉,人只需要定義目標,不需要參與中間每一步。這也是為什麼 OpenClaw 在今天被人們所看重。這也是付智覺得 OpenClaw 真正重要的原因:並不是這個產品本身,而是它證明了一件事——AI 與 AI 之間可以自己形成社區,A2A 有人買單,這個方向是走得通的。

一旦 A2A 模式成為主流,算力的消耗將是今天的數倍乃至數十倍。黃仁勳在 GTC 2026 上說,由於 Agentic AI 和推理能力的爆發,當下所需的計算量比一年前預期的多了至少 100 倍,而這只是開始。到那時,算力真的會像電一樣:考慮的不再是你需要囤多少卡的問題,而是整張「算力電網」能不能按需分發,算力資源管理來到了調度的領域。

當 A2A 真正到來,算力會像電力一樣成為每個人、每個任務、每個 AI 節點背後的基礎設施。那時候,誰能跨地域、跨設備、跨時段地把算力精密調度起來,誰就掌握了這張網真正的營運能力。

共績科技現在做的事,在付智看來是在為那個時刻做準備,用這兩三年的窗口期,把調度能力、節點網路、客戶關係都建起來。等到 A2A 的需求真正爆發,這套體系才是共績科技真正的護城河。

他最近在公司內部發了一句話,採訪快結束時,他又說了一遍:

「即便如此,這一切也才剛剛開始。」

放在彈性算力的語境裡,這句話或許只是創業者對市場的樂觀判斷。但放在 A2A 的語境裡,他說的「開始」,或許並不是這門生意的開始,而是算力作為基礎設施這個命題,迎來了真正開始的時刻。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言