近日,阿裏雲宣布推出通義千問gpt-4級主力模型qwen-long,其api輸入價格從0.02元\/千tokens降至0.0005元\/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當於5本《新華字典》的文字量。此消息一出,立即引發了業界的廣泛關注和熱議。


    值得一提的是,本月智譜ai、字節跳動的大模型也都紛紛宣布降價。其中,字節的豆包主力模型的定價為0.0008元\/千tokens,即0.8厘\/千tokens,被認為帶動大模型定價進入了“厘時代”。


    此輪大模型降價潮,是各家廠商希望進一步搶占市場,從而加速ai應用的商業化落地。


    9款商業化及開源係列模型降價


    qwen-long是通義千問的長文本增強版模型,性能對標gpt-4,上下文長度最高1千萬。除了輸入價格降至0.0005元\/千tokens,qwen-long輸出價格也降90%至0.002元\/千tokens。相比之下,國內外廠商gpt-4、gemini1.5 pro、ude 3 so及ernie-4.0每千tokens輸入價格分別為0.22元、0.025元、0.022元及0.12元。


    通義千問本次降價共覆蓋9款商業化及開源係列模型。不久前發布的通義千問旗艦款大模型qwen-max,api輸入價格降至0.04元\/千tokens,降幅為67%。


    智譜ai、字節跳動旗下火山引擎也紛紛宣布了降價


    5月11日,智譜ai大模型的新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,個人版 glm-3turbo模型產品的調用價格從5元\/百萬tokens降低至1元\/百萬tokens。glm-3 turbo batch 批處理api也便宜了50%,價格為1元\/200萬tokens。


    15日,火山引擎宣布豆包pro 32k模型定價是0.8厘\/千tokens。此外,豆包pro 128k模型定價是5厘錢\/千tokens。


    大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變


    對於此輪降價潮,不少業內分析指出,大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變,但推理成本過高依然是製約大模型規模化應用的關鍵因素。


    在武漢ai智領者峰會現場,阿裏雲智能集團資深副總裁、公共雲事業部總裁劉偉光稱:“阿裏雲這次大幅降低大模型推理價格,就是希望加速ai應用的爆發。我們預計2024年大模型api的日調用次數有望突破100億。”


    劉偉光判斷,不管是開源模型還是商業化模型,公共雲+api將成為企業使用大模型的主流方式。雲上調用成本遠對於私有雲部署。在追求更大尺寸的模型時,企業要麵對gpu采購、軟件部署、網絡費用、電費、人力成本等等。隨著大模型的規模變大,對於私有化部署的成本和複雜性會越來越高。去年還有不少企業考慮購買上百台gpu服務器,來搭建計算網絡集群。但今年很多公司已經放棄了自建百台集群的大模型研發。


    百度創始人李彥宏也在業績會表示,模型推理是最重要的長期機會之一,這將成為雲業務的關鍵驅動力。4月,文心大模型api日調用量為2億次。去年12月時,該數據為5000萬次。


    誰能搶抓模型推理的市場機遇?


    談及通義千問的這次降價幅度,多名大模型行業專家在接受《科創板日報》記者采訪時評價,“力度很大”、“很便宜了”。


    不過,實際作用還是要看“療效”。市麵上大模型太多了。療效好,多少都不貴;如果療效不好,多少都是貴。


    目前頭部企業都會選擇多家模型接入,在不同應用場景選擇更合適的模型,這意味大模型廠商之間的競爭十分激烈。


    比如,小米在接入文心大模型api的同時,小米旗下的人工智能助手“小愛同學”也宣布與阿裏雲通義大模型展開合作,強化其在圖片生成、圖片理解等方麵的多模態ai生成能力。


    在剛剛發布的今年一季度財報中,阿裏、百度均提及了生成式ai對收入增長帶來的正麵影響。百度智能雲收入為47億人民幣,同比增長12%,其中生成式ai帶來的收入占比6.9%。測算下來,百度的生成式ai一季度收入約為3.24億元。


    在阿裏財報電話會上,阿裏集團ceo吳泳銘表示,預計今年下半年雲業務將恢複雙位數增長,而收入增長主要來自ai新產品的驅動。對於大模型的未來目標,吳泳銘稱,“我們將會把”通義千問“大模型與阿裏雲的先進ai基礎設施進行軟硬件協同優化,來為中國的開發者或者中國的企業提供ai能力非常強、性價比非常高的ai大模型推理服務。”


    開源閉源路線之爭


    值得一提的是,百度和阿裏在大模型是否開源上選擇了截然不同的路線。


    4月底,阿裏雲開源了1100億參數模型qwen1.5-110b。迄今通義開源大模型的累計下載量超過了700萬。


    “通義的開源模型在中文世界的開發者使用最廣泛,當開發者使用阿裏雲的開源模型,需要把應用部署到線上的時候,就會自然而然地選用阿裏雲的服務。”吳泳銘稱。


    百度方麵,李彥宏則多次宣傳閉源的優勢。在create 2024百度ai開發者大會上,他曾直言“開源模型會越來越落後”。5月15日,百度還發布公告稱:“閉源大模型+公有雲”已經成為全球ai市場的主流趨勢。“閉源大模型+公有雲”能實現比開源大模型性能更好、成本更低的綜合效果,並以此促進ai應用生態繁榮。


    當下,國際廠商在開閉源路線上各有側重。比如openai的gpt-4模型就是采用閉源模式,而meta選擇完全開源。其餘大模型公司則將模型“低配版”開源,更高參數量的模型閉源。比如,穀歌gemini多模態模型閉源,今年2月宣布開源單模態gemma語言模型。


    idc中國研究總監盧言霞稱,未來到底是開源還是閉源。跟頭部企業的選擇有很大關係。這個領域目前還是有很大不確定。


    一位大模型青年學者對記者表示,開源和閉源路線各有特色,但開源肯定更為促進行業發展。


    艾瑞谘詢在一份aigc產業報告中分析,大模型技術前沿廠商出於打造自身先進模型壁壘、構建技術護城河的商業考慮,會選擇閉源或逐步從開源走向閉源,以保證模型的先進性、穩定性、安全性。而開源可以促進廣大開發者和研究者的創新,從商用角度加速大模型的商業化進程與落地效果。艾瑞谘詢認為:“未來,開源和閉源的大模型會並存和互補。”


    結語


    大模型降價潮的到來,無疑為ai應用的商業化落地提供了更多的可能性。各大廠商紛紛降價,意在搶占市場份額,加速ai應用的爆發。然而,大模型的應用並非一蹴而就,需要在技術、成本、效率等多方麵進行綜合考慮。在這個過程中,誰能抓住市場機遇,誰就能在未來的ai競爭中占據優勢。


    同時,開源與閉源的路線之爭也將持續存在。不同的路線有各自的優勢和局限,企業和開發者需要根據自身的需求和目標進行選擇。在這個過程中,開源和閉源的大模型將會並存和互補,共同推動ai技術的發展和應用。

章節目錄

閱讀記錄

2024年行情所有內容均來自互聯網,鉛筆小說網隻為原作者一360一的小說進行宣傳。歡迎各位書友支持一360一並收藏2024年行情最新章節