豆包視覺理解模型正式發(fā)布,比行業(yè)價格便宜85%

繼大語言模型價格以厘計算之后,視覺理解模型也宣告進入“厘時代”。

在12月18日舉辦的火山引擎 Force 大會上,字節(jié)跳動正式發(fā)布發(fā)布豆包視覺理解模型,為企業(yè)提供極具性價比的多模態(tài)大模型能力。豆包視覺理解模型千tokens輸入價格僅為3厘,一元錢就可處理284張720P的圖片,比行業(yè)價格便宜85%,以更低成本推動AI技術(shù)普惠和應(yīng)用發(fā)展。

豆包大模型全面升級

研究顯示,人類接受的信息超過80%來自視覺。視覺理解將極大地拓展大模型的能力邊界,同時也會降低人們與大模型交互的門檻,為大模型解鎖更豐富的應(yīng)用場景。

據(jù)火山引擎總裁譚待介紹,豆包視覺理解模型不僅能精準(zhǔn)識別視覺內(nèi)容,還具備出色的理解和推理能力,可根據(jù)圖像信息進行復(fù)雜的邏輯計算,完成分析圖表、處理代碼、解答學(xué)科問題等任務(wù)。此外,該模型有著細膩的視覺描述和創(chuàng)作能力。

豆包視覺理解模型正式發(fā)布,比行業(yè)價格便宜85%

圖:火山引擎總裁譚待

此前,豆包視覺理解模型已經(jīng)接入豆包App和PC端產(chǎn)品。豆包戰(zhàn)略研究負責(zé)人周昊表示:“豆包一直在努力,讓用戶的輸入更快更方便”。為此,豆包產(chǎn)品非常注重多模態(tài)的輸入和打磨,包括語音、視覺等能力,這些模型都已通過火山引擎開放給企業(yè)客戶。

會上,豆包3D生成模型也首次亮相。該模型與火山引擎數(shù)字孿生平臺veOmniverse結(jié)合使用,可以高效完成智能訓(xùn)練、數(shù)據(jù)合成和數(shù)字資產(chǎn)制作,成為一套支持 AIGC 創(chuàng)作的物理世界仿真模擬器。

豆包大模型多款產(chǎn)品也迎來重要更新:豆包通用模型pro已全面對齊GPT-4o,使用價格僅為后者的1/8;音樂模型從生成60秒的簡單結(jié)構(gòu),升級到生成3分鐘的完整作品;文生圖模型2.1版本,更是在業(yè)界首次實現(xiàn)精準(zhǔn)生成漢字和一句話P圖的產(chǎn)品化能力,該模型已接入即夢AI和豆包App。

即夢Dreamina張楠認為,生成式AI技術(shù)可以把每個人腦子里的奇思妙想快速視覺化,“像做夢一樣”。即夢希望成為“想象力世界”的相機,記錄每個人的奇思妙想,幫助每個有想法的人輕松表達、自由創(chuàng)作。

豆包視覺理解模型正式發(fā)布,比行業(yè)價格便宜85%

圖:即夢Dreamina 張楠

大會正式宣告,2025年春季將推出具備更長視頻生成能力的豆包視頻生成模型1.5版,豆包端到端實時語音模型也將很快上線,從而解鎖多角色演繹、方言轉(zhuǎn)換等新能力。譚待表示,豆包大模型雖然發(fā)布較晚,但一直在快速迭代進化,目前已成為國內(nèi)最全面、技術(shù)最領(lǐng)先的大模型之一。

大模型應(yīng)用加速落地

數(shù)據(jù)顯示,截至12月中旬,豆包通用模型的日均tokens使用量已超過4萬億,較七個月前首次發(fā)布時增長了33倍。大模型應(yīng)用正在向各行各業(yè)加速滲透。

據(jù)悉,豆包大模型已經(jīng)與八成主流汽車品牌合作,并接入到多家手機、PC等智能終端,覆蓋終端設(shè)備約3億臺,來自智能終端的豆包大模型調(diào)用量在半年時間內(nèi)增長100倍。

與企業(yè)生產(chǎn)力相關(guān)的場景,豆包大模型也獲得了眾多企業(yè)客戶青睞:最近3個月,豆包大模型在信息處理場景的調(diào)用量增長了39倍,客服與銷售場景增長16倍,硬件終端場景增長13倍,AI工具場景增長9倍,學(xué)習(xí)教育等場景也有大幅增長。

譚待認為,豆包大模型市場份額的爆發(fā),得益于火山引擎“更強模型、更低成本、更易落地”的發(fā)展理念,讓AI成為每一家企業(yè)都能用得起、用得好的普惠科技。

在公布豆包視覺理解模型超低定價的同時,火山引擎升級了火山方舟、扣子和 HiAgent 三款平臺產(chǎn)品,幫助企業(yè)構(gòu)建好自身的 AI 能力中心,高效開發(fā) AI 應(yīng)用。其中,火山方舟發(fā)布了大模型記憶方案,并推出 prefix cache 和 session cache API,降低延遲和成本?;鹕椒街圻€帶來全域 AI 搜索,具備場景化搜索推薦一體化、企業(yè)私域信息整合等服務(wù)。

云原生是過去十年最重要的計算范式,大模型時代則推動著云計算的變革?;鹕揭嬲J為,下一個十年,計算范式應(yīng)該從云原生進入到AI云原生的新時代。

基于AI云原生的理念,火山引擎推出了新一代計算、網(wǎng)絡(luò)、存儲和和安全產(chǎn)品。在計算層面,火山引擎GPU實例,通過vRDMA網(wǎng)絡(luò),支持大規(guī)模并行計算和P/D分離推理架構(gòu),顯著提升訓(xùn)練和推理效率,降低成本;存儲上,新推出的EIC彈性極速緩存,能夠?qū)崿F(xiàn)GPU直連,使大模型推理時延降低至1/50、成本降低20%;在安全層面,火山將推出PCC私密云服務(wù),構(gòu)建大模型的可信應(yīng)用體系。基于PCC,企業(yè)能夠?qū)崿F(xiàn)用戶數(shù)據(jù)在云上推理的端到端加密,而且性能很好,推理時延比明文模式的差異在5%以內(nèi)。

譚待說:“今年是大模型高速發(fā)展的一年。當(dāng)你看到一列高速行駛的列車,最重要的事就是確保自己要登上這趟列車。通過AI云原生和豆包大模型家族,火山引擎希望幫助企業(yè)做好AI創(chuàng)新,駛向更美好的未來。”

本文來自投稿,不代表增長黑客立場,如若轉(zhuǎn)載,請注明出處:http://allfloridahomeinspectors.com/cgo/model/128378.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
上一篇 3天前
下一篇 2天前

增長黑客Growthhk.cn薦讀更多>>

發(fā)表回復(fù)

登錄后才能評論