首页科技 正文
目录

字节跳动 打响了“百模大战”的“价格战”

科技2024-05-16
5月15日上午,字节跳动正式发布了豆包大模型家族并宣布开启对外服务。从发布会上看,豆包家族的一大优势在于引入了抖音海量视频内容;更大的亮点则是字节跳动以低于业内95%以上的价格(32k大模型0.0008元/千tokens)刷新大模型服务底价。豆包大模型家族集体亮相在15日上午举行的2024春季火山引擎FORCE原动力大会上,字节跳动自研大模型家族全体亮相,包...

字节跳动_副本.jpg

5月15日上午,字节跳动正式发布了豆包大模型家族并宣布开启对外服务。从发布会上看,豆包家族的一大优势在于引入了抖音海量视频内容;更大的亮点则是字节跳动以低于业内95%以上的价格(32k大模型0.0008元/千tokens)刷新大模型服务底价。

豆包大模型家族集体亮相

在15日上午举行的2024春季火山引擎FORCE原动力大会上,字节跳动自研大模型家族全体亮相,包含豆包通用模型pro、豆包通用模型lite、豆包 角色扮演模型、豆包 语音合成模型、豆包 声音复刻模型等。

豆包是国内首批通过大模型服务安全备案的大模型之一,火山引擎是字节跳动旗下云服务平台。据火山引擎总裁谭待介绍,在过去一年里,字节跳动内部50多个业务已经大量使用豆包大模型进行AI创新,包括抖音、头条等数亿DAU产品。豆包调用量达每天1200亿tokens、3000万图片。

本次发布的豆包通用模型pro是豆包家族的“最强代表”,是字节跳动自研LLM模型专业版,支持128k长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景。比如上传三篇与大模型相关的论文,豆包可以清晰总结这些论文的亮点,还可以出几道和论文相关的题目,来考查用户对论文的理解。

豆包通用模型lite适用于对时延和成本较敏感的企业。据介绍,在保障基础质量的条件下,相比于豆包pro,豆包lite每千tokens成本下降84%,延迟降低50%。在汽车智能驾驶座舱交互场景中,豆包lite可以在低延时下实现智能对话,支持闲聊、搜索、娱乐、导航、车控等多个座舱智能助手场景。

价格进入“厘时代” 较业内低95%以上

谭待表示,豆包大模型价格和业内价格相比具有显著优势。豆包通用模型pro(32k)的价格为0.0008元/千tokens,也就是只要0.8厘就能处理1500多个汉字。豆包通用模型pro(128k)的价格为0.005元/千tokens。

与32k及以下模型的业内价格相比,豆包比行业价格低99.3%。GPT4(32k)为0.42元/千tokens,百度文心一言ERNIE 4.0(8k)为0.12元/千tokens,阿里通义千问Qwen 2.5-max(30k)为0.12元/千tokens。

与128k模型的业内价格相比,豆包比行业价格低95.8%。GPT4-Turbo(128k)的价格为0.07元/千tokens。

谭待说:“对于企业来说,在AI转型上充满不确定性,我们必须要让试错成本尽量低。我们通过分布式推理,大规模混合调度等方法进一步优化成本。”

谭待还用1元钱可以购买的文本量对比豆包和其他模型的性价比。1元钱可以从GPT4买到2400tokens;从国内其他模型买到超8300tokens;使用开源模型搭建后买到约3万tokens;而豆包大模型可以提供125万tokens,相当于三本《三国演义》(全文约75万字)的字数。

引入抖音、头条视频及同款搜索能力

去年,火山引擎发布了一站式大模型服务平台火山方舟,其理念是模型即服务。本次大会火山引擎发布了方舟平台的全面升级,从而提升模型效果和体验。在插件和工具链上,方舟2.0升级了联网插件、内容插件和知识库插件。

由于大模型是批量训练完成,在实时信息的获取上有天然滞后性。方舟平台推出了联网插件,提供抖音、头条同款搜索能力,能实时连接海量优质数据。

内容插件提供头条抖音同源海量内容,支持多模态交互,提供基于意图的垂类内容信息检索,内容时效检索更强,帮助大模型深入理解、检索和生成内容。

字节跳动产品和战略副总裁朱骏举例说,在吃皮皮虾的时候询问豆包剥皮皮虾有什么技巧,豆包不仅提供了文字回答,而且提供了抖音上演示剥皮皮虾的视频。

此外,升级知识库插件提供毫秒级百亿规模的高性能检索,秒级流式知识库索引更新,内嵌豆包向量化模型,提高搜索的相关性和准确性。


扫描二维码手机访问

文章目录