• 初创公司用“豆包”大模型,日均tokens两个月内增长357倍


    8月21日,火山引擎总裁谭待在2024火山引擎AI创新巡展(上海站)演讲时表示,有创业公司在两个月内,日均调用豆包大模型的tokens数量增长了357倍,为其业务带来了快速增长

    在今年5月15日举办的火山引擎原动力大会上,字节跳动正式发布“豆包大模型”,同时还宣布其在企业市场的定价只有0.0008元/千Tokens,0.8厘即可处理1500多个汉字,比行业便宜99.3%。会后,多家大模型厂商纷纷跟进宣布降价,部分厂商甚至对外免费开放一些轻量级模型。

    在这里插入图片描述

    本次巡展接受媒体采访时,谭待也再次提到降价问题。他表示,一些友商提出的免费模式仅适用于C端,会通过广告模式回收成本。但在B端,真正好用的大模型不可能免费。

    大模型降价,降低了企业的试错和创新成本,也让更多企业真正开始使用大模型。数据显示,截至7月,豆包大模型日均tokens调用量已超过5000亿,两个月里增长了3倍多。

    而不断增加的调用量,也反过来促进了模型能力提升,让豆包大模型的表现越来越全面。过去两个月里,豆包pro、豆包lite都已完成多项重要升级。

    测试数据表明,豆包pro的最新版本,相比于5月份发布的第一个版本,整体综合能力提升了20.3%。其中,角色扮演能力提升38.3%,语言理解提升33.3%。同时,豆包pro和lite在常用任务,以及数学、专业知识、代码能力等多方面,都得到了全面提升。

    在这里插入图片描述

    目前豆包大模型在性能方面,已能支持最高标准初始800K的TPM,相较行业平均水平高出4—5倍,可让企业在高负载、高并发的情况下,放心、稳定使用大模型。并且在具体实践中,已经帮助客户成功应对了最高并发挑战。

    在现场,谭待特别展示了某创业公司日均tokens用量的变化。该公司于5月份开始接触豆包大模型,降价后,随着成本压力的解除,该公司的日均tokens用量不断增长,至6月份,ROI变正且留存量提升,让其在市场推广上更加放开,整体业务发生快速增长。迄今为止,日均tokens在两个月内已经增长了357倍。

    谭待表示,正是这样的案例越来越多,在生产力端和C端,各种AI应用才真正开始繁荣起来。

    在此次火山引擎AI创新巡展上,火山引擎除发布豆包大模型一系列产品升级外,还携手多点 DMALL等零售行业巨头,共同成立零售大模型生态联盟,基于豆包大模型,打造零售AI解决方案,提升消费者购物体验。联盟首批成员包括物美集团、抖音电商、抖音生活服务、百胜、麦当劳、中国飞鹤、海底捞、居然之家、南7-11、重庆百货、百果园、波司登、天虹、三得利、绝味、名创优品、NielsenIQ、电通等。

    而这已非火山引擎首次与具体行业客户成立类似联盟。如此前,火山引擎就已分别与智能终端和汽车行业的众多客户合作发起大模型联盟。

    对此火山引擎总裁谭待表示,大模型在各行业的落地仍将以应用方式为主,但不是仅依靠大模型API就可以,而是需要完整的解决方案。

    其中,找到PMF(Product Market Fit,产品市场匹配度)最为重要,这需要厂商对技术与业务有所了解,才能真正做到技术落地。因此,火山引擎希望与更多其他行业know-how合作伙伴一起服务企业,共创服务方案。

  • 相关阅读:
    UE5——动画混合
    全球绿色建筑的 10 个最酷的例子
    Qt扫盲-Assistant 助手使用总结
    每天一个注解之@WebService
    GPTCache使用
    面试官:讲讲MySql索引失效的几种情况
    python用于NLP的seq2seq模型实例:用Keras实现神经网络机器翻译
    CentOS7搭建keepalived+DRBD+NFS高可用共享存储
    【python爬虫笔记】服务器端搭建
    【Android抓包】Ubuntu mitmProxy配置
  • 原文地址:https://blog.csdn.net/csdnnews/article/details/141435751