不做大模型的字节跳动,拿出了大模型的“引擎方舟”
2023/06/29 | 作者 张轶骁 | 收藏本文
6月28日,火山引擎主办、英伟达合作举办了“V-Tech体验创新科技峰会”。会上,火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等全方位的平台服务(MaaS,即Model-as-a-Service)。
目前,“火山方舟”集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI(以拼音首字母排序)等多家AI科技公司及科研院所的大模型,并已启动邀测。
中国科学技术信息研究所等机构发布的《中国人工智能大模型地图研究报告》显示,截至今年5月,国内已公开披露的大模型数量达到79个。
玩家众多,竞争激烈,应用方也面临着选择困难。要不要选择大模型,该选择哪一家?
火山引擎总裁谭待认为,未来的大模型市场将是一个百花齐放的多模型生态,将同时并行存在几个少数的超大规模的大模型、多个中等规模的大模型和更多行业的垂直模型。同时,企业对大模型将会是 “1 + N”的应用模式,即:企业通过自研或者与三方模型服务商的深度合作,形成围绕企业自身的1个主力模型;在不同的场景中,企业还会同时应用N个外部模型。
随着ChatGPT的诞生,国内外掀起了一波大模型热潮,在前赴后继的竞争中,算力成了“兵家必争之地”。而火山引擎恰恰在这一领域是具备优势的。
火山引擎云基础产品负责人罗浩曾介绍,火山引擎整体的大算力,无论是通用算力还是弱算力,在技术架构上都有着比较快的迭代速度,且拥有长时间的积累。
火山引擎的构想是,发挥自身在算力方面的优势,通过大模型服务与应用平台,让大模型的提供方和应用方在平台上看到彼此,同时帮助大模型的应用方,更容易地获取和使用模型。
谭待此前表示,“火山引擎自己是不做大模型的,我们首先服务好国内做大模型的厂商,等他们把大模型做好之后,我们再一起合作开展对外的服务。”
具体来看,火山方舟将在众多层面助力大模型市场。第一是安全互信计算,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现了模型的机密性、完整性和可用性保证。第二是降低使用成本。通过流量错峰,训推一体等手段,进一步降低推理的单位成本,让大模型的资源供应更加弹性和廉价。企业也可以用统一的工作流对接多家大模型,寻找最具性价比的模型组合。第三是“跑完最后一公里”,在大模型生产方的基础上,企业可以通过方舟平台,在不同场景下基于需求,完成对模型的精调。此外,对精调的良好运用,也有助于企业利用更小尺寸的模型,在特定工作上达到逼近通用大模型的水平,降低推理成本。
(火山引擎总裁谭待公布“火山方舟”首批大模型合作伙伴)
据火山引擎智能算法负责人吴迪透露,抖音集团内部已有十多个业务团队试用“火山方舟”,在代码纠错等研发提效场景,文本分类、总结摘要等知识管理场景,以及数据标注、归因分析等方面探索,利用大模型能力促进降本增效。首批邀测企业还包括金融、汽车、消费等众多行业的企业。
谭待坦言,平台还将接入更多大模型,并逐步扩大邀测范围,与企业客户共建开放合作的多模型生态,加速大模型在各行各业的应用落地。
相关报道