火山引擎重申不做大模型,已在服务国内多数大模型企业


(资料图片)

4月18日,字节跳动旗下云服务平台火山引擎举办“原动力大会”。

大模型时代,市场最为关注的话题无疑是字节跳动在这方面的布局进展。对此火山引擎总裁谭待在会上强调:“火山引擎自己是不做大模型的,我在别的场合也说过,火山引擎本身先是服务好做大模型的公司。”他透露:“国内有数十家做大模型的企业,大多已经在火山引擎云上。”

而对于集团自研的大模型,字节跳动副总裁杨震原称:目前这部分公司是在做一些学习和做一些研究,现在还没有什么结果,所以等未来这方面有了进展再同步。”

对于火山引擎与大模型厂商的具体合作方式,谭待介绍称:“现阶段肯定还是技术层面的合作,就是他利用我们的算力平台和机器学习平台去搭建,当然也会用存储,也会用网络,各种各样云上的产品都会用,因为要把负载在这上面能跑起来,包括他未来的推理。所以就是这些合作。”

针对未来大模型的算力调度与训练两大需求,火山引擎分别发布了自研DPU(数据处理单元)等系列云产品,并推出新版机器学习平台。

相较于负责通用计算的CPU、负责AI计算的GPU,DPU负责资源卸载、加速和隔离,能够提升资源效率。谭待预测,未来3年内,大规模的算力中心,都将形成“CPU+GPU+DPU”的混合算力结构。

此外,算力方面,火山引擎机器学习平台经过抖音等海量用户业务长期打磨,支持单任务万卡级别的超大规模分布式并行训练场景。GPU弹性计算实例可灵活调度资源,随用随取,最高可以为客户节省70%的算力成本。

会上,火山引擎还宣布与字节跳动国内业务并池。基于内外统一的云原生基础架构,抖音等业务的空闲计算资源可极速调度给火山引擎客户使用,离线业务资源分钟级调度10万核CPU,在线业务资源也可潮汐复用,弹性计算抢占式实例的价格最高可优惠80%以上。

新发布的机器学习平台则针对大模型训练需求,据称支持万卡级大模型训练、微秒级延迟网络,能让大模型训练更稳更快。(撰文 | 董温淑 编辑 | 董雨晴)

关键词: