字节跳动开源AI训练引擎 最快提速3倍以上

电科技高明06-28 18:09

6月28日,字节跳动火山翻译团队宣布推出LightSeq训练加速引擎,并向全球开发者开源。这是业界首款完整支持Transformer模型全流程加速的训练引擎,最快可提速3倍以上,帮助从业者大幅提升模型生产效率。

Transformer是自然语言处理、计算机视觉等AI技术领域最常用的基础模型,被广泛应用在机器翻译、文本生成、文本摘要、图像处理、时间序列预测等任务中。训练和推理则是AI技术的两个主要过程,相当于学习知识和解决问题。

图片2.png 图:LightSeq训练模型加速效果示例

受到硬件资源限制,一些高校实验室和中小公司无法训练大型模型,降低批处理大小等措施又会导致训练时间成倍增加。如何利用有限的资源最快训练出模型,成为计算机科研工作者和开发者们普遍关注的问题。

据悉,LightSeq训练加速引擎能够支持Transformer的完整加速,从词嵌入层、编码层、解码层,到最后的损失函数层,业内首次实现了全流程支持。而且LightSeq的训练速度极快,相比主流的序列生成库,LightSeq最快只需要三分之一的时间就能完成训练。

火山翻译团队负责人介绍说,LightSeq训练加速引擎具有功能全面、简单易用的特点,并提供了丰富的二次开发工具。通过插入自定义层或修改几个命令行参数等方式,用户可以在各种流行训练库上轻松使用LightSeq。

字节跳动持续投入开源社区的建设,已开源了机器学习平台Klever、联邦学习平台Fedlearner、高性能分布式训练框架BytePS等重磅项目。2019年底,火山翻译团队开源了LightSeq推理加速引擎,此次开源LightSeq训练加速引擎,完全打通了Transformer模型从训练到推理部署的整个流程。

“开源是推动科技进步的重要力量,我们受益于开源,更需要为开源社区做出贡献”,上述负责人表示,字节跳动把LightSeq系列项目开源,与各界共享技术成果,希望能帮助广大科研人员节约时间成本,为学术界和产业界激发创造力提供有力支持。

LightSeq开源项目地址:https://github.com/bytedance/lightseq

电科技(www.diankeji.com)是一家专注于全球TMT行业的领先资讯媒体。

作为今日头条青云计划、百家号百+计划获得者,2019百度数码年度作者、百家号科技领域最具人气作者、2019搜狗科技文化作者、2021百家号季度影响力创作者,曾荣获2013搜狐最佳行业媒体人、2015中国新媒体创业大赛北京赛季军、 2015年度光芒体验大奖、2015中国新媒体创业大赛总决赛季军、2018百度动态年度实力红人等诸多大奖。

投稿、商务合作请联络微信公众号

声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。

//59087780b049bbb54ef4ba547ea51910