英伟达将升级优化NeMoMegatron框架 以加速其整体训练速度

随着大型语言模型(LLM)的规模和复杂日益增加,NVIDIA宣布对NeMo Megatron框架进行更新,将训练速度提高30%。

此次更新包括两项开创的技术和一个超参数工具,用于优化和扩展任意数量GPU上的LLM训练,这为使用NVIDIA AI训练和部署模型提供了新功能。

BLOOM是全球最大的开放科学、开放存取多语言模型,具有1760亿参数。

该模型在NVIDIA AI上进行了训练,支持46种语言和13种编程语言的文本生成。

NVIDIA AI还提供了最强大的转换器语言模型,具有5300亿参数,Megatron-Turing NLG模型 (MT-NLG)。

LLM是当今重要的先进技术之一,涉及从文本中学的多达数万亿参数。但LLM的开发过程昂贵而耗时,需要深厚的技术知识、分布式基础设施和全栈式方法。

LLM也有助于推动实时内容生成、文本摘要等的发展。

推荐DIY文章
高通中国区董事长孟樸:5G+AI双擎赋能工业“智造”高质量发展
真实测评 | 4款热门骨传导耳机选购指南
世界最资讯丨iOS9.3.5怎么升级?iOS9.3.5正式版图文升级教程
【世界热闻】iPhone6S如何进恢复模式 苹果6S进恢复模式图文教程
焦点热文:iPhone7屏幕上的小圆点怎么打开 苹果7AssistiveTouch开启关闭方法教程
环球头条:iphone4壁纸制作及壁纸设置图文教程
精彩新闻

超前放送