加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 站长资讯 > 动态 > 正文

全球最大 AI 芯片打破单设备训练大模型记录

发布时间:2022-06-30 18:25:37 所属栏目:动态 来源:互联网
导读:以造出世界上最大加速器芯片 CS-2 Wafer Scale Engine 闻名的公司 Cerebras 昨日宣布他们已经在利用巨芯进行人工智能训练上走出了重要的一步。该公司训练出了单芯片上全世界最大的 NLP(自然语言处理)AI 模型。 实际上,如果只讨论数字,Cerebras 开发的
  以造出世界上最大加速器芯片 CS-2 Wafer Scale Engine 闻名的公司 Cerebras 昨日宣布他们已经在利用“巨芯”进行人工智能训练上走出了重要的一步。该公司训练出了单芯片上全世界最大的 NLP(自然语言处理)AI 模型。
 
  实际上,如果只讨论数字,Cerebras 开发的这一模型 20 亿的参数量在同行的衬托下,显得有些平平无奇。
 
  前面提到的 DALL.E 模型具有 120 亿个参数,而目前最大的模型是 DeepMind 于去年年底推出的 Gopher,具有 2800 亿个参数。
 
  但除去惊人的数字外,Cerebras 开发的 NLP 还有一个巨大的突破:它降低了 NLP 模型的开发难度。
 
  「巨芯」如何打败 GPU?
  按照传统流程,开发 NLP 模型需要开发者将巨大的 NLP 模型切分若干个功能部分,并将他们的工作负载分散到成百上千个图形处理单元上。
 
  数以千百计的图形处理单元对厂商来说意味着巨大的成本。
 
  技术上的困难也同样使厂商们痛苦不堪。
 
  切分模型是一个定制的问题,每个神经网络、每个 GPU 的规格、以及将他们连接(或互联)在一起的网络都是独一无二的,并且不能跨系统移植。
 
  厂商必须在第一次训练前将这些因素统统考虑清楚。
 
  这项工作极其复杂,有时候甚至需要几个月的时间才能完成。
 
  Cerebras 表示这是 NLP 模型训练中“最痛苦的方面之一”。只有极少数公司拥有开发 NLP 所必要的资源和专业知识。对于人工智能行业中的其他公司而言,NLP 的训练则太昂贵、太耗时且无法使用。
 
  但如果单个芯片就能够支持 20 亿个参数的模型,就意味着不需要使用海量的 GPU 分散训练模型的工作量。这可以为厂商节省数千个 GPU 的训练成本和相关的硬件、扩展要求。同时这也使厂商不必经历切分模型并将其工作负载分配给数千个 GPU 的痛苦。

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读