• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.
  • 元宇宙
  • AI
  • AI资讯
  • 英特尔发布1万亿参数的AI巨无霸模型Aurora genAI,超越ChaGPT近6倍!

英特尔发布1万亿参数的AI巨无霸模型Aurora genAI,超越ChaGPT近6倍!

  • 2023年5月26日 13:17

在人工智能领域,模型参数规模一直是衡量模型能力的重要指标。最近,英特尔发布了一款名为Aurora genAI的AI大模型,该模型具备惊人的1万亿参数,是目前领先的AI模型之一。然而,是否越大的参数就意味着越好的性能呢?本文将探讨模型参数规模与实际表现之间的关系。



一、英特尔公布AI大模型Aurora genAI,具备1万亿参数

近日,英特尔公布了其旗下生成式AI大模型Aurora genAI。据报道,Aurora genAI的参数量高达1万亿,该模型的开发依赖于Megatron和DeepSpeed框架,这些结构增强了模型的强度和容量。与此相比,ChatGPT模型的参数量为1750亿,这意味着Aurora genAI的参数量是ChatGPT的近6倍。

Aurora genAI模型是由英特尔与阿贡国家实验室和HPE合作开发的,它是一个以科学为中心的生成式AI模型,将应用于各类科学应用,包括分子和材料设计,甚至涵盖数百万来源的综合知识素材,为系统生物学、高分子化学、能源材料、气候科学和宇宙学等领域提供值得探索的实验设计思路。这些模型还将用于加速癌症及其他疾病相关生物过程的识别速度,并为药物设计提供靶点建议。

除了科研应用,Aurora genAI还具有在自然语言处理、机器翻译、图像识别、语音识别、金融建模等商业领域的潜在应用价值。阿贡实验室副主任Rick Stevens介绍说:“这个项目希望充分利用Aurora超级计算机的全部潜力,为能源部各实验室的下游科学研究和其他跨机构合作计划提供资源。”

据介绍,Aurora genAI模型将通过对生物学、化学、材料科学、物理学、医学等学科的常规文本、代码、科学文本和结构化数据进行训练而得。阿贡实验室正在组织国际合作推进该项目,参与方包括英特尔、HPE、能源部各下辖实验室、美国及其他国际高校、非营利组织以及RIKEN等国际合作伙伴。

Aurora genAI模型将在英特尔为阿贡国家实验室开发的Aurora超算上运行,其性能达到了200亿亿次,是当前TOP500超算冠军Frontier的2倍。最近,英特尔和阿贡国家实验室还公布了Aurora的安装进度、系统规格和早期性能测试结果:

英特尔已完成Aurora超级计算机1万多块刀片服务器的交付。

Aurora的完整系统采用HPE Cray EX超算架构,将拥有63744个GPU和21248个CPU,辅以1024个DAOS存储Node。Aurora还将配备HPE Slingshot高性能以太网络。

早期性能结果显示,Aurora超算系统在实际科学和工程负载上具有领先性能,性能表现比AMD MI250 GPU高出2倍,在QMCPACK量子力学应用程序上的性能提高了20%,并且能够在数百个Node上保持近线性的算力扩展。作为ChaGPT的有力竞争者,Aurora genAI的公布预示着AI大模型赛道又迎来了新的重磅玩家,并有可能在未来对各种科学领域产生重大影响。然而,目前Aurora genAI更像是处于概念阶段,英特尔的目标是到2024年完成Aurora genAI模型的构建。

对于英特尔的万亿参数AI大模型Aurora genAI,一些网友表示:“我不相信仅仅增加参数数量就能改进模型,我认为我们不应该发布新闻稿追逐增加参数数量。我在研究中还发现,较大的模型通常不会表现得更好,但由于不负责任的营销,这变得越来越难以向非技术人员解释。如果我们对这些营销放任不管,我们会让很多人失望,并降低大家对AI未来增长潜力的信心——我们不想要另一个AI寒冬。训练这些大型模型会产生巨大的环境成本,而且理解、使用和控制这些非常大的模型(即使作为研究人员)也变得更加困难。”


二、AI军备竞赛进入“万亿参数模型”对抗时代?

近几年,随着AI大模型赛道的持续升温,越来越多的科技巨头加入其中,并不断打破参数规模的记录。

2021年1月,谷歌大脑团队推出了超级语言模型Switch Transformer,该模型拥有1.6万亿个参数,当时是规模最大的自然语言处理模型。同年6月,智源研究院发布了悟道2.0,该系统的参数数量已超过1.75万亿,是当时全球最大的大规模智能模型系统。同年11月,阿里达摩院发布了多模态大模型M6,其参数数量从万亿级跃升至10万亿,成为当时全球最大的AI预训练模型。

有分析指出,中美之间的AI军备竞赛的核心战场正在逐渐转向万亿级参数的预训练模型。构建千万亿参数规模的预训练模型是一个超级工程,可能对国家甚至人类社会产生重大影响。

模型参数越大是否就意味着越好呢?

判断一个大模型是否优秀不能仅仅看参数的大小,还需要考虑实际表现。只有当模型在任务上表现良好时,我们才能认为这是一个好模型。参数不是问题,当机器的存储和计算能力足够强大时,大模型也可以转化为小模型。此外,还需要考虑模型的可解释性以及对噪声攻击的容忍度。如果模型具有一定的解释能力,并且不容易受到噪声数据或其他因素的干扰,那么这也是一个好模型。

总而言之,随着技术的不断发展,AI大模型的参数规模不断刷新纪录,引发了关于参数大小与性能之间的辩论。虽然大模型在某些任务上表现出色,但参数规模并不是唯一的衡量指标。我们应该更加注重模型的实际表现、可解释性和鲁棒性,以确保其在实际应用中的效果。通过不断探索和研究,我们将能够更好地理解模型参数与性能之间的关系,推动人工智能技术的发展和应用。

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM