半导体激光芯片柠檬光子获5000万元A+轮融资,由德联资本领投
06-18
最新超级计算机冲刺全球前5! OpenAI 10 亿级 AGI 的梦想何时实现? 2019年7月,微软宣布向总部位于旧金山的人工智能非营利组织OpenAI投资10亿美元。
它将与OpenAI长期合作,打造全新Azure AI超算技术,进一步拓展大规模AI能力,实现其通用人工智能。
智能的承诺 (AGI)。
作为交换,OpenAI 同意将其部分知识产权授权给微软,微软随后将其商业化并出售给合作伙伴,并在 OpenAI 开发下一代计算硬件时在 Azure 上训练和运行人工智能模型。
几个月后,他们合作的第一个成果向全世界揭晓。
最新超级计算性能堪比全球前5。
当地时间5月19日,微软在Build开发者大会上宣布推出专为OpenAI的AI模型设计的超级计算机。
超级计算机性能有一个著名的国际标准——TOP。
TOP 榜单始于 2016 年,对世界上性能最好的超级计算机进行基准测试和改进。
事实上,TOP每年六月和十月都会更新排名。
最新排名显示,前5名分别是IBM公司开发的Summit、IBM公司开发的Sierra、我国的“神威·太湖之光”、我国的“天河二号”以及戴尔易安信公司开发的Frontera。
微软表示,与OpenAI合作开发的最新超级计算机跻身全球前5名,这意味着它在峰值时每秒可以执行38.7至0.7万亿次浮点运算。
雷锋网获悉,这台超级计算机拥有 1 个 CPU 核心、10 个 GPU 和 Gbps 网络连接。
目的是训练大规模人工智能模型,这些模型利用出版书籍、教学手册、历史课程、人力资源指南和其他公开资源中的数十亿页文本。
例如:NVIDIA自然语言处理模型,包含83亿个可用于模型内部预测的参数或可配置变量;微软图灵模型,包含1亿个参数,是全球最大的公开语言AI模型; Facebook 最近开源的 Blender 聊天机器人框架包含 94 亿个参数; OpenAI 的 GPT-2 模型包含 15 亿个参数,可以通过简短的提示生成令人印象深刻的人性化文本。
对此,OpenAI首席执行官Sam Altman评论道:随着我们越来越了解我们的需求以及构成超级计算机的所有组件的不同约束,我们发现一旦有人能够设计出他们梦想的系统,微软就可以开发它。
我们看到更大的系统是训练更强大模型的重要组成部分。
研究表明,这些大型模型表现良好,因为它们能够准确识别语言、语法、知识、概念和上下文的细微差别,使它们能够执行多项任务:总结冗长的演讲、在实时游戏聊天中调节内容、查找相关段落数千份法律文件,甚至可以通过浏览 GitHub 生成代码。
微软已经开始使用图灵模型来增强 Bing、Office、Dynamics 和其他生产力产品中的语言理解。
过去一年来,微软的图灵模型已在整个微软范围内使用,以提高生产力:Bing 的字幕生成和问答功能显着改进,搜索问题的答案在某些领域提高了高达 %。
Office中的智能搜索功能得到了完善,例如:Word中的搜索功能、Word中提取重要句子以快速定位关键信息的Key Insights功能、Outlook中可以自动生成回复的建议回复功能; Dynamics Sales Insights 使用此模型,可以根据与客户的互动向卖家推荐进一步的操作。
从技术角度来看,大型模型优于之前模型的地方在于自我监督。
这意味着他们可以通过数据各部分之间的关??系从数据生成标签,这对于实现人类水平的人工智能至关重要。
另一方面,监督学习算法是在人类标记的数据集上进行训练的,并且可能很难针对特定行业、公司或主题的任务进行微调。
正如微软首席技术官 Kevin Scott 所说:这些模型的令人兴奋之处在于它们能够实现的广度,而潜在的好处远远超出了一个 AI 模型的微小进步。
这就像在自然语言处理和计算机视觉中同时做数百件令人兴奋的事情。
这些传感领域的结合将带来新的应用,甚至是一些现在难以想象的应用。
OpenAI 迄今为止最大的赌注 OpenAI 长期以来一直表示,强大的计算能力是实现 AGI 的唯一途径,也是 AI 学习人类可以完成的任何任务的唯一途径。

然而,目前尚不清楚这台超级计算机是否强大到足以实现接近通用人工智能的目标。
2018年,OpenAI发布分析显示,用于最大限度人工智能训练的计算机数量从2008年到2016年增加了30万多倍,在3个半月内翻了一番,远远超过了摩尔定律的速度。
2018年,格雷格·布罗克曼在接受外媒《金融时报》采访时表示,大约在同一时间,OpenAI将使用微软全部10亿美元投资来构建一个可以运行“人脑大小的AI模型”的系统。
尽管包括两位人工智能先驱 Yoshua Bengio 和 Yann LeCun 在内的行业名人都认为 AGI 是不可能的,但 OpenAI 的联合创始人和支持者——Greg Brockman、首席科学家 Ilya Sutskever、Elon Musk、Reid Hoffman 和前 Y Combinator 总裁 Sam Altman 却认为强大的计算机结合强化学习等技术可以改变AI的发展模式。
这台超级计算机的推出可以说代表了 OpenAI 迄今为止对这一愿景的最大赌注。
图灵模型与通用人工智能相去甚远,但微软表示将利用超级计算机探索大规模模型,这些超级计算机可以从文本、图像和视频数据中以通用的方式学习。
事实上,OpenAI 也是如此。
外媒此前报道称,OpenAI的Foresight团队进行了一项实验,测试他们通过使用越来越大量的数据和计算来训练算法,能够在多大程度上提升AI能力。
此外,OpenAI正在开发基于图像和文本等数据的系统,该系统使用大量计算资源,被公司领导认为对于实现AGI极具前景。
事实上,格雷格·布罗克曼(Greg Brockman)和山姆·奥尔特曼(Sam Altman)特别相信,通用人工智能将比任何人类掌握更多的领域,主要是识别人类无法识别的复杂的跨学科联系。
与此同时,他们预测,AGI 通过与社会科学等相关领域的研究人员密切合作,可以帮助解决气候变化、医疗保健和教育方面的长期挑战。
与此同时,其他参与者继续获得动力。
不久前,IBM详细介绍了一款“神经计算机”。
IBM 使用数百个定制设计的芯片实现了每秒 10,000 帧的训练时间,创下了新纪录。
北京时间2020年5月14日,NVIDIA还发布了第八代Ampere GPU A,AI算力提升20倍,号称史上最大性能飞跃。
有证据表明,效率的提高可能会抵消不断增长的计算需求。
最近的另一项 OpenAI 调查发现,自 2016 年以来,在流行基准 (ImageNet) 上训练 AI 模型达到相同图像分类性能所需的计算量每 16 个月减少两倍。
但与新算法方法相比,计算对性能的贡献程度仍然是一个悬而未决的问题。
此外,值得一提的是,OpenAI 在游戏和媒体合成方面以更少的资源取得了显着的 AI 收益:在 Google 云平台上,为了完善自身,OpenAI 5 必须运行在 Nvidia Tesla P 显卡和 00 处理器核心上击败 Dota 2 职业选手(以及公开比赛中 99.4% 的玩家)。
OpenAI 在至少 64 个 Nvidia V 显卡和机器上训练了一个系统,每个显卡和机器都有 32 个 CPU 核心,以用机械手操作魔方。
OpenAI 的点唱机模型在 V 显卡上运行模拟,并学习从头开始生成任何风格的音乐(包括歌词)。
微软迎来新的市场机会 从另一个角度来看,无论最新的超级计算机只是一个小小的垫脚石,还是朝着AGI目标迈出的一大步,它实际上可能会给微软带来新的市场机会。
。
雷锋网了解到,通过AI at Scale计划,微软正在提供资源,以优化的方式在Azure AI加速器和网络上训练大型模型。
它将训练数据分成批次,以便在集群中训练模型的多个实例,并定期对它们进行平均以生成单个模型。
此外,在Build开发者大会上,微软还发布了新版本的PyTorch开源深度学习库DeepSpeed,降低了大规模分布式模型训练所需的算力,可以训练超过15个大规模分布式模型在同一架构上。
速度提升10倍以上、速度提升10倍以上的模型也支持ONNX Runtime分布式训练。
微软表示,当与 DeepSpeed 一起使用时,ONNX 上的分布式训练使模型能够在硬件和操作系统上实现高达 17 倍的性能提升。
正如微软首席技术官 Kevin Scott 所说:通过开发这种用于训练大规模人工智能模型的尖端架构,我们正在让 Azure 变得更好。
我们正在建造更好的计算机、更好的分布式系统、更好的网络、更好的数据中心。
这些将推动 Azure 实现更好的性能、成本和灵活性。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-06
06-18
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态