北京博瑞耀明创业投资有限公司上官鸿:文化创意产业并购机会很多
06-17
12月19日,摩尔线程首个国产千卡千亿模型训练平台——摩尔线程KUAE智计算中心揭牌仪式发布会在北京成功召开,宣布我国首个基于国产全功能GPU的大规模计算集群正式发布。
同时,摩尔线程联合国内众多合作伙伴发起并成立了摩尔线程PES-KUAE智计算联盟和摩尔线程PES-大模型生态联盟,共同巩固国内大模型从智算基础设施到大模型训练和推理。
融合生态持续加速我国大模型产业发展。
Moore Thread CEO张建中在主题演讲中带来了重大公告,包括大型模型智算加速卡MTT S,以及Moore Thread KUAE平台,旨在为数千亿参数的大型模型的训练和推理提供强大支持。
他表示:“Moore ThreadKUAE智计算中心的正式启用是公司发展的重要里程碑。
Moore Thread依托全功能GPU的多重计算优势,打造了从芯片到显卡到集群的智算产品线”满足日益增长的大模型训练和推理需求,利用绿色安全的智能算力,大力推动AIGC、数字孪生、物理仿真、元宇宙等多模态应用的落地和高质量发展。
数以千计的行业。
”新款智算加速卡MTT S:兼顾训练和推广,摩尔线程大模型智算加速卡MTT S专为大型模型打造,采用第三代MUSA核心,单卡支持48GB显存和GB。
/s的显存带宽。
基于摩尔线程自研的MTLink1.0技术,MTT S可支持多卡互联,帮助加速千亿级大型模型的分布式计算,同时MTT S提供先进的图形处理能力。
渲染能力、视频编解码能力、超高清8K HDR显示能力,帮助实现AI计算、图形渲染、多媒体等综合应用场景。
开发的MUSIFY开发工具,MTT S计算卡可以充分利用现有的CUDA软件生态系统,实现CUDA代码零成本迁移到MUSA平台。
摩尔线程KUAE智计算中心解决方案:软硬件一体化,开箱即用摩尔线程KUAE智计算中心解决方案基于全功能GPU,是软硬件一体化的全栈解决方案,包括基础以KUAE计算集群为核心设施,KUAE Platform集群管理平台和KUAE ModelStudio模型服务旨在以集成交付的方式解决大规模GPU算力的建设和运营管理问题。
该方案可开箱即用,大幅降低传统算力建设、应用开发和运维平台建设的时间成本,实现快速上线市场进行商业运营。
基础设施:包括KUAE计算集群、RDMA网络和分布式存储。
此次发布的Moore Thread KUAE千卡模型训练平台仅需30天搭建,支持千亿参数模型预训练、微调和推理,可实现高达91%的千卡集群性能扩展系数。
基于MTT S和双通道8卡GPU服务器MCCX D,摩尔线程KUAE集群支持从单机多卡到多机多卡、从单卡到千卡的无缝扩展簇。
未来还将推出更大规模的集群,以满足更大规模的大模型训练需求。
KUAE Platform集群管理平台:AI大模型训练、分布式图形渲染、流媒体处理和科学计算的软硬件集成平台。
深度融合全功能GPU计算、网络、存储,提供高可靠、高算力服务。
。
通过该平台,用户可以灵活管理多数据中心、多集群计算资源,整合多维度运维监控、报警和日志系统,帮助智算中心实现运维自动化。
KUAE ModelStudio模型服务:覆盖大模型预训练、微调、推理全流程,支持所有主流开源大模型。
通过Moore Thread MUSIFY开发工具,您可以轻松复用CUDA应用生态,内置容器化解决方案可实现一键API部署。
该平台旨在提供大型模型的生命周期管理。
通过简单易操作的交互界面,用户可以按需组织工作流程,大幅降低大型模型的使用门槛。
Moore Thread KUAE Kilocard Cluster:多重优势,促进大型模型高效训练。
分布式并行计算是实现大型人工智能模型训练的关键手段。
Moore Thread KUAE支持DeepSpeed、Megatron-DeepSpeed、Colossal-AI、FlagScale等业界主流分布式框架,集成了数据并行、张量并行、流水线并行、ZeRO等多种并行算法策略,专为高性能计算而设计。
效率针对通信计算并行性和Flash Attention进行了额外的优化。
目前摩尔线程支持包括LLaMA、GLM、Aquila、百川、GPT、Bloom、语言等多种主流大模型的训练和微调。
基于摩尔线程KUAE千卡集群,线性加速比可达91%对于70B to B参数的大模型训练,算力利用率基本保持不变。
以1亿训练数据量为例,致远研究院的1亿参数Aquila2可以在33天内完成训练; 1亿参数的模型可以在56天内完成训练。
此外,摩尔线程KUAE千卡集群支持长期持续稳定运行,支持断点续传训练,异步checkpoint小于2分钟。
摩尔线程KUAE千卡计算集群凭借高兼容性、高稳定性、高扩展性和高算力利用率的综合优势,将成为大模型训练坚实可靠的先进基础设施。
智算与大模型生态联盟:多方协作推动生态融合 大模型时代,以GPU为代表的智能算力是生成式AI世界的基石和中心。
摩尔线程与中国移动北京公司、中国电信北京分公司、联想、21世纪互联、光环新网、中联重科数据、数道智算、中发智源、旗商在线、北电数字北京数字经济计算等十余家企业合作、紫光恒跃、瑞华实业控股(山东)、赛尔网络、中科金融、中云智算、锦州远航(排名不分先后),联合宣布“摩尔丝PES——KUAE智算联盟”成立。
联盟将大力打造并从底层硬件到软件、工具和应用推广全国性的智算平台,旨在实现集群的高利用率,成为具有易用性、全栈智算解决方案的大型模型训练平台。
摩尔线程分别与中联重科数据、数道智算现场签约,并共同为摩尔线程KUAE智计算中心揭牌。
在场的众多嘉宾共同见证了这一重要时刻。
人工智能应用突破,生态是关键。
为此,摩尔线程携手飞票、京东燕西、智普AI、超对称、无文新琼、迪普科技、网易、清华大学、复旦大学、浙江大学、北京理工大学、凌云光、瑞来等众多大型模型生态合作伙伴智慧、南威软件等(排名不分先后)发起并成立了“摩尔线程PES——大模型生态联盟”。
摩尔线程将以MUSA为中心的软硬件一体化大模型解决方案,与广泛的生态合作伙伴积极开展兼容性适配和技术优化工作,共同推动国内大模型生态系统的整体繁荣。
最后的圆桌对话环节,摩尔线程副总裁董龙飞、国能绿色数字科技(中卫)有限公司董事长胡强、智普智能CEO张鹏、智普智能首席人工智能科学家裴继权京东云、中金资本董事总经理翟盈、超对称创始人吴恒奎、数道智算董事长甄健等重要嘉宾就当前大型企业算力需求等话题进行了深入探讨。
模型以及智算中心的建设和运营。

嘉宾们一致认为,智算中心不仅是硬件的积累,更是对软硬件一体化的GPU智算系统的集成能力、GPU分布式计算系统的适配、算力集群的管理和管理能力的考验。
有效的推理。
引擎等的应用,都是提高算力中心可用性的重要因素。
国内智算中心的发展依赖于各方需求和优势的充分融合。
只有产业集聚,才能实现整个生态系统的协同,推动国内产业的发展。
关于摩尔线程:摩尔线程智能科技(北京)有限公司是一家专注于全功能GPU芯片设计的集成电路高科技公司。
它可以为广泛的技术生态合作伙伴提供强大的计算加速能力,致力于为下一代互联网提供多种计算能力的元计算平台。
更多信息请访问摩尔线程雷锋网官网(公众号:雷锋网)雷锋网版权文章未经授权禁止转载。
详情请参见转载说明。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-17
06-17
06-18
06-21
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态