湖南湘投何正春:物流行业潜力巨大,并购退出渠道好
06-17
AIGC驱动中国计算产业发展机遇概述聚焦“芯片硬件、服务器、应用模型、能源散热”等计算模块全球将大力发展算力基础设施建设算力支撑与模型需求存在差距,AIGC庞大的算力需求进一步给供需结构带来压力。
自2016年Google提出Transformer架构以来,人工智能的发展逐渐进入预训练大型模型时代。
今年6月,OpenAI的GPT模型参数数量已达到1.17亿个。
模型参数数量开始实现数亿碱基的快速发展,平均每3-4个月翻一番。

这就带来了对训练算力的需求。
水涨船高。
”算力正在成为影响国家综合实力和经济发展的关键因素。
浪潮信息发布的相关报告显示,算力指数平均每提升1个点,数字经济和GDP将分别增长3.3个百分点和1.8个百分点。
面对算力层供需结构的矛盾,各国都在积极开展算力层基础设施建设。
在算力指数国家排名中,美国拥有全球超大型数据中心最多,以75分的国家算力指数排名第一,中国以66分排名第二,其次是日本、德国、英国等国家。
算力建设已成为国家高质量发展的战略方针。
年底,OpenAI的GPT模型具备能力后,AI行业迅速进入以大模型为技术支撑的AIGC时代。
大量的培训和算力需求,让本已供需不均的算力产业结构进一步承压。
目前,我国各地正在加快新一批数据中心和智能计算建设,不断优化算力资源,满足未来快速发展的大算力需求。
算力的释放符合AI模型的逻辑:先训练,后推理。
1亿美元的训练算力需求已经奠定,边缘、端侧算力的巨大需求还有待释放。
大模型需要经过训练、调优、二次开发、推理四大核心。
步。
从算力应用角度来看,可以细分为训练算力和推理算力。
**训练算力需求=模型参数量*数据集token个数*系数k。
**由此可以看出,模型训练所需的计算能力与数据集中的参数数量和token数量成正比。
AIGC预训练的承载千亿、万亿参数的大型模型需要海量的算力,给相关厂商设定了很高的算力门槛。
以OpenAI训练GPT模型为参考,1亿参数模型的训练大约需要3.14*10^23次浮点运算,相当于10天的训练耗时约10000个GPU。
国内厂商计算资源匮乏,之前购买的GPU大部分都被常规业务占用。
为了训练自己的国内大型模型,一些厂商采取计算资源分配策略,优先训练大型模型,实现资源聚合。
**推理算力要求=模型参数量*(“输入+输出”代币数量)*系数k。
**对于大型云模型,推理算力需要支持百万级用户的频繁应用。
2019年4月6日,ChatGPT因需求量大而暂停升级服务,并停止销售Plus付费项目。
国内大型模型厂商也因为推理端的算力资源容量限制了AIGC大型模型的公开测试名额。
AIGC早期,市场更多关注模型预训练的大算力层,关注GPU等高算力芯片的资源供给和消耗。
未来,本着AI模型先训练后推理的逻辑,AIGC算力层将逐步迎来推理算力更广阔、更开放的家园,带来更多去中心化的机会。
AIGC时代算力产业模式将进化。
智能算力资源可能更多地承载在云服务产品中,以MaaS模式服务于各行业。
过去,数据中心主要以租赁和自建为主,算力需求方以自身业务为主。
根据规模、财务预算、数据隐私要求等,您可以选择租赁或自建。
在AIGC时代背景下,数据中心将配备更多的AI服务器,以满足日益增长的智能算力需求。
云厂商提出了MaaS(ModelasaService)模型即服务商业模式,融合了云计算、智能算力和模型能力。
与其他资源高度集成,客户可以直接在云端调用、开发和部署模型,更好地适应客户的个性化需求。
未来,更多长尾企业的需求量将拥抱MaaS商业模式。
与云算力的发展相比,客户端大规模模型的发展虽然较慢,但仍然是各终端厂商发展的技术重点。
例如,从苹果的招聘信息中可以看出,其致力于“在客户端实现推理和加速大型语言模型”。
职能型人才需求和产品规划。
未来,随着大模型轻量级开源版本的发布,大模型有望进一步定制和优化,将推理能力部署在设备侧,带动手机、机器人等端侧芯片的发展。
数据中心需要响应高速、海量运营的需求。
大模型时代,数据中心将进一步优化网络带宽、能耗、制冷运维等。
预训练大模型的训练和推理需要海量的数据资源和全天候的高性能访问。
性能计算机。
高速运行对数据中心的网络带宽、能耗、制冷运维能力提出了更高的要求。
首先,网络是数据中心最重要的组成部分。
随着数据量和计算量的增加,数据中心需要优化网络带宽,实现数据在节点内部和节点之间的高吞吐量、低延迟的传输和连接,并进一步优化计算集群的架构和设计,保证高效利用数据中心;其次,能源消耗和碳排放是数据中心迫切需要关注的关键问题。
普通服务器的标准功耗一般为W,但AI模型运行时会消耗更多的能量。
以CPU+AI芯片(配备4卡/8卡)异构服务器为例,系统功耗一般会达到WW。
根据斯坦福大学公布的数据,GPT-3模型训练消耗的电力可供一个美国家庭使用数百年,而二氧化碳排放量相当于一个家庭近百年的排放量。
于是,OpenAI 创始人 Sam Altma 押注于核聚变公司 Helion Energy,并向其投资了 3.75 亿美元。
Helion Energy还与微软签署了购电协议,并承诺在年内将全球首台商用核聚变发电机并入电网。
,交付给微软;另一方面,由于基于大型模型算力需求的高耗能运算,热量释放成倍增加。
为了保证服务器能够长期保持合适的工作温度,数据中心将更加注重系统设计和散热技术的开发和应用。
大型车型的散热需求加速了从风冷到液冷的技术升级,进一步提高经济性、节能性和散热效率。
散热也将更加贴近热源,从机柜级散热、服务器级散热发展到芯片级散热。
目前,我国正在大力推进“东方数据、西方计算”工程,已出台《新型数据中心发展三年行动计划(年)》等政策文件,指导实施新型数据中心集约化、高密度、智能化建设,完成规模化和发展AIGC时代的中国计算产业。
网络带宽、算力利用率、绿色能源利用率等全方位提升,大模型时代数据中心优化的方向。
人工智能芯片是计算能力皇冠上的明珠。
关注其性能和运用,服务于大模型的训练和推广。
AI芯片需要进一步升级内存、带宽、互联等能力。
算力是评价AI芯片的关键。
核心要素。
芯片的性能衡量除了运算次数外,还需要考虑运算精度。
根据运算数据精度的不同,算力可分为双精度算力(FP64)、单精度算力(FP32)、半精度算力(FP16)和整数算力(INT8、INT4) 。
位数越高,运算精度越高,能够支持的运算复杂度也越高,从而适应更广泛的AI应用场景。
另外,AI芯片的性能峰值算力是指芯片能够输出的最大算力。
但由于硬件架构、算法模型特性、工具链、软件框架等因素的限制,AI芯片的算力不会得到100%的充分利用。
使用。
为了适应大型模型的训练和推理,AI芯片需要更大的内存访问带宽和更低的内存访问延迟,这推动了从GDDR到HBM的技术升级。
另一方面,它需要更高的片间互连甚至片内互连能力,以满足AI加速器对内存访问和数据交换的需求。
最后,大型集群并不等于强大的计算能力。
在大规模集群部署中,集群训练会引入额外的通信成本。
节点越多,算力利用率就越低,单点故障会影响全局运行。
因此,逐年增加GPU卡或计算节点数量并不能线性增加算力收入,我国面临的单卡芯片性能差距将更难以通过堆叠等方式解决。
AI芯片巨头英伟达正在从硬件向平台扩张。
NVIDIA 正在宣扬人工智能的“iPhone”时刻。
Allin的“生成式AI”受益于AIGC的爆发。
NVIDIA的股价再次飙升。
现在NVIDIA的估值已经达到1万亿美元。
成功进入苹果、微软、谷歌、亚马逊同属的“万亿俱乐部”,成为美股历史上第一家市值达到万亿美元的芯片公司。
今年3月,NVIDIA召开GTC(GPU技术大会)大会,推出了基于Hopper架构的产品H、为AI生成视频提供硬件支持的L4图形GPU,以及结合Grace架构CPU的GH以及Hopper架构GPU等主要产品。
此外,NVIDIA还将产品布局向上游延伸,推出历时四年的cuLitho光刻库,并与台积电、ASML、Synopsys等上游厂商合作,计算光刻速度提升40倍以上;积极拓展下游模型的应用场景。
,围绕生成AI推出了一系列加速模型训练和推理软硬件产品和服务。
8月,NVIDIA在年度计算机图形大会SIGGRAPH上宣布推出全球首款HBM3e内存,推出下一代GHGraceHopper超级芯片,并宣布与Huggingface合作,协助生成式AI模型的高效开发和部署。
综上所述,NVIDIA早期通过软硬件产品的结合,奠定了其在AI芯片领域的领先地位。
如今跟随生成式AI浪潮,NVIDIA进一步拓展上下游布局,旨在打造围绕行业上下游运营的应用开发生态系统,进一步深化公司的技术和生态护城河。
中国算力产业将坚持走自主创新之路。
英伟达能否继续保持强势?中国何时才能迎来自主创新芯片的曙光?算力作为AIGC行业的基础设施层,是AIGC生产力瓶颈的关键一环。
对此,算力厂商纷纷发力,AMD、英特尔等追赶企业频频为AIGC推出新品。
对比NVIDIA的GraceHopper,AMD推出“CPU+GPU”双架构InstinctMI进军AI训练端。
Intel即将在2020年发布FalconShores GPU,将其混合架构改为纯GPU解决方案。
全球范围内掀起了一股 GPU 购买热潮。
马斯克正在抢购 10,000 张卡,加入 AIGC 战争。
不过,除了过去的库存之外,国内厂商受中美禁令限制,只能采购NVIDIA H版GPU,在算力和带宽方面都受到很大限制。
目前,国内大型模型训练芯片仍以NVIDIA GPU为主。
作为首批完成训练和部署框架及平台生态的公司之一,NVIDIA将进一步巩固其在生成式AI领域的主导地位。
不过,国内客户正在积极与国内外追赶企业合作。
如果AMD接触,则意在打破Nvidia的溢价和垄断体系。
2016年以来,美国陆续对中国企业实施贸易管制,美国列入黑名单的中国企业数量已达千余家。
尤其是在半导体、人工智能等先进技术领域,国产芯片实现自主创新刻不容缓。
中国科技部也出台政策推动公共人工智能算力平台建设。
国产芯片虽然在薄膜生产方面取得了突破,但尚未进入成熟阶段。
从适应AIGC大模型训练的角度来看,国产产品会存在宕机、兼容性差、AI框架支持度低、核心IP有限等过渡性问题。
AIGC浪潮下,AI芯片的发展路径将更加聚焦AISC品类。
中国算力层也将进一步尝试摆脱对领先厂商NVIDIA的依赖,以“云巨头自研自用+独立/初创公司服务信息创新和运营”的商业及其他ToG和ToB市场”是两条主要发展路径,等待国产替代的曙光和实现国产“算力+应用”的正循环。
#阿里云#创业者计划#中小企业服务#9月21日,创新创业年,阿里云正式启动阿里云创业者计划,联合知名投资机构、加速器、服务创造机构以及大企业的创新力量,旨在为初创企业提供全方位的赋能和服务,帮助初创企业在阿里云上快速建立自己的业务,开启智能时代的创业新范式。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-17
06-17
06-17
06-18
06-18
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态