小鹏汽车宣布完成C+轮近5亿美元融资,高瓴、红杉等投资
06-17
上周,AIGC的变化让世界为之疯狂。
每天醒来可能都是一个“新世界”。
但从另一个角度来看,无论AIGC多么聪明、多么具有颠覆性,我们仍然处于“旧世界”,或者准确地说,应该是“候选”世界。
不仅是新的Bing,Github Copilot的这个过程与计划经济的配给制度非常相似。
随着AIGC提供更多服务,包括对GPT-4和Midjourney V5等原有服务的升级,候补时间似乎有所延长。
▲ Midjourney V5 到目前为止,不少人仍在新 Bing 的候补名单上,更不用说其他较新的生成式 AI 体验了。
也许是为了对Waitlist潜规则的无声抵抗,有人制作了一个可以“一键全部排队”的网站。
然而讽刺的是,“一键加入”功能还没有准备好。
需要先加入Waitlist等待,网站域名后缀是wtf,充满了怨念。
等待名单背后的原因是为了更稳定的服务。
当我向 Bing 提出这个问题时,Bing 从 OpenAI 官网的三个页面中找到了四个原因。
限制用户数量,保证服务质量和稳定性。
收集用户反馈,改进服务功能和体验。
提高用户期望和参与感,提高服务知名度和美誉度。
筛选出符合目标群体的用户,提高服务转化率和留存率。
而这更像是OpenAI、微软、谷歌等大公司关于无限期等待的一些官方说辞。
相对而言,ChatGPT 是最先接触公众的。
随着型号升级和大幅降价,ChatGPT的服务也经历了不小的波动。
我们遇到过吞掉问答记录、电脑宕机、问答列表混乱等稳定性问题。
基于OpenAI的新Bing也有过多的说辞。
到目前为止,微软还限制了新必应中对话的数量和长度。
您可能会说,限制使用 ChatGPT 和新 Bing 的人数可以提供更稳定、更快的响应和内容生成。
但要知道这些功能和服务消耗了相当大的资源,几乎占据了微软Azure一半的算力。
目前AIGC尚未迎来超级App,仍处于快速迭代过程中。
甚至可以说现在还是beta测试版本。
通过传统的对话框与AI交互,其实并不适合年轻人拥有智能手机的情况。
AIGC现在只能算是一种功能,而即将推出的Copilot、Firefly等则更像是产品。
▲ Office 的 Copilot 功能仍未对外开放,陆续躺在 Waitlist 中。
从某种角度来看,微软、谷歌、Adobe仍在“打磨”自己的产品,但从另一个角度来看,如果他们想要向所有人敞开大门,或者让AI成为每个人的副驾驶,他们还需要做出一些突破。
蓬勃发展的AIGC可能开始遇到瓶颈。
这里的“瓶颈”并不是外在表现在生成式AI遇到的伦理、法律法规,或者其反应的准确性,而是AI背后的硬件。
提供计算能力,以及用于训练的各种云计算能力,微软正在继续大力投资OpenAI,投资数十亿美元的基于GPT-4的新Bing正在逐渐涌现,而新的Office仍在等待名单中。
同时,为了保证新的Bing以及后续带有Copilot功能的新Office能够稳定、快速地响应,微软还提供并保留了其Azure云服务的一半计算能力和计算能力。
导致微软内部Azure计算资源短缺。
The Information采访了微软内部员工,鉴于硬件计算资源有限,微软正在实施内部硬件Waitlist制度。
微软内部其他开发机器学习模型的团队和部门想要调用Azure的AI云服务需要逐级审批和汇报,最终由副总裁做出决定。
正当我们排队体验新的生成式人工智能服务时,除了新的 Bing 和新的 Office 和 OpenAI 服务外,微软的其他部门也在等待多余的 Azure 云计算能力。
不过,随着微软的All in OpenAI战略,Azure云相关的算力和容量也非常紧张。

除了内部调用之外,Azure还提供多种产品和服务,包括AI、计算、容器、混合云、IoT等。
作为云服务提供商,Azure目前业务拓展至全球60多个地区,其外部服务器产品和云服务收入占微软总收入的36%。
不过,与微软内部团队类似,购买Azure的客户也受到计算能力有限的影响。
特别是,如果他们想要调用 Azure OpenAI,仍然需要加入 Waitlist。
年底左右,微软计划添加更多硬件(GPU或TPU)以扩展更多计算能力。
还与NVIDIA达成协议,将在Azure中添加数万张HGPU计算卡,为后续的OpenAI提供更高的AI训练和推理效率。
不过,微软和Nvidia尚未透露H在Azure中的部署情况。
微软内部只有少数团队拥有H的调用权限(很可能是新的Bing和Office),大多数部门仍然被排除在外。
一块H的大概价格可能在24万元左右。
以此为参考,微软将需要投资数亿美元来扩展Azure的容量。
不仅是微软,谷歌、甲骨文等云服务提供商都在大力投资GPU等硬件,以扩大其云服务的容量,为AIGC彻底爆发前的算力做好准备。
▲ NVIDIA CEO 黄仁勋与 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 不过,从 GTC 发布到现在,NVIDIA 一直没有公布 H 的供应和销售情况,微软对 Azure 的扩张计划是否有效也不得而知。
在今年的GTC上,NVIDIA并没有带来H、A硬件方面的进展,而是一直在强调NVIDIA在云计算硬件方面的优势。
而其首席技术官也开始强调“加密货币对社会没有任何有益的贡献”。
他也开始从侧面强调,AIGC领域将是英伟达未来30年重点关注的领域。
随着 AIGC 领域的不断迭代,NVIDIA 的股票也自 2019 年 10 月左右开始增长,一扫之前因加密货币衰退造成的业务下滑。
目前,NVIDIA的市值已经达到了高点,几乎等于Intel、AMD、ARM的市值总和。
不过,如此高的市值似乎并没有改善硬件的供应状况。
相反,随着谷歌、微软等大公司不顾成本资源投入云计算硬件,根据英伟达此前的供货情况,很可能会再次出现工业显卡恐慌。
情况。
不仅是硬件供给情况,这些高性能GPU组成的计算矩阵也拥有高算力。
单张带有SXM接口的H计算卡的算力就达到W。
用于AI模型训练和大数据处理的计算中心的功耗实际上是惊人的。
加州大学的David Patterson和Joseph Gonzalez通过研究表明,训练GPT-3大约需要1.0吉瓦时的电力,相当于一个美国家庭一年的用电量。
同时,本文还发现,训练GPT-3会产生数吨碳排放,相当于一辆汽车一年的排放量。
他们还强调,这只是模型的训练成本。
随着它涌入市场,也会消耗更多的资源,这可能比培训成本还要高。
OpenAI的GPT-3使用1亿个参数或变量,而GPT-4的参数预计在1亿到1亿之间。
在能源消耗方面,对云计算的需求只会不断增加。
为此,OpenAI CEO Sam Altman 在接受 The Verge 采访时表示,OpenAI 正在寻找有效的方法来提高模型的性能和安全性。
换句话说,OpenAI也在尝试寻找通过更高效的算法来节省硬件和电力资源来训练和运行模型的方法。
Waitlist机制,从浅层次上保证了当前AIGC的体验以及相关服务的响应速度。
但从更深层次的角度来看,这也是一种资源的竞争。
它是以GPU和TPU为核心的云计算中心的计算能力和容量之间的竞争。
从宏观上看,这也是一场高投入、高能耗的竞争。
截至目前,AIGC仍处于“盲盒”阶段,资源需求和占用情况仍不明确。
不过,站在各种AI服务的Waitlist队列中,确实很像科幻电影里的人,不断排队进入AI控制的工厂,为其运转提供必要的资源。
Waitlist是虚拟世界中的等待名单,也可能是未来现实世界中为AI服务的队列。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-06
06-18
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态