MIUI 13 Pad稳定版已上线!与苹果相比,您的体验如何?
06-21
无论是被动还是主动,大模型、AIGC、ChatGPT、Stable Diffusion、MidJourney等术语都在大家的新闻列表中轰炸。
经历了上半年的惊喜、恐慌、期待和担忧,AIGC不再是天上的福音,也不再是天网的回归。
人们开始正视它、理解它、并适当利用它。
当然,这波AIGC主要发生在云端,无论是ChatGPT,还是文心一言、同易前文这样的大型语言模型应用,还是MidJourney这样的AI生成图像应用,还有很多像Runway这样的应用使用AI生成视频的设备需要连接到互联网,因为AI计算发生在千里之外的云服务器上。
毕竟,一般来说,服务器能够提供的计算能力和存储量要比电脑和手机大很多,但这也不是绝对的。
响应速度快、无需联网的端侧AI无疑是又一个趋势,与云AI可以相辅相成。
在不久前的小米年度演讲中,小米创始人表示,小米AI模型最新的13亿参数模型已经在手机本地成功运行,部分场景可以媲美在手机上运行60亿参数模型的结果。
云。
虽然参数数量并不算多,但却说明了大模型在端侧的可行性和潜力。
在算力大得多的PC端,是否也存在大型端侧模型等AIGC应用的可行性和潜力? 8月18日,英特尔举办了技术分享会,重点分享了两个方面的信息:英特尔夏普显卡DX11性能更新、推出全新英特尔PresentMon Beta工具以及展示英特尔在AIGC领域的进展。
去年英特尔夏普台式机产品发布时,就承诺英特尔夏普显卡将持续优化升级,带来更好的体验。
随着最新Game On驱动程序的发布,英特尔夏普显卡在运行一系列DX11游戏时可实现19%的帧率提升,平均99%帧率流畅度提升约20%(相比首款驱动程序)版本)。
之前购买并使用Intel Sharp A显卡的用户,可以直接下载最新驱动,在《守望先锋 2》、《DOTA 2》、《Apex Legends》等游戏中获得体验升级。
对于正在犹豫选择显卡的用户来说,元系列的瑞轩A显卡也成为了极具竞争力的选择。
PresentMon Beta是Intel推出的一款图形性能分析工具。
它提供了Overlay(叠加视图)等功能,可以在运行游戏时在屏幕上显示性能数据,帮助玩家实时遥测GPU的电压和温度,实时分析大量信息。
您还可以查看第 99 个百分位帧时间与 GPU 使用情况的图表。
此外,PresentMon Beta 还带来了一个名为“GPU Busy”的新指标。
在这里解释一下,用户可以看到 GPU 实际使用了多少时间进行实际渲染,而不是处于等待状态,或者运行游戏的 PC 是否处于 CPU 和 GPU 平衡状态。
游戏是PC永恒的主题,而AI则是新的主题。
事实上,这波 AIGC 浪潮的主要设备是 PC,无论是 ChatGPT、MidJourney,还是 Stable Diffusion 等应用,包括基于大型模型的 Microsoft Office Copilot,或者金山 Office 的 WPS AI。
在PC上您可以获得更好的体验。
但与手机、平板电脑等其他设备相比,PC的优势不仅在于更大的屏幕和更高效的交互输入,还在于芯片性能。
在Intel谈到PC上的AIGC之前,我们注意到,在PC端运行AIGC时,往往会使用高性能游戏笔记本来运行显卡,而轻薄本往往会被排除在外。
现在,英特尔已经明确表示,基于英特尔处理器的轻薄Instinct也可以运行大型模型和Stable Diffusion。
英特尔基于OpenVINO PyTorch(英特尔推出的开源工具包,用于优化深度学习模型的推理性能并将其部署在不同的硬件平台上)的后端解决方案允许社区通过Pytorch API使用开源模型。
在英特尔客户端处理器、集成显卡、独立显卡和专用 AI 引擎上运行。
例如,开源图像生成模型Stable Diffusion(具体为AutomaticWebUI)可以通过这种方式在Intel CPU和GPU(包括集成显卡和独立显卡)上运行FP16精度模型,让用户生成文本和图像。
图片和局部修复功能。
▲ 图片来自:爱吉屋 比如这张×分辨率的蜜饼图,在Intel处理器轻薄本(仅使用i7-0H核显)上只需十秒就可以生成。
这主要得益于第13代酷睿处理器在核心数量、性能、功耗比以及图形性能方面的提升。
以14核20线程的i7-0H处理器为例,其TDP达到了45W,集成的Intel Iris Xe Graphics(96EU)显卡也不容小觑。
作为目前规格最高的核芯显卡之一,Intel Iris Xe Graphics(96EU)相比高达64EU的Iris Plus核芯显卡,基础规格有显着提升。
FP16和FP32浮点性能提升高达84%,并且还引入了INT8整数计算。
这些都增强了其AI图形计算能力,也是Intel轻薄本能够很好支持Stable Diffusion的主要原因。

过去,TDP约为45W的英特尔处理器很难适应轻薄笔记本。
不过,随着13代酷睿的出现,一大批TDP在1.4KG左右的轻薄本出现了,其中包括14核20线程的i7-0H处理器甚至更高的性能。
i7-0H处理器塞进去,让笔记本上运行Stable Diffusion快速画图不再是高性能独立显卡游戏笔记本的专属。
未来轻薄本也能胜任这项工作。
当然,Stable Diffusion本身主要运行在本地,通过芯片性能的提升和优化来运行轻薄本也是顺理成章的事情。
不过,本地端侧大模型是一个比较新的东西。
英特尔通过模型优化降低模型对硬件资源的需求,从而提高模型的推理速度,让一些社区开源模型能够在个人电脑上良好运行。
以大型语言模型为例,Intel利用第13代英特尔酷睿处理器XPU的加速、低位量化等软件级优化,使得参数多达1亿的大型语言模型可以运行在16GB和具有上述内存容量的PC。
虽然与 ChatGPT3.5 的 1 亿个参数有一个数量级的差距,但毕竟 ChatGPT3.5 运行在由 10,000 个 NVIDIA V 芯片构建的 AGI 网络集群上。
这个一亿参数的大模型通过BigDL-LLM框架运行,运行在Intel Core i7-0H或i7-0H等处理器上,专为高性能轻薄笔记本打造。
不过,这里也可以看出,PC端的大语言模型比手机端的大语言模型高了一个数量级。
已经存在了几十年的个人电脑并不是在云中运行大型模型的工具。
得益于硬件的进步,英特尔处理器支持的 PC 已经能够快速连接新兴机型,并与 HuggingFace 上的变形金刚机型兼容。
目前已验证的模型包括但不限于:LLAMA/LLAMA2、ChatGLM/ChatGLM2、MPT、Falcon、MOSS、百川、QWen、Dolly、RedPajama、StarCoder、Whisper等。
▲ 图片来自:爱吉屋技术分享会上会议上,Intel展示了运行基于Core i7-0H设备的大型模型的性能:ChatGLM-6b可以生成第一个令牌,首次延迟为0.7ms,后续令牌平均生成率为55.63 ms/token。
在自然语言处理领域,“标记”是指文本中的基本单元,可以是单词、字符、子词、标点符号或其他可以进行语义处理的最小单元。
正如您所看到的,该处理器的速度相当不错。
目前掌握的消息是,英特尔下一代处理器Meteor Lake拥有独特的分离模块架构的优势,可以更好地服务AI,包括Adobe Premiere Pro中的自动重组和场景编辑检测等多媒体功能,并实现更高效的机器学习加速。
虽然AIGC是年度关键词,但AI并不新鲜,也是英特尔近年来经常挂在嘴边的关键词。
早期的AI视频通话降噪、AI视频通话背景降噪等其实都是AI的应用。
可见,未来处理器的竞争力将不仅仅局限于核心数、线程数、主频。
能否更好地驱动AI功能将成为越来越重要的维度,也将成为未来消费者购买的因素。
产品会考虑的因素之一。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态