【融资24小时】2023年4月25日投融资事件汇总及明细
06-18
雷锋网消息,在近日于慕尼黑举行的GTC大会上,NVIDIA发布了虚拟化平台最新版本的Virtual GPU软件v7.x。
昨天,NVIDIA在北京召开了沟通会。
NVIDIA GPU虚拟化高级解决方案架构师张洁和中国解决方案架构师李浩南详细介绍了该技术的性能和特点。
如今,GPU已经成为企业非常重要的资本和生产力工具,而虚拟化可以帮助企业将GPU资源充分分配给更多用户。
五年前,GRID虚拟GPU(vGPU)平台结合VMware Horizo??n vDGA(虚拟专用图形加速)平台,实现了Tesla GPU的虚拟化工作。
NVIDIA 的虚拟 GPU 产品包括三款旨在应对数字工作环境挑战的产品:适用于 Knowledge 工作者 的 NVIDIA GRID Virtual PC (GRID vPC) 和 NVIDIA GRID Virtual Application (GRID vApp),以及适用于 设计师 的 NVIDIA GRID Virtual PC (GRID vApp) 、工程师 和建筑师 NVIDIA Quadro 虚拟数据中心工作站 (Quadro vDWS)。
经过五年多的发展,vGPU已经从软硬件一体化发展到纯软件,从只能支持明确固定模型的GPU到现在支持最新Tesla系列的所有GPU,从支持图形图像到解决客户的问题使用图形时出现的问题。
如何在数据中心部署重负载图形应用的问题现在已经通过在虚拟GPU上实现部分GPU计算能力得到解决。
据张洁介绍,新的GPU软件Vgpu 7.x通过实时迁移等功能确保可靠性和易于管理。
其新功能包括: 运行基于 NVIDIA Quadro vDWS 的多 GPU 工作负载:),通过结合多达四个 NVIDIA Tesla GPU 的性能来处理大多数图形和计算密集型渲染,您可以体验虚拟 GPU 性能的大幅提升、模拟和设计工作流程。
使用 VMware vMotion 进行实时迁移:IT 可以通过迁移实时 NVIDIA GPU 加速的虚拟机来节省宝贵的时间和资源,而不会影响用户,也不需要计划停机。
支持NVIDIA Tesla T4 GPU:它采用与上一代Tesla P4相同的低剖面、单插槽规格,但可以实现2倍的帧缓冲。
部署 NVIDIA GPU Cloud 的虚拟机上的 AI 工作负载:NGC 为 AI 研究人员提供用于 GPU 加速的深度学习容器,例如 TensorFlow、PyTorch、MXNet、TensorRT 等。
其中,vGPU 7.x最重要的更新就是切片模式。
过去,它仅支持从一个物理 GPU 虚拟出多个 VM,现在已扩展到支持将多个物理 GPU 分配给一个 VM。
如果用户对GPU资源和计算能力有更强的要求,可以在虚拟化平台中实现多个GPU,以满足用户对高计算能力的要求。
GRID通过分时切片的方式将物理GPU上的各种资源提供给系统。
传输的显存数据相互隔离,可以根据不同的GPU性能级别划分到不同的vGPU资源中。
每个vGPU资源都是平等的。
vGPU调度性能损耗小,按需分配,充分发挥硬件价值。
多GPU支持的应用场景非常多。
例如,在原有图形工作站的一些高端场景中,会配备两块GPU。
CD场景中,一个GPU做3D建模,另一个GPU做仿真;在影视后期制作中,一个GPU用于动画建模,另一个GPU用于渲染等。
同时,vGPU 7.x与VMware最新版本的服务器虚拟化解决方案vSphere 6.7 U1配合。
可以与VMware合作,在数据中心实现带有GPU的虚拟机,实现动态热迁移。
整个迁移过程中,用户业务不会中断。
此外,张洁还提到,微软推出Win10系统后,几乎所有系统应用都需要GPU加速。
根据 LakesideSoftware, Inc 的白皮书,Windows 10 需要的 CPU 资源比 Windows 7 多出 32%。
Chrome、Skype 和 Microsoft Office 等基本办公生产力应用程序的新版本也比以往任何时候都需要更高的计算机图形性能。
GPU轻载应用对于物理机来说不是问题,但是对于虚拟化桌面来说,缺乏GPU加速会极大影响基本使用。
vGPU 7.x为轻负载应用提供了GPU加速能力,不仅解决了这一问题,还提高了VM的密度,使部署虚拟化桌面办公环境更加经济有效。
雷锋网在后续采访中了解到,vGPU 7.0还增加了对AI加速的支持。
借助能够简化AI部署的NVIDIA GPU Cloud,用户可以快速从云端拉下需要做人工智能业务的用户环境。

部署。
在管理方面,vGPU 7.x支持无意义的实时迁移。
管理员可以根据用户权限和资源需求,动态地将vGPU资源分配给不同的用户。
他们无需重新加载虚拟机即可获得对 vGPU 资源的动态响应。
用户完全不会感觉到切换过程,充分保证了使用的连续性。
张洁向雷锋网透露,为了保证GPU资源能够热迁移,NVIDIA与虚拟化厂商合作做了很多工作:第一,通过vGPU解决方案保证显存从原来的物理服务器到虚拟化服务器的完整性。
目标迁移的物理服务器。
同步;第二,保证GPU指令的同步,包括GPU指令缓存的同步,保证GPU业务从原服务器迁移到目标服务器时不会造成任何中断。
GPU虚拟化是依赖于GPU硬件的软件。
由于底层GPU硬件稳定且强大,NVIDIA的软件即使在快速迭代的情况下也能保证稳定性。
未来,NVIDIA将继续与VMware紧密合作,充分发挥双方优势,共同满足市场需求。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-17
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态