智能制造网 智能制造网 智能制造网

NVIDIA 专业图形领域创新生产力工具盘点

图形、视觉、大规模并行计算不仅仅是纯IT领域的热点,对制造业数字化转型实践同样也是焦点话题,而在这些热点背后我们始终无法绕开一个关键设备——显卡。但对于NVIDIA来说,显卡仅仅是其产品大厦的一角,各专业应用领域工程师、科学家,都可以在NVIDIA的产品体系中找到属于自己的解决方案,基于GPU衍生出的各种创新生产力工具已经全面开花。

实时仿真和协作平台Omniverse

对于Omniverse,在刚刚结束的春季GTC上黄仁勋是这样扫描的,“Omniverse 可以创建共享虚拟 3D 世界,就像尼尔·斯蒂芬森在 1990 年代的小说《雪崩》中所描述的科幻虚拟空间那样。”在Omniverse打造的虚拟世界中,全球承担不同任务的工程师、科学家,产业链中不同需求的供需方,可以通过不同的入口汇聚在这里,在多个GPU的支持下,实现高物理精度,并充分运用RTX实时光线追踪、DLSS技术,以及NVIDIA MDL模拟材料、NVIDIA PhysX物理模拟,NVIDIA AI完成设计、仿真、优化以及设计审批等所有业务场景。
对于制造业来说,随着企业数字化转型的逐步深入,企业中承担不同任务的各种软件、系统、平台也越来越多,这些软件和系统都会生成并管理自己特有的数据。同时,不同系统之间还需要进行大量的数据调用。数据在企业中越聚越多,这些数据既是企业的核心资产,也是管理过程中的巨大负担。NVIDIA引入的“数据引力”概念形象的概括了这种现象,数据级越来越大就意味着越难以迁移这些数据,就仿佛现实世界中物体质量越大其惯性也越大一样。随着数据量的不断增加,越来越多的应用都会被吸附在这些数据集上。数据将不同的应用整合在一起,而使数据适应新应用的实现成本要非常高。


面对如此复杂的在线、互动、实时的业务流程,必需始终保证数据在整个建模、装配、渲染、仿真、审批等各环节的准确性与安全性,因此GPU的显存就必需具备既有校验功能,同时还要解决端到端加密问题。Omniverse是英伟达推出的多GPU实时仿真、协作平台,结合NVIDIA RTX,可以实现快速模拟物理环境。Omniverse由5个关键部分组成:Nucleus、Connect、Kit、Simulation和RTX Renderer。这些组件与连接的第三方数字内容创建工具以及附加的连接的Omniverse微服务一起构成了完整的Omniverse生态系统。





针对不同应用规模,英伟达给出了相应的硬件拓扑搭配,从中我们可以看出,即使是最基本的RTX GPU单机也可以使用Omniverse。


事实上,近年来在智能制造范畴,大量传统行业软件厂商、自动化设备厂商都在试图从各自的角度来解决企业数据管理与业务协同之间的难题,改进工作流程。但通过建立一个新系统来解决原有各复杂平台间的协同问题,往往只能让事情变得更加复杂。这种情况下Omniverse全新的线上分布协同运算工作环境是否能打破这种怪圈就更加值得期待。

专业显卡 RTX A5000、RTX A4000


NVIDIA之前已经发布了一款旗舰级Ampere架构RTX图卡A6000,加上此次推出的RTX A5000和A4000完整的中高端产品线打造完成。RTX A5000和A4000 GPU分别具有8192和6144个CUDA内核,具备24GB的GDDR6内存,支持PCIe Gen4,用户也可以通过NVLINK将两块卡连接在一起,使其性能得到进一步提升。
NVIDIA RTX A4000进行了双槽到单槽的缩减。为了适应单槽散热和整体功耗及空间的需求,NVIDIA RTX A4000在显存、核心架构、带宽配置等进行了相应的优化。NVIDIA RTX A4000可以达到19.2TFLOPS的峰值单精度性能,除运算规模和算力上略有区别外,NVIDIA RTX A5000继承了A6000的几乎全部的特性。A5000 的FP32 throughput相较上一代产品提升了2.7倍。
根据官方提供的评测数据,制造业用户关注的主流三维CAD软件,例如CATIA,CREO、Solidworks以及SIEMENS NX的实际使用效果,A5000相对于 P5000和 RTX 5000都有了大幅度提升。

数据处理器BlueField DPU
近期,NVIDIA刚刚 发布了新一代数据处理器BlueField-3 DPU,为数据中心提供强大的软件定义网络、存储和网络安全加速功能。BlueField-3是首款为AI和加速计算而设计的DPU,也是首款支持第五代PCIe总线并提供数据中心时间同步加速的DPU,助力各企业在任何规模的应用上都能实现业内领先的性能和数据中心的安全性。针对多租户、云原生环境进行了优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理等服务。


在传统基于软件的业务模式下,我们的软件定义网络、安全和存储,所有的操作都需要由Host CPU参与,CPU既要处理应用、又要负责各种基础架构和设施的操作。很多操作都并行运行在CPU容易使这时候CPU产生"抖动",应用与基础架构和设施总是在争夺CPU资源。现在,DPU把基础架构上的操作接管起来,CPU单纯负责处理业务、VM服务或者Container服务,CPU的工作就越简单其安全与效率也就越有保证。



针对 DPU 的应用开发,NVIDIA 还提供了DOCA 软件开发工具包,开发者可以借助DOCA SDK 在 DPU 加速的数据中心基础设施服务上,构建软件定义、硬件加速网络、存储、安全和管理应用程序。


NVIDIA还发布了另一个非常重要的软件框架——MORPHEUS。MORPHEUS是基于AI技术的网络安全卫士,它把DPU和AI技术联合,实现了对数据中心、边缘以及所有基于NVIDIA统一架构系统的安全和性能保障。通过DPU和AI的结合、实现了可以自动更新安全策略、自动对系统进行安全防御。


如果我们梳理NVIDIA复杂的产品线,从核心到边缘都采用了统一的计算架构——CPU、GPU、DPU,三“U”一体架构。CPU、GPU、DPU之间的相互协调,可以更好的保证数据中心和边缘两个维度都达到高性能和高安全性,也让英伟达实现了使数据中心成为新型计算单元的理想,对于英伟达来说,三“U”缺一不可。


虚拟图形处理单元 NVIDIA A10和A16
NVIDIA vGPU主要支持云和数据中心各种图形或计算密集型工作,制造业工程师已经可以通过NVIDIA A10和A16 GPU来体验脱离传统的桌面工作带来的便捷。



从上图可以看出,A10的产品定位处于A40和T4之间,其架构与A40基本一致,但24GB显存和150W的功耗都只有A40的一半。FP32单精度浮点性能高,是A10、A40、A6000以及高端GeForce RTX 3000系列共同的特点,这些也是3D图形处理所必须具备的特点。A10搭载了第二代RT Core和第三代Tensor Core,与上一代产品NVIDIA T4 相比,性能提升2.5倍。
A10另一亮点是全面的vGPU软件支持,包括图形领域NVIDIA vPC/vApp、RTX vWS,以及计算的Virtual Compute和Server(vCS)。NVIDIA A10与NVIDIA RTX Virtual Workstation组合后,企业可以通过主流企业服务器中的AI加速应用程序交付增强的图形和视频,同时还能确保不错的用户体验。在实际应用过程中,管理员可以灵活调配资源将未被充分利用的计算能力用于运行AI推理或VDI工作负载。
A16是M10的升级版本,主要应用场景是vPC。4年前M10刚一上市就以其高密度的鲜明特点而广受好评,这次Ampere架构下推出的A16版本也依然保持了4GPU,4个编码单元、8个硬解码单元,支持H.265和264硬解码。A16 GPU提供高达2倍的用户密度,其总拥有成本更低,虚拟桌面基础设施体验也比上一代有所提升。



CloudXR
虽然经过多年发展,但AR/VR/MR技术至今也没有成为主流,这其中头显和延时始终是两大关键因素。一体式头盔一直很难与桌面级产品相媲美,这主要是由于算力、存储和能耗等多方面不足造成的。如若使用PC端GPU,则需要保持头盔与PC线缆的连接,给用户的移动造成很大不便。另外,AR/VR/MR对实时性和算力要求很高,比如语音识别,视线跟踪,手势感应,摄像头和传感套件等等都需要低延时处理。VR对MTP时延不能高于20毫秒,如果MTP 时延无法满足,用户会产生眩晕感, 严重影响体验。
近一段时期5G快速普及,桌面级的CloudXR GPU 应用到一体式头盔的时机已经成熟。英伟达希望能够借助5G的高带宽和低延时,实时把在任意地点产生的XR(AR/VR)渲染内容,传输到一体式头盔、MR眼睛、平板等类似设备上。将GPU计算转移到云端时,渲染内容在通过5G网络传输到终端前,可以先优化内容的分辨率,提供更优质的体验。
CloudXR可以部署在用户私有的数据中心,也可以是公有云的数据中心,通过将比较消耗计算资源的渲染、感知、编解码等都从终端转移到云或边缘端进行处理,而视觉体验则通过5G网络传递到用户终端。对于云/边缘端与用户终端之间存在大量数据交换造成的带宽压力,可以通过NVENC低延迟编码技术等方法化解。

【写在最后】
每年的GTC大会,都会让人们切实感受到技术提升对行业发展的巨大促进作用,NVIDIA通过硬件性能、软件优化和专用驱动等多方面为各领域创作者提供了源源不断的强大算力。与此同时,NVIDIA庞大的生态帝国也越发稳固。通过与ISV和稳定合作,NVIDIA在AI和各专业应用市场保持了极高的占有率。这使得任何一家同在这个市场中竞争的厂商都会感觉到相对于在硬件性能上实现超越,在软件生态上赶上NVIDIA的脚步正变得越来越困难。