对于那些希望让GPU加速的人工智能和数据科学项目更快地启动和运行的企业来说,生活变得更容易了。
NVIDIA和Red Hat推出了NVIDIA的GPU加速计算平台和刚刚宣布的Red Hat OpenShift 4的组合,以加速用于AI和数据科学的本地Kubernetes部署。结果是:Kubernetes的管理任务过去常常让IT管理员在一天中的大部分时间内完成,现在不到一个小时就可以完成。
更多的GPU加速,更少的部署麻烦
这种合作是在企业依靠人工智能和数据科学将大量数据转化为可操作智能的时候进行的。但有意义的人工智能和数据分析工作,需要借助GPU计算加速整个企业IT软件堆栈。从NVIDIA驱动程序到容器运行时再到应用程序框架,每一层软件都需要优化。我们的CUDA并行计算架构和CUDA- x加速库已经被超过120万名开发人员的社区所接受,他们可以在从人工智能到高性能计算到VDI的广泛领域内加速应用程序。
而且,由于NVIDIA的通用架构运行在每一台计算机设备上,从笔记本电脑到数据中心再到云计算,因此投资于GPU加速应用程序很容易证明这一点,而且很有意义。然而,加快人工智能和数据科学的工作量只是第一步。在大规模、GPU加速的数据中心中以正确的方式部署优化的软件堆栈,对于IT组织来说可能是令人沮丧和耗时的。这就是我们与Red Hat合作的地方。
Red Hat Openshift是业界领先的企业级Kubernetes平台。Openshift 4的改进使得跨集群部署Kubernetes比以往任何时候都容易。Red Hat对Kubernetes运营商的投资,尤其通过自动化许多日常数据中心管理和应用程序生命周期管理任务,降低了管理复杂性。
NVIDIA一直在开发自己的GPU操作程序,以自动化IT管理人员以前通过shell脚本完成的许多工作,比如安装设备驱动程序,确保数据中心的所有节点上都有合适的GPU容器运行时,以及监控GPU。由于我们在Red Hat上的工作,一旦集群设置好,只需运行GPU操作符就可以向集群中的工作节点添加必要的依赖项。就是这么简单。对于一个组织来说,让它的GPU驱动的数据中心集群使用OpenShift 4运行起来,就像使用新的云资源一样简单。
原文出自:https://itbrief.com.au/story/nvidia-and-red-hat-work-together-to-accelerate-enterprise-ai
来源:itbrief