버티브, 엔비디아 AI 플랫폼용 냉각 및 전원 레퍼런스 아키텍처 공개

버티브(Virtiv), 세계적인 데이터 센터 인프라스트럭처 솔루션 제공업체가 최근 NVIDIA의 AI 플랫폼을 위한 냉각 및 전원 레퍼런스 아키텍처를 공개하였다. 이는 AI 및 딥러닝 분야에서 엔비디아의 플랫폼 활용을 통한 효율적인 연구 및 개발을 위한 기반을 제공하는 것으로, 둘러보는 관련 업계의 주목을 받고 있다.

이번에 공개된 레퍼런스 아키텍처는 NVIDIA의 AI 플랫폼을 위한 최적화된 냉각 및 전원 시스템을 통해, 고성능 컴퓨팅(HPC)과 AI 워크로드에 필요한 고성능을 확보하는 동시에, 전력 소비를 크게 절감하는 데 초점을 맞추고 있다.

버티브는 이번 아키텍처를 통해, 데이터 센터의 운영 비용을 줄이고, 시스템의 성능을 최적화하는 방안을 제시하였다. 또한, 이 아키텍처는 NVIDIA의 AI 플랫폼을 사용하는 기업들이 그 플랫폼의 풀 파워를 활용할 수 있도록 지원하는 것을 목표로 하고 있다.

버티브의 냉각 시스템은 실린더형 형태의 서버 랙으로 구성되어 있으며, 각 서버는 쿨란트를 통해 냉각되는 방식을 채택하였다. 이는 전통적인 공기 냉각 방식에 비해 더 효과적이며, 특히 고성능 컴퓨팅 환경에서는 열 문제를 효과적으로 해결할 수 있다.

전원 시스템은 DC-DC 변환 방식을 사용하여 전력 효율을 높이는 동시에, 전력 소비를 줄이는 방안을 제시하였다. 이 전원 시스템은 각각의 서버에 필요한 전력을 제공하며, 서버의 전력 요구 사항에 따라 유연하게 조절할 수 있다.

버티브의 CEO인 마이클 말론은 “버티브는 NVIDIA의 AI 플랫폼을 위한 냉각 및 전원 레퍼런스 아키텍처를 공개함으로써, AI 및 딥러닝 분야에서의 연구 및 개발을 강화하고, 해당 플랫폼을 최대한 활용할 수 있는 환경을 제공하고자 한다”고 밝혔다.

또한, “버티브의 냉각 및 전원 시스템은 고성능 컴퓨팅 및 AI 워크로드를 위한 최적의 솔루션을 제공하며, 이를 통해 기업들은 더욱 효율적인 데이터 센터 운영을 실현할 수 있다”고 덧붙였다.

이번 아키텍처 공개는 AI 및 딥러닝 분야에서의 연구 및 개발이 활발히 진행되고 있는 상황에서 매우 의미 있는 일이다. NVIDIA의 AI 플랫폼을 사용하는 많은 기업들이 이를 통해 더욱 효율적인 연구 및 개발 환경을 마련하고, 이를 통해 AI 및 딥러닝 분야에서 더욱 큰 성과를 이룰 수 있을 것으로 기대된다.

댓글 남기기