섹션

엔비디아 차세대 AI 칩, AWS·구글 클라우드에 탑재

챗GPT와 같은 인공지능 제품들을 둘러싼 열기 가운데, 엔비디아가 새로운 칩, 초고속 컴퓨팅 서비스 및 다수의 고급 파트너십을 발표하며 자사의 기술이 다음 인공지능의 발전을 견인할 것임을 보여주려고 한다고 블룸버그 통신이 21일(현지시각) 보도했다.

젠슨 황 최고경영자(CEO)는 21일 연례 개발자 콘퍼런스에서 AI 기술이 삶의 모든 영역에 적용되는 "AI의 아이폰 시대"의 배후 엔진으로 엔비디아를 꼽았다.

고급 챗봇과 화려한 그래픽 생성기와 같은 소비자 및 기업용 애플리케이션의 붐에 자극받아 "생성 AI는 거의 모든 산업을 재창조할 것"이라고 그는 말했다.

엔비디아는 고객이 더 빠르고 쉽게 접근할 수 AI 앱을 이용할 수 있는 인프라를 구축하겠다는 구상을 하고 있다. 엔비디아의 그래픽 처리 장치는 챗GPT와 동종 업체의 인공지능 모델의 핵심으로 자리 잡아, 더 많은 학습 데이터를 처리하고 소화하는 데 도움을 줬다.

마이크로소프트는 지난 주 챗GPT의 개발사인 오픈AI의 클라우드 컴퓨팅 워크로드를 처리하기 위해 수만 대의 엔비디아 A100 GPU를 데이터 센터에 연결해야 했다고 발표했다.

다른 거대 기술 기업들도 AI에 맞춰진 유사한 거대한 클라우드 인프라를 구축하고 있다. 오라클은 플랫폼에 1만 6,000개의 Nvidia H100 GPU(그래픽 처리 장치)를 장착해 고성능 컴퓨팅 응용 프로그램을 위한 것으로 발표했다. 아마존 웹 서비스에서도 2만개의 H100을 상호 연결해 확장할 수 있는 시스템이 출시될 예정이다. 마이크로소프트도 서버 랙에 H100을 추가하기 시작했다.

이러한 종류의 칩 슈퍼클러스터는 엔비디아가 새 프로그램인 DGX 클라우드를 통해 초고속 컴퓨팅 서비스를 제공하고자 하는 노력의 일환이다. 이 서비스는 오라클에서 호스팅되며, 곧 마이크로소프트 애저(Azure)와 구글 클라우스에서도 제공될 예정이다.

엔비디아
[로이터/연합뉴스 제공]

엔비디아는 이를 통해 인공지능 슈퍼컴퓨터에 액세스하는 것을 웹페이지를 열듯이 쉽게 만들어, 기업들이 설치 및 관리에 비용이 많이 드는 온프레미스 인프라(on-premise infrastructure) 없이도 모델을 학습할 수 있도록 하고자 한다.

엔비디아의 엔터프라이즈 컴퓨팅 담당 부사장인 Manuvir Das는 "작업을 제공하고 데이터 집합을 지정하고 시작을 누르면 조작 및 하위 모든 것이 처리된다"라고 말했다.

 DGX 클라우드 서비스는 매월 인스턴스당 36,999달러에서 시작한다. 각 "인스턴스"(기본적으로 대여되는 컴퓨팅 파워의 양)는 H100 GPU 8개에 해당한다.

엔비디아는 또한 두 개의 새로운 칩을 출시했는데, 하나는 AI 비디오 성능 향상에 초점을 맞춘 것이고 다른 하나는 H100으로 업그레이드된 것이다.

후자의 GPU는 챗GPT에서 사용되는 것과 같은 대형 언어 모델의 배포를 향상시키기 위해 특별히 설계됐다. H100 NVL이라고 불리는 그것은 데이터 센터에서 대규모로 사용되는 이전 세대 A100과 비교하여 추론(즉, AI가 실제 질문에 대해 응답하는 방식) 처리 속도가 12배 빠르다.

엔비디아의 초대형 및 고성능 컴퓨팅 부사장인 이안 버크(Ian Buck)는 "모든 서버와 클라우드에 챗GPT 사용 사례를 최적화하고 이러한 기능을 제공할 수 있도록 지원할 것"이라고 말했다