[GTC 2023] 엔비디아 X AWS, 생성형 AI 애플리케이션 협력
[GTC 2023] 엔비디아 X AWS, 생성형 AI 애플리케이션 협력
  • 김신강
  • 승인 2023.03.24 08:19
  • 댓글 0
이 기사를 공유합니다

엔비디아와 아마존웹서비스가 언어 모델(LLM)과 생성형 AI 애플리케이션 개발 부문에서 협력한다. 개발 기반은 최대 20 엑사플롭(exaFLOPS) 컴퓨팅 성능 제공 엔비디아 H100 텐서 코어(Tensor Core) GPU와 AWS Elastic Compute Cloud(EC2) P5 인스턴스다. 단축해 더 빠르고 저렴하게 첨단 AI를 제공할 수 있을 것이다"라고 말했다.


P5 인스턴스는 AI 및 HPC 인프라 제공을 위해 AWS와 엔비디아의 10년 넘게 이어진 협력을 기반으로 구축됐다. P2, P3, P3dn 및 P4d(e) 인스턴스를 포함한 과거 4번의 협업을 바탕으로 하는 P5 인스턴스는 엔비디아 GPU를 탑대한 AWS의 5세대 제품으로, CG1 인스턴스를 시작으로 엔비디아 GPU를 처음 배포한 지 약 13년 만에 출시됐다.

단일 EC2 인스턴스는 16페타플롭(petaFLOPs) 성능, 640GB 메모리 용량, 3,200Gbps 네트워킹 연결(이전 세대 대비 8배 증가) 환경에 총 8개 엔비디아 H100 GPU로 구성됐다. 머신 러닝 모델 훈련 시간을 최대 6배까지 단축시킬 수 있고, 이전 세대 대비 머신러닝 모델 훈련 비용을 최대 40%까지 절감할 수 있다.

앤트로픽 공동 설립자 톰 브라운(Tom Brown)은 "앤트로픽은 딥 러닝 연구의 기초 모델을 구축하는 세계에서 몇 안 되는 단체 중 하나다. 딥 러닝 연구의 기초 모델은 매우 복잡하며, 이러한 최첨단 모델을 개발하고 훈련하려면 해당 모델을 대규모 GPU 클러스터에 효율적으로 분산시켜야 한다. 우리는 현재 아마존 EC2 P4 인스턴스를 광범위하게 사용하고 있으며, 곧 출시될 P5 인스턴스에도 큰 기대를 걸고 있다."이라고 말했다.

코히어의 에이단 고메즈(Aidan Gomez) CEO는 "엔비디아 H100을 탑재한 아마존 EC2 P5 인스턴스는 코히어의 최첨단 대규모 언어 모델 및 생성형 AI 기능을 결합해 비즈니스가 더욱 빠르게 성장하고 확장할 수 있는 컴퓨팅 파워를 제공할 것이다”라고 말했다.

허깅페이스 공동 창립자 줄리앙 쇼몽(Julien Chaumond)은 "허깅페이스는 머신 러닝 분야에서 가장 빠르게 성장하는 머신 러닝 오픈 소스 커뮤니티로, EFA가 포함된 울트라클러스터에서 모두를 위한 새로운 기반 AI 모델의 제공을 가속화할 수 있기를 기대한다"고 말했다.

핀터레스트 아키텍트 데이비드 셰이큰(David Chaiken)은 "우리는 플랫폼 전반에 걸쳐 딥 러닝을 광범위하게 사용하고 있다. 아마존 EC2 P5 인스턴스를 사용해 제품 개발을 가속화하고 고객에게 새로운 공감형 AI 기반 경험을 제공할 수 있기를 기대하고 있다"고 말했다.

에마드 모스타크(Emad Mostaque) 스태빌리티AI CEO는 "우리는 지난 2021년 AWS와 파트너십을 맺고 텍스트 투 이미지(text-to-image, TTI) 확산 모델인 스테이블 디퓨전(Stable Diffusion)을 최초로 구축했다. P5 인스턴스는 모델 훈련 시간을 최대 4배 단축해 더 빠르고 저렴하게 첨단 AI를 제공할 수 있을 것이다"라고 말했다.


By 김신강 에디터 Shinkang.kim@weeklypost.kr
〈저작권자ⓒ 위클리포스트, 무단전재 및 재배포 금지〉


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.