엔비디아는 14일(현지시각) 열린 구글 연례 개발자 콘퍼런스 ‘구글 I/O 2024’에서 구글과의 세 가지 새로운 협업 내용을 발표했다. 엔비디아와 구글은 이번 협업으로 세계적 수준의 성능을 갖춘 AI 기반 애플리케이션을 더 쉽게 만들 수 있도록 지원한다는 계획이다.
엔비디아와 구글은 텐서RT-LLM(TensorRT-LLM)을 활용해 새로운 젬마 2(Gemma 2)와 팔리젬마(PaliGemma) 모델을 최적화하기 위해 협력했다. 이 두 모델은 모두 제미나이(Gemini)를 만드는 데 사용된 동일한 연구와 기술을 기반으로 구축됐으며, 각각 ‘범용성’과 ‘개방형 시각 언어 모델(VLM)’에 집중한 점이 특징이다.
젬마 2와 팔리젬마는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부인 엔비디아 NIM 추론 마이크로서비스와 함께 제공될 예정이다. 새로운 두 모델에 대한 NIM 지원은 팔리젬마를 시작으로 API 카탈로그에서 사용할 수 있으며, 엔비디아 NGC와 깃허브에서 컨테이너로 출시될 예정이다.
또한 구글은 ‘구글 코랩(Colab)’에서 오픈소스 GPU 데이터 프레임 라이브러리인 ‘래피즈 cuDF’가 기본으로 지원된다고 발표했다. 이를 통해 구글 코랩의 월간 사용자들은 이제 코드 변경 없이 엔비디아 L4 텐서 코어 GPU를 사용해 판다스(pandas) 기반 파이썬 워크플로우를 가속화할 수 있다.
구글 코랩을 사용하는 개발자는 래피즈 cuDF를 통해 탐색적 분석(exploratory analysis)과 생산 데이터 파이프라인의 속도를 높일 수 있다. 래피즈 cuDF는 GPU에서 판다스 코드를 원활하게 가속하고, 그렇지 않은 경우 CPU-판다스로 되돌아가 이 문제를 해결하도록 설계됐다. 이를 통해 개발자는 어디서나 가속화된 데이터 분석을 활용할 수 있다.
엔비디아와 구글은 엔비디아 RTX 그래픽을 사용한 AI PC를 활용하는 파이어베이스 젠킷(Firebase Genkit)에 대한 협업도 발표했다. 이는 개발자가 새로운 젬마 모델 제품군을 비롯한 생성형 AI 모델을 웹과 모바일 애플리케이션에 쉽게 통합해 맞춤형 콘텐츠, 시맨틱 검색, 문의에 대한 답변을 제공할 수 있도록 지원한다.
개발자는 로컬 RTX GPU로 작업을 시작한 다음, 작업을 구글 클라우드 인프라로 원활하게 이동할 수 있다. 또한 모바일 개발자들이 주로 쓰는 프로그래밍 언어인 자바스크립트를 사용하는 젠킷으로 앱을 더욱 쉽게 개발할 수도 있다.
한편, 엔비디아와 구글 클라우드는 향후 출시될 그레이스 블랙웰(Grace Blackwell) 기반 DGX 클라우드 플랫폼과 JAX 프레임워크 지원부터 구글 쿠버네티스 엔진에 엔비디아 네모(NeMo) 프레임워크 도입까지 풀스택 파트너십을 통해 AI로 수행할 수 있는 작업의 가능성을 확장하고 있다고 밝혔다.
권용만 기자 yongman.kwon@chosunbiz.com
댓글0