섹션

앤트 중국칩 사용 AI 모델 훈련 기술 개발

앤트 그룹은 중국산 반도체를 사용하여 비용을 20% 절감할 수 있는 AI 모델 훈련 기술을 개발했다고 24일(현지 시각) 블룸버그 통신은 소식통을 인용 보도했다.

앤트는 계열사인 알리바바 그룹 홀딩스와 화웨이 테크놀로지스를 포함한 국산 칩을 사용하여 소위 전문가 혼합 머신러닝 접근법을 사용하여 모델을 훈련시켰다고 소식통은 말했다.

H800과 같은 엔비디아 칩의 결과와 유사한 결과를 얻었다고 소식통은 말했다.

앤트는 여전히 AI 개발을 위해 엔비디아를 사용하고 있지만, 최신 모델에는 주로 AMD와 중국 칩을 포함한 대안에 의존하고 있다고 한 소식통은 말했다.

이 모델들은 딥시크가 오픈AI와 알파벳의 구글이 투자한 수십억 달러보다 훨씬 적은 비용으로 유능한 모델을 훈련시킬 수 있음을 보여준 이후 중국과 미국 기업 간의 경쟁에 애트 그룹이 뛰어들었음을 의미한다고 블룸버그 통신은 말했다.

H800은 최고급은 아니지만 비교적 강력한 프로세서로, 현재 미국이 중국으로부터 수입을 금지하고 있다.

기업들이 AI에 막대한 자금을 쏟아부으면서 MoE 모델이 인기 있는 옵션으로 떠오르면서 구글과 항저우의 스타트업 딥시크 등이 이 모델을 사용하고 있다.

그러나 MoE 모델의 훈련은 일반적으로 엔비디아가 판매하는 그래픽 처리 장치와 같은 고성능 칩에 의존한다.

이 비용은 지금까지 많은 소규모 회사에서 감당할 수 없는 수준이었기 때문에 광범위한 채택이 제한되었다.

앤트는 이러한 제약을 없애고 LLM을 보다 효율적으로 훈련할 수 있는 방법을 연구해 왔다.

논문 제목에서 알 수 있듯이 “프리미엄 GPU 없이” 모델을 확장하는 것을 목표로 삼고 있다.

이는 엔비디아의 원칙에 반하는 것이다.

AI
[연합뉴스 제공]

젠슨 황 CEO는 딥시크의 R1과 같은 더 효율적인 모델이 등장하더라도 컴퓨팅 수요는 증가할 것이며, 기업들은 비용 절감을 위해 더 저렴한 칩이 아니라 더 많은 수익을 창출하기 위한 칩이 필요할 것이라고 주장했다.

황 CEO는 더 많은 처리 코어와 트랜지스터, 메모리 용량을 늘린 대형 GPU를 구축하는 전략을 고수하고 있다.

앤트는 고성능 하드웨어를 사용하여 1조 개의 토큰을 훈련하는 데 약 635만 위안(88만 달러)이 들지만, 최적화된 접근 방식을 사용하면 사양이 낮은 하드웨어를 사용하여 510만 위안으로 줄일 수 있다고 말했다.

토큰은 모델이 세상에 대해 학습하고 사용자 쿼리에 유용한 답변을 제공하기 위해 수집하는 정보 단위다.

앤트는 최근 개발한 대규모 언어 모델인 링 플러스와 링 라이트의 획기적인 발전을 의료 및 금융을 포함한 산업용 AI 솔루션에 활용할 계획이라고 밝혔다.

앤트는 올해 중국 온라인 플랫폼 Haodf.com을 인수하여 의료 분야의 인공지능 서비스를 강화했다.

또한 인공지능 '생활 비서' 앱인 즈샤오바오와 금융 자문 인공지능 서비스인 맥샤오카이도 보유하고 있다.

앤트는 링(Ling) 모델을 오픈 소스로 공개했다.

링 라이트(Ling-Lite)에는 모델의 성능을 지시하는 노브와 다이얼처럼 작동하는 조정 가능한 설정인 168억 개의 매개변수가 포함되어 있다.

링 플러스(Ling-Plus)에는 2,900억 개의 매개변수가 있으며, 이는 언어 모델 영역에서 비교적 큰 규모로 간주된다.

MIT 테크놀로지 리뷰에 따르면 챗GPT의 GPT-4.5에는 1조 8천억 개의 파라미터가 있는 것으로 전문가들은 추정하고 있다.

딥시크-R1은 6,710억 개다.

앤트는 안정성을 비롯한 일부 훈련 영역에서 문제에 직면했다. 하드웨어나 모델 구조의 작은 변화에도 모델의 오류율이 급증하는 등 문제가 발생했다고 논문에서 밝혔다.