딥시크 V3
[deepseek V3]중국 인공지능 기업 딥시크(deepseek)가 2024년 12월 말 공개한 대형언어모델(LLM)로 오픈소스 AI 모델 중 가장 강력한 성능을 자랑한다.
6710억 개의 매개변수를 보유한 이 모델은 14조 8000억 개의 토큰으로 구성된 방대한 데이터셋에서 학습되었다.
딥시크 V3는 코딩, 번역, 수학 등 다양한 분야에서 뛰어난 성능을 보이며, 내부 벤치마크 테스트 결과 메타의 라마, 오픈AI의 GPT-4, 알리바바의 큐웬 등 경쟁 모델들을 능가했다. 특히 미국 고등학교 수학 경시대회 문제로 평가하는 'MATH' 기준에서 최고 점수를 기록해, 다른 모델들을 크게 앞섰다.
이 모델의 주목할 만한 특징은 뛰어난 GPU 효율성이다. 딥시크 V3는 메타의 라마보다 1.5배 큰 매개변수를 가졌음에도 불구하고, 훈련에 사용된 GPU는 라마의 10분의 1에 불과했다. 약 557만 달러의 비용으로 개발되어, 메타의 라마 모델 개발 비용의 약 10분의 1 수준에 그쳤다.
딥시크 V3는 미국의 고성능 반도체 수출 제한에도 불구하고 엔비디아의 H800 GPU를 사용하여 개발에 성공했다. 이는 중국 기업의 기술력과 자원 활용 능력을 보여주는 사례로 평가받고 있다.
한편, 이 모델은 중국의 민감한 정치적 이슈에 대해서는 응답하지 않는 제한점이 있다. 예를 들어, 천안문 광장에 대한 질문에는 대답하지 않는다. 그럼에도 불구하고, 딥시크 V3는 오픈소스로 공개되어 개발자들이 상업용을 포함한 다양한 애플리케이션에 활용할 수 있어, AI 기술 발전에 큰 기여를 할 것으로 기대된다.