구글 새 소형 AI 모델 'Gemma 2 2B', 업계 강호들 긴장시켜
페이지 정보
본문
* VentureBeat 기사
Google’s tiny AI model ‘Gemma 2 2B’ challenges tech giants in surprising upset
[일부 내용 Claude 3.5 Sonnet 번역 후 다듬음]
구글에서 Gemma 2 2B를 선보였습니다. 새 모델은 규모가 상당히 작지만 업계 선두 모델들과 경쟁할 수 있는 작고 강력한 인공지능(AI) 모델입니다. 고작 26억 개 파라미터에 불과한 새 언어 모델은 OpenAI의 GPT-3.5나 Mistral AI의 Mixtral 8x7B 같은 훨씬 더 큰 모델들과 비슷하거나 더 나은 성능을 보여줍니다.
구글 개발자 블로그에서 발표한 이번 Gemma 2 2B는 더욱 접근성이 높고 배포하기 쉬운 AI 시스템 제작에서 획기적인 진전을 의미합니다. 작은 크기 덕분에 특히 온디바이스 애플리케이션에 적합하며, 모바일 AI와 엣지 컴퓨팅 분야에서 큰 영향을 미칠 잠재력이 있습니다.
- [공식] Smaller, Safer, More Transparent: Advancing Responsible AI with Gemma
AI 연구 조직 LMSYS에서 수행한 자체 테스트에서 Gemma 2 2B는 평가 플랫폼에서 1130점을 얻었습니다. 이 성과는 10배 더 많은 파라미터를 가진 GPT-3.5-Turbo-0613(1117점)과 Mixtral-8x7B(1114점) 모델을 조금 앞서는 것입니다.
모델 성능은 단순히 용량 효율을 뛰어넘습니다. 구글 발표로는 Gemma 2 2B가 MMLU(대규모 다중 작업 언어 이해) 벤치마크에서 56.1점, MBPP(기초 파이썬 프로그래밍 능력 평가)에서 36.6점을 얻어 이전 모델과 비교해 눈에 띄는 향상을 보여줬습니다.
[ … 이후 내용 생략 … ]
[구글 딥마인드에서 X(예전 트위터)에 올린 글]
https://x.com/GoogleDeepMind/status/1818681376323096994
까만거북이님의 댓글
그런 의미에서 구글 홈과 어시스턴트의 퀄리티 좀..ㅠㅠ
고약상자님의 댓글
mori님의 댓글
번역하시는 걸까요? 해외 논문 같은 거 읽을 일이 많은데 시간이 오래 걸려서 혹시 방법이 없을까해서 여쭤봅니다!
가사라님의 댓글
확실히 오픈소스쪽 경쟁이 치열해지니 파라미터 적으면서도 성능이 좋은 모델을 푸는군요.