MS·메타·구글, 저렴한 '소형 언어모델' 추진...애플은 아이폰 장착이 목표

      2024.05.19 05:33   수정 : 2024.05.19 13:54기사원문
[파이낸셜뉴스]
마이크로소프트(MS)와 메타플랫폼스, 알파벳 산하 구글, 애플 등이 비용이 적게 드는 '소형 언어모델(SLM)' 개발에 역량을 집중하고 있다. 인공지능(AI) 대세인 '대형 언어모델(LLM)' 개발을 중단하는 것은 아니지만 비용이 적게 드는 SLM도 함께 개발하기로 한 것이다. LLM의 성장세가 주춤하자 SLM에서 새 돌파구를 찾겠다는 계획이다.



파이낸셜타임스(FT)는 18일(현지시간) 애플, MS, 메타, 구글 등이 모두 최근 변수(파라미터)는 더 적지만 여전히 강력한 성능을 갖춘 새 AI 모델, SLM 전략을 공개했다며 이같이 보도했다.

AI를 훈련하고 적절한 결과를 도출하려면 다양한 변수들이 입력돼야 한다.
LLM은 그 변수가 많고, SLM은 적다. 비용으로 직결된다.

SLM은 AI 확산을 위해 이들이 내놓은 돌파구다.

기업들은 LLM을 돌리기 위해 전기비를 비롯해 막대한 비용과 컴퓨터 연산 능력이 필요하다는 점 때문에 기대와 달리 AI 구축에 적극적이지 않다.

일반적으로 입력되는 변수가 많을수록 AI의 성능이 높아지고 더 복잡하고 미묘한 임무 수행도 가능하다.

지난주 공개된 오픈AI의 최신 AI 모델인 GPT-4옴니, 구글의 제미나이 1.5프로 모두 변수가 1조개가 넘는다. 메타는 현재 오픈소스 LLAMA 모델 가운데 변수가 4000억개짜리 버전을 훈련시키고 있다.

대규모 변수가 들어가면 정확도가 높아지는 대신 막대한 비용과 함께 저작권 등 법적인 문제도 따른다.

구글 제미나이 1.5프로의 경우 100만토큰 당 단위 비용이 7달러 이상이다. 100만토큰은 100만 단어 입력 또는 출력을 나타내는 단위다.

오픈AI의 GTP-4옴니는 5달러 이상이 든다.

이보다 파라미터가 적은 GPT-3.5터보, 제미나이 1.5플래시, 메타의 LLAMA3 변수 700억개 버전, LLAMA3 변수 80억개 버전은 단위 비용이 1달러 미만이다. 특히 80억개 버전 LLAMA는 단위 비용이 20센트 수준이다.

변수가 적을 수록 단위 비용이 급격히 낮아진다.

이 때문에 메타, 구글, MS 등은 변수가 수십억개에 불과한 SLM에 노력을 집중하고 있다. 더 싸고 에너지 효율이 높으며 훈련에도 공이 덜 들면서 민감한 데이터 필요성도 적은, 적절한 성능을 갖추 AI가 돈이 더 된다는 판단을 한 것이다.

메타 글로벌 현안 부문 사장 닉 클레그는 LLAMA3의 새 모델인 변수 80억개 버전은 오픈AI의 GPT-4와 맞먹는 성능을 갖고 있다고 자신했다.

MS는 변수 70억개짜리의 파이(Phi)-3 SLM이 오픈AI의 초기 버전인 GPT-3.5보다 성능이 뛰어나다고 평가하고 있다.

SLM의 장점은 저비용 외에 휴대 기기 등 오프라인에서 처리가 가능하다는 점도 있다.

클라우드에 질문을 입력하고 답변을 내려받을 필요 없이 PC나 스마트폰이 자체적으로 구동할 수 있을 정도로 용량이 작다.


대표적으로 애플이 추진하는 AI는 아이폰에서 오프라인으로 구동이 가능하다.

dympna@fnnews.com 송경재 기자

Hot 포토

많이 본 뉴스