빅테크 AI 과열 경쟁에 잇단 오류 '도마위'

      2024.05.28 16:02   수정 : 2024.05.28 16:02기사원문

[파이낸셜뉴스] 글로벌 빅테크가 생성형 인공지능(AI) 신규 서비스를 쏟아내고 있는 가운데 오류와 안정성 문제도 함께 부상하고 있다.

잘못된 정보를 도출하는 것을 넘어 이용자들에게 편견을 심어주는 등의 문제도 발생할 수 있어 AI 개발사의 책임성은 꾸준히 요구되고 있다. 빠르게 발전하는 생성형 AI 시장에서 밀리지 않기 위해 주요 기술을 개발 및 발표해야 하는 상황이라 딜레마에 빠질 수밖에 없다는 해석이 나온다.



28일 업계에 따르면 구글이 최근 진행한 연례개발자회의(I/O)에서 공개한 AI 검색 기능 'AI 오버뷰'에서 오류가 발생하고 있다. AI 오버뷰는 구글 검색창에 이용자가 질문을 하면, 빠르게 답변을 요약해 제공하는 신규 서비스다.
구글 생성형 AI '제미나이'가 검색 엔진에 본격 적용된 사례다. AI 오버뷰 오류는 큰 화제가 됐다. '하루에 몇 개의 돌을 먹어야 하나'고 묻는 질문에 최소 하나를 먹어야 한다고 말하거나 '치즈가 피자에 달라붙지 않는다'는 말에 접착제를 넣으라고 엉뚱하게 답하면서다.

이 같은 문제는 생성형 AI 서비스에서 자주 발견되는 오류인 '환각(할루시네이션)'의 일종이다. 그럴듯한 답변을 내놓지만 현실적으로 말이 안 되는 내용을 도출해 내는 것이다. 구글 뿐만 아니라 AI 개발사들은 환각 등 오류를 잡기 위해 미세조정(파인튜닝)을 통해 모델을 보완하고 있다. 이용자의 반응을 반영해 수정되기도 한다. 구글도 여러 오류에 대해 수동으로 정정하고 있는 것으로 파악된다.

생성형 AI 시장에서 플레이어는 많아지고, 경쟁은 보다 치열해지면서 AI 윤리 문제를 해결하는데 시간이 오래 걸릴 것으로 보인다.

생성형 AI 시장 규모 및 투자 규모는 점차 확대되고 있다. 사회관계망서비스(SNS)인 X(옛 트위터)의 생성형 AI '그록(Grok)'을 개발하는 xAI는 이날 공식 블로그를 통해 60억 달러(약 8조원)의 시리즈B 투자를 유치했다.
업계 관계자는 "내부적으로 안정성 검증을 하는 것이 중요하다는 데는 이견이 없다"면서도 "AI 개발사들이 매해 새로운 버전의 AI를 출시하고 있는 상황에서 자칫하다간 뒤처질 수 있기 때문에 내부적으로 고민이 많은 상황"이라고 말했다.

김명주 서울여대 정보보호학부 교수는 "이용자들은 기술이 나아졌다고 생각하지만 사실상 기술과 윤리를 맞바꾸고 있다.
오픈AI가 최근 사내 레드팀(안전팀) '슈퍼얼라인먼트'를 해체하면서 주는 메시지도 같은 것"이라며 "AI가 감정 표현까지 하게 된 상황에서 AI 윤리 문제는 개발사들이 꼭 고려해야 하는 부분"이라고 평가했다.

soup@fnnews.com 임수빈 기자

Hot 포토

많이 본 뉴스