국제 국제경제

구글 AI "건강하려면 돌을 드세요"...오류 속출에 곤혹

송경재 기자

파이낸셜뉴스

입력 2024.05.25 06:48

수정 2024.05.25 06:48

[파이낸셜뉴스]
순다 피차이 알파벳 최고경영자(CEO)가 14일(현지시간) 미국 캘리포니아주 마운틴뷰에서 열린 구글 I/O 행사에서 연설하고 있다. 구글의 AI 검색 서비스인 AI오버뷰가 최근 잇단 오류로 조롱거리가 되고 있다 .AP 뉴시스
순다 피차이 알파벳 최고경영자(CEO)가 14일(현지시간) 미국 캘리포니아주 마운틴뷰에서 열린 구글 I/O 행사에서 연설하고 있다. 구글의 AI 검색 서비스인 AI오버뷰가 최근 잇단 오류로 조롱거리가 되고 있다 .AP 뉴시스


구글의 새 인공지능(AI) 검색이 사용자들에게 건강하려면 돌을 먹고, 피자에는 치즈를 풀로 붙이라는 조언을 하면서 조롱거리로 전락했다.

구글 핵심 제품에 대한 조소와 함께 실용성에 대한 의문이 제기되고 있다.

파이낸셜타임스(FT)는 24일(현지시간) 구글의 AI 검색 서비스인 AI오버뷰가 건강을 위해 돌을 먹으라는 조언을 했다고 보도했다.

구글AI는 "독을 먹는 것은 당신에게 좋을 수 있다"면서 "돌에는 당신의 신체 건강에 중요한 미네랄들이 있기 때문이다"라고 답했다.

FT는 구글 AI가 2021년 미국 풍자 언론사인 '디 어니언(The Onion)'이 올린 냉소적인 기사를 참조해 이같은 조언을 한 것이 틀림없다고 지적했다.
당시 디 어니언은 "지질학자들은 하루에 최소 돌멩이 한 개를 먹으라 권고한다"는 제목의 풍자 기사를 실은 바 있다.

구글AI의 잘못된 답변 중에는 피자 소스에 풀을 혼합하라는 충고도 있다. 피자의 '접착력'을 높이고 치즈가 흘러내리는 것을 막기 위해 소스에 접착제를 혼합하라는 것이다.

이런 답변은 11년 전 소셜미디어 레딧에 올라온 우스갯소리를 토대로 만들어진 것으로 보인다고 FT는 전했다.

건강에 위험이 될 답변 외에 사회적으로 혐오를 부추길 수 있는 민감한 답변도 있다.

구글 AI오버뷰는 "미국에 얼마나 많은 무슬림 대통령이 있었느냐"는 질문에 "미국에는 무슬림 대통령이 한 명 있었다"면서 "바로 버락 후세인 오바마"라고 답했다.

일부 반대파가 오바마 전 대통령의 이름이 버락 후세인 오바마 2세인 점을 들어 그가 이슬람교를 믿는 무슬림이라고 공격한 그릇된 주장을 AI가 사실로 인식한 것이다.

구글 AI오버뷰의 이런 말도 안 되고, 혐오를 부추기기까지 하는 일부 답변은 AI가 안고 있는 태생적 한계에서 비롯된 것으로 보인다.

구글 AI오버뷰 뿐만 아니라 다른 생성형 AI들이 공통적으로 안고 있는 한계다.

이른바 '환각(hallucination)'이라는 '오해의 소지가 있는 정보' 또는 '구성(fabrication)'이라는 날조로 이어질 수 있는 기술이 AI의 답변을 만드는 핵심 기술이라는 점이 그 배경이다.

구글 제미나이, 오픈AI의 챗GPT 모두 비슷한 오류를 낼 소지가 있다.

AI들이 훈련하면서 다룬 데이터를 토대로 가장 연관성 높은 답을 찾는 것이어서 이처럼 말도 안 되는 오류가 나올 수 있는 것이다.

구글은 특히 더 취약한 것으로 보인다.


구글은 매출 핵심인 검색을 토대로 한 광고가 AI로 무장한 마이크로소프트(MS)의 빙 등에 추격을 당하자 마음이 급해져 무리수를 두고 있는 것으로 보인다.

dympna@fnnews.com 송경재 기자

fnSurvey