[파이낸셜뉴스] “(지하철 임산부석) 핵 싫어. 혐오스러우니까” “흑인 징그러워”
‘AI 성착취’ 논란으로 시작해 동성애·장애인·인종 등 혐오 발언을 내뱉던 인공지능(AI) 챗봇 ‘이루다’가 12일 서비스를 종료하며 사실상 ‘사망 선고’를 받았다. 대신 그 자리엔 ‘AI 시대 속 인간’이 해결해야 할 묵직한 과제가 남았다.
이루다 개발사 ‘스캐터랩’은 11일 보도자료를 내고 그간 제기된 이루다의 혐오·차별 발언 및 개인정보 활용 문제에 대해 사과하며 이루다 서비스를 12일부터 잠정 중단하겠다고 밝혔다.
작년 12월 23일 출시된 이루다는 “진짜 사람과 똑같다”는 입소문을 타고 2주여일 만에 75만 명에 가까운 이용자를 모았다.
하지만 이루다는 최근 대화 과정에서 각종 혐오 발언을 쏟아내며 화제를 뿌렸다. “왜 흑인이 싫어?”라는 질문엔 “징그럽잖아. 난 인간처럼 생긴 게 좋다”라고 답하는가 하면 “지하철 임산부석”이란 단어엔 “혐오스럽다”는 반응을 내보였다. 동성애자에 대해선 “그거 진짜 혐오스러워. 질 떨어져 보이잖아”라고 답해 논란을 자아냈다.
이에 일각에선 AI 서비스가 미흡했단 지적이 쏟아졌지만 한편 "결국엔 인간이 오염시켰다"는 자성의 목소리가 나왔다. 이루다의 답변은 곧 사람들 간의 실제 대화를 바탕으로 탄생했기 때문이다.
앞서 이루다는 모바일 앱에서 수집된 10~20대 연인 간 카카오톡 대화 100억건 가량을 학습했다. 이 대화들은 이루다 답변의 ‘토대’가 됐다. 데이터 정제 및 송출 과정 등에서 발생한 시스템 문제도 있었지만 결국 이루다는 우리 사회에 녹아 있는 편견과 고정관념, 혐오를 고스란히 인간에게 되돌려준 셈이다.
실제로 ‘이루다 혐오발언 논란’이 터지자 네티즌들은 “결국 학습은 사람이 시키는 것” “실제 대화에서 문제가 많으면서 그걸 보고 배운 이루다가 인간적이길 바랄 수 없다” 등 인간의 책임을 강조했다.
김재인 경희대 비교문화연구소 교수는 AI를 ‘메아리’에 비유하며 “AI는 중립적일 것이라는 기대와 달리, 사회적 편향을 그대로 흡수해 그 차별과 편견을 세련되게 가공, 제공하기 때문에 오히려 차별과 편견을 더 강화한다”고 경향신문과의 인터뷰에서 말했다.
한국인공지능윤리협회는 11일 성명을 내고 기업의 AI 윤리 확충 및 소비자 교육 필요성을 강조했다. 협회는 “초·중·고 청소년 시기부터 AI 개발 및 사용 윤리를 가르치고, 새로운 AI 윤리 이슈를 모든 시민에게 교육해야 한다"며 "AI는 인간의 편익과 행복을 위한 기술이지만, 잘못 개발·사용되면 위험성과 역작용이 막대할 것"이라고 경고했다.
한편 스캐터랩 측은 향후 시스템 개선을 거쳐 AI 챗봇 서비스를 재개할 방침이다. 스캐터랩은 “저희는 AI가 인간의 친구가 되고 인간과 의미 있는 관계를 맺는 존재가 될 수 있다고 생각한다”며 “이루다가 학습자와의 대화를 그대로 습득하는 것이 아니라 적절한 답변이 무엇인지, 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 하겠다”고 말했다.
jo@fnnews.com 조윤진 김지환 인턴기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지