<①새로운 조력자 AI의 등장>
'AI윤리'로 갈등 빚은 샘 올트먼 해프닝
AI기술 고도화로 진짜같은 '가짜뉴스' 확산
전문가 "신뢰성과 직결 AI가이드라인 시급"
'AI윤리'로 갈등 빚은 샘 올트먼 해프닝
AI기술 고도화로 진짜같은 '가짜뉴스' 확산
전문가 "신뢰성과 직결 AI가이드라인 시급"
[편집자주] 허위사실과 왜곡된 정보가 ‘가짜뉴스’라는 이름을 달고 우리사회를 갉아먹고 있습니다. '가짜뉴스'에 대한 이해관계가 첨예한 학계·언론·정치권은 '가짜뉴스'의 범위과 본질 규정을 놓고 수년째 논쟁만 지속하고 있습니다. 파이낸셜뉴스는 빠르게 발전하는 허위·왜곡정보 기술에 비해 턱없이 더딘 가짜뉴스 대책으로 인한 피해 사례를 짚어내고, 전문가들이 제시하는 대안을 담아 4회에 걸쳐 보도합니다.
[파이낸셜뉴스] 최근 '챗GPT의 아버지'로 불리는 샘 올트먼 전 오픈AI 최고경영자(CEO)가 이사회로부터 해임된 후 극적으로 복귀하는 해프닝이 발생했다.
올트먼 해임 해프닝 뒤에는 '인류를 위협할 정도로 강력한 인공지능(AI)'모델이 있었다고 알려졌다. '일반인공지능(AGI)'이라고 불리는 기술인데, 인간의 고유영역으로 규정된 상상력과 창의력을 갖춘 AI 기술로 알려져 있다.
오픈AI 연구진들이 AGI 기술을 개발했는데, 정작 개발자들은 AGI 기술이 인류를 위협할 위험한 기술이니 AI윤리 먼저 정립한 뒤 기술을 완성해야 한다고 주장한 것으로 알려졌다. 반면 올트먼은 빠른 기술개발을 주장해 이사회의 해임통보를 받았다는 것이다. 결국 울트먼의 울트먼의 복귀로 해프닝이 종결됐으니 당분간 AI 기술발전 속도에는 브레이크를 걸기 어렵게 됐다.
해외 전문 미디어들은 생성형AI가 기존 이미지, 동영상, 음악 등 콘텐츠를 활용해 만들어낸 허위·왜곡정보에도 허둥대고 있는 인류에게 AGI모델의 빠른 개발은 허위·왜곡정보 생산 및 유포로 인한 피해가 급증할 것이라는 우려를 제기하고 있다.
펜타곤 불타고 바이든 사망하고...AI가 만든 허위정보
지난 10월 22일 미국 국방부(펜타곤) 옆 건물이 화염에 쌓인 사진이 사회관계망서비스(SNS)를 통해 유포됐다. 이 사진 한장으로 뉴욕 증시가 요동치는 대혼란이 발생했다.
지난 5월 21일에는 조 바이든 미국 대통령이 취침 중 평화롭게 세상을 떠났다는 백악관의 발표가 웹사이트에 공개돼 세계가 경악한 일도 있었다. 3월에는 도널드 트럼프 전 미국 대통령이 뉴욕 맨해튼에서 체포돼 끌려가는 모습이 담긴 '가짜 사진'이 인터넷에서 확산됐었다.
최근 일본에서는 기시다 후미오 일본 총리가 악담을 하는 영상이 확산했다. 이 영상에는 민영 방송 니혼테레비(닛테레) 뉴스 프로그램 로고가 표시돼 있다. 'LIVE'(생중계)나 'BREAKING NEWS'(뉴스 속보)라고도 적혀 있어 기시다 총리의 발언이 긴급 속보로 생중계되는 듯한 인상을 준다. 전세계를 혼란스럽게 한 이 영상들은 모두 AI가 만든 허위정보였다. 전세계가 AI의 거짓말에 속은 셈이다.
'허위정보와의 전쟁' 전세계의 골칫거리
허위정보로 인한 피해를 차단하기 위한 전쟁은 최근의 일 만은 아니다. 2008년 이명박 전 대통령은 ‘인터넷의 힘은 약이 아닌 독이 될 수도 있다’, ‘사회불안을 부추기는 정보 전염병은 경계해야 할 대상이다’라며 인터넷 실명제 적용 확대, 포털의 게시글 삭제 의무화와 같은 정책들을 내놓기도 했다. 그러나 이 정책들은 민주주의를 심각하게 후퇴시킬 수 있다는 비판에 직면, 실제 추진하지는 못했다.
노무현 전 대통령은 '지라시'에 시달리기도 했다. 조현오 전 경찰청장은 2013년 6월 노 전 대통령 명예훼손 사건과 관련해 자신의 공판에서 노 전 대통령 차명계좌 발언은 '지라시'를 통해 그런 생각을 갖게 되었다고 말한 바 있다.
또 2013년 11월 김무성 전 새누리당(국민의힘 전신)의원은 '노 전 대통령의 NLL포기발언'의 근거를 묻는 취재진들의 질문에 '지라시'와 연관이 있다는 취지로 말했다. 결과적으로 조 전 청장, 김 전 의원, 모두 지라시로 인해 소모적인 정치적 공방을 했다고 볼 수 있다.
AI가 만든 허위정보 '급'이 다르다
AI라는 강력한 기술이 결합하면서 허위정보의 생산과 유통은 과거와 '급'이 달라졌다. 생산성과 질적 측면에서 과거 횡행했던 지라시와는 비교할 수 없는 수준이 됐다. 뉴스 사용자 입장에서는 허위사실이나 왜곡정보를 구별하기가 사실상 불가능한 상황이 됐다.
상황이 이렇다 보니 허위정보를 규정하고, 피해 예방 대책을 시급히 마련해야 한다는 경고가 잇따르고 있다. 한 AI 기술 전문가는 "'노란 바나나'와 '푸른 하늘'을 본 사람이 '노란 하늘'을 상상해 그림을 그릴 수 있는 것처럼 AGI는 기존의 현상을 보고 스스로 상상해 결과물을 만들 수 있게 된다"며 "논리적으로만 보면 AGI는 스스로 사실과 구별하기 어려운 허위정보를 양산할 수 있는 구조이기 때문에 오픈AI의 개발진들 조차 AI 윤리규정이 완성되기 전에는 개발을 완성하면 안된다고 주장한 것"이라고 강조했다.
"AI가 만든 허위정보, 위조지폐처럼 금지해야"
세계 4대 AI 구루 중 한 명으로 불리는 제프리 힌턴 토론토대 명예교수는 최근 요미우리신문과 인터뷰를 통해 "이미 AI는 인간 뇌의 수천 배 지식을 축적할 수 있다”며 “인류가 AI에 인간사회를 빼앗길 것이라는 위협에 어떻게 대처해야 할지 모르겠다”고 우려를 털어놨다.
힌턴 교수는 AI 기술의 구체적인 위협으로 △선거기간 가짜 정보 확산 △AI가 탑재된 무기 시스템에 대한 제어 불능 △일자리 대체로 인한 빈부격차 확대 등을 지적했다. AI의 허위정보를 위협요인으로 짚은 것이다. 그러면서 "위조지폐가 법으로 금지되는 것처럼 가짜 동영상의 제작·소유를 법적으로 금지했으면 한다"고 주장했다.
김창룡 서울과학종합대학원 교수도 '인공지능 저널리즘 미래'를 주제로 열린 토론회에서 "생성형 AI가 다양하게 활용되고 있지만 관련 윤리 강령이나 가이드라인은 만들어지지 않은 상황"이라며 "관련 가이드라인을 만드는 것이 급선무"라고 제언했다.
오태연 서울과학종합대학원 교수는 "생성형 AI는 미디어 산업의 판도를 바꾸는 중요한 역할을 하게 될 것"이라며 "저널리즘의 미래는 AI와 같은 기술 발전과 함께 윤리적 기준을 설정하고 사회적 책임을 다하는 방향으로 나아가야 한다. 함께 협력해 진실을 추구하고 다양한 목소리를 전달하는 미디어 환경을 만드는 것이 목표여야 한다"고 강조했다.
hsg@fnnews.com 한승곤 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지