인공지능(AI)을 활용한 딥페이크 기술은 전문가가 아니더라도 빠른 시간 내에 진짜와 구분하기 힘든 이미지나 영상을 쉽게 만들 수 있는 수준까지 진화하고 있다. 이를 활용해 이미 사망한 배우를 다시 스크린으로 불러오기도 하고, 중년 배우의 어린 시절 모습을 구현해주기도 한다. 다만 기술개발의 목적과는 상관없이 이를 악용하는 사례가 증가하고 있는 것은 안타까운 일이다. 음란물과의 합성 또는 사칭을 통한 금전사기 등에 따른 피해와 함께 선거와 관련된 정보를 왜곡·조작함으로써 민주주의에 대한 위협으로도 다가오고 있기 때문이다. 이러한 이유로 올해 초 세계경제포럼(WEF) 전문가들은 2년 내 글로벌 위험요인 1위로 AI 생성 가짜정보를 꼽기도 했다.
악의적이고 기만적인 딥페이크 허위정보의 근본적 해결방법 중 하나는 소위 'AI 리터러시(문해력)'라고 하는 이용자 역량을 강화하는 것이다. 정보를 비판적으로 평가하고 활용하는 능력을 길러 스스로 딥페이크 허위정보를 걸러낼 필요가 있다.
그러나 AI 리터러시 함양의 효과는 서서히 나타나는 데 반해 심각한 피해는 지금도 발생할 수 있다. 따라서 즉각적 효과를 나타낼 수 있는 대책이 우선 시행돼야 하며 법적 규제가 필요하다는 목소리도 커지고 있다. 우리나라에서는 이미 성폭력처벌법과 공직선거법에서 합성된 허위음란영상물 유통과 선거일 90일 전부터 딥페이크를 활용한 선거운동을 금지하고 있지만, 다른 분야에도 적용할 수 있는 추가 입법이 필요하다는 주장이다.
하지만 오랜 시간이 걸리는 입법규제는 하루하루 달라지는 AI 기술변화를 쫓아가기 힘들다. 또 지나치게 강한 규제를 도입하면 기술발전이나 산업 성장에 걸림돌이 될 수 있다. 국경을 넘나들며 대량으로 빠르게 유통되는 온라인 정보 흐름을 고려하면 특정 국가의 규제만으로 효과를 거둘 수 있을지도 미지수다.
따라서 AI 기술혁신을 저해하지 않으면서도 부작용을 방지하기 위해 플랫폼의 책임성을 강화한 자율규제가 대안으로 떠오르고 있다. 딥페이크 허위정보는 주로 온라인플랫폼, SNS 등을 통해 생산·확산돼 이들 기업의 자율규제는 상당히 효과가 있을 것으로 예상된다.
자율규제 움직임은 해외에서 먼저 시작됐다. 올해 글로벌 선거의 해를 맞아 뮌헨보안회의(MSC)에서 구글, 메타, 틱톡, 엑스, 오픈AI 등 20여개 빅테크 기업은 '선거에서 AI의 기만적 활용을 방지하기 위한 기술협정'에 자발적으로 동참했다. 이 협약에는 기만적 AI 선거콘텐츠에 대한 워터마크 표시, 탐지, 신속한 대응 등을 통해 AI가 생성한 유해콘텐츠의 확산을 방지하고자 하는 행동 원칙과 수단이 포함돼 있다. 우리나라에서도 네이버, 카카오, SK커뮤니케이션즈 등 주요 플랫폼 기업들이 선거에 영향을 주는 악의적 딥페이크 사용 방지를 위한 공동선언을 채택하고 적극 대응하겠다고 약속한 것은 환영할 일이다.
이러한 흐름에 발맞춰 방송통신위원회는 사업자들의 자율규제 노력이 보다 효과적이고 지속적으로 작동할 수 있도록 지원하고자 한다. 딥페이크 등 AI가 생성한 정보임을 표시하도록 해 이용자의 알 권리와 정보선택권을 보장할 계획이다. 또한 자체 모니터링·신고접수 체계를 갖추도록 하고 딥페이크를 포함한 명백한 허위정보에 대해서는 신속하게 조치하는 등 자정 노력을 요청하고자 한다. 이를 위해 방통위는 지난 2월 국내외 플랫폼 사업자와 '자율규제 활성화 협의체'를 구성했으며, 이 협의체를 정기적으로 운영해 사업자의 자율규제 현황을 점검하는 한편 소통과 협력을 강화할 예정이다. 사업자와 정부 간 플랫폼의 사회적 책임을 강화하려는 자율규제 노력이 안전하고 건전한 AI 이용환경을 구축하는 데 마중물이 되길 희망한다.
이상인 방송통신위원회 부위원장
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지