관련종목▶
[파이낸셜뉴스] 생성형 인공지능(AI)을 활용한 콘텐츠가 쏟아져 나오는 가운데, 워터마크 도입 등' AI 생성물 알리기' 움직임이 본격화되고 있다. AI 생성물로 인한 딥페이크 피해, 가짜뉴스 확산과 같은 부작용을 최소화하기 위해서다. 개별 기업 뿐 아니라 각국 정부에서도 AI 생성물에 대한 문제점을 지적하고 있어 관련 논의는 급물살을 탈 것으로 전망된다.
8일 업계에 따르면 메타는 6일(현지시간) 공식 블로그를 통해 자사의 소셜미디어(SNS)에 올라오는 이미지가 AI로 생성된 것인지 아닌지 구분할 수 있게 표시할 계획이라고 전했다. 메타는 현재 자체 AI 도구인 '메타 AI'로 만들어진 콘텐츠에 라벨을 붙이고 있는데, 앞으로 구글과 오픈AI 등 외부 AI 툴로 만들어진 이미지에도 라벨을 넣는 기술을 개발 중이다. 닉 크레그 메타 글로벌 담당 사장은 이날 블로그를 통해 “사람이 만든 콘텐츠와 합성(AI 제작) 콘텐츠의 차이가 모호해지면서 사람들은 경계를 알고 싶어 한다”며 “해당 기능은 현재 구축 중이고, 전 세계에서 중요한 선거가 진행되는 내년까지 이런 정책을 유지할 것"이라고 설명했다.
메타 뿐 아니라 글로벌 빅테크들은 생성형 AI을 활용한 콘텐츠에 대한 관리에 들어간 상태다. 거대언어모델(LLM), 이미지 생성모델 등 다양한 생성형 AI가 쏟아져 나오는 만큼 부작용도 커지고 있어서다. 특히 선거 기간 등 여론이 크게 동요할 수 있는 시기에 생성형 AI를 활용한 글이나 이미지가 가짜뉴스를 퍼트릴 수 있다는 우려가 크다. AI가 생성한 딥페이크 이미지로 인한 피해 사례도 꾸준히 보고되고 있다. 최근엔 유명 팝스타 테일러 스위프트의 사진을 합성한 딥페이크 음란 이미지가 SNS에 유포되며 그 문제의 심각성이 더 부각되기도 했다.
이에 생성형 AI에 대한 각국 정부의 압박도 거세지고 있다. 지난해 유럽연합(EU)는 AI로 생성한 콘텐츠에 워터마크를 의무화하는 내용 등이 담긴 법안을 통과시켰다. 국내에서도 AI 생성물에 대한 워터마크 도입 제도화 관련 논의가 활발하게 이뤄지는 중이다.
국내 기업들도 생성형 AI 콘텐츠 관리를 위해 다양한 정책을 선보이고 있다. 네이버는 새해부터 대표 직속으로 AI 안전성 연구를 전담하는 조직인 '퓨처 AI 센터'를 신설하는 등 AI 윤리에 대한 연구를 지속 중이다. 또 총선을 앞두고 생성형 AI를 활용해 작성된 기사에 대해 본문 상단에 관련 내용을 공지하기 시작했다. 언론사가 자동 생성 알고리즘으로 생성·전송한 기사 본문 상단과 하단에 "이 기사는 해당 언론사의 자동 생성 알고리즘을 통해 작성되었습니다"라는 문구를 노출하는 것이다. 카카오는 카카오브레인의 이미지 생성 모델 '칼로'에 비가시성 워터마크를 도입하는 기술을 개발 중이다. 이용자에게는 워터마크가 보이지 않으나 기술적으로는 칼로로 생성했다는 여부를 알 수 있도록 하는 기술로, 구글도 해당 기술을 연구 운영 중이다.
soup@fnnews.com 임수빈 조윤주 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지