글로벌 SNS업계 '나쁜 콘텐츠'와의 전쟁
2016.08.24 18:01
수정 : 2016.08.24 22:35기사원문
글로벌 소셜네트워크서비스(SNS) 업체들이 음란물, 테러.전쟁 등 선정적 동영상 등 위해 콘텐츠와의 전쟁에 나섰다.
전 세계적으로 사진과 동영상을 공유하는 SNS문화가 확산되고 있는 가운데 이를 악용하는 사례가 늘어나면서다. 특히 최근에는 페이스북과 트위터 등 SNS 업체들이 주력하고 있는 개인 생중계 서비스(라이브 비디오)에서 총격이나 강간.자살 등 폭력적 상황이 그대로 전달되는 사례까지 발생하고 있다.
국내에서는 이석우 전 카카오 대표가 카카오그룹에서 유포된 아동.청소년 음란물을 차단하지 않은 혐의로 불구속 기소되면서, '음란물 차단 미조치' 논란이 위헌법률심판으로까지 확대된 상황이다.
그러나 기술적으로 위해 콘텐츠를 사전 차단할 경우 표현의 자유 침해 문제가 발생할 수 있는게 문제다.
이 때문에 SNS를 통한 위해성 콘텐츠 유통에 대한 사회적 합의와 기준을 마련해야 한다는 목소리가 높아지고 있다.
■인스타그램, 아동 음란물 강력 대응
인스타그램 정책부문 총괄인 니키 잭슨 콜라코는 24일 서울 테헤란로 페이스북코리아 본사에서 기자간담회를 열어 "인스타그램에 올라오는 아동 착취와 관련된 사진은 MS의 '포토DNA'를 통해 사전에 차단하고 있다"고 밝혔다.
MS가 지난해 무료 클라우드 서비스로 공개한 '포토DNA'는 사진.영상을 분석해 특정 사진과의 유사성을 파악하는 기술이다.
또 음란 및 폭력성이 짙은 내용이 담긴 해시태그('#' 뒤에 특정 단어 입력)는 검색되지 않도록 했으며, '댓글 필터링' 기능을 통해 이용자가 원치 않는 욕설 등 특정 단어들이 댓글에 달리지 않는 방안도 시범 운영 중이라고 덧붙였다.
불법 게시물에 대한 신고 체계도 강화했다. 한국을 포함해 전 세계에서 운영되는 24시간 고객센터를 병원 응급실처럼 운영하고 있는 것. 콜라코 총괄은 "인스타그램은 전 세계에 오퍼레이션 센터를 운영하고 있다"며 "해당 센터에는 왕따와 자살 방지 관련 전문가와 한국어 등 수많은 언어를 구사하는 인력들이 근무하고 있다"고 설명했다. 그는 이어 "사용자 신고는 평균 24시간 이내 처리되며, 자살과 폭력 등 이용자가 위험한 상황 등은 즉각 처리하기 위해 모든 노력을 다하고 있다"고 덧붙였다.
■네이버와 카카오도 커뮤니티 청정 노력
네이버와 카카오 등도 각각 폐쇄형 SNS인 '밴드'와 '카카오그룹'에 대해 사전조치인 성인 키워드 금칙어 설정과 사후조치인 이용자 신고를 통한 서비스 이용제한 등을 실시하고 있다. 특정 그룹의 회원이나 지인끼리 정보를 주고 받는 패쇄형 SNS 안에서 음란물이 오고갈 경우, 신고가 들어오는 즉시 해당 그룹방은 패쇄하고, 음란물을 유포한 당사자와 그룹장을 영구제재해 강제탈퇴시키고 있다. 이른바 '원스트라이크 아웃제'로 커뮤니티 내 자정 노력을 이끌어내는 것이다.
그러나 SNS 업체들의 위해성 콘텐츠 사전 차단 노력은 사용자 입장에서는 표현의 자유를 침해당하는 것이라는 주장과 맞서고 있다.
이 때문에 SNS 이용자의 인식 개선 등 사회적 자정 노력이 병행돼야 한다는 목소리가 높아지고 있다.
elikim@fnnews.com 김미희 기자