IT 컴퓨팅

“AI 프라이버시팀 10월 신설한다”..개인정보위(종합)

파이낸셜뉴스

입력 2023.08.03 10:00

수정 2023.08.03 15:19

개인정보위, ‘AI시대 안전한 개인정보활용 정책방향’

AI 단계별 개인정보 처리원칙 제시..법령해석-컨설팅

AI 디지털 국제규범 형성 위해 글로벌 협력체계 구축
[파이낸셜뉴스] 정부가 글로벌 규범을 선도할 수 있는 인공지능(AI) 개인정보 규율체계 확립에 나선다. AI 관련 디지털 국제규범 형성을 위해 오는 2025년 글로벌프라이버시총회(GPA)를 유치한다는 목표다. 동시에 오픈AI, 구글, 메타 등 글로벌 빅테크와 정책 소통을 강화하는 한편 AI 관련 사항을 전담하는 원스톱 창구인 ‘(가칭)AI 프라이버시팀’을 오는 10월 중 신설할 계획이다.

고학수 개인정보보호위원회 위원장이 3일 정부서울청사 합동브리핑실에서 '인공지능 시대 안전한 개인정보 활용 정책방향' 관련 브리핑을 하고 있다. 개인정보위 제공
고학수 개인정보보호위원회 위원장이 3일 정부서울청사 합동브리핑실에서 '인공지능 시대 안전한 개인정보 활용 정책방향' 관련 브리핑을 하고 있다. 개인정보위 제공

개인정보보호위원회(개인정보위)는 3일 정부서울청사 브리핑을 통해서 이 같은 내용을 담은 ‘인공지능 시대 안전한 개인정보 활용 정책방향’을 발표했다.

개인정보위 고학수 위원장(사진)은 “이제 AI는 전 세계, 모든 산업에서 기반 기술로서 역할을 하고 있는 만큼, 데이터를 어떻게 안전하게 활용할 수 있을지에 대한 새로운 디지털 질서 정립이 필요한 시점”이라며 “AI에 있어 무조건적 ‘제로 리스크(zero risk)’를 추구하기보다는 프라이버시 침해 최소화를 위한 실천적 노력을 경주하는 것이 더욱 중요하다”고 강조했다.


즉 오픈AI의 ‘챗GPT’ 등장 이후 AI 기술 중점이 대규모언어모델(LLM)을 기반으로 한 생성형 AI로 이동하고, 공개된 정보를 활용하거나 정보주체가 예측하지 못한 방식으로 데이터가 처리되는 경우가 늘고 있는 만큼, 프라이버시 침해 위험은 최소화하면서 AI 혁신 생태계 발전에 꼭 필요한 데이터는 안전하게 활용할 수 있도록 관련 정책이 마련돼야 한다는 게 개인정보위 설명이다.

인공지능 시대 안전한 개인정보 활용 정책방향 추진과제. 개인정보위 제공
인공지능 시대 안전한 개인정보 활용 정책방향 추진과제. 개인정보위 제공

이른바 ‘AI 환경’에서 현행 ‘개인정보 보호법’을 어떻게 해석·적용할 수 있을지에 대한 준칙을 제시하는 한편, 구체적인 세부사항에 대해서는 향후 정부와 민간이 협력하여 규율체계를 공동 설계해 나가는 청사진을 제시하는 데 방점이 찍혔다.

특히 오는 10월 신설되는 ‘AI 프라이버시팀’은 AI 모델 및 서비스를 개발·제공하는 사업자와 소통창구를 마련, 개인정보 처리 적법성과 안전성 등에 대한 법령해석을 지원한다. 또 ‘(가칭)사전 적정성 검토제’도 연내 도입된다. 즉 사업자가 요청하면 비즈니스 환경을 분석하여 ‘개인정보 보호법’을 준수할 수 있도록 적용방안을 함께 마련하고, 이에 따른 사업자의 이행결과에 대해 개인정보위가 적정하다고 판단한 사안에 대해서는 행정처분을 하지 않는 제도이다.

AI 개발 및 서비스 단계별 개인정보 처리기준, 보호조치, 고려사항 등도 제시됐다. △AI 개발 및 서비스 기획 △데이터 수집 △AI 학습 △서비스 제공 등 각 단계별로 개인정보를 어떠한 원칙과 기준에 입각해 처리할 수 있는지에 대해 구체화된 것. 이때 AI 학습 단계에서는 개인정보를 가명처리한 뒤, 별도 동의 없이 AI 연구개발이 가능하도록 했다.

개인정보위는 AI 기업 및 개발자를 비롯해 학계와 법조계, 시민단체 등 민관이 함께 논의할 수 있는 ‘AI 프라이버시 민관 정책협의회(민관 협의회)’도 오는 10월 구성할 예정이다. 민관 협의회는 분야별 AI 환경에서의 데이터 처리기준 등을 공동 작업해 발표할 계획이다.
또 개인정보보호 강화기술(Privacy Enhancing Technology, PET)이 활성화될 수 있도록 연구개발(R&D)을 확대하고 관련된 가이드라인도 마련한다.

이밖에 AI 리스크 수준에 따라 규제 설계가 가능할 수 있도록 위험성에 대해 구체적으로 판단할 수 있는 ‘AI 리스크 평가모델’도 마련한다.
개인정보위는 “규제 샌드박스를 활용해 AI 분야 사례를 축적하고 이를 바탕으로 운영현황과 위험요인 등을 분석해 리스크를 식별 및 평가할 수 있는 체계를 2025년까지 지속적으로 구축해 나갈 계획이다”라고 전했다.

elikim@fnnews.com 김미희 기자

fnSurvey