[파이낸셜뉴스] 인공지능(AI) 시대 적합한 개인정보 보호와 리스크 관리 방안이 내달 나온다.
개인정보보호위원회는 오는 22일 민간 전문가와 관계부처가 참여한 'AI프라이버 민관 정책협의회' 회의를 열고 'AI 프라이버시 리스크 평가·관리 모델(안)'에 대해 논의한다고 21일 밝혔다.
최근 AI 기술이 기술적 혁신을 넘어 국민의 일상, 사회·경제 전반에 깊숙이 영향을 미침에 따라 AI 위험을 적정 관리해야 한다는 것이 정부의 판단이다. 특히 AI 기술이 개인정보를 포함하는 대규모 데이터에 기초하고 있어 전통적 방식과는 다른 복잡한 데이터처리를 수반함에 따라 AI의 대표적 위험 중 하나로 프라이버시 위협이 대두되고 있기 때문이다.
이에 따라 지난 10월 구성된 협의체에서는 AI 기업의 자율적인 프라이버시 위험관리를 지원하고, 생체인식기술의 안전한 활용 방안을 모색 중이다. 학계, 법조계, 산업계, 시민단체 등 AI 분야 차세대 전문가로 구성된 협의체는 3개의 분과에서 데이터 처리기준, 리스크 평가, 투명성 확보 등에 대한 논의를 해왔다.
협의체는 고학수 개인정보위원장과 배경훈 LG AI연구원장이 공동 의장으로, 김지원 SKT 부사장, 이세영 뤼튼테크놀로지스 대표, 하정우 네이버클라우드 AI 이노베이션 센터장, 김성웅 금융보안원 AI혁신실장, 신수용 카카오헬스케어 연구소장, 배순민 KT AI2XL 연구소장, 김연지 카카오 부사장 등이 위원으로 참여하고 있다.
AI 프라이버시 리스크의 절차, 리스크의 유형 및 리스크 경감 방안, 리스크 기업 등의 평가·관리 체계 등이 현재 초안에 담겼다. AI 기업 등은 이 모델을 자율적으로 참고해 개별 AI 모델·서비스의 용례, 처리하는 데이터의 특성 등 구체적 맥락에 따라 보다 안전하고 책임감 있는 리스크 관리체계를 구축할 수 있다.
개인정보위는 이날 회의에서 의견 수렴을 거쳐, 12월 중 '인공지능(AI) 프라이버시 리스크 평가·관리 모델'의 최종안을 발표할 예정이다.
이와 함께 '생체인식정보 규율체계 개선(안)'에 대해서도 논의한다. 최근 얼굴·음성·지문 등 생체정보를 이용한 생체인식 기술(출입통제·금융결제·AI 음성비서 등)이 다양한 영역에서 활용되고 있으나, 생체인식정보는 그 자체로 개인식별이 가능하고 변경 불가능해 다른 정보에 비해 오·남용 및 유출에 따른 위험이 더 크다. 이에 따라 생체인식정보의 처리요건이 엄격하게 규율되어 있어 관련 기술 발전에 비해 활용에 제약이 있었다. 이 개선안도 12월 중 마련된다.
배경훈 정책협의회 공동의장(LG AI연구원장)은 “개인정보 보호와 AI 기술 발전의 균형을 맞추고, 이해관계자의 합의에 이르는 것이 매우 중요하다”며 “이번에 제안된 'AI 프라이버시 리스크 평가·관리 모델'은 기업들이 자율적으로 위험 요소를 평가하고 관리하는 데에 있어 유용한 기준이 될 것"이라고 말했다. 고학수 개인정보위 위원장은 "기술의 사회적 편익과 위험이 복잡하게 얽혀있는 AI 환경에서는 구체적 맥락에 따라 프라이버시 리스크를 식별하고 관리하는 기업의 책임 있는 노력이 특히 강조된다"며 "개인정보위는 AI 기업 등이 잠재적 위협과 그로 인한 영향을 사전에 고려하는 리스크 기반 접근 방식을 실천하면서 혁신 활동을 지속할 수 있도록 적극 지원하겠다"고 말했다.
yjjoe@fnnews.com 조윤주 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지