관련종목▶
[파이낸셜뉴스] 카카오가 인공지능(AI) 기술의 윤리와 신뢰를 강화하고, 사회적 책임을 다하기 위한 활동을 보다 체계적으로 이행해간다.
카카오는 AI 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고, 이를 관리하는 프로세스를 정의한 리스크 관리 체계인 ‘카카오 AI 세이프티 이니셔티브'(Kakao ASI)를 구축했다고 23일 밝혔다.
이 내용은 카카오의 개발자 컨퍼런스인 ‘if(kakaoAI)2024’의 첫날인 지난 22일 세션을 통해 공개됐다.
Kakao ASI는 AI 기술 개발 및 운영 상의 위험 발생을 최소화하고, 안전하고 윤리적인 AI 시스템을 구축하기 위한 종합 지침이다. 특히 기술의 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트 등 AI 시스템의 전 생애 주기에서 발생할 수 있는 리스크에 선제적인 대응이 가능한 것이 특징이다.
Kakao ASI는 △Kakao AI 윤리 원칙 △리스크 관리 사이클 △AI 리스크 거버넌스라는 3가지 핵심요소로 구성된다. ‘Kakao AI 윤리 원칙’은 지난 2023년 3월 발표한 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’을 기반으로 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등 원칙을 포함한다. ‘리스크 관리 사이클’은 리스크를 체계적으로 다루기 위한 접근법으로, 식별-평가-대응의 순환 단계로 구성된다.
‘AI 리스크 거버넌스’는 AI 시스템의 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 뜻한다. 조직 내 정책, 절차, 책임 구조 및 외부 규제와의 조화를 포함하며, 거버넌스 체계 내에서 관련 리스크들을 다각도로 검토하게 된다. Kakao ASI 거버넌스는 AI Safety, 전사 리스크 관리 전담 조직인ERM 위원회, 최고 의사결정 기구의 3단계로 구성된다.
지난 22일 컨퍼런스 세션에 연사자로 나선 카카오 김경훈 AI Safety 리더는 “AI 시스템 이용에 따른 리스크의 발생 주체를 AI와 인간으로 구분하고, 발생 주체 별 리스크의 특성을 반영해 평가 및 대응방안을 마련하였다는 점이 타사의 AI 리스크 관리 프레임워크와 차별화되는 점”이라고 말했다.
카카오는 Kakao ASI 구축 이후에도 AI 기술 개발과 운영 과정에서 발견되는 리스크를 신속하게 식별해 대응하고, 지속적으로 체계 고도화를 이어갈 계획이다.
김 리더는 "AI 기술의 영향력이 빠르게 확산되고 변화의 속도가 가속화되는 환경에 맞춰 안전한 AI 생태계 조성을 위한 협력을 이어가면서 Kakao ASI를 통해 윤리 기준을 선도해 갈 수 있도록 노력할 것"이라고 말했다.
yjjoe@fnnews.com 조윤주 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지