【도쿄=김경민 특파원】 첨단 인공지능(AI) 기술에 대한 위험이 증가하고 있는 가운데 주요 7개국(G7)이 AI 개발에 대한 국제 규범에 공동 합의했다.
10월 31일 일본 정부에 따르면 G7는 '히로시마 AI 프로세스'에 의한 첨단 AI 개발 국제 지침 및 행동 규범에 합의했다.
'히로시마 AI 프로세스'는 지난 5월 일본 히로시마에서 연 정상회의를 계기로 추진됐다. 생성형 AI인 챗GPT 등을 둘러싼 국제 규범과 국제 정보 유통의 틀을 만드는 것을 목표로 추진됐다.
G7 정상들은 이와 관련한 성명을 내고 첨단 AI의 기회와 변혁 가능성을 강조했다. 이와 함께 위험을 관리해 법의 지배와 민주주의 가치를 포함한 공유된 원칙을 지킬 필요성을 인식한다고 전했다.
G7는 "고도의 AI 개발 조직에 국제 행동 규범을 준수할 것을 요구한다"며 정부 당국자들이 히로시마 AI 프로세스를 더욱 발전시키기 위한 작업 계획을 연말까지 책정하도록 요청했다.
이날 발표된 11개 항목의 개발자 국제지침과 행동 규범은 기존 국제협력개발기구(OECD)의 AI 원칙을 기초로 했다. AI 기술에 의한 이익을 중시하지만 그에 따른 위험과 과제에 대처하려는 목적이다.
국제 지침에는 "인권에 중대한 위험을 초래할 방법으로 고도의 AI를 개발, 도입해서는 안 되고 용인할 수도 없다"고 적시했다.
△사용자가 AI에 의해 생성된 콘텐츠를 식별할 수 있도록 인증 같은 메커니즘을 도입할 것 △국제적인 기술 규격의 개발을 추진할 것 △개인 데이터 및 지식재산권을 보호할 것 등의 내용이 담겼다.
기시다 후미오 일본 총리는 이날 소셜미디어 엑스(X·옛 트위터)를 통해 "(일본은) G7 의장국으로서 앞으로도 생성 AI의 국제 규칙 제정에 공헌해갈 것"이라고 밝혔다.
km@fnnews.com 김경민 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지