원자력·의료 등 고위험 영역 분리해 규제… AI산업 육성책 완성도 높인다
2023.06.21 18:54
수정 : 2023.06.21 18:54기사원문
AI 산업 육성과 AI 신뢰성 확보 사이에서 정책 균형을 맞춰야 자국 AI 경쟁력을 확보할 수 있기 때문이다. 글로벌 빅테크 업체들에 비해 뒤처진 국내의 경우 AI 육성책과 함께 고위험 AI를 규제해야 하는 '두마리 토끼'를 잡아야 하는 상황이다.
■AI산업 육성과 고위험 AI분리 규제
21일 국회 의안정보시스템에 따르면 현재 국회 과학기술정보방송통신위원회(과방위)에는 AI법이란 이름의 대안이 전체회의 상정을 기다리고 있다.
앞서 국회 과방위 정보통신방송법안심사소위원회(법안소위)는 지난 2월 14일 기존에 발의된 AI 관련 법안 7건을 병합한 대안을 통과시켰다. 병합안은 아직 비공개 상태지만, 파이낸셜뉴스가 입수한 별도의 설명자료에 따르면 AI법 제정방향은 AI 산업 육성과 AI 윤리·신뢰성 확보가 핵심이다. AI 기술 개발, 학습용 데이터 구축, 인력양성 등 AI 산업 육성을 위한 근거를 마련한 동시에 고위험 AI 대상 규제 등을 도입하기로 한 것이다.
고위험 영역에서 활용되는 AI란 에너지 분야나 보건의료·의료기기, 핵물질·원자력 시설 등에 사용되는 AI다. 또 범죄수사 등에 있어 생체정보를 분석·활용하는 데 사용되는 AI와 채용·대출심사 등 개인의 권리·의무 관계에 중대한 영향을 미치는 판단·평가 목적의 AI도 해당된다. 이에 따라 고위험 AI 개발자 또는 사업자에 대한 신뢰성 확보조치도 의무화된다.
■AI규제 명확성 기반 생태계 키워야
과학기술정보통신부는 기술마다 법을 제정하거나 법 규정을 만드는 부분에 대해서는 신중론을 제시하고 있다. 다만 AI는 기술과 산업을 넘어 사회 전체의 변화를 가져오는 이른바 '리셋 바이 AI'가 가속화되고 있다는 점에서 법 제정이 시급하다는 설명이다.
박윤규 과기정통부 2차관도 병합안 통과 당시 과방위 법안소위에 출석, "기존에 AI법 등이 없을 때도 AI 국가전략 등 정부 계획을 통해 많은 노력을 했지만, 기본적으로는 법적 기반을 갖출 수 있도록 해 주는 것이 가장 필요하다"며 "AI법은 단순히 진흥법이 아니고 고위험군에 대한 국가의 책무라든지 사업자들이 지켜야 될 사항에 대해서도 같이 규정을 하고 있기 때문에 산업 발전과 사회적인 적용에 대한 균형점을 갖고 있는 측면에서 세계에 내놔도 손색이 없다"고 강조했다.
AI 업계에서는 '규제 명확성'에 대한 요구는 꾸준히 나오고 있다. 기업 자체적으로 AI 윤리 등 신뢰 확보를 위한 노력을 다각화하고 있지만, 명확한 규율이 뒷받침돼야 한다는 지적이다.
AI 영상 면접 솔루션 개발사 제네시스랩 이영복 대표는 "공정성과 신뢰성이 중요한 고위험군 AI에 대해서는 정부나 관련 기관의 관리 감독이 반드시 필요하다"며 "다만 이러한 관리감독은 단순한 규제가 아닌 AI 산업 발전을 위한 최소한의 허들로 존재해야 하며, 이러한 규제기준을 충족한 기업에는 정부 차원의 지원 등 다양한 혜택이 제공돼 바람직한 AI 생태계를 구축하는 선순환 구조가 자연스럽게 마련돼야 할 것"이라고 말했다.
'챗GPT 아버지' 샘 올트먼 오픈AI 최고경영자(CEO)도 지난 9~10일 방한 당시 윤석열 대통령과 만난 자리에서 AI 폐해 등 우려에 대해 "사회 내에서 위험성을 줄이고 개인의 이익을 보장하기 위해서도 규범 마련은 중요하다"면서 "한국이 선도적 역할을 해주길 바란다"고 전했다.
elikim@fnnews.com 김미희 기자