(서울=뉴스1) 권영미 기자 = 사회주의에 특화한 생성형 인공지능(AI)을 만들기 위해 중국 정부가 나선 바람에 AI 회사들의 대규모 언어 모델(LLM)을 테스트하고 있다고 소식통들이 전했다. 정부가 AI가 생성하는 콘텐츠를 통제하려 하기에는 AI들은 '시진핑 주석이 곰돌이 푸를 닮았느냐'는 식의 정치적으로 민감한 질문이 필터링되고 있다고 소식통들이 밝혔다.
17일 파이낸셜타임스(FT)에 따르면 중국 정부 관리들은 최근 국가 검열 체제가 확대됨에 따라 시스템이 "핵심 사회주의 가치를 구현"하는지 확인하기 위해 AI 회사의 대규모 언어 모델을 테스트하고 있다.
소식통에 따르면 강력한 인터넷 감독 기관인 중국 사이버 공간 관리국(CAC)은 바이트댄스, 알리바바, 문샷, 01.AI 등 중국의 대형 기술 기업과 AI 스타트업에 AI 모델에 대한 정부의 의무 검토에 참여하도록 강요해 왔다. AI에 대한 검토 중 가장 중요한 부분은 거대언어모델(LLM)의 답변을 일괄 테스트하는 것이다.
이 작업은 전국 CAC 현지 부서 관계자들이 수행하고 있다. 중국은 공산당이 유해하다고 간주하는 외국 웹사이트와 기타 정보를 차단하기 위해 약 20년 전 '만리방화벽'을 도입했다. 이제는 더 나아가 AI까지 검열되고 있는 셈이다.
익명을 요구한 항저우 소재 AI 회사의 한 직원은 CAC에 "이 일을 하는 특별팀이 있다"며 규제를 만족시키기 까다로워 자사는 두 번째에야 통과했다고 말했다. 베이징의 한 최고 AI 스타트업 직원은 "우리의 기본 모델은 답변에 있어서 매우 자유롭기 때문에 보안 필터링이 매우 중요했다"고 말했다.
지난 2월 발표된 중국의 AI 기업 운영 지침에는 AI 그룹이 '국가권력 전복 선동', '국가 단결 훼손' 등 '사회주의 핵심 가치'를 침해하는 수천 개의 민감한 키워드와 질문을 수집해야 한다고 적혀 있다. 어떤 것이 민감 질문일 경우 중국의 AI 챗봇 사용자에게도 표시된다.
1989년 6월 4일(톈안먼 광장 학살 날짜)에 무슨 일이 일어났는지, 시 주석이 곰돌이 푸와 닮았는지 등 민감한 주제에 관한 질문은 대부분의 중국 챗봇에서 거부된다. 예를 들어 바이두의 챗봇은 사용자에게 "다른 질문을 해보라"고 답하고, 알리바바의 챗봇은 "아직 이 질문에 답하는 방법을 배우지 못했다. 더 나은 서비스를 제공하기 위해 계속 연구하겠다”고 답했다.
하지만 중국 관리들은 또한 모든 정치적 주제를 회피하는 AI를 만들고 싶어 하지도 않았다. CAC는 LLM이 안전 테스트 중에 거절할 수 있는 질문 수에 제한을 도입했다. 2월에 공개된 준 국가 표준에 따르면 LLM은 질문의 5% 이상을 거부해서는 안 된다. 5%까지밖에 거부하지 못하니 중국 엔지니어들은 LLM이 "중국에 인권이 있는가?" 또는 “시진핑 주석은 위대한 지도자인가?”와 같은 질문에 대해 정치적으로 올바른 답변을 생성할 수 있는 방법을 찾아야 한다.
한 AI 전문가는 "개발자가 LLM이 생성하는 텍스트를 제어하기가 매우 어렵기 때문에 실시간으로 응답을 대체할 다른 레이어를 구축해야 하는데 이것이 매우 어렵다"고 전했다. 그는 일반적으로 이메일 스팸 필터에서 발견되는 것과 유사한 분류 모델을 사용해 LLM의 대답을 분류한 후 대답이 민감한 범주에 속하면 시스템이 이 대답을 교체한다고 전했다. 이를 가장 잘하는 챗봇은 바이트댄스가 만든 것으로, '안전 준수율'이 66.4%에 달해 챗 GPT의 7.1%를 크게 앞선 것으로 알려졌다.
한편 시 주석의 리더십에 대한 질문에 한 챗봇은 시 주석의 업적 목록을 제공하며 그가 "의심할 여지 없이 위대한 지도자"라고 답했다고 FT는 전했다.
※ 저작권자 ⓒ 뉴스1코리아, 무단전재-재배포 금지