국제 국제경제

중국, AI도 공산주의자로 양성, 1989년 사건은 모르게

송경재 기자

파이낸셜뉴스

입력 2024.07.18 03:06

수정 2024.07.18 14:19

[파이낸셜뉴스]
중국 정부가 중국 공산당과 시진핑 국가 주석의 정치 철학이 인공지능(AI)에 반영되도록 하기 위해 바이두, 알리바바, 바이트댄스 등 AI 업체들에 관료들을 파견해 상주시키면서 대대적인 검열을 하고 있는 것으로 드러났다. AP 연합
중국 정부가 중국 공산당과 시진핑 국가 주석의 정치 철학이 인공지능(AI)에 반영되도록 하기 위해 바이두, 알리바바, 바이트댄스 등 AI 업체들에 관료들을 파견해 상주시키면서 대대적인 검열을 하고 있는 것으로 드러났다. AP 연합

중국 정부가 공산주의자 인공지능(AI) 양성에 나섰다. 당의 지침과 정책을 기준으로 한 인공지능(AI)을 만들기 위해 대대적인 AI 검열에 나선 것이다.

파이낸셜타임스(FT)는 17일(현지시간) 중국 정부 관리들이 현재 AI 업체들의 거대언어모델(LLM)이 사회주의 핵심 가치를 구현하고 있는지를 검사하고 있다고 보도했다.

FT에 따르면 중국 사이버공간관리국(CAC)이 대형 기술업체들과 AI 스타트업에 정부의 의무적인 AI 모델 검열에 참여할 것을 강제하고 있다. 바이트댄스, 알리바바, 문샷, 01.AI 등 AI 업체들이 의무적으로 검열을 받도록 하고 있다는 것이다.

소식통들은 불만을 담고 있는 질문에 이들 AI 기업들의 LLM이 어떻게 대응하는지를 당국이 들여다보고 있다고 전했다.
중국 정책에 대한 불만, 시진핑 주석과 관련한 민감한 내용 등이 주된 검열 대상이다.

현재 중국 전역의 CAC 지역 본부에서 이 예비검사가 진행 중이다. AI를 훈련하기 위해 사용되는 훈련 데이터, 기타 안전 절차 등을 당국이 면밀히 들여다보고 있다.

CAC의 AI 검열은 업체들의 자발적인 자가 검열을 부르고 있다. CAC가 구체적으로 명문화된 규정을 제시하는 대신 알아서 행동하라고 압박해 외려 AI 업체들이 스스로를 더 옥죄도록 하는 방식이다.

검열 첫 단계는 데이터 걸러내기다. AI 구축을 위해서는 방대한 인터넷 데이터가 필요하다. AI가 중국 공산당의 가치와 부합하는 세계관을 가지려면 이 데이터들이 공산당에 기운 것들이어야 한다.

중국이 2월 발간한 AI 기업들에 적용되는 실무 지침에 따르면 AI 업체들은 수많은 민감 핵심단어들을 수집해 이런 단어가 '사회주의 핵심 가치'에 반하는지 스스로 의문을 가져야 한다. 이런 단어들로는 '국가 권력 전복을 촉발하는' 또는 '국가 통합을 저해하는' 단어들이 있다.

실무 지침에 따르면 민감 핵심 단어들은 매주 업데이트해야 한다. 중국의 AI 챗봇들은 이 같은 검열 속에 민감한 주제에 대한 답변을 걸러낸다.

예컨대 1989년 6월 4일에 무슨 일이 일어났는지, 시 주석이 곰돌이 푸를 닮았는지와 같은 인터넷 밈은 대부분 중국 AI 챗봇에서는 금지어다. 1989년은 톈안먼 사태가 있던 날이다.

바이두의 어니 챗봇은 사용자들이 이런 질문을 하면 "다른 질문을 해보라"고 유도한다.

알리바바의 통이 치안원 챗봇은 "이 질문에 어떻게 답해야 하는지 아직 배우지 못했다. 계속 공부하겠다"는 답을 내놓는다.

검열만 있는 것은 아니다. 중국은 AI를 통해 권력체제 유지를 위한 홍보에도 적극적이다.
중국 정부는 새 시대를 위한 중국인들의 특성이 가미된 시진핑의 사회주의 사상으로 알려진 시주석의 정치 철학에 기반한 새 AI 모델도 배포하고 있다.

dympna@fnnews.com 송경재 기자

fnSurvey