"전 세계에 백인만 있나?"...AI 편향성도 도마위

      2023.04.03 17:03   수정 : 2023.04.04 14:58기사원문

[파이낸셜뉴스] 생성 인공지능(AI)시대에 편향성은 꾸준한 논란거리다.

서비스 알고리즘을 설계하는 개발진들의 생각이나 주로 학습하는 데이터의 성격에 따라 자연스럽게 한쪽에 치우친 답변을 내놓을 수 있어서다. 더 나아가 일부 이용자들은 '탈옥'이라고 부르며 교묘하게 프롬프트(명령어)를 사용해 AI에게 부적절한 발언을 하게 만들거나 외설적인 이미지를 생성해내도록 해 문제가 되고 있다.

이에 개발사들은 생성AI가 완벽하지 않다고 거듭 강조하면서, 인력과 자본을 투입해 편향성 문제를 바로잡기 위해 노력하고 있다.

■"사람=백인, 승무원=여자" 내재된 편견

3일 업계에 따르면 AI 편향성 문제는 어제 오늘의 일이 아니다.
글로벌 기업 아마존은 지난 2018년 이력서를 AI로 평가하는 알고리즘을 개발하다 성별 편향성 논란으로 도입을 취소한 바 있다. 국내에서도 AI 챗봇 '이루다1.0'이 외설적인 말을 하거나 성소수자 혐오 답변 등 내놓아 논란이 되면서 서비스가 중단되기도 했다.

최근 활용되고 있는 생성 AI 모델 기반 서비스도 마찬가지다. 학습 데이터 양은 더 많아질 수 있으나 개발진이 알고리즘을 구성하는 방식이나 학습하는 데이터에 따라 오히려 편향성은 심해질 수 있다는 지적이 나온다.

실제로 기자가 챗GPT 개발사 오픈AI의 이미지 생성 AI '달리(DALL-E)'에 '안내방송을 하는 항공 승무원의 모습'을 요청해봤다. 그 결과 16개의 이미지 중 남성 항공 승무원이 등장하는 경우는 2번에 그쳤다. 해외 스타트업 스태빌리티AI의 이미지 생성 AI 스테이블 디퓨전(유료모델 드림스튜디오)를 통해 '신문 읽는 사람의 모습을 그려달라'고 요청하자 백인 남성의 모습만 생성됐다. 이후 여러 번 시도한 결과, 흑인이 한 차례 나오긴 했으나 동양인이 나오는 경우는 없었다.

■"완벽하지 않다" 오류, 개발사 선택은
생성AI '탈옥' 방법도 계속 공유되고 있다.

편향성 문제 등을 해결하기 위해 생성 AI 개발사들은 규칙을 설정해두는데, 이에 벗어난 답변을 유도해내는 것이다. 일부 커뮤니티에서는 '계속 시도해서 챗GPT 가스라이팅(심리적 조작을 통한 지배) 할 수 있다', '욕설에 특화된 탈옥 프롬프트가 있다' 등의 글이 다수 올라오고 있다.

이에 개발사들은 신중한 답변을 내놓기 위해 노력하고 있다. 서로 경쟁하듯 생성 AI 서비스를 내놓던 때와 사뭇 다른 분위기다. 엘리 콜린스 구글 서비스 책임 부사장은 대화형 AI 서비스 '바드'를 일부 이용자들에게 공개하면서 "AI챗봇이 특정 사람에 대한 부정확한 답변을 할 수 있기 때문에 종종 응답을 거부할 수 있다"고 설명하기도 했다.

아울러 초거대 생성 AI 모델을 활용하고 있는 기업들에겐 원하는 서비스에 맞게 '파인튜닝(사후 조정)'하는 것도 중요해질 전망이다.

국내 AI스타트업 업스테이지의 경우, 자사 기술로 파인튜닝된 이미지 생성 AI 업스케치(Upsketch) 베타 서비스를 이날부터 시행했다.
김근교 업스테이지 이사는 "기존 모델에 대한 파인튜닝을 강하게 해서 이미지 생성 퀄리티를 높이고, 한국어 특화 서비스를 제공하고 있다"며 "프롬프트를 만들고 점검해서 매 시간 업데이트 하는 등 우려되는 부분을 최소화하기 위해 노력하고 있다"고 설명했다.

이 같은 노력으로 생성AI 서비스의 편향성 요소는 개선되고 있다는 긍정적인 전망도 나온다.
전창배 국제인공지능·윤리협회 이사장은 "오픈AI의 경우 서구권 개발자들로 구성돼 있고 챗GPT가 그래서 편향적일 수 있다는 지적이 있지만 그만큼 업데이트가 되면서 필터링도 잘 되고 있는 상황"이라면서 "향후 편향적인 사고를 걸러내는 기술적인 방법, 개발자들을 교육하는 차원의 노력 등을 적극적으로 수행할 필요가 있다"고 제언했다.

soup@fnnews.com 임수빈 기자

Hot 포토

많이 본 뉴스