“초거대 AI 시대, 인간의 디지털 문해력 키워야”
2023.02.16 16:49
수정 : 2023.02.16 17:22기사원문
파이낸셜뉴스는 챗GPT를 둘러싼 논쟁 중 △AI 생태계 변화 △한국기업의 대응 △AI 윤리 등 주요 의제에 대한 지상좌담회를 진행했다. 좌담회에는 공득조 광주과학기술원(GIST) 연구혁신센터 실장, 김명주 서울여대 정보보호학과장(교수), 김상균 경희대 경영대학원 교수, 장병탁 서울대 컴퓨터공학부 교수(가나다순)가 함께했다.
-글로벌 MAU 1억을 돌파한 챗GPT 파급력에 대해.
▲공득조=기존 AI 서비스에 비해 아는 것도 많고 기대이상의 결과물이 나오니 열광하는 것 같다. 물론 틀린 정보도 있지만 논리적으로 말하는 척을 잘한다. 하지만 이용자들의 눈높이가 높아지면서 만족도를 채울 수 있는 또 다른 서비스들이 대체하게 되지 않을까 생각한다.
▲김명주=구글 검색 엔진을 대체할 정도는 아니지만 그 파급력은 대단히 크다. 특히 일반인을 상대로 하기 때문에 이전 AI 기술에 비해 사용자층이 굉장히 넓고, 개인의 역량을 높여주는 도구로서 긍정적이다.
▲김상균=‘지능 외재화’가 나타나고 있다. 기존에는 검색 엔진을 통해서 필요한 정보를 찾고 해당 정보를 가공하거나 판단하는 건 사람의 영역이었는데, 이제 가공과 판단까지 챗GPT라는 AI 도구에 의존하게 됐다. 이로 인해 인간이 사고하는 능력 자체가 자칫 퇴화할 수 있다.
▲장병탁=최근 챗GPT가 유료화되면서 상업적으로 활용할 수 있는 부분들도 많아진 것 같다. 기존에는 추천 알고리즘처럼 조력자 역할을 했던 AI 기술이 이제는 직접 경험을 할 수 있고 수익 모델로서 부가가치를 내고 있다.
-챗GPT 등으로 인해 AI 생태계에 예상되는 변화는.
▲김상균=챗GPT가 생산성을 높이는 영역으로 들어가면 이용자 사용 목적에 따라 쓸 수 있는 등 다양성이 굉장히 높아질 것이다.
▲장병탁=MS 파워포인트에 챗GPT가 적용되는 등 향후 모든 업무에 연결될 것 같다. 또 챗GPT 같은 생성형 AI는 그림과 음악 등 창작활동도 늘어나고 있다. 그 기반에는 초거대 AI가 있다. 아직 한계도 있지만 발전 가능성도 충분하므로 다양한 투자가 이뤄질 것 같다.
-개인, 기업, 공공은 AI와 시너지를 낼 수 있는가.
▲공득조=과학기술은 사람을 돕기 위해 등장한다. AI도 마찬가지다. 개인들은 AI를 보조수단으로 쓰면서 본인이 잘할 수 있는 영역을 개척해야 한다. 기업은 글로벌 전략 일환으로 구글, MS 등 빅테크와 손잡고 이들이 부족한 한국어 모델 등에 대해 협력을 이어가야 한다.
▲김명주=챗GPT는 사람들의 업무를 도와주는 한편 시간도 단축해줄 것이다. 인간의 역량을 효과적으로 높여주는 도구이기 때문이다. 이때 챗GPT를 얼마나 빠르게 활용하는지에 따라서 능률도 달라질 것이다.
▲김상균=AI가 일자리를 대체하는 게 아니라 AI를 잘 쓰는 사람들의 일자리가 생기는 것이다. 기업과 공공에서는 인간다운 작업이 무엇인지 고민해야 한다. 즉 인간이 갖고 있는 지능을 AI라는 도구를 통해서 확장시키는 데 주력해야 한다.
▲장병탁=아직 신뢰도 측면에서 유의해야 할 부분도 있지만, 향후 초거대 AI는 학습량이 많은 똑똑한 AI비서로서 유용해질 것이다. 기업들도 이미 챗봇을 적용하고 있는데 초거대AI 언어 모델이 뒷받침되면 상당 부분 고도화될 것이다. 학생들도 ‘AI 튜터’처럼 활용할 수 있다.
-빅테크와 AI 기술 격차가 크다. 국내 ICT 대응은.
▲공득조=구글, MS, 아마존 등 글로벌 빅테크는 ICT 연구개발(R&D)에 투자하는 규모 자체가 다르다. 우리나라는 100분의1 수준이다. 이 안에서 우리 기업만의 차별화된 전략이 필요하다.
▲김명주=구글 등 빅테크를 상대하기 위해 가장 갖춰야 할 것은 데이터 차별화다. 초거대 AI 언어 모델에 있어 굉장히 중요한 게 데이터 싸움인데, 한국적 정보나 대화는 오히려 네이버와 카카오 같은 국내 기업이 구체적이고 세분화된 데이터를 갖고 있어 더 잘할 수 있다.
▲김상균=국내 스타트업이 GPT 기반으로 프로그램을 만들면서 원천기술 확보에 대한 문제가 장기적 과제로 남는다. 원천기술이 없으면 개인정보보호나 수익성 측면에서 한계가 올 수밖에 없다. 또 GPT의 경우 특정 인종 및 성별을 지닌 개발자 위주로 만들어지기 때문에 향후 문화 및 철학적으로 문제가 발생할 수 있다. 원천기술 부분에 대한 국가적 지원이 필요한 이유다.
-연내 공개될 GPT-4는 인공일반지능(AGI)에 이를까.
▲공득조=AI는 지혜로울 수 없다. 그래서 AGI 자체가 기준점이 모호하다. 자율주행차만 놓고 봐도 사람이 판단해야 할 부분이 분명히 존재한다.
▲김명주=GPT-4가 나와도 범용 AI로 분류하기는 어려울 것 같다. 조금 더 말을 잘하고 이해 수준이 높을 뿐이다. 즉 AI 안에 자아의식이 생기거나 사람처럼 단어에 대한 개념을 가지거나 하는 건 학습 모델을 바꾸기 전에는 생기지 않을 것이다. 또 사람들이 많이 거론하고 인용한 데이터를 GPT가 인용할 확률이 높다. 이는 정확성에 대한 논쟁으로 이어질 수 있다. 사회적으로 보면 전통적인 편견, 차별, 부정확하거나 왜곡된 데이터가 GPT에 반영될 수 있다.
▲장병탁=AGI는 AI연구자들의 꿈이다. 그 시초를 GPT-4가 보여주지 않을까 싶긴 하다. 기계지능이 인간지능을 넘어서는 싱귤래리티(특이점)인 AGI가 되면 사람보다 잘하게 되는 건 순간적인 문제다. 인간은 평생 지식을 쌓아도 물려줄 수 없지만, 기계는 정확하게 카피할 수 있고 계산속도도 빠르다.
-‘AI 윤리’를 갖추기 위해 필요한 법과 제도에 대해.
▲공득조=굉장히 필요한 부분이다. 다만 기본적으로 법과 제도가 악을 사전에 차단하기 위해 존재하지 않는다. 최소한의 규범일 뿐이고 근본적으로 차단해서도 안 된다. 즉 악용하면 안 된다는 생각보다는 어떻게 제도를 개선할지 고민해야 한다. 특히 AI를 활용하는 개인에 대한 인성 교육이 잘 돼야한다.
▲김명주=기술은 가치중립적이다. 따라서 AI를 개발한 회사에게 모든 책임을 떠넘기는 것은 무리가 있다. 챗GPT의 경우, 문맥은 이해하지만 질문자 의도는 파악하지 못하기 때문에 악용될 수 있다. 따라서 개발자 뿐 아니라 이용자의 윤리관도 매우 중요하다. 또 기술의 부작용과 역기능만 중요시하면 관련 정책과 법에 의해 해당 기술이 억눌린다. 사회적 가치에 따라 기술발전이 우선인지, 아니면 사회적인 악영향을 축소하는 게 우선인지 논의해야한다.
▲장병탁=법제도라는 것은 항상 양면성이 있다. 기술발전은 객관적인 것인데 사람이 오용할 수 있다고 규정을 만들면 기술발전을 저해할 수 있다. 국가차원에서 균형이 맞는 법과 제도를 진지하게 고민해야 할 시점이다.
elikim@fnnews.com 김미희 김준혁 임수빈 기자