사회 사건·사고

보잉 본사 있는 시카고 가라고 한 AI… 낭패 볼 뻔했다 [AI, 미래 직업을 바꾸다]

이진혁 기자

파이낸셜뉴스

입력 2024.11.13 18:49

수정 2024.11.13 18:49

(8)·<끝>'묻고 듣고 써보고 즐겨본' AI 취재 생생 후기
'AI 픽' 인터뷰이 세계적 석학 추천
흔쾌한 수락에 "AI가 답장했나" 순간 오해하기도
미래 노동시장은 'AI와 대결'이 아닌
잘 다루는 사람과 그렇지 못한 사람 두 갈래로 나뉠 것
틀린 곳 알려주고 10년전 과거를 현재인양 답하기도
추가 검증 필요해 두 번 일하는 기분
기계 수준의 정밀함 대량의 일처리 강점
직접 사고·판단 못해
위력적인 도구일 뿐 인간의 영역 재확인
보잉 본사 있는 시카고 가라고 한 AI… 낭패 볼 뻔했다 [AI, 미래 직업을 바꾸다]
현재 언론 환경에서 인공지능(AI)의 역량을 확인하기 위해 시작된 'AI, 미래 직업을 바꾸다' 기획이 마무리됐다. 구상과 계획을 AI가 맡았고, 기자는 계획에 따라 취재했다. AI가 추천한 인터뷰 대상자를 만났으며 AI가 취재를 권한 미국 시애틀, 시카고 현장을 직접 찾았다. AI의 계획은 100% 온전하지 못했다. AI가 알려준 현장을 직접 찾았지만 해당 정보와는 상황이 전혀 달라 당황하기도 했다.
반면 기대하지 못한 인터뷰가 성사되는 일도 있었다. 그 때문에 AI 제안에 따라 현장 취재에 나섰던 기자들의 생각도 나뉘었다. AI의 적극적인 도입이 필요하다는 입장이 있는가 하면 AI가 진정한 의미의 저널리즘에 방해가 될 수 있다는 지적이 존재했다. 이에 취재 후 생각을 담아내기 위한 온라인 좌담회가 파이낸셜뉴스 이진혁, 강명연, 김동규, 노유정, 주원규 기자가 참석한 가운데 개최됐다. 이하 일문일답.

―이번 취재의 의미는.

▲이진혁=단연 인터뷰였다. 챗(Chat)GPT 추천에 따라 'AI가 발전된 도시' 미국 시애틀로 떠났다. 그 과정에서 챗GPT는 총 15명을 추천했다. 그중 세계적인 머신러닝 석학 페드로 도밍고스 워싱턴주립대 명예교수가 포함됐다. 챗GPT의 도움을 받아 인터뷰 요청을 하자 예상과 달리 곧바로 수락 답장이 왔다. 세계적인 석학과의 인터뷰가 너무 쉽게 이뤄진다는 사실이 의심스러웠다. 이런 의심은 페드로 교수가 이메일로 알려준 시애틀 인근 벨뷰의 한 주택에 도착할 때까지 이어졌다. '이메일조차 AI가 답장한 게 아닌지' '왜 대학교수라는 사람이 주택에서 인터뷰를 하자고 했는지' 등 여러 부분에서 걱정도 많았다. 그렇게 고풍스러운 나무 문고리를 두드리자 한 주택에서 포르투갈 억양을 쓰는 남자가 나왔다. 페드로 교수였다. AI 덕분에 인터뷰가 성사된 셈이다.

▲노유정=오픈AI 홈페이지 하단의 "챗GPT는 실수를 할 수 있습니다. 중요한 정보를 확인하세요"라는 문구가 그렇게 미워 보일 수 없었다. 시애틀 취재와는 달리 시카고 현장에서는 여러 어려움을 겪었다. 우선 AI로 인해 실업이나 경기침체 등 영향을 많이 받는 도시를 추천해 달라고 하자 가장 먼저 나온 대답은 '미국 디트로이트'였다. 챗GPT는 제조업이 AI 도입으로 가장 많이 영향을 받을 거라고 답했다. 하지만 디트로이트 경제 침체는 미국 자동차 산업 부진과는 연결되지만 AI와 연결은 쉽지 않아 망설여졌다. AI에 디트로이트의 경기침체 원인이 AI와 직접적으로 연결되는지 묻자 '그렇지 않다'는 답까지 했다. 결국 AI에 추가 제안을 요청해 연결된 지역이 시카고였다. AI를 믿고 간 시카고마저도 현재 경기침체가 올 정도로 AI의 영향을 받고 있지는 않았다. 심지어 AI는 보잉 본사가 시카고에 있으니 취재해 보라고 했지만 허위 사실이었다.

―AI가 제시한 취재정보를 신뢰할 수 있는지가 화두인데.

▲강명연=출장 과정에서 가짜 정보로 고생을 많이 했다. 시카고에서 취재에 도움을 줄 수 있는 교수를 알려달라는 질문에 대한 답에도 10여년 전 관련 대학에 있었거나 아예 이력을 찾을 수 없는 사람이 다수 포함돼 있었다. 이후 챗GPT를 신뢰하지 않게 됐다. 신뢰할 수 없는 상대에게 얻은 정보를 확인하는 과정은 피로감으로 다가왔다.

▲김동규=AI를 100% 신뢰한다면 업무시간은 크게 단축된다. 알려주는 정보를 그대로 사용하면 된다. 반면 1%라도 오류가 있다면 AI는 오히려 업무시간을 늘리는 역할을 한다. 안타깝게도 현재 AI는 후자에 가깝다. AI가 알려준 정보는 100% 신뢰할 수 없다. 따라서 사실인 정보라도 검증의 시간을 충분히 거쳐야 활용이 가능하다. 이번 취재를 진행하면서도 AI 정보를 검증하는 데 오랜 시간을 써야 했다. 더구나 챗GPT 기준으로 AI는 정보 출처를 명확하게 알려주지 않는다. 출처를 모른 상태에서 AI가 알려준 정보를 검증하는 것은 무척 힘이 드는 작업이었다.

―AI가 취재 과정에서 도움이 된 점은.

▲이진혁=긍정적으로 보는 입장에서 AI를 보조적 역할로 한정한다면 큰 도움이 된다. 해외 취재 과정에서 통계를 구하는 것이 가장 힘든 작업이다. 한글로 된 해외 통계가 부족하기 때문이다. 시애틀 취재에서도 지역의 부동산 가격과 대출, 인구통계 등을 AI를 이용해 구했고 검증에 시간이 소요되기는 했지만 활용이 가능한 데이터였다. 언어 측면에서 보면 기존 한글이었던 취재영역이 영어를 비롯한 다양한 외국어로 확대된 것이다.

―AI의 본질적인 단점은.

▲강명연=AI의 치명적 단점은 완전하지 못하지만 인간처럼 수정이 어렵다는 점이다. 인간 기자라면 취재 과정에서 파악된 새로운 사실이 중요하다면 특정 기사 계획이 있다고 해도 방향성을 바꾸는 것이 가능하다. 하지만 AI는 과거의 사실을 바탕으로 만들어진 기사 계획을 스스로 수정하지 못한다. 이는 미래 'AI 기자'는 오보를 양산할 수도 있다는 의미가 된다. AI가 대신 기사를 쓰는 시대가 된다면 '오보'에 대해 누가 어떻게 책임을 질 수 있는지 윤리·철학 문제까지 확대될 수 있어 보인다.

▲노유정=AI는 직접 '사고'하고 '판단'하지 않는다. 'AI가 인간 일자리를 대체할까' '실제로 대체된 곳이 있나'라고 질문했으나 실제로 벌어지지 않은 사건을 예측해서 답을 달라는 질문을 던진 셈이었다. 이미 세상에 나와 있는 자료와 데이터를 조합해서 연관성 있는 단어의 나열로 답을 제시해 주는 생성형 AI는 답할 수 없을 질문이었다. 이처럼 AI가 만든 기사 계획은 과거에 대해서는 다룰 수 있지만 현재와 미래에 대해서는 논하지 못했다.

―AI의 미래는.

▲주원규=지난 8월 시애틀에서 만난 페드로 교수는 AI의 미래에 대해 "미래는 사람과 AI가 대결하는 구도가 아니라 AI를 능숙히 다루는 사람과 그렇지 못한 사람의 구도가 될 것"이라고 이야기했다. 이번 취재를 진행하면서 페드로 교수의 말을 이해하게 됐다. 언론산업은 물론이고 모든 노동시장에서 AI를 잘 다루는 노동자와 그렇지 못한 노동자의 격차가 점점 벌어질 것으로 본다. 최후의 순간이 되면 AI를 쓰지 못하는 노동자는 시장에서 생존이 어렵다는 생각도 들었다. 기자 입장에서 보면 이미 공개된 정보를 가공하는 수준의 기사는 AI로 대체되지 않을까 생각한다. 드러나지 않은 사실을 취재할 수 있는 기자와 그들이 적은 기사만이 미래에도 경쟁력이 있을 것이라는 생각이 들었다.

▲노유정=AI는 인간과 다른 방식으로 움직인다.
그래서 인간의 한계를 뛰어넘지만 동시에 인간을 대체하지 못한다. AI는 이미 존재하는 방대한 자료를 빠르게 정리해 주는 등 기계 수준의 정밀함과 대량의 일처리로 인간을 보조할 수는 있다.
다만 새로운 것을 만들어내고 직접 사고해서 판단을 내리는 것은 인간의 영역이라는 생각이 이번 취재로 더 굳어졌다.

beruf@fnnews.com 이진혁 기자

fnSurvey