AI '역습'에 대응하는 인간의 생존 전략은?

      2019.07.10 17:04   수정 : 2019.07.10 17:04기사원문
앞으로 몇 년 뒤, 당신이 자율주행 자동차를 타고 도심 거리를 신나게 달리고 있다고 생각해보자. 교통 신호가 빨간 불로 바뀌었는데 자동차에 이상이 생겨 차를 멈출 수가 없다. 충돌을 피할 수 없는 상황에서 자동차는 선택해야 한다. 도로에서 벗어나 콘크리트 벽을 들이받아 탑승자를 죽음에 이르게 할 것인지 아니면 계속 달려 탑승자는 살리되 횡단보도를 건너는 보행자를 칠 것인가. 우리는 이때 자율주행 알고리즘이 어떻게 작동하도록 설계해야 하고 누가 죽을지를 어떻게 결정해야 될까. 당신도 분명 나름대로 의견이 있을 것이다.

아주 단순하게 되도록 많은 목숨이 걸린 쪽을 구해야 한다고 생각할지도 모른다. 아니면 '살인하지 말라'라는 성경 구절이 어떤 계산보다 우선하므로 차량 탑승자가 결과를 받아들이도록 내버려둬야 한다고 생각할지도 모른다.


저자는 이 책에서 다양한 인공지능과 알고리즘이 사회를 어떻게 통제하는지와 인간으로서 살아남는 방법을 이야기한다. 저자는 독재적이고 오만한 알고리즘을 깨부수고 기계를 객관적인 만능 해결사로 우러러보지 않는 미래를 만들어야 한다고 강조한다. 그러기 위해선 기계 오류와 결함은 물론 인간의 결점과 약점까지 이해해야 하며 우리가 알고리즘을 어떻게 잘못 이해하고 있는지와 어떤 관점에서 미래를 바라볼 것인지에 대해 다양한 사례를 통해 접근한다.

이 책에서 저자는 알고리즘으로 인해 개인 데이터의 유출이 얼마나 심각한 문제인지 역설한다. 우리가 소셜네트워크서비스(SNS)에 올린 글과 '좋아요'를 누른 게시물, 은밀한 검색 기록뿐 아니라 정치 성향, 복용하는 약, 임신 중절 여부까지도 무심코 '동의'하는 순간 모두 데이터 브로커에 팔린다. 데이터 브로커는 이 데이터를 이용해 우리의 호불호에 따라 최대한 관심사와 맞는 광고를 띄운다. 여기까지는 그럭저럭 괜찮다고 생각하는가. 그러나 이러한 데이터는 인간을 조종하는 데까지 널리 쓰인다. 대선 동안 조작된 가짜 뉴스를 퍼뜨려 유권자를 조종하고 중국 정부는 각종 은밀하고도 사적인 데이터들을 점수로 집약한 즈마신용점수를 통해 개인 신용도를 평가한다. 저자는 데이터가 이 시대의 새로운 황금이라면 우리는 현재 거친 미국 서부 개척 시대를 사는 셈이라며 무료 알고리즘에 의문을 품을 것을 경고한다. 알고리즘이 적용되는 대부분의 산업에선 개인 이익과 공공 이익이 충돌하는 팽팽한 갈등 상황이 자주 발생한다. 결론 내리기 쉽지 않은 이 논쟁이야말로 알고리즘이 믿을 만한지 파악하는 데 그치지 않고 인간 한계와 가치를 결정한다. 저자는 의료 파트에서 개인정보 보호와 공익 사이의 갈등도 다룬다. 당신 선택이 누군가에게 이익을 가져올 것인지 경계해야 한다고 이야기한다. 이처럼 목표와 동기가 충돌할 때 알고리즘 위험은 은폐되고 이익은 부풀려진다. 신기술 중심에는 힘과 기대치, 통제, 책임 위임과 관련한 난제들이 자리하기 때문이다. 저자는 개인정보가 악용될 위험과 책임 문제 등을 무릅쓰고 알고리즘을 신뢰할 수 있을지 현실을 짚으며 최선의 해법을 제안한다.
이 책은 알고리즘이 나쁘다고 주장하는 것이 아니다. 다만 알고리즘으로 얻는 이익이 해로움보다 큰지 질문을 던져야 한다고 말한다.
자신의 판단보다 기계를 더 신뢰해야 할 때가 언제인지 기계에 통제권을 맡기고 싶은 유혹을 떨쳐야 할 때가 언제인지를 알아본다.

yccho@fnnews.com 조용철 기자

Hot 포토

많이 본 뉴스