[편집자 주] '이세돌과 알파고' 이후 5년 남짓, 인공지능은 낯설고 새로운 미래가 아닌 이미 익숙한 일상이 되어가고 있다. 가전제품에서부터 자율주행차에 이르기까지, 간단한 온라인 상거래부터 신약개발에 이르기까지 인공지능은 우리 삶과 세상에 물처럼 스며들고 있다.

변화에 가장 잘 적응하는 방법은 변화를 쫒지 않고 변화를 만들어내는 것이다.

이에  AI타임스는 각계 전문가들과 함께 인공지능의 현재를 톺아봄으로써 미래의 변화를 예측하고, 수동적 변화가 아닌 능동적 혁신으로 이끌 수 있는 길찾기의 하나로 ‘인공지능백서 2021-AI와 우리사회의 변화’ 특집기획을 연재한다.

우리사회에는 이해하기 힘든 신화 같은 것이 있다. 공부 잘 하는 사람(정확하게 말하면 성적이 우수한 사람)이 성품도 올곧을 것이라는 생각, 좋은 학교 출신자가 좋은 정책을 만들 것이라는 생각, 그들의 결정이 공정할 것이라는 생각... 그 연장선에서 능력있는 엔지니어가 만든 기계가 완벽할 것이라는 생각. 그러면서도 인간이 아닌 기계가 인간보다 공정할 것이라는 생각.

알고리즘이 공정하다는 신화

공부(성적)에서 시작해 기계로 끝나는 위의 글을 하나로 풀어보면 공부 성적과 기계적 정확성은 거의 일치하는 덕목이다. 그리고 우리 사회가 가장 높게 값을 매기는 가치다. 실제로 우리 사회에서 공부를 잘 한다는 것은 암기력 수준이 높은 것을 뜻한다. 암기력과 관련없어 보이는 수학이나 물리학조차도 사교육의 집중세례를 받으면 거의 그 패턴이 암기되기에 이 법칙은 거의 모든 범주에 해당한다.

정확성을 공정과 일치시켜 보려는 욕망은 망국과 분단, 전쟁, 개발독재, 부동산 광풍, 민주화의 이면 등 어느 누구도 믿기 힘든 지난 세기의 역사적 경험이 준 교훈일 지도 모른다. 정확한(나는 결코 믿지않지만) 하나의 잣대가 모든 참가자에게 똑같이 적용되니 서로 불편하지 않다는 것이다.

포털이 인공지능을 통해 뉴스편집을 해야 한다는 주장은 그런 맹신의 신화를 가장 잘 보여주는 사례 중 하나다. 오랜세월 정치는 이쪽이든 저쪽이든 포털 뉴스 편집의 ‘인위성’에 투덜댔고, 그들이 여의도에 입성한 성공신화처럼, 포털 또한 누구라도 인정할 수 있는 정확한 기준을 마련할 것을 요구했다.

포털은 그들의 편집권에 대한 책임을 위탁한 제휴평가위원회에 이어 편집 알고리즘을 개발했고 급기야 그 어떤 책임도 없는 곳으로 숨어버리고 말았다. 의사결정자들이 편견 없는(?) 알고리즘에 의한 뉴스편집을 요구했으니 그들은 할 만큼 한 셈이다. 하지만 알고리즘에 의한 뉴스 배치는 공정한가?

알고리즘이 공정하다는 생각은 신화에 불과하다. 알고리즘은 정확할지언정 결코 공정하다고 단정할 수는 않다. 설정된 알고리즘을 ‘정확하게’ 수행해내는 것을 가지고 공정하다고 말하면 안된다. 더욱이 그런 알고리즘 디자인은 편견 있는(!) 인간이 만든 것이다.

알고리즘이 공정하다는 태도는 정확성과 같이 이성을 정해진 목적을 수행하기 위한 수단으로 생각하는 도구적 합리주의 사회의 이데올로기일 뿐이다. 빠른 길을 안내 해주는 네비게이션, 내 취향을 아는 넷플릭스, 지난 여름 휴가지의 맛집을 추천해 준 구글을 어떻게 공정하다고 말할 수 있는가?

생각없는 지능을 신봉해야 하나?

알고리즘을 신봉하는 사회는 사고의 복잡성을 정확성으로 대치한 지능이야말로 가장 강력한 지능이라고 철썩같이 믿는 사람들이 모인 곳이다. 그 정확성은 생각이라는 사실마저 확신하게 만든다. 인공지능은 인간에게 있는 생각은 없지만, 생각을 통해 행동하는 것처럼 보이는 ‘생각없는 지능’(mindless intelligence)이다. 인간은 인공지능이 수행해낸 결과를 가지고 생각이 있는 것처럼 상상할 뿐이다.

하지만 생각없는 지능은 기계적으로 수학문제를 풀고, 기계적으로 어떤 사실을 외우는데 능하지만, 조금만 문제가 달라지면 대처하지 못한다. 생각없는 지능의 놀라운 수행력은 사실 암기력 강한 인간의 수행력과 크게 다르지 않다. 이 둘은 변화에 둔감하고 곧잘 저항한다. 인간의 사고를 기계의 사고처럼 하도록 압박하는 사회가 두려운 이유이다.

이 시대의 문명을 정의하는 기계 알고리즘은 인간의 편견마저 그대로 답습한 생각없는 지능일 뿐이다. 네비게이션과 의학봇의 목소리가 대부분 여성인 이유와 법률봇의 목소리가 대체로 남성인 이유는 해당 직업세계의 편견이 인공지능에 투사되어 있기 때문이다.

한국의 인공지능 스피커가 지나치게 상냥한 비서 같다거나, 일본의 그것이 과도하게 귀엽거나 초등학생 같다면, 그리고 미국의 그것이 쿨하다고 느꼈다면 정확하게 본 것이다. 인공지능은 주어진 일을 만든 사람의 편견과 더불어 정확하게 실현하는 비인간 행위자이다. 구글 포토가 흑인을 고릴라로 분류했던 유명한 일화를 기억할 것이다.

2015년 7월 미국 뉴욕에서 회사를 다니고 있는 프로그래머 재키 앨신은 자신의 트위터에 "구글 사진, 당신들은 모두 X됐어. 내 친구는 고릴라가 아니야"라는 글을 올렸다.
2015년 7월 미국 뉴욕에서 회사를 다니고 있는 프로그래머 재키 앨신은 자신의 트위터에 "구글 사진, 당신들은 모두 X됐어. 내 친구는 고릴라가 아니야"라는 글을 올렸다.

AI 미디어와 인공지능 상상력

인공지능이 공정하지 않다는 것을 흔들리지 않는 명제로 받아들이자. 그렇게 되면 ‘알고리즘 상상력’(algorithmic imaginary) 같은 인공지능 리터러시가 제도교육은 물론 일상적 교육공간에서도 이야기되어야 한다는 점을 받아들일 수 있게 된다. 인공지능이 사람과 만나는 순간을 상상해 보자. 흑인과 백인, 동양인과 서양인, 여성과 남성, 이른바 MZ 세대와 기성세대는 차별없이 페이스북, 구글, 유튜브, 네이버, 카카오를 만나는가? 결코 그렇지 않다.

모든 알고리즘은 그것이 만들어지는 사회의 특정한 문화적 코드가 실제 알고리즘 코드로 전환된 결과물이다. 그런 AI 미디어는 각기 다른 관심과 취향, 선호, 정의를 가진 이용자에게 각기 다른 최적의 결과를 제공한다. 모든 AI 미디어는 개별 이용자의 취향과 이데올로기적 선호, 세상에 대한 정의, 그리고 각종 프로모션과 재방문 같은 미디어의 요구에 부합하는 커뮤니케이션을 시도한다.

우리는 이것을 알고리즘 상상력이라 부른다. 알고리즘은 생각없는 상상력을 발휘하는 묘한 능력이 있다. 가령 A라는 사람이 접하는 페이스북과 B라는 사람이 접하는 페이스북은 그 내용은 물론이거니와 각각의 이용자를 대하는 태도, 정보, 느낌 등이 결코 같지 않다. 아마도 사람 수만큼 다 다를지도 모른다.

하지만 개별 이용자는 그 다름을 인지하지 못한다. 나에게 친절한 유튜브가 다른 사람에게도 똑같을 것이라 생각한다. 하지만 AI 미디어는 모든 이에게 친절할지는 몰라도 똑같은 내용으로 친절하지는 않을 것이 분명하다. 우리는 인공지능이 만들어낸 ‘공정한 편애’에 취해 있을지도 모른다.

알고리즘 상상력은 기존의 아날로그 미디어에서는 없던 현상이다. KBS나 MBC, 조선일보, 한겨레신문 같은 기존 미디어는 특정 이슈에 대한 미디어 고유의 상상력은 있어도, 이용자마다 각기 다른 방식으로 최적화의 상태를 제공하지는 못한다. 알고리즘 상상력은 모든 이용자의 만족도를 최대화하는 방식으로 주목을 기계화하는 인공지능의 숙명인지도 모른다.

정동의 시대, 알고리즘 평행이론

알고리즘 상상력이 우리에게 주는 교훈은 생각보다 깊다. AI 미디어가 토해내는 정확한 결과값은 개별 이용자의 욕망이지만, 시간이 갈수록 사회(기업?)가 선택한 알고리즘의 욕망일 확률이 커진다. 내가 넷플릭스에서 서부극을 즐겨본다면 인공지능은 내가 어떤 ‘생각을 가지고’ 다른 결정을 하지 않는 한 그런 종류를 주로 추천할 것이다.

(출처=셔터스톡)

유튜브와 숱한 SNS의 젠더 콘텐츠를 즐겨 소비하는 10대 아이들은 그 콘텐츠가 인위적으로 만들어졌고 세상의 절반이 자기와 다른 성이라는 사실에도 불구하고, 스스로 생각하지 않는 한 혐오의 언어를 멈추지 않을지도 모른다. 혐오의 젠더 콘텐츠가 2021년 지금 시대의 알고리즘이 선택한 최적의 상상이기 때문이다. 그런 클릭에 유입되는 광고량이 알고리즘의 작동을 결정할지도 모른다는 사실을 일반 이용자들은 쉽게 파악해내지 못한다.

인간은 생각없는 지능이 주는 강력한 정동의 힘에 대한 면역력을 키워야 한다. 이전의 미디어가 수동적인 수용자에게 어떤 생각의 결과를 제공했다면, AI 미디어는 수용자 스스로 특정 세계에 대한 신념을 굳히도록 강화한다. 흔히 전자를 효과(effects)라 하고 후자를 정동(affects)이라 한다. 전자가 결과라면 후자는 과정이다. 전자든 후자든 일반 미디어 이용자가 그 힘에 저항하기 힘든 건 매 한가지이다.

하지만 알고리즘 상상력이 작동하는 후자는 모든 이용자들을 생각의 승리자로 만들기 때문에 다른 생각이 있을 수 있다는 사실을 떠올리지 못하게 한다. 정동의 시대는 생각의 경쟁을 부추기지만, 알고리즘의 원초적 편견이 구조화한 불평등을 쉽사리 극복하게 놔둘 것 같지는 않다.

어떻게 해야 하는가? 교육과 언론, 정치의 몫이 남아있다. 인간이 해야 하는 몫이다. 가장 먼저 정확한 것을 공정하다고 믿는 생각을 버려야 한다. 그런 생각이 인공지능으로 프로그램화되면 알고리즘 특유의 정확성이 공정성을 대치하게 된다. 구체적으로 어떻게 해야 하는가? 글쎄다. 변화를 위한 실천은 늘 마지막에 가야 보일 것이다. 다만 확실한 것은 알고리즘 상상력이 인간의 상상력과 평행하다는 점이다. 점점 증가하는 알고리즘에 의한 편견과 증오, 불공정을 막아내려면 알고리즘 상상력에 투사되는 인간의 상상력에 대해 이야기해야 한다.

임종수 교수는 한양대 신문방송학과에서 학사, 석사, 박사를 했다. EBS 정책위원을 거쳐 2007년부터 세종대 미디어커뮤니케이션학과에서 연구 중이다. 글로벌미디어소프트웨어(GMSW) 융합연계전공 센터장을 겸임하고 있다. 주요 연구로 '오토마타 미디어', 'AI 미디어와 의인화'와 <넷플릭스의 시대>(역) 등이 있다.

임종수 세종대 교수 jslim123@sejong.ac.kr

<인공지능백서 2021-AI와 우리사회의 변화>특집 칼럼

[양지열 칼럼] 인공지능(AI) 판사는 정의로울까?

[최원희 칼럼] 스마트 팩토리, AI, 그리고, 메타버스

[김재민 칼럼] 탄소 저감형 스마트 도시 유틸리티 구성을 위한 AI 기법

키워드 관련기사
  • [AI북터뷰]서울대 고학수·윤성로 교수가 말하는 '설명가능한 AI의 모든 것'
  • AI 대학원 리더들 “AI 인재 양성 관건은 산학협력·전주기 교육·인프라 개발”
  • SKT-국립국어원, 'AI 언어능력평가대회' 개최...'AI끼리 우리말 겨룬다'