MS, 공개된 문서 통해 AI 알고리즘에 편향된 정보 등 결함 제기
데이터 추적 안한다고 주장한 페이스북 결국, 광고 목적에 사용
투자자들, 빅테크 기업의 AI 결점에도 자율차 등에 막대한 투자

(출처=셔터스톡)

빅 테크(Big Tech) 기업은 미국의 정보기술 산업에서 가장 크고 가장 지배적인 4~5개의 회사들, 즉 아마존, 애플, 구글, 페이스북, 그리고 마이크로소프트(MS) 등에 붙여진 이름이다. 이들 기업은 각각 시가총액이 약 1조~2조 달러에 이르는 세계에서 가장 가치 있는 기업들이다.

이 빅테크 기업들은 전 세계를 상대로, 수천만 또는 수억 명의 사용자 네트워크와 빅데이터, 전자상거래, 정보플랫폼 등의 강력한 기반을 구축한 기업들이다.

초기에 이 기업들은 이 무기들을 토대로 쇼핑, 제조업, 금융, 정보산업 등에서 온/오프라인을 아우르며, 초거대 기업으로 성장했다. 이렇게 기반을 닦은 이 빅테크 기업들은 4차 산업혁명 시대를 맞아서 현재는 최대 강점을 인공지능에 두고 또다시 총성 없는 전쟁을 벌이고 있다.

그러나 최근 들어 각종 인공지능의 폐해가 늘어나면서 이들 빅테크 기업의 이름은 덩달아 외신들을 장식하고 있다. 지난 4일 한 페이스북 데이터 과학자의 폭로는 아무리 유명한 글로벌 빅테크 기업이라도 다수의 공공 안전보다는 자사의 이익을 우선시해 AI를 사용한다는 사실을 또 한 번 상기시켜준다..

페이스북 알고리즘에 숨은 비밀

올해 6월 8일 온라인 미디어 플랫폼 포시바이트(Fossbytes)의 공동 설립자 아다쉬 베르마(Adarsh verma)는 페이스북의 검색 엔진 알고리즘에 대해 다음과 같이 평했다.

아다쉬에 따르면, 대부분의 사람은 페이스북 검색이 사람들과 페이지들을 검색하는 데만 유용하고, 그것보다 훨씬 더 중요한 것이 있다는 걸 깨닫지 못한다.

즉, 페이스북의 알고리즘은 사용자가 찾는 것이 무엇인지, 미리 알고 찾아주는 능력이 있다. 여기에는 그 사용자의 이름, 나이, 성별 등 각종 신상정보가 동원되지만 개인 정보 보호 설정 때문에 철저히 당신의 사생활이 관리되고 있다.

그런데 사실 페이스북은 당신의 데이터를 추적하지 않을 것이라고 주장하지만 광고 목표를 위한 온라인 활동을 위해 결국 추적당하고 있다는 것이다.

대개 이런 알고리즘은 보이지 않는 곳에서 은밀히 작동한다. 그리고 고객들이 좋아할 만한 장소나 상품들을 안내하지만, 알고리즘은 아직 완벽하지 않기 때문에 잘못 연결되는 경우가 많다. 이는 고객들에게 큰 망신이나 불편함을 주는 예도 있다는 것이 아다쉬의 주장이다.

“페이스북은 검색 알고리즘을 더 안전하게 바꾸면 이용자들이 사이트에서 보내는 시간이 줄고 광고도 더 적게 눌러서 회사가 돈을 덜 벌게 된다는 사실을 깨달았다”

최근에 전 페이스북 직원 프랜시스 하우겐(Frances Haugen)이 폭로한 말이다. 37세인 하우겐은 하버드 대학에서 컴퓨터 공학을 전공한 데이터 과학자다.

10월 3일(미국 현지시각) 방영된 CBS 고발 프로그램 ‘60분’(60 Minutes)에서 페이스북 내부고발자로 밝혀진 데이터 과학자 프랜시스 하우겐이 진행자 스콧 펠리(Scott Pelley)와 인터뷰를 가졌다고 CBS가 보도했다.

그녀는 “공익과 회사에 이익이 되는 것 사이에 충돌이 있을 때마다 소셜 미디어 거대 기업은 자신의 이익을 선택할 것”이라고 말했다.

프랜시스 하우겐은 연방법 집행기관의 회사 자체 조사 결과, 증오와 오보를 증폭시키는 것으로 나타났다고 고발한 여성이다. 그녀는 페이스북의 여러 문제와 더불어 알고리즘에 숨은 비밀도 폭로했다.

“페이스북은 계속해서 안전보다 이익을 선택한다는 것을 보여주었다”라고 그녀는 말했다. 이번 주에 의회에서 증언할 하우겐은 정부가 나서서 회사의 활동을 통제하기 위한 규제를 시행하기를 바란다는 입장을 밝혔다.

새로운 알고리즘이 불러일으키고 있는 적대감에도 불구하고, 페이스북은 사람들이 계속 돌아오도록 도왔다는 것이 발견됐다. 이 패턴은 이 거대 기업이 디지털 광고를 더 많이 파는 데 도움을 주었다.

페이스북의 연간 수익은 분석가들의 추정치에 따르면, 지난 2018년 560억 달러에서 올해 1,190억 달러로 두 배 이상 증가했다. 한편, 그 회사의 시장 가치는 2018년 말 3,750억 달러에서 현재 거의 1조 달러로 치솟았다.

닉 클레그(Nick Clegg) 페이스북 정책 및 공보 담당 부사장은 이날 CNN의 ‘믿을 수 있는 소식통’에 출연해 하우겐의 인터뷰에 대한 충격을 완화시키기 위해 선제적인 시도를 했다.

클레그는 CNN과의 인터뷰에서 “우리가 사용하는 가장 정교한 기술 및 우리의 플랫폼에서 안전과 무결성을 유지하기 위해 고용하는 수만 명의 직원에도 불구하고 우리는 결코 이 100%를 완벽하게 극복하지 못할 것”이라고 언급했다.

페이스북은 알고리즘을 매우 강력하게 설계해 사용자가 특정 주제를 검색할 때 표시되는 항목, 가입 권장 그룹 및 뉴스 피드 상단에 표시되는 항목을 결정하고 있다.

또 이 회사는 방문자들을 플랫폼에 최대한 오래 머무르게 하려고 알고리즘을 사용해 자사 플랫폼에서 스크롤, 클릭, 코멘트 및 공유 등을 하도록 권장하는 콘텐츠를 제공한다. 이 추천 시스템은 수익을 증대시키는 광고와 마주치게 만드는 데 오래전부터 비판을 받아왔다.

반사회적 성격 강화 가능성 있어

빅테크 기업의 인공지능 사용의 문제점은 비단 페이스북뿐만이 아니다.

지난 2017년에 교육용 대화형 디스플레이 전문기업 프로메테안(Promethean)은 자사 블로그에 “아마존의 알렉사(Alexa)는 아이들의 교육에 해로울까?”란 글을 게시했다.

프로메테안은 블로그 서두에 인공지능과 가상 도우미는 아이들의 교육 발전을 근본적으로 변화시키고 있다고 밝혔다.

블로그에 따르면, 애플의 시리(Siri) 덕분에, 음성 인식 소프트웨어는 이제 어디에나 있다. 소비자로서 우리는 일상적인 작업에 음성 작동 제어를 사용하는 것이 편안해졌다.

아마존의 에코 기기 뒤에 있는 소프트웨어인 알렉사와 같은 인공지능 시스템은 일상적인 행동을 더 편리하게 만들도록 설계됐다.

“하지만 이 진보된 기술에 둘러싸여 자라나는 아이들은 어떨까요?”라고 블로그는 반문한다.

아마존 알렉사의 음성 인식 알고리즘은 아이들에게 언어의 복잡성을 이해하도록 가르치고, 말하기의 패턴과 규칙을 식별하도록 돕는다. 아울러 알렉사는 아이들에게 다른 사람이 기기와 통신할 때 조용히 있어야 하며 그 결과, 수업 중 행동을 개선해야 한다고 가르친다.

하지만 가정과 학교에서의 많은 편리함으로 몇몇 어린이들은 알렉사를 인간 하인처럼 대하고 있다고 프로메테안은 블로그에서 주장했다.

가상 도우미는 아이들이 의사소통하는 방식을 변화시키고 있으나, 불행하게도 어른들은 그들의 장치를 가르칠 때 무례해지는 경향이 있고 아이들은 자연스럽게 그들로부터 배운다.

또 아이들은 알렉사와 대화할 수 있지만, 인공지능 로봇과의 의사소통의 수동적 성격은 사람과 사람의 상호작용과는 완전히 다르다. 이렇게 줄어든 복잡성은 때때로 긍정적이다.

제한된 피드백은 의사소통에 어려움을 겪는 어린이들의 자신감을 높일 수 있기 때문이다. 그러나 젊은이들이 실수하거나 알렉사에게 무례한 질문을 하거나 조급한 명령을 내리는 것은 절대 고쳐지지 않을 것이라고 주장했다.

마지막으로, 프로메테안은 아이들이 그들의 인공지능 장치에 건강하지 못한 애착을 형성하거나 그들의 서비스에 너무 의존하게 될 수 있다고 주장했다.

일례로, 아마존의 알렉사와 같은 기술은 조용한 어린이들의 반사회적 또는 내성적인 행동을 강화할 수 있는 반면, 저개발된 정신은 기술 중독을 형성할 수 있다고 평가했다.

알고리즘에 편향된 결함 잠재해

지난 2019년 2월 11일에 미국의 IT 전문 뉴스 웹사이트 더 버지에 기고한 제임스 빈센트 선임리포터는 “구글과 마이크로소프트가 투자자들에게 나쁜 인공지능이 그들의 브랜드를 해칠 수 있다고 경고했다”고 말했다.

또 AI가 보편화되면서 기업들의 알고리즘 역노출도 늘고 있다고 덧붙였다.

빈센트에 따르면, 구글이나 마이크로소프트와 같은 회사들에게 인공지능은 기존 제품을 향상시키고 완전히 새로운 수익원을 창출하는 방법을 제공하는 미래의 큰 부분이다.

그러나 최근의 금융 소송에서 드러난 바와 같이 두 회사 모두 AI 특히 잘못된 결정을 내리는 편향된 AI가 잠재적으로, 그들의 브랜드와 사업에 손해를 끼칠 수 있다는 것을 인정하고 있다.

미국의 과학기술 문화 전문 매거진 와이어드(Wired)에 의해 공개된 문서들은 기업들이 매년 법적으로 제출해야 하는 표준화된 문서들로, 투자자들에게 그들의 사업과 최근의 재정에 대한 넓은 개요를 제공한다.

그런데 ‘위험 요인’이란 제목의 부문에서 MS와 구글의 모회사인 알파벳 둘 다 처음으로 AI의 결점을 제기했다.

“인공지능과 머신러닝을 통합하거나 활용하는 제품과 서비스는 기존의 윤리적, 기술적, 법적 문제를 제기하거나 악화시킬 수 있다”고 두 회사는 밝혔다.

또 “이는 우리의 제품과 서비스에 대한 브랜드와 수요에 부정적인 영향을 미치고 매출과 운영 결과에 부정적인 영향을 미칠 수 있다”고 덧붙였다.

지난 8월에 MS는 공개된 문서를 통해 “AI 알고리즘에는 결함이 있을 수 있고, 데이터셋이 불충분하거나, 편향된 정보를 포함할 수 있는데 우리 회사 또는 다른 회사의 부적절하거나 논란이 많은 데이터 관행은 AI 솔루션의 수용을 저해할 수 있다”는 견해를 밝혔다.

마이크로소프트에 따르면, 이러한 결함은 AI 애플리케이션이 생성하는 결정, 예측 또는 분석 등을 저해하여 경쟁적 위해, 법적 책임 및 브랜드 또는 평판 위해를 초래할 수 있다는 것이다.

일부 AI 시나리오는 윤리적 문제를 제기하는데 인권, 사생활, 고용 또는 기타 사회적 이슈에 대한 영향 때문에 논란이 되고 있는 AI 솔루션을 활성화하거나 제공할 경우 브랜드 또는 평판 손상을 경험할 수 있다는 주장이다.

결론적으로, 빈센트는 “마이크로소프트와 구글은 이 위험에 뒤지지 않기 위해 많은 회사보다 더 많은 일을 하고 있다”라고 말했다.

예를 들면, MS는 얼굴 인식 소프트웨어가 잠재적인 해악을 막기 위해 규제될 필요가 있다고 주장하는 반면, 구글은 AI 거버넌스에 대한 정책 입안자들 및 학자들과 함께 하는 사업을 시작했다.

그는 “투자자들에게  겉으로  공정해 보이는척 할 뿐이다”라고 지적했다.

AI타임스 조행만 객원기자 chohang5@kakao.com 

[관련 기사]페이스북‧트위터, 팔레스타인 활동가 검열 논란에 휩싸여...AI 소프트웨어 오류일 뿐?

[관련 기사]AI 왜 이러나... 온·오프라인 속 여전한 인종차별

키워드 관련기사
  • 인공지능윤리, 그 잠재성의 중심
  • 퓨어스토리지 "백업 데이터 보호와 빠른 복구가 기업 성장 좌우"... 데이터 복구 17시간에서 2시간으로 단축
  • 데이터 산업 시장 규모 19조 넘어...과기정통부, '2021 4차 산업혁명 지표' 발표