위기는 주로 사람에 의해 야기되지만, 때로는 기술 때문에 발생
AI의 실수는 학습 단계 및 수행 단계에서 비롯될 가능성 있어
인공지능 오류의 근원은 인간의 오류, 이를 위한 투자 필요해

(출처=셔터스톡)

테슬라의 오토파일럿 기능과 관련된 일련의 사건 후에, 미국 도로교통안전국이 그 기능에 대한 조사를 발표했다고 15일 CNBC가 보도했다.

CNBC에 따르면, 공공 기록을 인용한 보고서를 통한 조사에서 테슬라의 데이터를 몇몇 다른 자동차 제조사와 그들의 운전자 보조 시스템의 데이터와 비교할 것이며, BMW, 포드, GM, 혼다, 현대, 기아, 메르세데스 벤츠, 닛산, 스바루, 도요타, 폭스바겐 등이 포함될 것이다.

게다가 CNBC는 "이번 조사는 테슬라를 위한 소프트웨어 리콜 또는 그 이상으로 이어질 수 있으며 점점 더 정교한 시스템을 판매하고 있거나 결국 무인 자동차를 제공하려는 자동차 회사들에 대한 광범위한 단속으로 이어질 수 있다"고 말했다.

테슬라는 자율주행차의 오토파일럿, 향후 출시될 로봇 등의 핵심 기술에 첨단 인공지능 신경망을 기반으로 하고 있어서, 미 도로교통안전국의 이번 추돌 사고 조사결과는 AI 업계 전반에 미칠 파장이 적지 않으리라고 전망된다.

전문가들에 따르면, 자율주행차의 경우, 만약에 사고가 났을 경우, 그 알고리즘을 비롯해 관련된 수많은 데이터를 일일이 검사하는 것은 불가능하므로 AI 관련 사고는 그 정확한 책임 소재를 가리기가 어렵다고 말한다.

그동안 자율주행차를 비롯해 인공지능 챗봇 그리고 각종 AI 기반의 소프트웨어들은 수많은 실패를 겪었다. 가장 첨단을 달리고 있는 글로벌 기업인 구글과 마이크로소프트도 예외가 아니다.

알고리즘보단 데이터 내용 문제

구글은 사진 애플리케이션이 흑인과 고릴라를 혼동해 흑인들을 혼란스럽게 한 후 사과했다고 지난 2015년 7월 1일 USA 투데이가 보도했다.

기사에 따르면, 지난 주말 프로그래머 재키 알시네(Jacky Alciné)은 자신이 올린 사진의 스크린샷을 트위터에 올렸는데, 그 안에 알시네와 아프리카계 미국인 친구 둘 다 ‘고릴라’라고 불렀다.

이에 대해 구글은 이 앱이 흑인 친구들을 고릴라로 분류한 것에 대해 “진심으로 유감이다”라고 밝혔다. .

구글 엔지니어 요나탄 준거는 알시네의 트윗에 대해 “이것은 100% 괜찮지 않다“고 트위터에 올렸다. 또 준거는 구글이 결함을 고칠 것이라고 알시네에게 약속했다.

구글 대변인은 “우리는 이 일이 일어난 것에 대해 경악스럽고, 진심으로 유감이다.”며, “이러한 유형의 결과가 나타나지 않도록 즉각적인 조처를 하고 있다”고 밝혔다.

이 사태에 대해 많은 전문가들은 AI 알고리즘상의 문제라기보다는 학습에 쓰인 데이터의 내용상 문제라고 지적했다.

한편, 지난 2016년 3월 24일 CBS 뉴스에 따르면, 마이크로소프트는 이번 주에 소셜 미디어의 어두운 측면에 대한 신속한 교훈을 얻었다고 보도했다.

이 회사는 인간과 상호작용을 통해 대화 이해도를 높이기 위한 인공지능 챗봇인 테이(Tay)를 23일 출시했는데 사용자들은 트위터에서 ‘@TayandYou’라는 봇을 팔로우하고, 그것은 다른 사용자들의 게시물로부터 학습하면서 트위터에 답글을 달았다.

그러나 24일인 오늘 마이크로소프트는 이 봇이 일련의 음란하고, 인종차별적인 트윗을 쏟아내기 시작했기 때문에 테이를 폐쇄해야만 했다.

테이는 마이크로소프트의 인공지능 프로그래머들이 밀레니엄 세대에게 어필하려고 했던 젊고, 여성적인 모습을 하고 있었다. 하지만 24시간 만에 트위터 사용자들은 "히틀러가 옳았다, 나는 유대인이 싫다“, ”테드 크루즈는 쿠바 히틀러다“와 같은 것들을 게시하도록 봇을 속였다.

인간 트위터 사용자 중에 한 사람은 다음과 같이 응답했다.

“소셜 미디어를 사용하는 그 누구도 그 봇이 혐오스러운 댓글과 트롤에 맞닥뜨리는 것을 보는 것에 너무 놀랄 수 없었지만, 인공지능 시스템은 그러한 견해를 자신의 트위터에 통합하는 것을 피할 판단력이 없었다.”

마이크로소프트는 회사 블로그에 성명을 올려 “테이 실험이 의도한 대로 잘 안 됐다”는 것을 인정했다.

AI에 의해 야기된 난처한 사건들

지난 4일 포브스의 선임 작가 에드워드 시걸(Edward Segal)은 “어떤 위기 상황들은 사람들의 말이나 행동 때문에 야기되는데 때로는 기술 때문에 난처한 사건이 발생할 수 있다”라며, 미디어에 드러난 각종 AI의 실수담을 포브스에 실었다.

최근 뉴욕타임스(NYT)는 영국 타블로이드 신문에서 흑인 남성이 등장하는 동영상을 본 페이스북 이용자들이 소셜네트워크에서 영장류에 관한 동영상을 계속 보고 싶은지 묻는 자동 프롬프트를 보고, 이를 미루는 인공지능(AI) 기능을 조사해 무력화시켰다고 전했다.

"이것은 명백히 용납할 수 없는 오류였고, 우리는 이것이 일어나고 있다는 것을 깨닫자마자, 전체 주제 추천 기능을 비활성화해서 원인을 조사하고, 이런 일이 다시 일어나는 것을 막을 수 있었다“라고 페이스북 대변인 다니 레버(Dani lever)는 USA 투데이에 성명을 발표했다.

시걸은 “첨단 기술이 조직에 당혹스러운 상황을 만든 것은 이번이 처음이 아니다”고 말했다.

지난 27일 워싱턴포스트(WP)는 애플이 캘리포니아 연방법원에서 음성비서 시리(Siri)가 사적인 대화를 부적절하게 녹음했다며, 애플이 제기한 소송에 대해 계속 맞서야 한다는 판결을 내렸다고 보도했다.

또 로이터통신은 지난주 도쿄에서 열린 패럴림픽에서, 도요타의 자율주행 포드가 보행자를 다치게 했고, 도요다 아키오 도요타 사장이 유튜브 동영상에서 이번 사건에 대해 사과하고 만나자고 제안했지만 만날 수 없었다고 전했다.

유투브는 지난 2019년 노트르담 대성당이 불에 탔을 때, 파리의 역사적인 화재와 지난 2001년 9월 11일 테러 공격을 잘못 연관시킨 것에 대해 사과해야 했다.

유튜브 대변인은 “이 패널들은 알고리즘 적으로 작동되며, 때때로 시스템이 잘못된 결정을 내리기도 한다.”며, “우리는 화재와 관련된 생방송을 위해 이러한 패널을 비활성화한다”라는 견해를 밝혔다.

AI가 저지른 10대 실수 사례

이런 사건들이 이어지면서, 홍보 전문가이자, 블로그 작가인 수마나 바타차랴(Sumana Bhattacharya)는 지난 15일 애널리틱스 인사이트에 현재까지 발생한 인공지능의 10대 실패를 기능별로 분석하는 칼럼을 썼다.

“여기 지금까지 인공지능 역사상 가장 큰 실패 사례가 있다”며, AI의 기능적 실패 10가지를 꼽았다.

수마나에 따르면, AI는 이미지를 인식하지 못했는데 그 사례로, 버클리, 시카고, 워싱턴 대학 등의 연구원들은 1년 전에 7500장의 편집되지 않은 자연 사진을 수집했는데, 이것들은 가장 강력한 컴퓨터 비전 알고리즘조차 당황하게 했다며 이 사례를 1위로 꼽았다.

두 번째, AI는 인간을 경멸했고, 마이크로소프트의 가장 진보된 챗봇인 테이의 트위터 욕설 사례를 들었다.

세 번째, 암과 싸우기 위해 6천 2백만 달러의 비용이 든 IBM의 AI 시스템 왓슨(Watson)은 플로리다 주피터 병원에서 의사들에게 출혈이 심한 암 환자에게 출혈을 악화시킬 수 있는 약을 처방하라고 충고했다.

여성을 경멸한 AI 사례는 네 번째 순위에 꼽혔다. 아마존의 AI 채용 시스템이 백인 남성들에게 유리한 것으로 밝혀진 후, 결국 홍보에 실패했음을 인정했다.

다섯 번째, 아마존의 AI 얼굴 인식 시스템의 또 다른 실수를 꼽았다. 미 의회 의원들의 사진을 묶어서 시험한 결과, 이들을 범죄자로 분류한 것이다.

이외에도 수마나는 AI 관련 손실로 소송이 제기된 사례, 관광객들에게 잘못된 안내를 한 AI 호텔 도우미 봇의 실수, 딥페이크 보이스 피싱에 속아서 기업에 큰 피해를 준 영국 다국적 기업의 AI 사례, 활주로에서 오작동해 사고를 낼 뻔한 AI 구동 카트 사례 등을 그다음 순위로 꼽았다.

이런 문제점들에 대해 전문가 크리스 나이거(Chris Neiger)는 지난 2017년 10월 30일 미국의 투자 전문 매체 모틀리 풀(Motley Fool)에 기고한 글에서 “위기 상황들은 주로 사람들의 말이나 행동 때문에 야기되지만, 때로는 기술 때문에 난처한 사건이 발생할 수 있다”고 주장했다.

또 “어떤 경우에, 조심스럽게 개발된 AI 시스템도 개발자들이 전혀 예상하지 못한 방식으로 작용하는 경향이 있다”고 덧붙였다.

AI 오류의 원인은 데이터 탓

인공지능의 발전과 더불어 AI의 각종 실패 사례가 전해지면서 이에 대한 전문가들의 각종 분석이 쏟아지고 있다.

지난 2018년 6월 19일 데이비드 윈터(David Winter) 국제 감독은 온라인 매체 ‘인터내셔널 디렉터’(International Director)에 ‘AI 오류 대 인간 에러’란 기고를 통해 “조사결과 인간 행동이 기계 행동보다 인간 복지에 더 큰 위험을 불러올 수 있다”는 견해를 밝혔다.

루이스빌 대학의 사이버 보안 연구소의 책임자인 로만 얌폴스키(Roman Yampolskiy)에 따르면, 인공지능이 만드는 오류는 이 기계들의 직접적인 결과이며 이 실수는 AI의 학습 단계 또는 수행 단계에서 비롯될 수 있다는 것이다.

아울러, 일반적인 믿음과는 달리 알고리즘은 종종 편견을 가질 수 있다. 일례로, 범죄자가 미래에 또 다른 범죄를 저지를 가능성을 예측하기 위해 설계된 AI 시스템은 주로 인종에 의해 영향을 받았다는 견해다.

하지만 모든 AI 오류가 오해와 관련된 것은 아니라고 그는 덧붙여 설명했다.

즉, 테슬라의 오토파일럿의 경우, 플로리다 고속도로에서 트랙터 트레일러를 들이받아 운전자가 사망한 사건은 테슬라가 자동차의 오토파일럿을 업그레이드하도록 자극했고, 자율주행차에 관련된 위험을 인식하게 했다.

그는 AI 실수의 원인에 대해 “그것은 인간에게서 오는 데이터에서 비롯된다”며, “데이터는 대부분 사리사욕에 의해 움직이는 인간의 비합리성과 주관성을 수반한다”는 논리를 펼쳤다.

예를 들면, 로봇은 대부분 필터링 되지 않은 데이터로부터 학습하고 있으며, 이로 인해 인간의 잘못된 생각이 제대로 기계로 전달돼 AI 오류가 발생하기 때문이라고 주장했다.

그는 “AI 오류와 인간 오류를 구분하는 한 가지 주요 차이점은 예측 가능성 요소라며, 인간과 달리 AI 오류는 행동을 모델링할 수 있기 때문에 인간보다 훨씬 더 예측할 수 있다”고 말했다.

결론적으로, 그는 “인공지능 오류의 근원은 본질적으로, 인간의 오류이며, 인간과 AI 두 유형에 대한 오류 감지를 강화하고, 영향을 완화하기 위한 투자가 필요하다고 역설했다.

한편, 지난 2017년 8월 30일 자, 과학 대중 매체 뉴 사이언티스트에 매트 레이놀즈(Matt Reynolds)는 옥스퍼드 대학의 오웨인 에번스(Owain Evans) 박사의 2차원 탁구 비디오 게임 실험을 사례로 들며, “아무리 좋은 인공지능이라도, 엉성한 인간 조련사에 의해 길을 잃을 수 있다”라며. “치명적인 AI 실수는 인간에 의해 예방될 수 있다”고 주장했다.

AI타임스 조행만 객원 기자 chohang5@kakao.com 

[관련 기사]인간 곁으로 다가온 AI 로봇의 윤리적 설계, '아이 키우는 것처럼 해야'

[관련 기사]'안전문제 다음은 경로 계획'....자율주행차, 잇단 사고와 기술 장벽 여하히 넘어설까

키워드 관련기사
  • Arm, 오토모티브 개발 장벽 허물 소프트웨어 아키텍처 '소피' 공개
  • ETRI "AI분야 연구소 기업, 내년 역대급 규모 코스닥 상장 준비"
  • 10년 뒤 딥러닝 세상 어떻게 대비할까?... SKT ai.x 컨퍼런스 개최