2019년 4월에 유럽 연합 집행위는 인공지능 고급 전문가 그룹이 만든 ‘신뢰할 수 있는 인공지능 가이드라인’ 초안을 발표했다. 이후 평가 리스트를 만들고 2021년 4월 21일에 유럽 인공지능 법 초안을 공개했다. 유럽이 이런 움직임을 빠르게 가져간 것은 기술과 자금으로는 미국과 중국을 앞설 수 없고, GDPR의 경험과 같이 법과 제도의 프레임워크를 통해 인공지능 분야의 한 축을 이끌어가겠다는 의지이다.

지금까지 전 세계적으로 인공지능의 윤리 원칙이나 책임, 신뢰를 위한 가이드라인을 만든 것이 80건이 넘는다. 우리나라도 2020년 12월에 ‘사람 중심의 인공지능’을 위한 3대 원칙과 10대 핵심요건으로 이루어진 인공지능 윤리를 발표했다.

그러나 이런 원칙이나 가이드라인을 제정한다고 해서 인공지능 기술의 발전을 촉진하는 것은 아니다. 이제 원칙과 가이드라인 얘기는 그만하고 그에 맞는 기술 프레임워크를 개발하는 것이 더 중요하다. ‘이루다 AI’가 보여준 현재 인공지능 기술의 부족함이나 실 세계에서 적용 한계를 보면 우리가 앞으로 해결할 기술 과제가 아직도 많다는 것을 알 수 있다.

신뢰할 수 있는 인공지능에서 가장 중요하게 생각하는 것은 공정성, 윤리, 투명성, 그리고 안전과 견고성이다. 예를 들어, 인종, 나이, 지역, 성별, 계층에 편향을 두지 않는 의사 결정이나 성능을 보여야 한다는 공정성은 기업이 반드시 갖춰야 하는 기반이다. 이는 특히 머신 러닝이나 인공지능 개발 전 과정에서 편견이 스며들 수 있는 가능성이 많기 때문에 이 문제는 인공지능의 전 주기에서 점검해야 한다. 그 중 가장 중요한 출발점이 학습용 데이터에 있는 불공정성의 문제이다.

정부가 나서서 수천억을 들여 매년 150여 종의 인공지능 데이터셋을 구축하고 있지만, 아직 품질을 점검할 때 다양성, 정확도, 유용성을 중심으로 체크하지만 공정성에 대해서는 권고 기준으로만 제시할 뿐이다.

(출처 : 셔터스톡)
(출처 : 셔터스톡)

우리가 이제 필요한 것은 데이터와 모델에 어떤 편향이나 불공정성이 있는가를 체크할 수 있는 기술이며, 이를 개발자나 사용자가 쉽게 확인할 수 있는 방식으로 만든 소프트웨어이다. 이미 구글, 마이크로소프트, IBM 등은 이를 위한 여러 도구를 오픈소스로 제공하고 있다.

투명성 역시 사용 모델이나 데이터의 특징을 일목요연하게 볼 수 있는 표준 스펙과 함께 인공지능의 의사 결정 과정에 대한 설명 능력이 필요하다. 국내에서도 기초 연구를 하고 있지만 이를 우리 기업이 구체적으로 제시했다는 것은 아직 보이지 않는다. 역시 인공지능 리딩 기업은 이미 초기 버전을 소개하고 있으며 공정성 도구와 함께 결합하는 중이다.

안전과 견고함은 특히 우리 생명과 관계가 클 수 있는 영역인데, 자율주행차의 인공지능 기술을 무력화하거나 인공지능 카메라를 착각하게 만드는 적대적 공격은 이미 다양한 방식으로 나타나고 있다. 이를 방어하고 탐지하는 기술도 미국은 DARPA(국방고등연구계획국)를 중심으로 적극 개발 중이다.

윤리적 판단을 기계에 허용해야 하는가 하는 문제가 있지만, 어떻게 하면 인간의 보편적 가치와 일치하는 도덕적 추론이 가능하게 할 것인가 하는 기술 연구 역시 매우 중요한 기술 분야이고, 이를 위한 데이터 구축도 필요하다.

국내 기업이나 연구진은 아직 인공지능의 기본 기술에 대한 도전에 더 관심이 많고 이를 응용하는 방안에 힘을 쓰고 있지만, 실제 사회에서 도입을 하려면 이런 신뢰 문제를 해결해야 하는 분야가 많다. 공공서비스, 금융, 안전, 교육, 리테일 등이 대표적인 분야이다.

아무리 초대규모 데이터와 대형 모델을 통해 뛰어난 성능을 구현하더라도 그 안에 있는 이런 문제를 탐지해 문제를 최소화할 수 있는 기술이 함께하지 않고, 왜 그런 결과를 내놓았는지 설명할 수 없다면 우리 사회에서 이를 쉽게 활용할 수 없을 것이다.

기반 기술 개발과 응용을 촉진하는 것 못지않게 인공지능 ‘신뢰’를 반복적인 원칙 수립을 넘어 핵심 역량으로 연구 개발해야 하고, 그것이 우리 인공지능 기술의 차별적 경쟁력이 될 수 있다는 의지가 필요하다.

한상기 대표는 서울대 컴퓨터공학과를 졸업하고, 카이스트에서 인공지능 분야 중 지식 표현에 관한 연구로 박사 학위를 취득했다. 삼성전자 전략기획실과 미디어 서비스 사업팀에서 인터넷사업을 담당한 후, 2003년 다음커뮤니케이션 전략대표와 일본 법인장을 역임했다. 두 번의 창업을 했으며, 카이스트 문화기술대학원 전문교수, 세종대학교 교수를 거쳐 2011년부터 테크프론티어 대표를 맡고 있다.

현재 기업 전략컨설팅, 정부 정책 과제 수행과 강연을 하며, 기술 분석가로 활동하고 있다. 여러 매체에 기술 관련 칼럼을 기고하고 있으며, 데이터 경제 포럼 위원, AI 데이터 총괄위원 등 다양한 정부 정책 관련 위원회 멤버로 활동하고 있다. 저서로는 '한상기의 소셜미디어 특강', '인공지능은 어떻게 산업의 미래를 바꾸는가', '4차 산업혁명과 빅뱅 파괴의 시대', '2019 미래를 읽다' 등이 있다.

한상기 테크프론티어 대표 stevehan@techfrontier.kr 

키워드 관련기사
  • 자바 언어 만든 제임스 고슬링 "보안에 강한 자바, 더 성장할 수 있다“
  • 아빈드 크리슈나 IBM CEO "AI, 모든 비즈니스 영역에 변화 가져올 것"
  • 정밀의료 실현하려면 “포괄적 동의법·의료기관 보상책 필수”