지하드 오비드박사, 신경망이 원시 입력 데이터에서 미묘한 정보 추출
ML 알고리즘, 소셜 미디어 게시물 중에서 위험 인지 가능
AI 기반 관제기술로 투신자의 위험상황 탐지 예측해 통보

출처=셔터스톡

진화하는 인공지능 기술은 이제 극단적 선택을 마음에 품은 사람을 미리 알아내는 수준에 이르고 있다.

지난 27일 사우스캐롤라이나 의과대학(MUSC) 뉴스는 동 대학 생물의학정보센터 공동 소장 지하드 오비드(M.D) 박사가 미 국립정신건강연구소(NIMH)로부터 자살 위험 환자를 식별하는 인공지능(AI) 알고리즘을 정교하게 다듬은 보상으로 50만 달러 이상을 받았다고 보도했다.

미국 자살방지재단에 따르면 자살은 미국에서 열 번째 주요 사망원인의 주범으로 꼽힐 정도로 심각하다.

전문가들은 사전에 알 수만 있다면, 효과적인 치료가 가능함에도 불구, 어느 누가 그런 위험한 마음을 품고 있는지 예측할 수 없어 속수무책이란 입장이다.

그러나 오비드 박사의 연구는 이런 마음속의 선택도 간파해낼 수 있는 것으로 증명됐다. 그는 코드화된 데이터로 이뤄진 전자 건강 기록(EHR)을 기반으로 자살 위험을 예측하기 위한 최신 AI 모델을 만들었다.

이 EHR 정보의 80%~90%는 임상 기록에서 발견되는데 최근까지 컴퓨터를 이용해 그 임상 기록을 분석하는 것은 매우 어려운 작업이었다는 것이 그의 설명이다.

그러나 딥러닝의 일환인 신경망(CNN)이 EHR을 통해 제공되는 대규모 데이터셋과 동시에 등장함으로써 컴퓨팅 용량이 크게 향상됐다. 이는 점차 신경망이 인공 네트워크층을 사용해 원시 입력 데이터에서 미묘한 정보를 추출할 수 있다는 의미다.

오비드 교수와 사우스 플로리다 대학(USF)의 공동 연구진은 지난해 의학 인터넷 연구 저널(JMIR) 기사에 “이러한 AI 모델이 일단 훈련되면 의도적인 자살 위험에 처한 환자를 식별할 수 있음을 보여주었다”고 밝혔다.

오비드 박사에 따르면, 문제는 이 훈련된 모델들이 스스로 임상 기록을 읽을 수 있느냐는 것이었다. 그럼에도 불구하고, 일단 학습한 모델은 약 98.5%의 정확도로 이러한 차트를 자동으로 식별할 수 있었다는 주장이다.

오비드 박사는 이번 자금 지원을 통해, 알고리즘을 더욱 개선하고, 기존 예측 모델에 대해 알고리즘 정확성을 검증할 것이란 견해를 밝혔다.

그는 또 “이번 연구 결과가 의료기관들이 위험에 처한 환자들을 보다 효과적으로 식별해 자살 예방에 도움이 되기를 바란다”고 말했다.

소셜 미디어는 AI가 감정 파악하는 창구

소셜 네트워크 서비스 기업들은 오래전부터 자사의 관계망을 이용해 극단적 선택을 경고하는 일을 해왔다.

이 기업들의 활동은 주로 개인의 소셜 미디어 게시물의 언어 패턴 및 스마트폰과 상호작용하는 잠재 의식적 방식이 정신질환을 암시할 수 있다는 새로운 증거를 토대로 이뤄진다.

지난 2017년 12월 13일 과학 종합 매거진 사이언티픽 아메리칸은 기업들이 이러한 신호를 자동으로 감지하기 위한 프로그램을 테스트하기 시작했다고 전했다.

그 한 예로, 캘리포니아 팔로알토(Palo Alto) 소재 앱 개발기업 마인드스트롱(Mindstrong)은 사람들이 사용하는 언어와 스마트폰의 스크롤 속도와 같은 행동과 우울증 및 기타 정신질환의 증상을 연관시키기 위해 머신러닝 학습 알고리즘을 개발, 테스트하고 있다.

이 회사에 따르면, 서비스 제공업체들이 AI 기술을 통해 환자의 자해 의도를 보다 신속하게 감지하는 데 도움이 될 수 있다는 것이다.

오하이오 주립대 사회사업 연구원인 스코티 캐시(Scotty Cache)는 “젊은이들은 치료사를 만나거나 위기 상담 핫라인에 전화하는 것보다 소셜 미디어를 통해 도움을 요청하기 더 쉽다”고 말했다.

물론 전문가들은 이런 소셜 네트워크 수단들에 우려할 점이 없는 것은 아니라고 말한다.

하버드 대학의 심리학자 매튜 녹(Matthew Nock) 박사는“단기적으로는 자살 위험이 있는 사람들을 식별하기 어렵고, 따라서 자살을 예방하기 어렵다”고 밝혔다.

녹 박사에 따르면 자살을 시도하는 대부분의 사람은 정신 건강 전문가들과 대화할 때 자살을 생각하지 않는다고 말하기 때문이다.

그러나 소셜 미디어는 실시간으로 그들의 감정을 파악할 수 있는 창구를 제공한다는 점에서 효과가 있는 것으로 알려졌다.

뉴욕의 위기 텍스트 라인의 데이터 과학자 ‘밥 필빈(Bob Philbin)’ 박사는 “머신러닝 알고리즘은 사람이 놓칠 수 있는 패턴을 파악해 감정적인 소셜 미디어 게시물 가운데 무엇이 농담인지, 정상적인 불안의 표현인지, 실제 자살 위협인지 등을 연구원과 상담자들이 구분하는 데 도움을 줄 수 있다"고 말했다.

자살 넘어 왕따, 괴롭힘까지 식별해

전문가들은 학교가 직면하고 있는 어려움 중에서 학생들의 정신 건강이 중요한 관심사로 떠올랐다고 말한다. 자살은 10~24세 청소년의 두 번째 사망원인이며, 학생 5명 중 1명꼴로 자살을 심각하게 고려했다는 연구 조사도 있다.

올해 2월 23일 미국 LA에 본사를 둔 교육 기술 회사 고가디언(GoGuardian)은 자사 홈페이지 뉴스를 통해 학생 안전 솔루션을 더욱 확장하는 주요 업데이트인 고가디언 비콘(GoGuardian Beacon)을 출시했다고 보도했다.

이 고가디언 비콘은 인공지능 기술을 이용해 온라인으로 학생 활동을 모니터링하고, 콘텐츠를 필터링해 학교 관계자에게 자살 또는 자해 가능성이 있는 학생에 대해 경고하는 제품이다.

업그레이드된 제품은 자살 또는 자해 위험이 있는 학생을 식별하는 것 외에도, 왕따, 괴롭힘, 총ㆍ폭탄 등의 소지가 있거나 이와 관련해 도움을 청하는 학생을 구별해내는 기능도 갖고 있는 것으로 알려졌다.

이를 위해 고가디언 비콘은 웹 검색, 이메일, 채팅 메시지, 동영상, 문서, 소셜 미디어 등 모든 온라인 브라우저 활동에서 잠재적인 자살 및 자해 징후를 탐지한다.

고가디언 기업에 따르면, 지난 2019년부터 이 비콘을 통해 학교 측에 자살을 알리는 콘텐츠를 알려왔는데 최신 업데이트된 비콘의 AI 기능은 검색 콘텐츠를 기반으로 위협, 폭력, 집단 괴롭힘 등 학생 안전 위협 관련 경보를 식별하고, 학교 측에 알릴 수 있게 됐다는 것이다.

AI 이용해 투신자 미리 탐지 예측

OECD 국가 중 자살률이 가장 높은 국가인 우리나라에서도 자살 방지용 각종 대책이 수립되고 있다.

지난달 14일 국내 주요 언론에는 서울기술연구원이 서울시 소방재난본부와 협력해 개발한 ‘한강 교량 맞춤형 CCTV 관제기술’ 기사가 관심을 끌었다.

한강 교량 맞춤형 CCTV 관제기술은 서울시 소방재난본부 수난구조대가 운영 중인 한강 교량 투신시도 관련 탐지예측 시스템에 AI 기술을 추가해 더욱 고도화시킨 관제기술이다.

서울기술연구원에 따르면, 새로 개발한 관제기술은 동영상 딥러닝으로 투신 시도자의 패턴을 학습한 인공지능(AI)을 이용해 투신자의 위험 상황을 탐지 예측한다.

이후 해당 지점의 CCTV 영상만을 선별해 관제요원의 모니터에 표출하면 수난구조대가 투신자의 행동에 빠르게 대응할 수 있다.

지난해 4월부터 연구원은 1년간 소방재난본부 수난구조대의 출동 현황정보, CCTV 동영상, 감지 센서 데이터, 투신시도 정보, 신고 이력 및 문자를 포함한 통화내용 등 정형 및 비정형 데이터를 분석했다.

이로써, 인공지능(AI) 기반의 선별 관제를 통해 투신 전후 상황에 신속한 대응이 가능해지고, 모니터링 공백을 최소화해 관제의 효율성을 크게 높일 수 있다는 것이 연구원의 설명이다.

연구원 관계자는 “AI 기능 적용으로 위험 상황 발생 시, 관제센터로 들어오는 경보의 오류도 획기적으로 줄이고, 정확도도 높아졌다”고 말했다.

이는 AI 기능이 위험 상황을 예측 탐지할 때, 날씨나 조도 변화와 바람 그리고 차량 통행에 의한 흔들림 등과 같은 한강 교량의 특성을 반영하기 때문이라는 설명이다.

AI타임스 조행만 객원 기자 chohang5@kakao.com 

[관련 기사]우울증과 불안 증상 디지털 치료제 나온다 ...스탠퍼드대 플랫폼 유퍼와 중국 챗봇 샤오톈

[관련 기사]“게임, 유해콘텐츠 오명 벗고 디지털치료제로 나선다”...정부 580억 투입

키워드 관련기사
  • "AI가 다양한 군사적 결정에 큰 영향 끼쳐...세계 각 국 정부는 AI억제력 재고해야"
  • [스페셜리포트]① 지금 왜 클라우드인가
  • 메타버스, 한류 앞에 놓인 새로운 길