[편집자주] 'AI티타임'은 기자가 취재한 내용을 간단한 티타임을 가지며 이야기한다는 의미와 AI타임스 줄임말인 'AIT'를 활용, 'AI타임스의 시간이다'라는 의미를 갖고 있습니다. <AI타임스> 기자들이 취재한 내용 중 중요한 부분이나 취재 뒷 얘기를 영상으로 소개합니다. 짧은 영상으로, 알고 있으면 좋은 AI 정보 담아가시기 바랍니다.

오픈AI가 새로운 AI 모델 '달리2'를 선보였습니다. 텍스트를 이해해 새로운 이미지로 생성해주는 AI모델인데요. 획기적인 기술인 것은 분명합니다. 그런데 좋은 점만 있을까요? 박찬 AI타임스 위원님과 이야기를 나눠보았습니다.
(출연 : 김동원 기자, 박찬 의원 / 촬영 : 김미정 기자 / 기획 및 제작 : 김동원 기자)

[AI티타임] 오픈AI가 개발한 달리2 "좋지만 위험해" (영상=김동원 기자)

김동원 : 안녕하십니까? AI타임스 김동원 기자입니다. 오늘은 지난 달에 AI업계를 깜짝 놀라게했던 새로운 AI 기술이 나와서 소개드리고자 합니다. 달리2(DALL-E 2)인데요. 박찬 위원님 모시고 달리2에 대해서 얘기해보도록 하겠습니다. 위원님 안녕하세요?

박찬 : 네 안녕하세요?

김동원 : 위원님 달리2가 무엇인가요?

박찬 : 달리2는 미국 인공지능 연구소 오픈AI가 만든 AI 시스템인데요. 달리2는 사람들이 보고싶은 것을 텍스트로 설명하면 디지털 이미지로 생성해주는 AI 도구입니다.

김동원 : 오픈AI라고 하면 GPT-3만들었던 그곳 맞죠?

박찬 : 맞습니다.

김동원 : 오픈AI가 2021년에 달리1을 출시했는데 1년 뒤에 달리2를 선보였습니다. 그 둘의 차이는 무엇인가요?

박찬 : 달리1과 달리2는 말씀하신 GPT-3를 기반으로 하고 있는 것은 공통점이고요. 달리1은 이미지를 생성할 때 만화같은 방식으로 이미지를 랜더링했다면 달리2는 사진과 같이 고해상 이미지를 생성할 수 있습니다. 또한 이미지를 생성하는 시간도 달리1에 비해서 굉장히 빨라졌다고 하고요. 생성된 이미지를 간단한 도구와 텍스트만을 이용해서 편집도 가능해졌다고 합니다.

김동원 : 실사와 같은 사진을 만들 수 있게 됐고요. 편집도 AI와 가능해졌다. 그리고 만들어지는 속도도 빨라졌다. 이렇게 얘기해주셨는데요. 저도 사실 기대가 됩니다. 텍스트를 이미지로 만들어준다는 건 재밌는 시도인 것 같은데요. 혹시 오픈소스로 공개됐으면 저도 사용할 수 있을 것 같은데. 가능할까요?

박찬 : 불행히도 지금 당장 사용하기는 어렵고요. 오픈AI 같은 경우는 달리2가 아직 완벽하지 않다고 이야기하고 있습니다. 예를 들면 장면을 설명하는 텍스트를 아직 잘 이해하지 못하는 경우도 있고 복잡한 장면을 설명할 경우에 세부적인 사항을 그려내지 못하는 경우도 있다고 합니다. 그런데 기술적인 부분은 금방 좋아지지 않을까 생각하고요.

무엇보다도 대중한테 공개하기 위해서 먼저 해결해야 할 문제가 있는데요. 달리2 같은 경우는 좋은 목적이나 좋은 의도를 가진 그림을 그려낼 수 있겠지만, 악의적이거나 유해한 그림도 그려낼 수 있습니다. 다시 말하면 달리2는 무엇이든 그려낼 수 있기 때문에 대중이 잘못 사용하게 되면 윤리적인 문제가 뒤따라오게 되는 것이죠.

김동원 : 기술적인 문제도 있고 윤리적인 문제도 있는데 윤리적인 문제가 더 크다라고 얘기해주신 것 같은데요. 윤리적인 문제를 더 자세히 들여다볼 수 있을까요?

박찬 : 네. 윤리적인 문제는 크게 두 가지 정도 볼 수 있는데요. 한 가지는 달리2 자체가 가진 편향성 문제입니다. 예를 들어서 달리2에게 변호사를 그려달라고 하면 대부분 좋지 않은 인상의 이미지를 그려냅니다.

김동원 : 고함을 지르거나 그런

박찬 : 맞습니다. 또는 승무원을 그려달라고 하면 여승무원을 보여주기도 하고요. 무슬림을 폭력이나 테러리즘과 연결해거 그림을 그리기도 합니다. 이런 편견은 달리2가 사용한 훈련 데이터셋에서 그대로 물려받은 것이라고 볼 수 있습니다.

또 다른 문제점은 콘텐츠 유해성입니다. 다시 말하면 사용자가 달리2에게 공격적이거나 유해한 이미지를 생성하도록 요청해서 그림을 그려낼 수가 있습니다.

김동원 :  콘텐츠에 대한 유해성. 이런 부분을 얘기해주셨는데요. 그런 것 같아요. 성적인 장면들도 뭐든 지 그려낼 수 있으니까 유해적인 내용도 그려낼 수 있다고 경고해주신 것 같은데요. 이 문제는 결국 극복해야 합니다. 지금 오픈AI는 이 문제를 극복하기 위해서 어떤 노력을 하고 있을까요?

박찬 : 오픈AI도 이 문제의 심각성을 알고 있습니다. 그래서 몇 가지 정책을 가지고 있는데 달리2에 폭력적이거나 포르노, 정치색이 있는 이미지를 생성하거나 딥페이크와 같은 문제를 방지하기 위해서 달리2에서 실제 사람의 이미지를 생성하는 것을 못하게 하는 정책을 취하고 있습니다. 그리고 근본적으로 폭력을 보여주는 이미지, 공격적인 이미지를 달리2의 훈련 데이터에서 제거했다고 합니다. 하지만 달리2가 더 정교해지고 기반이 되는 언어모델이 인간 수준에 가까워질수록 이런 윤리적인 문제를 극복하기는 더 어려워질 수 있습니다.

김동원 :  AI 개발에 맞춰서 윤리적인 문제는 점점 더 많아질 것이고 이것에 대해서 오픈AI가 달리2에 대해서 어떻게 극복하느냐에 따라 어떻게 보면 앞으로 AI 개발에 향방을 좌우할 수 있다라는 느끼도 받을 수 있습니다.

윤리적인 부정적인 내용도 있지만 기본적으로 텍스트를 이해할 수 있다는건 인테리어 영감을 얻거나 의상 디자인 영감을 얻는 거는 충분히 잘 사용할 수 있을 것 같습니다. 하지만 또 걱정이되는게. 그러면 디자이너 직업을 대체하는 것 아니냐는 생각도 드는데요. 이 부분에 대해서 어떻게 생각하십니까?

박찬 : 그런 우려를 할 수 있지만 디자이너들의 자리를 대체한다고 보긴 어렵고요. 오히려 디자이너의 일을 도와주는 도구가 될 수 있다고 봅니다. 예를 들면 디자이너나 예술가들이 작품을 제작하기 전에 영감을 얻기 위해서 이러한 도구를 사용해서 어떠한 아이디어를 얻을 수 있고요. 게임 회사 같은 경우에도 캐릭터를 그려본다든지 장면을 그려내는데 먼저 사용해볼 수 있는 것이죠.

김동원 :  LG AI연구원이 뉴욕 패션위크에서 공개한 거에 따르면 비슷한 멀티모달 AI였는데 박윤희 디자이너가 이제 엑사원이라는 멀티모달 AI를 탑재한 틸다와 협업을 했었습네다. 그런데 영감을 얻을 때 훨씬 더 좋았다. 시간이 단축됐다는 얘기를 했었습니다. 이런것을 봤을 때 디자인 도구로서 충분히 활용할 수 있을 것 같다는 생각이 듭니다.

김동원 : AI가 많이 진화를 하고 있습니다. 그동안 텍스트 기반으로 많은 개발이 이뤄졌다면 이제는 이미지까지 개발이 되고 있는데요. 앞으로 동영상, 생체신호와 같은 멀티모달 AI로 더 확장이 될 것 같습니다. 이런 점에 있어서는 윤리적인 문제는 해결해야 할 것 같고 이 부분에 있어서는 박찬 위원님께서 말씀해주신대로 여러 과제를 극복해야할 필요가 있을 것 같습니다. 오늘은 이것으로 마치도록 하겠고요. 다음에 더 좋은 내용으로 찾아뵙도록 하겠습니다. 위원님 감사합니다.

박찬 : 감사합니다. 

AI타임스 김동원 기자 goodtuna@aitimes.com

[관련기사]오픈AI, 텍스트를 고해상도 이미지로 생성하는 AI 시스템 ‘DALL-E 2’ 개발

[관련기사][AI 주간브리핑] 오픈AI·구글, 새로운 AI 혁신 모델 나란히 공개