뭐가 가짜인지 모르는 세상이 왔다

딥페이크, 음성합성 기술의 발전...'진짜'의 실종

인공지능윤리 논의 시작... 판독기술의 진화도

쿠키뉴스

딥페이크 기술로 구현된 유관순 열사의 다양한 표정. /제공=MyHerritage

[쿠키뉴스] 구현화 기자 = "죽은 사람이 살아 움직이고, 생전의 목소리까지 들을 수 있다면?"


최근 마이 헤리티지(MyHerritage)라는 해외 사이트에서는 죽은 가족의 사진을 딥페이크 기술로 재현해 낼 수 있는 기능을 선보여 화제가 됐습니다. 이 사이트에서는 갖고 있는 사진을 업로드하면 움직이는 사진로 바꿀 수 있습니다. 사진 속 인물이 자연스럽게 눈을 깜빡이거나 미소 짓는 모습을 볼 수 있는 것이죠. 실제 사람이 촬영한 시뮬레이션 비디오를 바탕으로, 인공지능을 통해 사진을 파악해 사진 속 인물이 어떻게 움직였는지를 추정해 내기 때문이죠.


네티즌들이 이 사이트에 우리나라의 대표 독립운동가인 유관순 열사나 윤봉길 열사, 안중근 의사 등의 사진을 올렸습니다. 이들은 마치 살아 움직이는 것처럼 눈을 뜨거나 입술을 움직였습니다. 사진으로만 만나봤던 이들의 생전 모습과 같은 움직임에 많은 이들은 뭉클함을 느꼈습니다.


딥페이크 기술은 사실 인공지능 기술을 활용한 '가짜 영상'입니다. 최근 오바마 대통령이나 트럼프 대통령을 합성한 가짜뉴스 유포나 연예인과 일반인 얼굴을 합성한 가짜 음란물, 범죄 수단에 사용되면서 그 이미지가 매우 좋지 않았죠. 하지만 최근에는 이처럼 과거의 인물을 추모하거나 역사적 인물에 대한 친근감을 느낄 수 있게 하는 등 딥페이크 기술이 긍정적인 역할을 하는 사례도 찾아볼 수 있습니다.

버즈피드가 지난 4월 공동제작해 공개한 '가짜 오바마 비디오'. 트럼프를 겨냥한 발언은 시작 후 20초쯤 지나서 나온다. /제공=유튜브


사진이나 영상만 가짜가 아니죠. 음성도 가짜로 만들 수 있습니다. 음성합성 기술도 놀라운 기술입니다. 사람의 목소리를 합성해 문서를 음성으로 변화시키죠. 예전에는 전문 성우가 스크립트를 보고 하나하나 녹음해야 했다면, 이제는 목소리 일부분만 확보하면 호흡이나 억양, 읽는 속도 등을 추출해 음성파일을 만들 수 있습니다. 이미 구글, SK텔레콤, KT, 네이버 등 ICT기업들은 이 같은 음성합성 기술을 발전시켜오고 있습니다. 구글 어시스턴트, 누구 아리아, 기가지니, 클로바 등 AI비서들은 모두 이 같은 기술을 바탕으로 하고 있기 때문이죠.


'너를 만났다'라는 제목의 MBC 스페셜을 기억하시나요? 여기서는 하늘나라로 간 딸을 그리워하는 엄마를 위해 예전 딸의 목소리를 취합해 딸의 모습을 생생하게 기억하도록 도왔죠. VR 영상과 음성으로 아이를 마주하던 그 모습이 너무나 절절해서 많은 이들의 눈시울을 적셨습니다. 이 기술을 선보인 네오사피엔스라는 스타트업은 역대 대통령의 남북공동선언문을 AI음성으로 복원하고, 백범 김구 선생 서거 70주년을 기념해 목소리를 생생하게 복원하기도 했죠.



음성합성 기술로 만들어진 KT의 '마음을 담다' 프로젝트. /제공=KT


진보한 음성인식 기술은 있는 목소리가 아니라 아예 새로운 목소리를 만들어내기도 합니다. KT의 '마음을 담다' 프로젝트는 목소리를 내지 못하는 청각장애인들에게 본인의 목소리로 가족들에게 말을 전하는 모습을 담았습니다. 보통 한 문장이라도 본인의 목소리 녹음이 필요하지만, 그러지 못하는 현실을 감안해 가족 목소리 데이터를 이용해 목소리를 합성해 만들었습니다. 성별, 나이, 구강구조 등을 분석해 이들만의 특색 있는 목소리를 실제로 '생성'한 것이죠. 음성합성이 단순히 있는 목소리뿐 아니라, 새로운 음성을 합성해낼 수도 있다는 걸 보여준 사례이기도 합니다.


그렇다면 실제 있었던 인물이 아니라, 완전히 가짜인 사람이 말을 하고, 동작한다면 어떨까요? 지난해 삼성전자는 CES에서 '인공인간'인 네온 프로젝트를 공개했습니다. 건장한 서양인 남성부터 동양인 여성까지 다양한 종류의 인공인간들은 너무나 자연스러운 움직임을 보여 충격을 주었습니다. 자연스러운 표정에 외국어까지 구사할 수 있었습니다. 약간 부자연스럽다는 지적도 있었지만, 너무나 생생하고 사실적인 이들 네온은 당시 어마어마한 충격을 불러왔죠.



인공인간 네온의 소개 영상. /제공=네온


최근에는 피해자 보호에 이 가짜인간이 사용되기도 합니다. 한 방송에서 딥페이크 범죄 피해자를 보호하기 위해 딥페이크로 '인공인간'을 만들기도 했죠. 성소수자에 대한 차별을 다룬 영화 '웰컴 투 체첸'에서는 성소수자들을 딥페이크로 만들어 신변을 보호했죠. 사실은 '아무도 아니지만', 자연스럽고 친근함을 느낄 수 있는 이 가짜인간으로 인해 진짜 사람들이 보호받을 수 있는 겁니다.


사진이나 영상에서 나오는 사람의 목소리, 눈빛, 몸짓까지 가짜가 될 수 있는 세상입니다. 이제는 무심코 보는 영상도 진짜 인물이 나오는 영상인지 확인해야 하는 시대가 되고 있죠. 다만 나쁜 일에만 쓰이는 것은 아닙니다. 범죄에 악용되는 피해자가 나오고 가짜 뉴스로 정계가 들썩이는가 하면, 다시는 볼 수 없는 인물에 대한 추모나 피해자 보호에 쓰일 수 있는 순기능도 있습니다. 기술의 발전이 악영향을 미치기도 하지만 또 새롭고 좋은 일에도 쓰이기도 하는 것이죠.


인공지능 윤리(AI윤리)는 이 모든 가짜로 뒤덮인 세상의 등불이 될 수 있을까요? 국내에서 인공지능 챗봇인 '이루다'의 차별적 발언이 이슈가 되면서 인공지능 윤리가 대두되었습니다. 최근 학계(인공지능법학회)나 정부(과학기술정보통신부), ICT 회사(카카오, 네이버) 등 각계에서 인공지능 윤리와 관련한 원칙을 세우고 있는데요. 이 모두의 공통적인 제 1원칙이 뭘까요? 바로 '인간 중심(휴머니즘)' 입니다. 인공지능이 사람을 위해, 사람의 삶을 더 나아지게 하기 위해 만들어져야 한다는 원칙입니다. 앞으로 이 원칙이 제대로 확립된다면, 이 원칙에 어긋나는 인공지능의 오용이나 남용 사례가 처벌까지 받을 수 있을 것입니다.


확실히, 새로운 기술은 세상을 좀 더 나아지게 하기 위해 존재해야 하겠지요. 최근 딥페이크의 기술 발달에 따라 딥페이크 식별기술이 발전하는 것은 기술의 문제에 대응하기 위한 또 다른 기술의 발전을 보여줍니다. 마이크로소프트는 지난해 9월 조작되거나 합성된 부분이 있는지를 식별하는 MVA(Microsoft Video Authenticator)를 개발하기도 했습니다. 사진이나 영상을 분석한 후 조작가능성을 신뢰도 점수를 통해 알려주는 것입니다.


국내에서도 과학기술정보통신부나 서울대학교에서 R&D 챌린지 대회를 통해 진짜와 가짜 이미지를 판별하는 경연대회를 진행하기도 했습니다. 가짜로 뒤덮인 지금, 이제 진실을 위한 기술이 새로 개발되는 셈입니다. 아이러니하지만 기술의 진보는 이 같은 끊임없는 정반합의 과정이 아니었을까요.


kuh@kukinews.com

2021.03.09원문링크 바로가기

본 콘텐츠의 저작권은 저자 또는 제공처에 있으며, 이를 무단 이용하는 경우 저작권법 등에 따라 법적 책임을 질 수 있습니다.

갓 구워낸 바삭바삭한 뉴스
채널명
쿠키뉴스
소개글
갓 구워낸 바삭바삭한 뉴스
    이런 분야는 어때요?
    ESTaid footer image

    © ESTaid Corp. All Rights Reserved.