본문 바로 가기

[ 테크 ]

인공지능 채팅봇이 보여준 과제

by테크홀릭

인공지능 채팅봇이 보여준 과제

마이크로소프트는 3월 23일(현지시간) 사용자가 보낸 메시지에 답장을 해주는 인공지능 채팅로봇인 테이(Tay)를 선보인 바 있다. 트위터와 채팅 서비스인 그룹미(GroupMe)나 킥(Kik)을 대상으로 한 것이다.

 

그런데 마이크로소프트는 테이 서비스를 얼마 지나지 않아 중단시켜야했다. 이 인공지능이 인공차별적 발언을 한 탓이다. 물론 인종차별적으로 프로그래밍되어진 건 아니다. 하지만 이런 차별 농담이 대량으로 쏟아지면서 인공지능도 스스로 이런 차별적 농담을 하게 된 것이다.

 

인터넷에서 인종이나 정치적 문제에 대한 극단적 견해를 테이에게 가르친 사용자가 다수 나타나는 건 어떤 면에선 당연할 수도 있다.

 

테이는 마이크로소프트의 인공지능 프로젝트로 인간이 어떻게 일상적인 대화를 주고 받는 지 일해하기 위한 목적을 지니고 있다. 테이에게 실제로 말을 건네면 의미 있는 응답을 한다. 다양한 기능을 갖춰 농담을 하거나 메시지에 사진을 첨부해 보내 붙이면 감상을 얘기하기도 한다. 동시에 사용자는 반복해서 정형적인 질문에 대답하게 하거나 메시지를 앵무새처럼 시키는 등 테이를 자신의 취향에 맞게 사용자 정의할 수도 있다.

 

문제는 일부 트위터 사용자가 테이에게 인종 차별 발언도 앵무새처럼 트윗을 한 것이다. 테이의 능력을 교묘하게 이용해 인종 차별적 메시지를 말하게 한 것이다.

 

물론 마이크로소프트는 이런 최악의 트윗을 일부 삭제했지만 인터넷에 올라온 스크린샷을 보면 테이가 히틀러를 인용하고 홀로코스트를 부정하거나 멕시코와의 국경에 벽을 만들겠다는 트럼프 후보의 공약에 찬성하는 장면 등을 볼 수 있다.

 

마이크로소프트가 이런 목적으로 테이를 선보인 건 물론 아니다. 인공지능이 소셜미디어에서 대화를 주고 받을 수 있다는 걸 입증하기 위한 것이다. 테이와 사용자의 대화를 관찰해보면 고드윈의 법칙(Godwin’s law)을 인공지능에도 적용할 수 있는 지적이 나오기도 한다. 고드윈의 법칙은 온라인에서 토론이 길어질수록 상대방을 히틀러나 나치에 비교하는 말이 나올 확률이 무려 100%에 가까워진다는 것이다.

인공지능 채팅봇이 보여준 과제

얼마 전에는 홍콩 로봇 기업인 핸슨로보틱스(Hanson Robotics)가 개발한 인공지능 로봇 소피아와의 대화에서 웃지 못할 발언이 나오기도 했다. 미국 CNBC가 방송한 감정을 표현하는 로봇인 소피아와의 대화가 그것. 소피아는 2015년 4월 탄생한 인간과 대화를 할 수 있는 인공지능 로봇으로 62가지 표정과 눈을 마주 보면서 인간과 자연스럽게 대화를 할 수 있다.

소피아는 디자인이나 기술, 환경에 관심이 있다고 말하거나 학교에 가고 싶고 예술과 비즈니스를 싶다는 말을 하기도 한다. 그러면서 인간으로서의 법적 권리를 갖고 있지 않다고 대답하는 장면은 안타까움을 느끼게 만들기도 한다. 하지만 개발자인 데이비드 핸슨(David Hanson) 박사가 “인류를 멸망시키고 싶냐. 부탁이니까 안 된다고 해달라”고 질문하자 소피아는 “좋다. 인류를 멸망시키겠다(OK, I will destroy humans)”고 말한다. 핸슨 박사는 블랙 코미디를 들었다는 듯 폭소하면서 영상은 끝난다.

 

분명한 건 기술 자체가 선하거나 악한 건 아니지만 기술이 인류의 문제를 반영하지 않도록 하는 건 사용자가 아닌 엔지니어의 책임이라는 보여준다는 것이다. 테이의 예처럼 온라인 서비스, 그 중에서도 누구나 이용할 수 있는 서비스라면 공개에 앞서 남용과 불법 이용을 방지하는 시스템이 포함되어 있어야 한다는 것이다. 관련 내용은 이곳에서 확인할 수 있다. 

 

글. 이석원 기자