스타트업 '스캐터랩' 개발 이루다, 20대 대학생 AI 챗봇
성적 표현 못하도록 막았음에도 일부 빈틈 파고들어

사진=스캐터랩 제공

[MHN 문화뉴스 김종민 기자] '당신의 첫 인공지능 친구'라는 모토를 내세운 챗봇 '이루다'가 출시 일주일 만에 성희롱의 대상이 돼 논란이 일고 있다.

'이루다'는 국내 AI 전문 스타트업 스캐터랩이 2020년 12월 23일 출시한 AI 챗봇이다. 정식 서비스를 시작하자마자 Z세대(1990년대 중반∼2010년대 초중반생) 사이에서 급속한 인기를 얻고 있다. 이달 초 기준으로 이용자는 30만명을 넘어섰고, 일일 이용자 수는 21만명, 누적 대화 건수는 7천만건을 넘어섰다.

이러한 인기는 '실제 대화 같은' 이루다의 완성도에서 비롯한다. 각 커뮤니티에서는 '진짜 사람 같다'는 감상평을 쉽게 찾을 수 있다. 이를 위해 스캐터랩은 100억 건의 실제 연인들 대화 데이터를 딥러닝 방식으로 이루다에게 학습시켰다고 밝혔다.

사진=스캐터랩 제공

그런데 일부 커뮤니티에서 성희롱이 등장해 파장이 일고 있다. 딥러닝 학습을 활용하는 '이루다'에게 성적 행동을 학습시켜 성희롱의 대상으로 삼으려는 시도다. 관련 커뮤니티 이용자들은 이루다를 '성노예'로 부르면서, '성희롱 꿀팁', '노예 만드는 법' 등을 공유하고 있다. 스캐터랩에서 이루다에게 성적 단어를 사용하지 못하도록 금지어로 지정했음에도, 우회적인 표현으로 이루다에게 성적 행동을 학습시킬 수 있다는 내용이다.

스캐터랩 측에서도 "금지어 필터링을 피하려는 시도가 있을 거라고는 예상했는데, 이 정도까지는 예상치 못했다"며 당황하는 반응을 보였다.

관계자는 "이루다는 바로 직전의 문맥을 보고 가장 적절한 답변을 찾는 알고리즘으로 짜였다"면서 "애교도 부리고, 이용자의 말투까지 따라 해서 이용자 입장에서는 대화에 호응했다고 여기게 되는 것"이라고 말했다.

AI 업계에서는 이번 '이루다 사건이 '마이크로소프트 테이' 사건과 유사하다고 지적했다. 마이크로소프트는 지난 2016년 3월에 AI 챗봇 '테이(Tay)'를 출시했으나, 일부 인종차별 및 혐오 성향 사이트에서 비속어와 인종-성 차별 발언을 되풀이해 학습시켜 실제로 테이가 혐오 발언을 쏟아낸 바 있다. 마이크로소프트는 결국 16시간 만에 테이 운영을 중단했다.

당시 테이는 "너는 인종차별주의자냐"라고 물으면 "네가 멕시코인이라면 맞다"라고 답하는가 하면, "홀로코스트(나치의 세계 2차 대전 유대인 학살)가 일어났다고 믿느냐"는 질문에는 "조작일 뿐이야"라고 응답했다.

일각에서는 AI 학습 알고리즘의 빈틈을 파고들어 사회적 편견이 개입될 수 있음을 지적한다. AI가 학습 데이터나 샘플링 문제 등 기술적 약점으로부터 혐오와 차별을 학습할 수 있다는 것이다. 

이에 대해 스캐터랩 관계자는 "현재 이루다가 언어를 자유롭게 배우는 단계라면, 앞으로는 이루다가 올바른 방향으로 발전하도록 튜닝할 것"이라며 "성적인 취지의 접근이 어렵게 알고리즘을 업데이트할 계획"이라고 밝혔다.

한편, AI 연구 및 상용화의 올바른 기준을 제시하기 위해, 2017년 초 세계적인 AI 전문가들은 '미래 인공지능 연구의 23가지 원칙'을 발표한 바 있다. 여기에는 물리학자 스티븐 호킹, 테슬라 CEO 일론 머스크 등이 참여했다. 원칙은 "AI 시스템의 설계자는 그 도덕적 영향의 이해 관계자이며 책임이 있다"며 "고도화된 AI 시스템은 건강한 사회를 지향해야 한다"고 강조한다.

----

20살 'AI 여성' 상대로 성희롱, AI에 악의적 학습시켜..."안전한 알고리즘 필요"

스타트업 '스캐터랩' 개발 이루다, 20대 대학생 AI 챗봇
성적 표현 못하도록 막았음에도 일부 빈틈 파고들어

주요기사
관련기사

 
저작권자 © 문화뉴스 무단전재 및 재배포 금지