공유하기

카카오톡
블로그
페이스북
X
주소복사

[김은경의 i티타임] ‘이루다’ 사태가 IT업계에 남긴 숙제

김은경 기자 (ek@dailian.co.kr)
입력 2021.01.14 07:00
수정 2021.01.13 21:36

DB 수집 방식부터 잘못…제도화 고민 필요할 때

쏟아지는 서비스 속 ‘개인정보 보호’ 필요성 각인

스캐터랩 AI 챗봇 ‘이루다’.ⓒ스캐터랩

인공지능(AI) 챗봇 ‘이루다’를 둘러싼 일련의 사태들로 세상이 시끄럽다. 이루다를 향한 논란은 크게 두 가지다. ‘사회적 논란’과 ‘법적 논란’이다.


이루다 논란은 처음엔 사회적 문제로 촉발됐다. 사용하면서 이루다의 혐오 발언에 ‘불편함’을 느낀 사용자들이 많았던 것이다. 이루다는 마치 거울처럼 현 사회의 민낯을 그대로 드러냈다.


인간의 어두운 면을 배운 AI는 혐오와 차별 발언을 거침없이 쏟아냈다. 사용자들이 초기에 느꼈던 호기심과 흥미는 어느 시점부터 ‘불쾌한 골짜기’처럼 강한 거부감으로 변했다.


스캐터랩은 이루다를 ‘20살 여대생’으로 설정했다. 업계에서는 스캐터랩이 서비스를 만들면서 이루다의 조상 격인 ‘심심이’ 사례를 참고하지 않았을 리 없다는 이야기가 나온다. 심심이는 성차별과 혐오 발언으로 논란이 된 서비스다.


전문가들도 현 발화 학습 기술로 악용될 소지가 있는 챗봇을 굳이 미성년자를 갓 벗어난 20살 여성으로 설정한 개발 의도가 ‘어그로’(관심을 끌기 위해 자극적이거나 악의적인 행동을 하는 일)를 끌기 위한 것으로 의심된다고 지적한다.


이루다 사태를 더욱 시끄럽게 만든 것은 법적 논란이다. 이루다 개발사인 스캐터랩은 윤리적 책임을 외면하고 범죄까지 저지른 것으로 의심받고 있다. 돈을 벌기 위해 AI 서비스를 출시했지만, 정작 이에 따르는 책임과 개인정보 보호의 중요성을 간과하면서 문제가 됐다.


스캐터랩은 자사 서비스 ‘연애의 과학’ 정보를 이루다에 가져다 썼다. 이 자체도 문제 소지가 있지만, 그 과정에서 개인정보가 제대로 보호되지 않았다면 위법이다. 연인들 간 나눈 카카오톡 메시지가 버젓이 오픈소스 플랫폼에 떠다니고 있는 형국이다.


회사는 “개인정보 보호를 위해 숫자나 이름 등 비식별화 조치를 거쳤다”고 해명했지만, 그러기엔 구체적인 사용자 주소나 대학 학과 등이 노출되는 등 납득하기 어려운 점이 많다.


이루다를 향한 사회적 논란과 법적 논란은 모두 서비스를 출시한 스캐터랩의 잘못된 데이터베이스(DB) 수집 방식에서부터 예고된 것이었다.


스캐터랩은 자사 ‘연애의 과학’ 카카오톡 대화 내용을 이루다 구성의 재료가 되는 DB로 활용했다. 이미 있는 데이터를 가져다 썼으니 수집하는 과정은 수월했을지 모른다.


하지만 거기에서 오가는 온갖 내용들을 제대로 된 필터링 없이 사용하다 보니 젠더 감수성 부재 등의 문제가 생겼고, 개인정보 보호 문제까지 불거지게 된 것이다.


이루다 사태는 정보기술(IT)업계에 거대한 돌을 던졌다. 인간이 탄생시킨 AI는 필연적으로 현 사회의 모습을 그대로 투영할 수밖에 없다. AI를 인간 세상에 풀어놓기에 앞서 악용 가능성을 차단하고 충분한 필터링을 거쳐야 한다.


하지만 ‘카카오톡 대화 내용 수집’과 같은 수월하지만 불확실성이 큰 방식으로는 부적절한 데이터를 필터링할 수도 없고, AI에 윤리의식을 불어넣을 수도 없다.


‘개인 간의 사적인 대화’를 데이터화 하는 방식을 고수한다면 개인정보 보호 문제에서 벗어나기도 힘들다.


기업의 자정작용에만 기댈 수는 없다는 점은 이번 사태로 분명해졌다. 국가적 차원에서 AI 서비스를 악용하는 ‘악성 사용자’를 줄이기 위해 AI 윤리 교육을 의무화하는 방안을 고민해볼 필요가 있다. 개인정보 보호 측면에서 미흡한 제도가 있다면 빠르게 손질하는 것이 잠재적 피해자를 막을 수 있는 길이다.

김은경 기자 (ek@dailian.co.kr)
기사 모아 보기 >
0
0

댓글 0

로그인 후 댓글을 작성하실 수 있습니다.
  • 최신순
  • 찬성순
  • 반대순
0 개의 댓글 전체보기