공유하기

카카오톡
블로그
페이스북
X
주소복사

인공지능윤리협회 “이루다, AI 가이드라인 어겨…서비스 중단해야”

김은경 기자 (ek@dailian.co.kr)
입력 2021.01.11 17:29
수정 2021.01.11 17:34

“기업, 자발적으로 AI 윤리 가이드라인 지켜야”

사용자 오·악용 문제점 지적…교육 필요성 제시

AI 챗봇 ‘이루다’.ⓒ스캐터랩

성희롱 대상이 되거나 혐오, 차별 발언 등으로 논란이 된 인공지능(AI) 챗봇 ‘이루다’와 관련해 한국인공지능윤리협회가 서비스 중단을 촉구하고 나섰다.


협회는 11일 성명을 통해 “AI 윤리 가이드라인을 지키지 못하고 출시한 AI 챗봇 서비스에 대해 서비스 중단을 요청하며, 추후 AI 윤리 가이드라인을 확인하고 적용하고 개선한 후 재출시하기를 촉구한다”고 밝혔다.


협회는 AI 기업들이 AI 제품 출시 전 윤리 가이드라인을 자율적으로 준수하고 검증받아야 한다고 강조했다.


협회는 “‘AI 윤리 헌장’을 제정한 이래 편향성, 오류와 안전성, 악용, 개인정보유출, 킬러로봇 등 AI 윤리의 5대 문제를 지속적으로 제기해 왔으나 아직 기업들이 필요성과 중요성을 인식하지 못하고 있다”며 “사용자들도 오·악용하는 사례들이 지속나타나는 상황이 반복되고 있다”고 지적했다.


협회는 AI에 학습되는 빅데이터가 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다고 강조했다. 이를 어긴 제품과 서비스는 인간에게 잘못된 정보와 인식을 심어주는 악영향을 미친다는 설명이다.


협회는 이번 AI 챗봇 사례에서 기업의 데이터 정제과정과 선별작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다고 지적했다.


협회는 “AI 제품과 서비스는 출시 전 충분히 반복된 품질검사를 거치고, 중립적인 기관을 통한 검수와 검증을 거친 후 출시해야 한다”고 강조했다.


AI는 기계학습 과정에서 인간이 예측하기 어렵고 설명하기 어려운 결과물을 내놓는다. 따라서 출시 전 일반 제품과는 다른 보다 강화된 품질 검사와 충분히 반복된 시뮬레이션을 통해 문제점들을 찾고 개선한 뒤 출시해야 한다는 것이다.


협외에 따르면 기업은 개인의 빅데이터 수집 시 합법적인 절차에 따라야 하며 개인의 프라이버시를 침해하지 않아야 한다. 또 소비자로부터 데이터를 수집 받을 때 사전에 동의를 구하거나 해당 내용을 명확히 고지해야 한다.


협회는 “이번 AI 챗봇 사례에서는 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었고, 개인은 대화내용 제출에 동의했을지라도 대화내용 안의 대화 상대방들은 동의하지 않았기 때문에 이를 그대로 AI 학습에 이용한 것은 분명한 문제의 소지가 있다”고 꼬집었다.


소비자 역시 AI 제품과 서비스를 올바른 방법으로 사용해야 한다고 지적했다. 협회는 “이번 AI 챗봇에 대한 사용자의 성적도구화, 성희롱 등의 문제는 법적인 문제는 없더라도 윤리적인 문제는 분명히 있다”고 언급했다.


이어 “이번 AI 챗봇의 주사용자 층이 10대에서 20대의 아직 이성적으로 미성숙한 청소년들이 많이 이용한다면, 청소년들에게 분명히 잘못된 행위라는 점을 인식시켜주고 교육시켜 주는 것이 필요하다”고 조언했다.


끝으로 협회는 “AI 제품과 서비스 출시 전 최종적으로 중립적인 AI 윤리 전문 검수 기관을 통해 AI 윤리 문제 여부에 대해 검수와 검증을 거친 후 출시하는 것이 바람직하다”며 “청소년 시기부터 AI 윤리 교육을 통해 가르치고, 새로운 AI윤리 이슈들에 대해 모든 시민 대상의 지속적인 교육을 통해 해결해 나가야 한다”고 덧붙였다.

김은경 기자 (ek@dailian.co.kr)
기사 모아 보기 >
0
0

댓글 0

로그인 후 댓글을 작성하실 수 있습니다.
  • 최신순
  • 찬성순
  • 반대순
0 개의 댓글 전체보기