이루다가 남긴 숙제…‘데이터 활용’이냐 ‘개인정보보호’냐
AI 챗봇 이루다, 개인정보 논란으로 기업의 데이터 활용 문제 도마 올라
시민단체 “정보주체 기본권 무시하며 가명정보 무제한 이용하는 것 위헌적”
IT업계 “데이터 활성화 저해 안 돼…AI 윤리 등 마련해야 될 필요 있어”
2022-01-18 박효길 기자
[매일일보 박효길 기자] 윤리, 개인정보 등 각종 논란을 낳은 인공지능(AI) 챗봇 이루다의 서비스가 종료되면서 기업의 ‘데이터 활용’과 고객의 ‘개인정보보호’라는 숙제가 남겨졌다.
18일 업계에 따르면 AI 챗봇 이루다의 개발사 스캐터랩이 지난 15일 ‘이루다’의 데이터베이스(DB) 및 학습에 사용된 딥러닝 대화 모델을 폐기하기로 결정했다.
스캐터랩 측에 따르면 이루다 DB는 비식별화 절차를 거쳐 개별적이고 독립적인 문장 단위로 이뤄져 개인 식별이 가능한 데이터는 포함 돼 있지 않다. 또한 딥러닝 대화 모델은 비식별화 절차를 거친 데이터를 토대로 대화 패턴만을 학습하고, 인공지능은 데이터를 벡터값으로 기억하기 때문에 개인정보가 유출될 위험이 전혀 없다. 그러나 이용자들의 불안감을 고려해 이번 인공지능 '이루다'의 DB 전량 및 딥러닝 대화 모델을 폐기하기로 했다고 회사 측은 밝혔다.
스캐터랩은 연애 분석 앱 ‘연애의 과학’ 이용자들의 카톡 데이터 약 100억건을 재료로 이루다를 개발했다. 스캐터랩은 IT 개발자들의 공유 플랫폼 깃허브에 오픈소스를 올리면서 카톡 데이터 100건을 훈련 데이터로 공유했다. 그런데 이 카톡 대화 데이터에는 실명 20여건이 포함돼 있으며, 대화를 나누는 사람들의 관계가 상당수 드러나 있는 것으로 알려졌다.
시민단체 진보네트워크는 스캐터랩이 수집한 카카오톡 대화를 절차에서 개인정보 보호법 위반 등 의혹을 제기했다.
개인정보의 목적 외 이용과 부적절한 고지에 대해 지적했다. 진보넷은 “연애의 과학 로그인 페이지에서 ‘로그인함으로써 개인정보 처리방침에 동의합니다’로 간주하는 것은 각각의 사항을 알리고 명시적으로 동의를 받도록 한 개인정보 보호법 위반”이라고 주장했다.
또 대화 상대방 동의 부존재에 대해 지적했다. 진보넷은 “지난 12일 스캐터랩은 논란이 지속되자 서비스를 중지하고 사과의 뜻을 밝혔지만 대화 상대방의 동의 부존재에 대해선 한 마디 언급도 없었다”고 밝혔다.
이는 데이터3법 시행으로 예견된 일이라는 주장이 나온다. 개인정보보호법·신용정보법·정보통신망법 등 이른바 데이터3법이 지난해 8월부터 시행됐다.
데이터3법에는 정보주체의 동의 없이 개인정보를 추가로 이용·제공할 수 있는 기준과 가명정보의 결합절차 및 결합전문기관 지정 정보통신망법의 개인정보 보호에 관한 규정 이관 등에 관한 내용 등 법에서 위임한 사항이 구체적으로 반영됐다.
데이터는 4차 산업혁명 시대의 중요한 생산요소다. 글로벌 시장조사기관 IDC에 따르면 세계 데이터 시장규모는 지난 2018년 1660억달러에서 2022년 2600억달러로 늘어날 것으로 관측된다. 따라서 데이터3법 시행이 데이터경제로의 출발점을 알리는 초석이 될 것으로 기대를 모았다.
진보넷은 기업의 데이터 활용의 위험에 대해 우려했다. 진보넷은 “공익적 학술 연구 등에 정보주체의 동의 없이 가명정보를 사용할 수 있도록 하는 유럽연합 등의 사례가 있지만, 기업의 상업적인 제품 개발을 위해 정보주체의 기본권을 무시하며 가명정보를 무제한적으로 이용하는 것은 위헌적”이라고 했다.
반면 IT업계에서는 AI 관련 산업이 자칫 규제로 묶일까 우려하고 있다. 한 IT업계 관계자는 “이번 일로 데이터 활성화가 저해될 필요가 없고 AI 산업이 진보해 나가는 가운데 일부라고 생각이 된다”며 “여러 번 사례를 비춰보면 AI 윤리라든지 분명히 마련해야 될 필요는 있다”고 밝혔다.