이루다 ‘윤리’ 논란에…방통위, 구체적 AI 규범·법제 마련 나서

이용자·사업자 대상 교육 지원 스타트업 대상 컨설팅 진행 AI윤리 실현을 위한 구체적 지침마련

2022-01-14     정두용 기자
AI
[매일일보 정두용 기자] 인공지능(AI) 챗봇 ‘이루다’의 윤리적 문제가 부각되자 방송통신위원회가 윤리규범 구체화에 나섰다. 이루다는 최근 혐오·차별적인 표현과 성희롱 대상으로 여겨지는 등 윤리 문제에 중심으로 떠올랐다. 개발사인 스캐터랩이 개인정보 무단 유출 등의 의혹을 받고 있다. 방송통신위원회는 AI윤리규범 등을 구체화해 제도개선을 추진할 계획이라고 14일 밝혔다. AI서비스가 사람중심으로 제공되고, 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 이용자·사업자 대상 교육·컨설팅도 지원한다. 방통위는 “최근 AI 채팅로봇의 혐오·차별적인 표현과 AI 채팅로봇에 대한 이용자의 성희롱성 발언 등이 사회적으로 큰 논란을 일으킨 바 있다”며 “이와 관련해 사업자·이용자·정부 등 지능정보사회 구성원 모두가 AI윤리의 중요성을 인지하고 각자가 실천할 수 있는 방안을 모색해야 한다는 지적이 커지고 있는 상황”이라고 전했다. 방통위는 이에 따라 AI서비스에서 이용자 보호를 가장 큰 원칙으로 삼고, 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진해 나간다는 방침이다. 방통위는 올해부터 이용자에게 AI서비스의 비판적 이해 및 주체적 활용에 대한 교육을 실시한다. 교육 내용으로는 이용자가 AI서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화하여 서비스를 이용할 수 있는 방안 등을 담을 계획이다. 2022년부터는 신규예산을 확보하여 AI윤리교육 지원대상을 이용자에서 사업자로까지 확대하고, 스타트업 등을 대상으로 서비스 설계시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다. 방통위는 또 AI서비스의 이용자보호를 위해 규범 및 제도를 구체화해 나간다. 방통위는 2019년 11월 ‘차별금지, 인간존엄성 보호’ 등의 내용을 포함한 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표한 바 있다. 해당 원칙이 선언적 규정이라면, 올해부터는 이를 실천하기 위한 구체적 사례·방법 등을 사업자 등과 공유할 계획이다. 사업자의 규제부담 및 AI서비스의 혁신 저해를 최소화하기 위해 민간에서 현재 실천하고 있는 모범사례를 적극적으로 발굴하여 이를 바탕으로 실행지침을 마련할 계획이다. 방통위는 중장기적으로 이용자에게 피해를 야기한 AI서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다는 방침이다. 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고, 지난해 9월부터 센터 내에 법제 연구반을 구성하여 운영하고 있다. 한상혁 방통위원장은 “AI서비스는 더 많은 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만, 올바른 윤리와 규범이 없는 AI서비스는 이용자 차별과 사회 갈등을 초래할 수 있다”며 “AI기술의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것이다”라고 말했다.