안전한 사이버국가 세계 3위 목표…정부, ‘신뢰할 수 있는 AI 실현전략’ 마련

4차위 전체회의서 의결…중소기업 지원체계도 권고 기술의 합목적성 등 3대 원칙…책임성 등 10대 요건 제시

2021-05-13     박효길 기자
[매일일보 박효길 기자] 성소수자 차별 논란을 일으킨 인공지능(AI) 챗봇 ‘이루다’ 사태 등  이슈에 대응하기 위해 정부가 ‘신뢰할 수 있는 인공지능 실현전략’을 마련했다. 대통령 직속 4차산업혁명위원회는 13일 오후 서울중앙우체국에서 제22차 전체회의를 열고 ‘신뢰할 수 있는 인공지능 실현전략’을 심의·의결했다. 이 전략은 지난해 12월 발표한 ‘인공지능 윤리기준’의 실천방안을 후속 조치다. 민간 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축하며 재정·기술력이 부족한 스타트업 등에 대한 지원책을 담은 것이 특징이다. 앞서 인공지능 윤리기준은 ‘인간성을 위한 AI’를 위해 사회구성원이 지켜야 할 △인간 존엄성 △사회 공공선 △기술의 합목적성 등 3대 원칙과 △책임성 △안전성 등 10대 요건을 제시했다. 이번 전략은 ‘누구나 신뢰할 수 있는 인공지능, 모두가 누릴 수 있는 인공지능 구현’을 비전으로 정하고, 2025년까지 책임있는 인공지능 활용 세계 5위, 신뢰 있는 사회 세계 10위, 안전한 사이버국가 세계 3위 달성을 목표로 세웠다. 우선 신뢰할 수 있는 인공지능 구현 환경을 조성하기 위해 민간에서 인공지능 제품·서비스를 구현하는 개발, 검증, 인증 단계에 따라 신뢰확보 기준을 제시하고 지원한다. 개발 단계에서는 국내외 신뢰성 관련 요구사항을 확인할 수 있는 개발 가이드북을 보급하고, 검증 단계에서는 신뢰성 확보 여부 등을 검증할 수 있는 체계를 제시한다. 인증 단계에서는 검증체계를 통과한 제품, 서비스에 대해 민간 자율 인증과 공시를 추진한다. 스타트업도 신뢰성을 확보할 수 있도록 인공지능 허브 플랫폼에서 데이터 확보, 알고리즘 학습, 신뢰성 검증을 통합적으로 지원한다. 안전한 인공지능 활용을 위해서는 민관이 인공지능 학습용 데이터 제작공정에서 공통으로 준수해야 할 표준 기준을 마련하기로 했다. 또 국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 인공지능의 범주를 설정하고, 서비스 제공 전에 해당 인공지능의 활용 여부를 이용자에게 고지하도록 할 계획이다. AI 영향평가를 도입하고 향후 인공지능 관련 정책이나 조치방안 수립 시 활용할 방침이다. 정부는 사회 전반에 건전한 인공지능 의식이 확산할 수 있도록 인공지능 윤리교육 총론을 마련하고, 개발자·시민에게 맞춤형 교육도 진행할 예정이다. 개발자, 이용자 등이 업무, 일상생활 속에서 윤리 준수 여부를 자율점검을 할 수 있는 체크리스트도 개발한다. 최기영 과기정통부 장관은 “최근 챗봇 사건은 우리 사회가 AI의 신뢰성에 대해 어떻게 대처해야 하는지 숙제를 안기는 계기가 됐다”며 “사람이 중심이 되는 AI 강국 실현을 위해 이번 전략을 추진하겠다”고 밝혔다. 4차위는 이외에도 정부에 중소기업 중심의 국가통계 기반 마련 등을 내용으로 하는 ‘데이터 기반 중소기업 중심 지원체계 마련’안을 권고했다. 윤성로 4차산업혁명위원장은 “AI 대중화를 위해서는 신뢰할 수 있는 AI 실현전략에 따른 실행이 중요하며, 코로나19로 어려움을 겪고 있는 중소기업을 위한 데이터 기반 중소기업 지원체계 마련 대정부 권고도 의미가 크다”고 밝혔다.