카카오, AI 리스크 관리 체계 ‘Kakao AI Safety Initiative’ 구축

설계·운영 등 AI 생애 전 과정 관련 리스크 식별·관리하는 프로세스 카카오 AI 윤리 원칙, 리스크 관리 사이클, AI 리스크 거버넌스로 구성

2024-10-23     김성지 기자
사진=카카오

매일일보 = 김성지 기자  |  카카오가 인공지능(AI) 윤리와 신뢰를 강화하고 사회적 책임을 다하기 위해 AI 기술 개발·운영 과정에서 발생할 수 있는 리스크를 식별하고 관리하는 프로세스를 정의했다.

카카오는 AI 관련 리스크 관리 체계 ‘Kakao AI Safety Initiative(이하 Kakao ASI)’를 구축했다고 23일 밝혔다. Kakao ASI는 AI 기술 개발 및 운영 상의 위험 발생을 최소화하고, 안전하고 윤리적인 AI 시스템을 구축하기 위한 종합 지침으로, 기술 설계부터 개발·테스트·배포·모니터링 등 AI 시스템의 전 생애주기에서 발생할 수 있는 리스크에 대해 선제적 대응이 가능하다는 것이 특징이다. 관리자의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정해 AI와 인간이 초래할 수 있는 다양한 종류의 리스크를 폭넓게 관리한다. Kakao ASI는 △Kakao AI 윤리 원칙 △리스크 관리 사이클 △AI 리스크 거버넌스라는 3가지 핵심요소로 구성된다. Kakao AI 윤리 원칙은 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’을 기반으로 하며, 개발자와 사용자를 대상으로 윤리적인 가이드라인을 제공한다. 리스크 관리 사이클은 리스크를 체계적으로 다루기 위한 접근법으로, 식별-평가-대응의 순환 단계로 구성된다. AI 기술의 비윤리, 불완전 등을 최소화하고, 안전성과 신뢰성을 확보할 수 있는 핵심적인 역할을 한다. AI 리스크 거버넌스는 AI 시스템의 개발·배포·사용 등을 관리하고 감독하는 의사 결정 체계를 뜻하며 AI Safety, 전사 리스크 관리 전담 조직인ERM 위원회, 최고 의사결정 기구의 3단계로 구성됐다. 김경훈 카카오 AI Safety 리더는 “AI 시스템 이용에 따른 리스크의 발생 주체를 AI와 인간으로 구분하고, 발생 주체 별 리스크의 특성을 반영해 평가 및 대응방안을 마련했다는 점이 타사의 AI 리스크 관리 프레임워크와 차별화되는 점”이라고 밝혔다. 카카오는 Kakao ASI 구축 이후에도 AI 기술 개발과 운영 과정에서 발견되는 리스크를 신속하게 식별 및 대응, 지속적으로 체계 고도화를 이어갈 계획이다. 빠르게 변화하는 환경과 기술적 요구에 맞춰 체계를 정밀하게 점검하고, AI 시스템의 신뢰와 안전성을 높이기 위해 꾸준히 힘쓸 예정이다. 김 리더는 “Kakao ASI는 지난 5월 개최된 ‘AI Seoul Summit’에서 선언한 ‘서울 AI 기업 서약'을 위한 실천에 해당하며 AI 윤리와 안전을 위해 다양한 선제적 노력을 이어온 카카오가 이번 Kakao ASI 구축을 통해 글로벌 환경에 부합하는 수준의 AI 리스크 관리 체계를 마련했다”며 “AI 기술의 영향력이 빠르게 확산되고 변화의 속도가 가속화되는 환경에 맞춰 안전한 AI 생태계 조성을 위한 협력을 이어갈 것이며, Kakao ASI를 통해 윤리 기준을 선도해 갈 수 있도록 노력할 것”이라 전했다.