섹션

카카오, 미래형 AI 리스크 관리 체계 구축

최근 그룹의 미래 사업으로 AI를 지목한 카카오가 AI 기술 안정성을 강화하고 윤리와 신뢰 등 사회적 책임을 다하기 위한 시스템을 구축한다.

카카오는 AI 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고, 이를 관리하는 프로세스 ‘Kakao AI Safety Initiative(ASI)’를 구축했다고 23일 밝혔다.

카카오의 ASI는 AI의 잠재적 위험성을 낮추고 윤리적인 시스템을 구축하기 위한 종합 지침으로, 기술의 설계부터 개발·테스트·배포 등 전 단계의 리스크를 선제적으로 대응하는 것이 목표다.

이를 위해 AI와 인간이 초래할 수 있는 다양한 종류의 리스크를 폭넓게 관리하며, 인간의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정했다.

ASI의 핵심요소는 윤리원칙과 리스크 관리 사이클, AI 리스크 거버넌스의 3가지로, 먼저 윤리원칙은 AI 투명성과 프라이버시·이용자 보호 등이 포함됐다.

카카오 [연합뉴스 제공]
카카오 [연합뉴스 제공]

이어 리스크 관리 사이클은 식별·평가·대응의 단계를 통해 잠재적 위험을 제거하는 방식이다.

비윤리적인 AI나 기술적 불완전을 제거하고, 안전성과 신뢰성을 확보하기 위해 AI 시스템의 전체 사용주기에 걸쳐 반복적으로 적용되는 것이 특징이다.

끝으로 AI 리스크 거버넌스는 AI 시스템의 개발·배포·사용 등을 관리하고 감독하는 의사 결정으로, 기존 AI Safety에 더해 리스크 관리 전담 조직인 ERM 위원회, 최고 의사결정 기구의 3단계를 거침으로 안전장치를 강화한다.

카카오 김경훈 AI Safety 리더는 “우리의 ASI 시스템과 타사의 가장 큰 차이점은 리스크 발생 주체를 AI와 인간으로 구분해 발생 주체별 평가와 대응방안을 따로 마련했다는 점”이라고 말했다.

이어 “산업 변화 속도가 빠른 만큼 선제적으로 관리 체계를 마련해 업계를 선도할 것”이라고 덧붙였다.