섹션

네이버, AI 안전·윤리 체계 ‘ASF’ 공개

네이버가 최근 급성장하고 있는 AI 산업의 안전성 및 윤리 체계 확립을 위한 구체화된 시스템을 공개했다.

네이버는 AI 시스템을 개발하고 배포하는 모든 단계에 걸친 AI의 잠재적 위험을 인식·평가·관리하는 대응 체계 ‘네이버 ASF’를 개발했다고 17일 밝혔다.

ASF는 AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고, 이에 대응하는 방안을 설계한 것이 특징이다.

먼저 인간이 AI에 영향을 미치지 못하게 되는 ‘통제력 상실 위험’을 막기 위해 네이버는 ‘AI 위험 평가 스케일’ 시스템을 통한 주기적 시스템 관리 방안을 내놓았다.

특히 현존 최고 성능의 AI 시스템의 경우 ‘프론티어 AI’로 규정해 3개월마다 위험 평가를 수행하는 기준을 제시했다.

또 AI의 성능이 기존보다 6배 이상 급격히 증가한 경우 즉시 추가 평가를 통해 안전성을 검증하게 된다.

네이버 사옥 [네이버 제공]
네이버 사옥 [네이버 제공]

이어 ‘악용 가능성’에서는 AI 위험 평가 매트릭스라는 위험 관리 프로그램을 도입할 예정으로, AI 시스템의 사용 목적과 안전 조치 필요성에 따라 각기 다른 방법으로 위험을 관리하는 절차다.

일례로 바이오 물질 개발에 필요한 특수 AI의 경우 특별한 자격이 있는 사용자에게만 제공하고, 사용 목적과 관계없이 악용 가능성이 큰 AI 시스템은 위험 완화 시까지 배포하지 않는 식이다.

네이버는 AI 안전성 체계에 문화적 다양성을 반영하면서 다양한 국가에서 사용할 수 있도록 체계를 고도화할 방침이다.

이를 위해 외국 정부 및 기업과 AI 공동 개발을 추진하고 문화에 따라 다른 위험도를 측정하는 ‘벤치마크’ 시스템을 운영할 예정이다.

네이버 최수연 대표이사는 “하이퍼클로바X라는 AI를 개발한 경험을 통해, 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 입증했다”라고 말했다.

이어 “향후 네이버 ASF의 개선을 통해 다양한 지역의 문화와 가치를 반영하는 지속 가능한 생태계를 구축할 것”이라는 포부를 밝혔다.