유럽연합, ‘AI 위험’ 규제 오늘부터 시행
[블록미딩어 안드레아 윤 에디터] 유럽연합(EU)이 오늘부터 ‘허용 불가 위험’으로 규정한 인공지능(AI) 시스템에 대한 규제를 시작한다고 2일(현지시간) 크립토폴리탄이 보도했다. 규제 당국은 이제 제품 라인을 하루 아침에 삭제할 수 있는 권한을 가지게 된다. EU의 ‘AI 법’에 따른 첫 번째 준수 기한은 예정대로 2월 2일에 시작됐다. 규칙을 위반하는 경우 최대 3500만 유로(약 527억원) 또는 글로벌 매출의 7% 중 더 높은 금액을 벌금으로 내야한다.
유럽의회는 지난해 3월 AI 법을 통과시켰다. 지난 8월 1일부터 이 법이 발효됐으며 이제 각 산업의 기업들은 이를 준수해야 한다.
# EU의 금지 리스트
EU는 일부 AI 시스템을 블랙리스트에 올렸다. 예를 들어, 중국의 사회 신용 시스템처럼 사람의 행동이나 명성 기반의 평가 시스템은 금지됐다. 몰래 사람들의 선택에 영향을 미치거나 잠재의식을 조작하는 AI도 사용 불가하다.
또한, 연령이나 장애 등을 이용해 사람들을 조종하려는 AI도 금지다. 얼굴 특성을 기반으로 범죄 예측을 시도하는 AI 역시 불법이 됐다. 성별, 성적 지향, 정치적 신념을 추정하기 위해 생체 데이터를 사용하는 AI 역시 사용할 수 없다. 실시간 생체 데이터 모니터링도 엄격한 조건 하에서만 허가된다.
이러한 금지는 유럽 내 모든 기업에 적용된다. 본사가 어디에 있든 상관없다. 금지된 시스템을 사용하는 경우 EU는 벌금을 부과할 예정이다.
# 기업들의 대응
지난 9월, 구글, 오픈AI, 아마존 등 100개 이상의 기술 기업들이 ‘EU AI 협약’에 자발적으로 서명해 AI 프로젝트를 일찍 정비하고 고위험 또는 금지 카테고리를 식별하겠다고 약속했다. 그러나 메타, 애플, 미스트랄 같은 기업들은 지나치게 엄격한 규제가 혁신을 억제할 것이라며 거부했다.
그럼에도 ‘EU AI 협약’에 서명하지 않았다고 해서 법을 준수하지 않아도 된다는 의미는 아니다. 대부분의 기술 기업들이 금지 카테고리에 해당하지 않더라도 말이다.
한편, EU AI 법에 따르면 법 집행 기관은 공공장소에서 생체 데이터를 수집하는 AI 시스템을 사용할 수 있지만, 정부 당국의 사전 승인을 받아야 한다. 실종자 추적이나 임박한 공격 방지 같은 비상 상황에서는 예외가 적용되며, 학교와 직장 내 감정 탐지 AI도 의료 또는 안전 이유로 정당화될 경우 사용이 허용된다.
AI 법은 단독으로 운영되지 않는다. 일반 데이터 보호 규정(GDPR), 네트워크 및 정보 보안 지침(NIS2), 디지털 운영 회복력 법(DORA) 등 데이터 처리와 보안에 관한 요구사항이 중첩된다.
출처: 블록미디어