안전
AI 규제
AI Regulation

AI 시스템의 개발과 배포를 규율하는 법률·정책 체계. EU AI Act, 미국 행정명령 등 각국이 고위험 AI 용도를 분류하고 의무를 부과하는 방향으로 빠르게 정비되고 있다.

개념 설명

AI가 채용, 의료, 신용 평가, 공공 서비스 등 삶에 직접 영향을 주는 영역에 쓰이기 시작하면서, 어떤 AI를 어떻게 만들고 쓸 수 있는지 규정하는 규제가 등장하기 시작했다. EU AI Act는 AI를 위험도에 따라 4단계로 분류해 고위험 AI에는 투명성 확보, 감사 기록, 인간 감독을 의무화한다. 기술 표준이 아니라 법적 의무이기 때문에 개발사에 직접적인 영향을 미친다.

사용 예시

EU에 서비스를 제공하는 개발자라면 자신의 AI가 고위험 분류에 해당하는지 먼저 확인해야 한다. 해당된다면 모델 감사 기록 유지, 설명가능성 확보, 사용자에게 AI 사용 사실 고지 등의 조건을 충족해야 한다. 생성형 AI 서비스라면 워터마킹이나 AI 생성 콘텐츠 표시 의무가 적용될 수 있다.

#EU AI Act#정책#거버넌스
← AI Wiki에서 더 보기