AI가 생성한 콘텐츠에 육안으로 보이지 않는 식별 신호를 삽입해, 해당 콘텐츠가 AI로 만들어졌음을 나중에 확인할 수 있게 하는 기술. 딥페이크 확산과 AI 생성 허위 정보 대응에 활용된다.
텍스트 워터마킹은 모델이 출력 토큰을 선택할 때 특정 패턴을 통계적으로 심어두는 방식이다. 이미지에서는 픽셀 값에 미세한 변형을 가하거나 메타데이터를 활용한다. 사람의 눈이나 일반 독자에게는 전혀 표시가 나지 않지만, 검출 도구로는 해당 패턴을 읽어낼 수 있다. EU AI Act처럼 AI 생성 콘텐츠 표시를 의무화하는 규제에서 핵심 기술 수단으로 주목받고 있다.
Google의 SynthID는 Gemini가 생성한 이미지와 텍스트에 워터마크를 삽입하는 도구다. 뉴스 플랫폼이나 소셜 미디어에서 콘텐츠 진위를 자동으로 확인하거나, 학술 제출물이 AI로 작성됐는지 감지하는 데 이 기술을 쓸 수 있다. 다만 번역, 편집, 요약을 거치면 워터마크가 지워질 수 있어 완벽한 해결책은 아니다.