표시 의무, 어떻게 이행할 것인가

AI기본법 제31조 제2항은 생성형 AI 사업자에게 AI 생성물에 대한 표시 의무를 부과합니다. 법 조문은 간결하지만, 실무에서는 "구체적으로 어떻게 표시하는가"가 핵심입니다.

2026년 2월 25일 과학기술정보통신부 주최 'AI 투명성 법·제도 세미나'에서 서비스 유형별 표시 방법이 상세하게 공개되었습니다. 이 글에서는 세미나에서 공개된 가이드라인을 기반으로, 실무에서 바로 적용할 수 있는 표시 방법을 정리합니다.

표시 의무의 기본 구조

표시 의무를 이해하려면 먼저 제공 방식생성물 분류라는 두 축을 파악해야 합니다.

제공 방식: 서비스 환경 내 vs 외부 반출

구분 설명 예시
서비스 환경 내 제공 서비스 UI, 앱 환경 내에서 결과물이 표현 챗봇 대화, 앱 내 이미지 생성
외부 반출 결과물을 파일 등으로 다운로드/공유 이미지 다운로드, 문서 내보내기

이 구분이 중요한 이유는 표시 강도가 다르기 때문입니다. 서비스 환경 내에서는 비교적 유연하게 표시할 수 있지만, 외부 반출 시에는 결과물 자체에 직접 표시해야 합니다.

생성물 분류: 일반 생성물 vs 딥페이크

  • 일반 생성물: AI가 생성한 텍스트, 이미지, 영상, 음성 등
  • 딥페이크 생성물: 실제와 구분하기 어려운 수준의 가상 생성물

딥페이크의 경우 사람이 인식할 수 있는 방법 적용이 필수입니다.

서비스 환경 내 제공: 유형별 표시 방법

1) 대화 기반 서비스

챗봇, 대화창 등 상호작용을 통해 결과물을 제공하는 서비스입니다. ChatGPT, Gemini, 클로바 X 등이 해당합니다.

표시 방법:

  • 채팅창 등 연속적 대화를 통해 명확히 인식할 수 있는 초기 안내 또는 지속 로고 표출 등
  • 개별 응답마다 반복적 표시는 불필요

실무 적용 예시:

  • 서비스 첫 화면에 "AI 모델이 데이터를 생성합니다" 문구 표시
  • 대화창 상단에 AI 로고 또는 배지 지속 노출
  • 문구 표기 영역이 충분하지 않은 경우 툴팁 등으로 표시

2) 음성 어시스턴트

AI와 음성 대화를 기반으로 제공되는 서비스입니다.

표시 방법:

  • 이용 전 이용자가 인식할 수 있는 음성 또는 화면 문구 등으로 안내
  • 이용자가 호출하여 시작되는 서비스의 경우 개별 음성마다 반복적 안내 불필요
  • 음성 가전 등 실물이 있는 제품의 경우 겉면에 AI를 기반으로 운용됨을 표시

3) 게임, 메타버스

AI와 상호작용 또는 동적인 AI 콘텐츠 생성 기능이 적용된 게임, 메타버스 등입니다.

표시 방법:

  • 게임 내 구성요소에 AI 활용 시 — 이용자가 상호작용하는 캐릭터·NPC명에 AI 캐릭터·NPC임을 알리거나 혹은 초기 대화 시 안내
  • AI 기반 음성 서비스 — 게임 내 이용자 로그인 등 플레이 활성화 시 초기에 AI 기반 서비스임을 안내

4) 생산성 향상 서비스

생성형 AI를 보조적 수단으로 활용하는 문서 작성 지원 서비스입니다. Notion AI, MS Copilot 등이 해당합니다.

표시 방법:

  • 이용 화면 내 로고 표출, 이용 전 안내 등으로 인공지능 활용 여부 표시
  • 개별 결과물에 대해 표시 불필요
  • 단, 실시간으로 동기화되어 파일 등으로 저장하는 경우 '서비스 외부 반출 시 표시 방법'에 대한 추가적인 적용 필요

외부 반출 시: 유형별 표시 방법

서비스 환경 밖으로 결과물이 나가는 경우에는 결과물 자체에 표시해야 합니다. 유형별로 구체적인 방법이 다릅니다.

1) 텍스트 생성물

텍스트 결과물을 파일, 문서 등으로 다운로드/공유 등 기능을 제공할 때 적용됩니다. 단, 이용자가 클립보드(Copy/Paste) 기능을 이용하는 경우는 미해당합니다.

표시 방법:

구분 방법
파일 형태 제공 시 문서의 머리말, 파일 메타데이터로 표시
코드 생성 도구 프로젝트 설명, 코드 내 주석 등으로 표시

메타데이터 등 비가시적인 방법을 적용할 경우 다운로드 시 문구·음성 등으로 AI로 생성되었음을 1회 이상 안내해야 합니다.

2) 이미지 생성물

사람이 인식할 수 있는 방법:

  • 이미지 내 로고 삽입 등을 통한 가시적인 방법
  • 실제와 구분하기 어려운 생성물(딥페이크)은 사람이 인식할 수 있는 방법만 적용

기계가 판독할 수 있는 방법:

  • 디지털 워터마킹, 메타데이터 등을 활용한 비가시적인 방법
  • 비가시적인 방법을 사용할 경우 다운로드 시 문구·음성 등으로 인공지능 기반 생성 사실에 대해 1회 이상 안내

3) 동영상 생성물

사람이 인식할 수 있는 방법:

  • 화면 영역 일부에 로고 등을 표출하거나, 영상 시작 부분에 AI 생성 사실을 안내하는 방법 등
  • 딥페이크 생성물은 사람이 인식할 수 있는 방법만 적용하되, AI로 생성된 재생구간 전체에 로고 표출 등으로 AI 생성 사실을 표시

기계가 판독할 수 있는 방법:

  • 디지털 워터마킹, 메타데이터 등을 활용한 비가시적인 방법
  • 비가시적인 방법을 사용할 경우 다운로드 시 문구·음성 등으로 인공지능 기반 생성 사실에 대해 1회 이상 안내

4) 음성 생성물

사람이 인식할 수 있는 방법:

  • 음성 시작 부분에 AI 생성 사실을 안내하는 방법 등
  • 재생시간 전체에 표시할 필요는 없으며, 오디오 콘텐츠 시작 부분에 AI로 생성되었음을 멘트로 간단히 안내

기계가 판독할 수 있는 방법:

  • 사후 식별 가능한 음성 워터마킹 기술, 메타데이터 등을 활용한 비가시적인 방법

5) 기타 파일 형식

PDF, Office 문서, 슬라이드 등의 생성물입니다.

표시 방법:

  • 파일 포맷의 특성을 고려하여 적합한 방법으로 표시
  • 머리말 또는 작성 영역 초반(문서), 첫 슬라이드의 일부 영역(시트 형식) 등에 AI 생성 사실 표시
  • 파일 작성자 등 메타데이터 영역에 AI 생성물임을 표시

딥페이크 생성물: 강화된 표시 기준

딥페이크 생성물의 표시 기준은 일반 생성물보다 엄격합니다.

유형 언제 어디에 어떻게
음성 재생 초기 결과물 AI 생성 사실 안내 음성 송출
이미지 - 결과물 가시적 워터마크 (로고 등)
영상 전체 재생 구간 결과물 가시적 워터마크 (로고 등)

예술적 및 창의적 표현물의 경우, 전시 및 향유를 저해하지 않는 방법을 허용합니다.

C2PA: 글로벌 투명성 표시 표준

세미나에서 C2PA(Coalition for Content Provenance and Authenticity) Andy Parsons 공동의장이 발표한 Content Credentials 표준은 AI 생성물 표시의 글로벌 방향을 보여줍니다.

C2PA의 핵심 개념

C2PA는 디지털 콘텐츠에 대한 출처 정보를 암호학적으로 바인딩하는 표준입니다.

  • 생성 이력: 어떤 도구로, 언제, 어디서 만들었는가
  • 편집 이력: 어떤 수정이 가해졌는가
  • AI 사용 여부: AI가 어떻게 관여했는가
  • 변경 체인: 생성부터 소비까지의 변경 이력

누가 참여하고 있는가

Steering Committee에 Adobe, Amazon, BBC, Google, Intel, Meta, Microsoft, OpenAI, Sony 등 글로벌 빅테크가 포진해 있으며, ISO 22144로 국제 표준화가 진행 중입니다.

어디에 적용되고 있는가

이미 다수의 제품과 서비스에서 C2PA가 구현되고 있습니다:

  • 이미지: Behance, Adobe Stock, Google Photos, Samsung Galaxy S25
  • 영상: YouTube, TikTok (Sora, Veo 영상에 AI 라벨 자동 적용)
  • 문서: Microsoft Office, Microsoft CoPilot
  • 기기: Google Pixel Camera, Sony PXW-Z300

한국 사업자에게의 시사점

마크애니(MarkAny) 최고 대표는 세미나에서 **"갈라파고스적 표준을 만들기보다 국제 표준인 C2PA를 따르자"**고 제안했습니다. 한국만의 독자적 표시 방법을 만들면 기업 및 사용자 혼선만 초래하고, 딥페이크 수사만 더 어려워진다는 지적입니다.

삼성전자도 이미 C2PA 메타데이터를 채택했으며, 이는 글로벌 시장에서 한국 AI 서비스의 경쟁력과도 직결됩니다.

실무 체크리스트: 표시 의무 이행 준비

아래 체크리스트로 현재 준비 상태를 점검할 수 있습니다.

기본 점검

  • 우리 서비스가 생성형 AI를 이용한 제품·서비스에 해당하는지 확인했는가?
  • 서비스 환경 내 제공과 외부 반출 중 어디에 해당하는지 분류했는가?
  • 딥페이크에 해당하는 생성물이 있는지 확인했는가?

표시 설계

  • 서비스 초기 화면에 AI 기반 운용 사실 고지 문구를 배치했는가?
  • 생성물 유형별(텍스트/이미지/영상/음성) 표시 방법을 설계했는가?
  • 외부 반출 시 가시적 또는 비가시적 표시 + 1회 안내를 구현했는가?

기록 및 감사 대응

  • AI 생성물 표시 이행 기록을 보관하는 시스템이 있는가?
  • 표시 의무 이행 여부를 입증할 수 있는 증빙 체계를 갖추었는가?
  • 향후 감사 시 투명성 의무 이행 이력을 즉시 제출할 수 있는가?

결론: 표시는 비용이 아니라 신뢰 투자

AI 생성물 표시 의무는 단순한 규제 준수를 넘어, 이용자 신뢰를 구축하는 기회입니다. YouTube가 AI 생성 영상에 라벨을 붙이고, Google Photos가 Content Credentials를 표시하는 것은 법이 요구해서가 아니라 이용자가 신뢰할 수 있는 플랫폼이 되기 위해서입니다.

한국의 AI기본법 투명성 의무도 같은 방향입니다. 계도기간 안에 체계적으로 준비하면, 규제가 본격 시행될 때 경쟁 우위가 됩니다. 표시 의무 이행의 모든 과정을 증빙으로 남기고 감사에 대응할 수 있는 체계를 지금부터 구축하시기 바랍니다.