AI기본법 투명성 의무, 왜 지금 준비해야 하는가
2026년 1월 22일, 인공지능기본법이 시행되었습니다. 그중에서도 가장 많은 사업자에게 직접적인 영향을 미치는 조항이 바로 제31조 투명성 확보 의무입니다.
과학기술정보통신부가 2026년 2월 25일 드림플러스 강남에서 개최한 'AI 투명성 법·제도 세미나'에서는 이 의무의 구체적인 이행 방법이 처음으로 공개되었습니다. 핵심은 명확합니다. AI를 이용해 제품·서비스를 제공하는 모든 사업자가 이행 대상이며, 계도기간은 최소 1년입니다.
계도기간이라고 안심할 수는 없습니다. 1년은 시스템을 설계하고, UI를 변경하고, 내부 프로세스를 정비하기에 결코 긴 시간이 아닙니다. 지금부터 준비해야 계도기간 종료 시점에 문제없이 대응할 수 있습니다.
제31조의 3가지 의무
AI기본법 제31조는 크게 3가지 의무로 구성됩니다.
1. 사전 고지 의무 (제1항)
고영향 인공지능이나 생성형 인공지능을 이용한 제품·서비스를 제공하려는 경우, 해당 제품 또는 서비스가 인공지능에 기반하여 운용된다는 사실을 사전에 고지해야 합니다.
적용 대상:
- 고영향 인공지능 기반 제품·서비스 제공 시 — 사람의 생명·신체·권익에 영향을 미치는 법상 열거된 10개 분야
- 생성형 인공지능 기반 제품·서비스 제공 시 — 입력 데이터의 구조와 특성을 모방하여 결과물 생성
고지 방법 (시행령 제23조):
| 방법 | 설명 |
|---|---|
| 직접 기재 | 제품, 계약서, 약관 등에 직접 기재 |
| 화면 표시 | 이용자 화면·단말기에 팝업/문구 표시 |
| 장소 게시 | 제공 장소에 게시 (오프라인) |
| 기타 | 이용자가 사전에 인지할 수 있는 기타 방법 |
중요한 점은, 개별 결과물에 대한 '표시 의무'와는 별개로 서비스 시작 단계에서 AI 기반 운용 사실을 알려야 한다는 것입니다.
2. 표시 의무 (제2항)
생성형 인공지능 또는 서비스를 제공하는 경우, 그 결과물이 생성형 인공지능에 의해 생성되었다는 사실을 표시해야 합니다.
표시 방법은 두 가지입니다:
- 사람이 인식할 수 있는 방법: 가시적 워터마크, 로고, 문구 등
- 기계가 판독 가능한 방법: 메타데이터, 디지털 워터마킹 등
비가시적 표시 방법만 적용하는 경우에는, 결과물이 생성형 AI에 의해 생성되었음을 1회 이상 문구·음성으로 안내해야 합니다.
3. 딥페이크 결과물 고지·표시 의무 (제3항)
실제와 구분하기 어려운 가상의 생성물(딥페이크)을 제공할 경우, 이용자가 명확하게 인식할 수 있는 방법으로 고지하거나 표시해야 합니다.
예술적·창의적 표현물의 경우에는 전시·향유를 저해하지 않는 방식으로 고지 또는 표시할 수 있습니다.
누가 이행해야 하는가: 적용 대상 정리
이 의무에서 가장 혼란스러운 부분이 적용 대상입니다. 세미나에서 명확히 정리된 기준은 다음과 같습니다.
인공지능사업자의 2가지 유형
| 유형 | 정의 | 예시 |
|---|---|---|
| AI개발사업자 | AI를 개발하여 제공하는 자 | OpenAI, Google, 네이버 |
| AI이용사업자 | 개발된 AI를 이용해 제품·서비스를 제공하는 자 | 자율주행 자동차, 생성형 콘텐츠 서비스, AI 추천 서비스 |
핵심 구분 포인트: 이용자에게 'AI 제품·서비스'의 형태로 제공하는 것을 요건으로 합니다. 단순히 AI를 도구로써 내부 업무에 활용하는 경우는 인공지능기본법상 '이용자'로서 투명성 확보 의무 적용 대상이 아닙니다.
적용 대상이 아닌 경우
- 단순 결과물 활용자: AI 제품·서비스를 도구로 이용하여 만든 결과물만을 자신의 콘텐츠에 활용하는 경우
- 영화 제작자: AI로 생성한 CG를 영화에 삽입 (이용자에 해당)
- 유튜버/크리에이터: AI 도구로 만든 영상 업로드 (이용자에 해당)
구분의 핵심은 이것입니다: 이용자에게 'AI 도구'를 제공하는가(인공지능사업자) vs 이를 이용한 '결과물'만 제공하는가(이용자).
서비스 유형별 표시 방법 요약
세미나에서 공개된 서비스 유형별 표시 방법은 실무에서 바로 참고할 수 있는 내용입니다.
서비스 이용 환경 내 제공 시
서비스 환경(UI, 앱 등) 내에서 결과물이 표현되는 경우에는 표시의 방법을 폭넓게 허용합니다.
- AI 생성 결과물에 표시
- 서비스 UI 등에 이용자가 알 수 있도록 표시
- 개별 결과물마다 반복적 표시는 불필요
외부 반출 시
결과물을 파일 등으로 외부에 제공하는 경우에는 결과물 자체에 표시해야 합니다.
- 가시적 워터마크 등 사람이 인식할 수 있는 방법
- 비가시적 표시 방법 적용 및 1회 안내
계도기간, 지금 해야 할 3가지
과기정통부는 기업의 이행 준비를 위해 최소 1년 이상의 사실조사 및 과태료 유예 계도기간을 운영합니다. 이 기간 안에 다음을 준비해야 합니다.
1. 우리 서비스가 적용 대상인지 판단
3단계 자가 진단을 수행합니다:
- STEP 1 (대상 식별): AI 제품·서비스를 제공하는가? 고영향 또는 생성형 AI인가?
- STEP 2 (결과물 제공 여부): AI 생성 결과물을 이용자에게 제공하는가?
- STEP 3 (방법 결정): 외부 반출 기능이 있는가? 딥페이크에 해당하는가?
2. 표시 방법 설계 및 구현
서비스 특성에 맞는 표시 UI를 설계합니다. 대화형 서비스라면 초기 안내 문구, 이미지 생성 서비스라면 워터마크 또는 메타데이터 삽입 등 유형별 최적 방법을 선택합니다.
3. 감사 대응 체계 구축
투명성 의무 이행 여부는 향후 감사 및 조사의 대상이 됩니다. AI가 생성한 결과물에 대해 **"언제, 어떤 AI 모델로, 어떤 입력을 기반으로, 어떤 결과가 나왔는지"**를 기록하고 보관하는 체계가 필요합니다.
이러한 감사 추적(Audit Trail) 체계는 단순 로그 저장을 넘어, 변조 불가능한 형태의 증빙이어야 신뢰를 확보할 수 있습니다. 크로노젠의 DPU(Decision Processing Unit)는 모든 AI 판단 과정을 SHA-256 해시 체인으로 봉인하여, 감사 시점에 즉시 검증 가능한 증빙을 제공합니다.
참고 자료 및 지원
- 법령 원문: 국가법령정보센터 (law.go.kr)
- 가이드라인: 인공지능기본법 지원데스크 (sw.or.kr/AI_act_helpdesk/main.jsp)
- 지원창구: 인공지능기본법 지원데스크에서 유선 상담 및 전문가 서면 검토를 통한 답변 제공 중
AI기본법 투명성 의무는 AI를 활용하는 모든 사업자에게 새로운 규제이자 기회입니다. 투명성을 체계적으로 확보한 서비스는 이용자 신뢰를 얻고, 감사 리스크를 사전에 차단할 수 있습니다. 계도기간인 지금이 준비의 적기입니다.