왜 AI Decision Provenance가 필요한가

AI 도입이 전 산업에 걸쳐 가속화되고 있습니다. 고객 상담 챗봇, 문서 요약, 심사 자동화, 추천 시스템까지, AI가 판단을 내리는 영역은 매일 확장되고 있습니다. 그런데 한 가지 근본적인 질문이 빠져 있습니다. "AI가 왜 그런 결정을 했는가?"

이 질문에 답하지 못하는 조직이 직면하는 문제는 점점 현실적이 되고 있습니다.

규제 환경의 변화

EU AI Act는 2025년부터 단계적으로 시행되며, 고위험 AI 시스템에 대해 판단 과정의 기록과 추적 가능성을 의무화하고 있습니다. 한국에서도 AI 기본법(인공지능 산업 육성 및 신뢰 확보에 관한 기본법)이 2025년 1월 시행되면서, AI 시스템의 투명성과 설명 가능성에 대한 법적 기반이 마련되었습니다.

이러한 규제는 단순한 선언이 아닙니다. AI가 내린 판단의 근거를 사후에 소명할 수 있어야 한다는 것이 핵심 요구사항입니다. 문제는, 대부분의 조직이 이를 충족할 기술적 체계를 갖추고 있지 않다는 점입니다.

기존 로그 시스템의 한계

많은 기업이 "우리는 로그를 남기고 있다"고 말합니다. 그러나 기존 로그 시스템에는 구조적 한계가 있습니다.

기존 로그의 한계 구체적 문제
결과만 저장 AI가 "승인" 또는 "거절"이라는 결과를 남기지만, 왜 그런 판단을 내렸는지는 기록하지 않음
맥락의 부재 판단 시점에 어떤 정책이 적용되었는지, 어떤 데이터를 참조했는지 사라짐
변조 가능 일반 로그는 관리자 권한으로 수정하거나 삭제할 수 있어, 감사 증빙으로서의 신뢰성이 낮음
구조화 부재 자유 텍스트 로그는 기계적으로 분석하거나 외부 시스템과 연동하기 어려움
연속성 미보장 개별 로그 간의 인과 관계나 순서를 검증할 수 없음

결국 기존 로그는 "기록이 있다"는 것을 증명할 뿐, "그 기록이 변조되지 않았고, 당시의 맥락을 정확히 반영하고 있다"는 것을 증명하지 못합니다.

현장에서 반복되는 실제 상황

사례 1: RAG 구축 실패 기업

한 금융회사는 사내 규정 기반 RAG(Retrieval-Augmented Generation) 시스템을 구축했습니다. AI가 고객 문의에 대해 사내 규정을 검색하고 답변을 생성하는 시스템이었습니다. 3개월 후, 고객 민원이 발생했습니다. AI가 잘못된 규정을 인용하여 답변한 것입니다. 그러나 당시 AI가 어떤 규정 문서를 검색했고, 왜 그 문서를 선택했으며, 답변 생성에 어떤 프롬프트가 사용되었는지를 추적할 수 없었습니다. 로그에는 "응답 생성 완료"라는 결과만 남아 있었습니다.

사례 2: AI 도입이 법무팀에서 막힌 기업

한 공공기관은 복지 대상자 심사에 AI를 도입하려 했습니다. 기술적으로는 준비가 완료되었지만, 법무팀에서 도입을 중단시켰습니다. 이유는 명확했습니다. "AI가 대상자를 탈락시켰을 때, 이의 제기에 대응할 수 있는 증빙 체계가 없습니다." 기존 시스템으로는 AI의 판단 근거를 법적으로 소명할 수 있는 형태로 제출하는 것이 불가능했습니다.

이 두 사례가 보여주는 것은, AI의 성능만으로는 충분하지 않다는 사실입니다. AI 판단의 근거를 추적하고 검증할 수 있는 체계, 즉 AI Decision Provenance가 필요합니다.

AI Decision Provenance란 무엇인가

정의

AI Decision Provenance는 AI가 내린 판단의 입력, 맥락, 정책, 결과를 암호학적으로 봉인하여 사후 검증을 가능하게 하는 체계입니다. 단순히 로그를 남기는 것이 아니라, AI 판단의 전체 생애주기를 변조 불가능한 형태로 기록하고, 누구나 독립적으로 검증할 수 있도록 만드는 것입니다.

"Provenance"라는 단어는 본래 미술품의 출처와 소유 이력을 추적하는 데 사용되는 용어입니다. 미술품의 진위를 판별하려면 작가로부터 현재 소유자까지의 이력이 끊김 없이 연결되어야 하듯, AI Decision Provenance는 AI 판단의 전 과정이 끊김 없이 추적 가능해야 합니다.

C2PA와의 관계: 보완이지 경쟁이 아니다

AI의 신뢰성과 관련하여, C2PA(Coalition for Content Provenance and Authenticity)가 자주 언급됩니다. C2PA와 AI Decision Provenance의 관계를 명확히 정리하겠습니다.

비교 항목 C2PA (Content Provenance) 크로노젠 (Decision Provenance)
핵심 질문 "이 콘텐츠는 진짜인가?" "이 AI 판단은 감사 가능한가?"
대상 이미지, 영상, 오디오 등 콘텐츠 AI의 판단, 분류, 계산, 추천 등 의사결정
추적 범위 콘텐츠의 생성 도구, 편집 이력 판단의 입력 데이터, 적용 정책, 실행 맥락, 결과
주요 활용 딥페이크 탐지, 콘텐츠 출처 인증 감사 대응, 규제 준수, 이의 제기 소명
기술 기반 메타데이터 임베딩, 디지털 서명 해시 체인, 정책 스냅샷, 거버넌스 가드

C2PA는 콘텐츠가 진짜인지를 증명합니다. 크로노젠은 AI의 판단이 감사 가능한지를 증명합니다. 이 둘은 경쟁 관계가 아니라, AI 신뢰성의 서로 다른 층위를 담당하는 보완 관계입니다. C2PA가 "이 이미지는 AI가 생성한 것이다"를 밝힌다면, 크로노젠은 "AI가 이 이미지를 생성할 때 어떤 정책을 적용했고, 어떤 검증을 거쳤으며, 그 과정이 변조되지 않았다"를 증명합니다.

핵심 구성요소

AI Decision Provenance가 완전하게 작동하려면 다음 네 가지 요소가 필요합니다.

1. 6W 기록 (Who / What / Where / When / How / Why)

AI 판단의 모든 맥락을 구조화된 형태로 기록합니다. 누가 요청했는지(Who), 무엇을 판단했는지(What), 어떤 환경에서 실행되었는지(Where), 언제 실행되었는지(When), 어떤 방법으로 판단했는지(How), 왜 그런 결론에 도달했는지(Why). 이 여섯 가지가 빠짐없이 기록되어야 사후 추적이 가능합니다.

2. 정책 스냅샷

AI가 판단을 내린 시점에 적용된 정책의 정확한 버전을 함께 봉인합니다. 정책은 시간이 지나면서 변경됩니다. 3개월 전 AI가 내린 판단을 검증할 때, 현재 정책이 아닌 당시 정책이 기준이 되어야 합니다. 정책 스냅샷이 없으면, 사후 검증 자체가 불가능합니다.

3. 해시 체인

개별 판단 기록을 SHA-256 해시로 봉인하고, 이전 기록의 해시를 다음 기록에 포함시켜 연속 체인을 형성합니다. 이를 통해 중간의 어떤 기록을 변조하면 체인 전체가 깨지므로, 변조 자체가 불가능해집니다.

4. 증거 수준 체계

모든 판단 기록에 증거의 완결성 수준을 부여합니다. 초안 단계(DRAFT)부터 문서화 완료(DOCUMENTED), 감사 준비 완료(AUDIT_READY)까지, 각 단계에서 충족해야 할 기준이 명확히 정의됩니다. 이를 통해 "이 증빙이 감사에 제출할 수 있는 수준인가"를 객관적으로 판단할 수 있습니다.

크로노젠의 접근 방식

크로노젠은 AI Decision Provenance를 실제 운영 환경에서 구현하기 위한 구체적인 기술 체계를 제공합니다.

DPU (Decision Proof Unit): AI 실행마다 자동 생성되는 증빙 단위

DPU는 AI가 판단을 실행할 때마다 자동으로 생성되는 증빙 단위입니다. 개발자가 별도로 로그를 작성하거나 관리자가 수동으로 증빙을 만들 필요가 없습니다. AI 실행 흐름에 DPU 생성이 내장되어, 판단이 실행되는 순간 입력 데이터, 적용 정책, 실행 맥락, 판단 결과가 하나의 DPU로 자동 봉인됩니다.

DPU의 핵심 설계 원칙은 도메인 독립성입니다. 크로노젠의 DPU 코어(@cronozen/dpu-core)는 특정 산업이나 데이터베이스에 종속되지 않습니다. 복지 서비스의 바우처 정산이든, 금융 기관의 대출 심사이든, RAG 기반 챗봇의 응답 생성이든, 동일한 DPU 구조로 증빙을 생성할 수 있습니다.

SHA-256 해시 체인: 변조 불가능한 연속 기록

크로노젠의 해시 체인은 computeChainHash(content, previousHash, timestamp) 함수를 통해 구현됩니다. 각 DPU는 자신의 내용물, 이전 DPU의 해시, 생성 타임스탬프를 결합하여 고유한 해시값을 산출합니다.

첫 번째 DPU는 Genesis 해시에서 시작하여, 이후 모든 DPU가 연속적으로 연결됩니다. 이 체인 구조에서 중간의 어떤 DPU 하나를 수정하면, 그 이후의 모든 해시값이 연쇄적으로 무효화됩니다. 따라서 특정 기록을 소급하여 변조하는 것이 기술적으로 불가능합니다.

5단계 거버넌스 가드: 정책에서 승인까지

DPU가 생성되기 전, 크로노젠의 5단계 거버넌스 가드가 AI 판단의 적정성을 검증합니다.

단계 가드 이름 검증 내용
1단계 정책 존재 해당 판단에 적용될 정책이 정의되어 있는가
2단계 증거 수준 입력 데이터와 맥락 정보가 충분한 수준인가
3단계 인간 검토 인간의 검토가 필요한 판단인 경우, 검토가 완료되었는가
4단계 리스크 임계 판단의 영향도가 사전 정의된 리스크 임계값을 초과하지 않는가
5단계 이중 승인 고위험 판단의 경우, 복수의 승인자가 확인했는가

모든 판단이 5단계를 전부 거치는 것은 아닙니다. 판단의 유형과 리스크 수준에 따라 필요한 가드만 활성화됩니다. 저위험 판단은 1~2단계만 거쳐 신속하게 처리되고, 고위험 판단은 5단계 전체를 통과해야 DPU가 생성됩니다.

증거 수준 체계: DRAFT에서 AUDIT_READY까지

크로노젠은 모든 DPU에 증거 수준을 부여합니다.

  • DRAFT (0): 초안. AI 판단이 실행되었으나, 아직 검증이 완료되지 않은 상태.
  • DOCUMENTED (1): 문서화 완료. 필수 검증을 통과하고, 6W 기록이 완비된 상태.
  • AUDIT_READY (2): 감사 준비 완료. 모든 거버넌스 가드를 통과하고, 외부 감사에 제출할 수 있는 상태.

AUDIT_READY 수준에 도달한 DPU는 LOCKED 상태가 되어, 이후 어떠한 변경도 불가능합니다. 변경을 시도하면 해시 체인이 깨지므로, 변조 시도 자체가 즉시 탐지됩니다.

JSON-LD v2.0 표준 출력: 외부 시스템과의 상호운용

크로노젠의 DPU는 JSON-LD v2.0 형식(schema.cronozen.com/decision-proof/v2)으로 출력됩니다. JSON-LD는 연결 데이터(Linked Data)를 위한 W3C 표준이며, 기계가 읽을 수 있는 구조화된 데이터 형식입니다.

이는 크로노젠의 DPU가 특정 시스템에 종속되지 않고, 외부 감사 시스템, 규제 기관의 검증 도구, 또는 제3자 검증 서비스와 상호운용할 수 있음을 의미합니다. DPU를 JSON-LD 형식으로 내보내면, 크로노젠 시스템 없이도 독립적으로 검증이 가능합니다.

도입 시나리오 3가지

AI Decision Provenance가 실제로 어떻게 적용되는지, 세 가지 대표 시나리오를 통해 설명하겠습니다.

시나리오 A: RAG 기반 AI 응답에 증빙 자동 부착 (기업 내부 AI 챗봇)

상황: 기업이 사내 규정, 제품 매뉴얼, 고객 FAQ를 학습한 RAG 기반 AI 챗봇을 운영합니다. 고객 또는 직원이 질문하면 AI가 관련 문서를 검색하고 답변을 생성합니다.

문제: AI가 잘못된 정보를 전달했을 때 책임 소재가 불명확합니다. 어떤 문서를 참조했는지, 왜 그 문서를 선택했는지, 답변이 원본과 일치하는지를 사후에 확인할 방법이 없습니다.

DPU 적용 방식:

  • AI가 답변을 생성할 때마다 DPU가 자동 생성됩니다.
  • DPU에는 사용자 질문, 검색된 문서 목록과 유사도 점수, 적용된 프롬프트 템플릿, 생성된 답변, 답변과 원본의 정합성 검증 결과가 모두 포함됩니다.
  • 문제가 발생하면 해당 DPU를 조회하여, AI가 왜 그런 답변을 생성했는지를 정확히 추적할 수 있습니다.

시나리오 B: AI 자동 심사 판단에 감사 추적 체계 구축 (공공기관)

상황: 공공기관이 복지 대상자 적격 심사에 AI를 활용합니다. 신청서와 증빙 서류를 AI가 분석하여 적격/부적격 판정을 내리고, 담당자가 최종 확인합니다.

문제: 부적격 판정을 받은 시민이 이의를 제기합니다. AI가 어떤 기준으로 부적격 판정을 내렸는지를 투명하게 소명해야 하지만, 시스템에는 "부적격" 결과만 기록되어 있습니다.

DPU 적용 방식:

  • AI 심사 실행 시 DPU가 생성되며, 신청자 정보(비식별 처리), 적용된 심사 기준(정책 스냅샷), 각 기준별 충족 여부와 판단 근거, 최종 판정 결과와 신뢰도 점수, 담당자 검토 기록이 포함됩니다.
  • 거버넌스 가드의 3단계(인간 검토)가 활성화되어, 담당자의 최종 확인 없이는 DPU가 AUDIT_READY 상태에 도달하지 못합니다.
  • 이의 제기 시, 해당 DPU를 조회하면 AI의 판단 과정 전체를 투명하게 소명할 수 있습니다.

시나리오 C: AI 에이전트의 자율 실행에 거버넌스 적용 (MCP 연동)

상황: 기업이 MCP(Model Context Protocol)를 통해 AI 에이전트가 외부 도구(데이터베이스 조회, 이메일 발송, 결제 처리 등)를 자율적으로 호출하는 시스템을 구축합니다.

문제: AI 에이전트가 어떤 도구를 왜 호출했는지, 호출 결과를 어떻게 활용했는지, 최종 행동이 사전 정의된 권한 범위 내에 있는지를 추적할 체계가 없습니다. 에이전트의 자율성이 높아질수록, 통제 불능의 리스크도 커집니다.

DPU 적용 방식:

  • AI 에이전트의 각 도구 호출(tool call)마다 DPU가 생성됩니다.
  • DPU에는 호출 맥락(왜 이 도구가 필요했는가), 호출 파라미터, 반환 결과, 에이전트의 후속 판단이 기록됩니다.
  • 거버넌스 가드의 4단계(리스크 임계)가 활성화되어, 사전 정의된 금액 한도를 초과하는 결제나 민감 데이터 접근 시 실행이 차단되고 인간 승인을 요청합니다.
  • 에이전트의 전체 실행 흐름이 해시 체인으로 연결되어, 사후 감사 시 에이전트의 의사결정 과정 전체를 재현할 수 있습니다.

도입 단계: 4단계 로드맵

AI Decision Provenance 도입은 한 번에 전체 시스템을 변경하는 것이 아닙니다. 다음 4단계에 걸쳐 점진적으로 구축할 수 있습니다.

Step 1: 현황 진단 -- AI가 어디서 판단하는가 파악

도입의 첫 단계는 조직 내에서 AI가 판단을 내리는 지점을 전수 파악하는 것입니다.

진단 항목:

파악 대상 구체적 질문
AI 판단 포인트 어떤 업무에서 AI가 판단(분류, 추천, 심사, 생성 등)을 내리는가
판단의 영향도 각 판단이 잘못되었을 때의 영향 범위는 어느 정도인가
현재 기록 수준 판단 과정이 어떤 형태로(또는 전혀) 기록되고 있는가
규제 요구사항 해당 판단에 적용되는 법적/규제적 소명 의무는 무엇인가
이해관계자 판단 결과에 영향을 받는 이해관계자(고객, 시민, 감사관 등)는 누구인가

이 진단을 통해, 증빙이 가장 시급한 판단 포인트와 우선순위를 도출합니다.

Step 2: DPU 연동 -- 판단 포인트에 DPU 자동 생성 연결

진단 결과를 바탕으로, 우선순위가 높은 판단 포인트부터 DPU 생성을 연동합니다.

크로노젠의 DPU 코어는 도메인 독립적으로 설계되어 있으므로, 기존 시스템의 AI 실행 흐름에 최소한의 변경으로 DPU 생성을 삽입할 수 있습니다. API 호출 한 건으로 DPU가 생성되며, 기존 코드의 대대적인 리팩토링은 필요하지 않습니다.

연동 시 결정해야 할 사항은 다음과 같습니다.

  • DPU에 포함할 입력 데이터의 범위 (개인정보 비식별 처리 기준 포함)
  • 정책 스냅샷의 관리 방식 (정책 변경 시 버전 관리)
  • DPU 생성의 동기/비동기 처리 방식 (응답 속도 요구사항에 따라 결정)

Step 3: 정책 설정 -- 거버넌스 가드 규칙 정의

DPU 생성이 연동되면, 5단계 거버넌스 가드의 규칙을 조직의 정책에 맞게 정의합니다.

정의 항목 예시:

  • 어떤 유형의 판단에 인간 검토를 의무화할 것인가 (3단계 가드)
  • 리스크 임계값의 기준은 무엇인가. 금액, 대상자 수, 민감도 등 (4단계 가드)
  • 이중 승인이 필요한 판단의 범위는 어디까지인가 (5단계 가드)
  • 증거 수준이 AUDIT_READY에 도달하기 위한 조건은 무엇인가

이 규칙은 JSON-LD 형식으로 정의되며, 코딩 없이 관리자 화면에서 설정할 수 있습니다. 규칙 변경 이력 역시 DPU로 기록되어, 정책 변경 자체에 대한 감사 추적이 가능합니다.

Step 4: 검증 체계 -- 공개 검증 URL과 Proof Viewer로 투명성 확보

마지막 단계는 생성된 DPU를 외부에서 검증할 수 있는 체계를 구축하는 것입니다.

크로노젠은 각 DPU에 대해 공개 검증 URL을 생성할 수 있습니다. 이 URL을 통해 감사관, 규제 기관, 또는 이의를 제기한 당사자가 DPU의 무결성을 독립적으로 확인할 수 있습니다. Proof Viewer는 DPU의 내용을 비기술자도 이해할 수 있는 형태로 시각화합니다.

이를 통해 달성되는 것은 다음과 같습니다.

  • 내부 감사: 자체 감사 시 DPU 기반 보고서를 자동 생성하여 소명
  • 외부 감사: 감사관에게 공개 검증 URL을 제공하여 독립 검증 가능
  • 이의 제기 대응: 해당 판단의 DPU를 Proof Viewer로 제시하여 투명하게 소명
  • 규제 보고: JSON-LD v2.0 형식으로 규제 기관에 기계 판독 가능한 증빙 제출

마무리: AI가 틀려도 책임질 수 있게

AI는 틀릴 수 있습니다. 이것은 기술의 한계가 아니라 본질입니다. 중요한 것은 AI가 틀렸을 때, 왜 틀렸는지를 추적하고, 어떤 맥락에서 그런 판단을 내렸는지를 소명하며, 같은 실수를 반복하지 않도록 체계를 개선할 수 있는가입니다.

AI Decision Provenance는 이를 가능하게 만드는 체계입니다. C2PA가 콘텐츠의 진위를 증명하는 것처럼, 크로노젠은 AI 판단의 진위를 증명합니다. 해시 체인으로 변조를 차단하고, 거버넌스 가드로 정책 준수를 보장하며, 증거 수준 체계로 감사 대응 가능성을 사전에 확보합니다.

AI를 도입하는 것은 시작일 뿐입니다. AI의 판단을 책임질 수 있는 체계를 구축하는 것이 진정한 완성입니다.

AI Decision Provenance 도입을 검토하고 계시다면, 크로노젠 도입 상담을 신청해 주십시오. 귀 조직의 AI 활용 현황을 분석하고, DPU 기반 판단 증빙 체계 구축 방안을 제안드리겠습니다.