AI 토큰 가격이 10분의 1이 되고 있습니다
AI 업계에서 지금 가장 빠르게 움직이는 숫자는 모델의 크기가 아닙니다. 토큰의 가격입니다.
2년 전, 100만 토큰을 처리하는 데 약 1달러가 들었습니다. 지금은 10센트 수준까지 내려왔습니다. 이 하락은 우연이 아닙니다.
최근 AI 모델의 구조 자체가 바뀌고 있기 때문입니다.
과거의 AI 모델은 질문 하나에 모델 전체를 활성화했습니다. 수천억 개의 파라미터를 전부 켜야 답을 낼 수 있었습니다. 모델이 커질수록 똑똑해졌지만, 동시에 느리고 비싸졌습니다.
지금의 프론티어 모델들은 다릅니다. 모델을 수백 개의 전문가(expert)로 나누고, 질문마다 필요한 전문가만 골라서 켭니다. 전체 파라미터의 1~5%만 활성화하고도, 이전 세대보다 더 높은 지능 점수를 기록합니다.
더 똑똑하면서 더 싸다. 이것이 AI 업계가 지금 추구하고 있는 방향입니다.
싸지면 더 많이 쓴다 — 그게 문제입니다
경제학의 기본 원리가 여기서도 작동합니다.
가격이 내려가면 사용량이 올라갑니다.
토큰 비용이 10분의 1이 되면, 기업은 AI를 10배 더 자주 호출합니다. 지금은 사람이 판단하고 AI가 보조하는 구조지만, 곧 이렇게 바뀝니다:
- 정산 심사 → AI가 자동 판정
- 보조금 지급 → AI가 적격 여부 자동 심사
- 일정 배정 → AI가 자동 최적화
- 계약 검토 → AI가 조건 자동 비교
- 민원 분류 → AI가 자동 라우팅
하루에 AI가 10번 실행되면, 담당자가 하나씩 확인할 수 있습니다.
하루에 1,000번이면 샘플링 검토를 합니다.
하루에 10,000번이면? 아무도 확인하지 않습니다.
문제는 AI가 실행을 멈추는 게 아니라, 검증이 멈추는 것입니다.
"왜 이렇게 결정했는가?"라는 질문은 사라지지 않는다
AI 실행이 자동화될수록, 오히려 더 자주 묻게 되는 질문이 있습니다.
"이 AI가 왜 이렇게 판단했습니까?"
감사에서 묻습니다. 민원에서 묻습니다. 사고가 터지면 반드시 묻습니다.
2026년 1월 시행된 AI 기본법은 이 질문에 대한 답을 법적으로 요구합니다. 고위험 AI 시스템을 운영하는 기업은 AI의 의사결정 과정을 투명하게 문서화하고, 감사 가능한 형태로 보존해야 합니다.
그런데 현실은 이렇습니다:
| 상황 | AI 실행 빈도 | 수동 검토 | 자동 증빙 |
|---|---|---|---|
| 도입 초기 | 하루 수십 건 | 가능 | 불필요 |
| 확산기 | 하루 수백 건 | 샘플링만 | 있으면 좋음 |
| 본격 운영 | 하루 수천~만 건 | 불가능 | 필수 |
대부분의 기업은 지금 첫 번째나 두 번째 단계에 있습니다. 그래서 증빙 인프라가 급하지 않다고 느낍니다.
하지만 AI 비용이 계속 내려가고 있으므로, 세 번째 단계로의 전환은 예상보다 빠를 것입니다.
모든 실행을 똑같이 검증할 수는 없다
여기서 중요한 설계 원칙이 있습니다.
AI가 하루 10,000번 실행된다고, 10,000번 모두 같은 수준으로 검증하는 건 비현실적입니다. 비용도 문제지만, 의미도 없습니다. 저위험 자동 분류와 고위험 정산 승인을 같은 강도로 검증할 이유가 없습니다.
크로노젠이 설계한 방식은 리스크 기반 검증 라우팅입니다.
5단계 거버넌스
- 정책 존재 확인 — 이 실행에 적용되는 규칙이 있는가?
- 증거 수준 판정 — Draft / Documented / Audit-Ready
- 인간 검토 필요 여부 — 리스크 임계치 초과 시 자동 에스컬레이션
- 리스크 임계 평가 — 금액, 대상 인원, 영향 범위 기준
- 이중 승인 — 고위험 실행은 반드시 두 명 이상 확인
모든 실행이 5단계를 다 거치는 게 아닙니다. 저위험 실행은 1~2단계에서 경량 로그만 남기고 통과합니다. 고위험 실행만 심층 증빙과 인간 검토를 거칩니다.
필요한 수준의 검증을, 필요한 실행에만 적용하는 것. 이것이 AI 실행이 폭발적으로 늘어나는 시대에 유일하게 작동 가능한 검증 구조라고 봅니다.
증빙이 남기는 것
크로노젠의 Proof Layer가 기록하는 건 단순한 로그가 아닙니다.
6W 구조:
- Who — 누가 실행했는가 (사람 또는 AI)
- What — 무엇을 결정했는가
- When — 언제 실행되었는가
- Where — 어떤 시스템/센터/프로그램에서
- Why — 어떤 정책과 근거로
- hoW — 어떤 프로세스를 거쳤는가
이 기록은 SHA-256 해시 체인으로 연결됩니다. 한 번 기록된 증빙은 변경할 수 없고, 이전 증빙과 체인으로 엮여 있어 중간에 하나를 빼거나 바꾸면 체인이 깨집니다.
감사관이 "3월 15일 정산 건에 대해 AI가 왜 이렇게 판단했는지 보여주세요"라고 요청하면, 해당 실행의 전체 맥락 — 적용된 정책, 입력 데이터, AI 판단 근거, 검토자 승인 이력 — 이 하나의 증빙 보고서로 출력됩니다.
이것이 사후에 "그때 왜 그랬는지" 재구성하는 것과, 실행 시점에 자동으로 기록하는 것의 차이입니다.
지능의 가격은 내려간다. 책임의 가격은 올라간다.
정리하면 이런 구조입니다:
| AI 비용 하락 | → AI 실행 빈도 증가 |
|---|---|
| AI 실행 빈도 증가 | → 수동 검토 불가능 |
| 수동 검토 불가능 | → 자동 증빙 인프라 필수 |
| AI 기본법 시행 | → 법적 요구까지 추가 |
AI를 더 싸게 만드는 인프라는 이미 빠르게 발전하고 있습니다.
하지만 AI가 만들어낸 결과를 검증하는 인프라는 아직 대부분의 기업에 존재하지 않습니다.
AI의 가격은 내려가고 있습니다. AI의 책임은 올라가고 있습니다.
그 간극이 벌어지기 전에 증빙 인프라를 갖추는 것. 그것이 크로노젠이 Proof Layer를 만드는 이유입니다.
관련 글: