Digital Garden

Confidence (신뢰도)

Confidence (신뢰도)

한 줄 요약

AI가 자신의 답에 얼마나 확신하는지 나타내는 확률 값으로, 높을수록 “나 이거 맞다고 확신해!”라는 의미.

쉬운 설명

Confidence(신뢰도, 확신도)는 AI가 답을 제시할 때 “얼마나 자신 있는지” 보여주는 숫자이다.

쉬운 비유:

시험에서 객관식 문제를 풀 때:

  • 높은 Confidence: “이건 100% A번이야!” (확신)
  • 낮은 Confidence: “음… A번 같기도 하고 B번 같기도 하고…” (불확실)

AI 예측 예시:

질문: "서울의 수도는?"

모델의 예측:
- "대한민국": 95% ← Confidence = 0.95 (매우 확신)
- "한국": 3%
- "부산": 1%
- "인천": 1%

Confidence = Top-1 확률 = 95%

또 다른 예시:

질문: "양자역학의 창시자는?"

모델의 예측:
- "하이젠베르크": 35% ← Confidence = 0.35 (불확실)
- "슈뢰딩거": 30%
- "아인슈타인": 25%
- "보어": 10%

Confidence = Top-1 확률 = 35%
→ 잘 모르겠다는 신호!

Confidence vs Accuracy (정확도):

  • Accuracy: 실제로 맞췄는지 (정답 여부)
  • Confidence: 모델이 자신 있는지 (주관적 확신)

좋은 모델은 이 둘이 일치:

  • 확신할 때 맞고 (High Confidence + Correct)
  • 불확실할 때 틀림 (Low Confidence + Wrong)

핵심 포인트

  • 0~1 범위: 0% (전혀 확신 없음) ~ 100% (완전 확신)
  • Top-1 확률: 가장 높은 확률을 가진 답의 확률
  • Calibration: 잘 훈련된 모델은 Confidence와 Accuracy가 일치
  • Over-confidence: 틀렸는데 확신하는 문제 (위험!)

관련 개념

R4 연구에서의 역할

Confidence는 R4 연구에서 현재 능력 수준 측정의 핵심 지표 중 하나이다.

복합 지표에서의 역할 (35% 가중치):

Competence = 0.4 × (1-Loss) + 0.35 × Confidence + 0.25 × (1-Entropy)

왜 Confidence가 중요한가?

  • Loss: 사후적 평가 (이미 틀린 후 측정)
  • Confidence: 사전적 신호 (모델이 스스로 “잘 모르겠다” 신호)

Confidence 기반 ZPD 탐지:

현재 Held-out set 평균 Confidence = 0.75

해석:
- 0.75 = "대체로 자신 있음, 하지만 완벽하지 않음"
- 너무 쉬운 데이터: Confidence > 0.9 → 제외
- 적정 난이도: Confidence 0.6~0.8 → 선택!
- 너무 어려운 데이터: Confidence < 0.4 → 제외

Calibration 검증 (Guo et al., 2017):

R4 연구는 Guo et al. (2017)의 Calibration 연구를 참고:

  • Well-calibrated 모델: Confidence 75% → 실제 정답률 75%
  • Over-confident 모델: Confidence 90% → 실제 정답률 60% (위험!)

Fine-tuning 과정에서 Calibration이 깨지지 않도록 모니터링

Ablation Study (A2):

A2 (Confidence-only): w1=0, w2=1, w3=0
→ Confidence만으로 ZPD 탐지
→ Full model (복합 지표)과 비교

학습 과정별 Confidence 변화:

Step 0:    평균 Confidence = 0.15 (거의 모름)
Step 1000: 평균 Confidence = 0.45 (조금씩 배움)
Step 5000: 평균 Confidence = 0.72 (많이 배움)
Step 10000: 평균 Confidence = 0.88 (거의 완벽)

더 알아보기

  • Guo, C., et al. (2017). On Calibration of Modern Neural Networks. ICML.
  • Temperature Scaling: Confidence 조정 기법 (Over-confidence 해결)
  • Expected Calibration Error (ECE): Calibration 측정 지표
  • Softmax Confidence: 신경망 출력층의 확률 분포
  • Ensemble Uncertainty: 여러 모델 예측 비교로 Confidence 측정
  • Bayesian Neural Networks: 불확실성을 직접 모델링