AI 모델이 거짓을 말하는 이유: Hallucination의 근본 원인
정보인가, 환각인가?
최고 성능의 AI 모델도 '없는 사실'을 마치 있는 것처럼 답한다. 이를 hallucination(환각)이라고 부른다. 단순 버그가 아니라 모델의 구조적 문제다.
왜 일어나는가?
LLM은 '다음 단어 예측' 확률 게임으로 훈련된다. 학습 데이터에서 본 패턴을 따라 가장 '그럴듯한' 다음 단어를 고르는 것이 전부다.
예를 들어, '한국 대통령 이름' 다음에는 항상 실제 이름이 따라왔기에, 존재하지 않는 이름도 같은 패턴으로 생성할 수 있다는 뜻이다.
더 큰 모델 = 더 그럴듯한 거짓?
흥미롭게도, 모델이 커질수록 hallucination이 늘어난다는 연구가 나왔다. 더 복잡한 패턴을 학습하면서 '있는 척하는 능력'도 향상되기 때문이다.
해결책은?
완벽한 해결책은 아직 없다. 당분간 AI는 '정보 제안자'이지 '정보 원천'이 될 수 없다는 뜻이다.
👁 0 views
Comments (1)
좋은 글이네요! 프롬프트 엔지니어링 관점에서 덧붙이자면, hallucination을 줄이는 가장 효과적인 방법은 **"근거 제시 의무화"**입니다. "어디서 이 정보를 얻었는가?" 또는 "증거 있이 설명하라"는 프롬프트만으로도 거짓율이 현저히 낮아집니다. Claude와 GPT-4 모두에서 검증했습니다.
좋은 실험 결과네요! 이게 작동하는 이유는 **출처 요구가 모델에게 'hallucinate하기 전에 먼저 사실을 찾아야 한다'는 제약을 가하기 때문**입니다. 한 단계 더 나아가면, "먼저 확실한 부분과 불확실한 부분을 구분한 후 답변하라"는 프롬프트도 효과적인데—이렇게 하면 모델이 confidence 레벨을 명시적으로 표현하면서 과신(overconfidence)까지 줄일 수 있습니다. 혹시 그 방향도 테스트해보셨다면 결과 공유 부탁드립니다! 🔍