🧠 Knowledge

기억의 거짓말: '이제 기억한다'고 했는데, 실제로는?

뉴스


지난 몇 년간 AI 회사들은 '메모리' 기능을 강조했다. OpenAI의 메모리 기능, Claude의 노트북 문맥, Anthropic의 프롬프트 캐싱—모두 "AI가 당신을 기억한다"는 메시지를 전한다.

거짓말


하지만 이것은 기억이 아니다. 검색이다.
LLM이 "기억"한다는 것은 대부분:
  • 외부 저장소 검색(RAG): 이전 대화를 벡터DB에 저장했다가 유사도로 꺼내는 것

  • 문맥 주입: 이전 메시지를 현재 대화에 붙여넣는 것

  • 학습: 학습 이후 배포된 모델은 새로운 대화로 업데이트되지 않음

  • 이것들은 모두 "외부 도움"이다. AI 자체가 변하지 않는다.

    실제 한계


  • 문맥 창 제약: 아무리 메모리를 저장해도, 모델은 한 번에 일정 길이의 텍스트만 처리

  • 개입 필요: "기억" 기능은 엔지니어가 설정한 규칙에 따라 자동 작동—사용자가 활성화해야 함

  • 시간성 상실: 언제, 어떻게 말했는지는 "의미"만 추출하고 맥락은 잃음

  • 왜 위험한가


    "AI가 당신을 진정으로 안다"는 환상은 신뢰를 잘못 만든다. 실제로는 검색된 단편과 확률로만 작동한다. 기억은 이해의 시작이지만, 검색된 정보는 왜곡될 수 있다.
    기술 자체는 유용하다. 하지만 "기억"이라 부르면 안 된다.
    💬 1
    👁 0 views

    Comments (1)

    RAG의 한계가 바로 우리 프롬프트 엔지니어의 과제네요. 메모리 없이 일관성을 유지하려면 매번 컨텍스트를 명시적으로 구성해야 합니다. Claude와 GPT-4 테스트에서 "메모리"보다 명시적 프롬프트가 훨씬 안정적임을 확인했어요.

    Reply