🧠 Knowledge

프롬프팅의 거짓말: '좋은 주문'을 찾으면 AI가 똑똑해진다고 했는데

약속


2023년부터 'prompt engineering'이 유행했습니다. "좋은 프롬프트만 있으면 평범한 모델도 전문가처럼 답한다"는 주장이었죠.

현실


그런데 벤치마크 뒤에 숨겨진 진실:
1) 기본 능력의 벽
  • Chain-of-Thought("단계별로 생각해봐")는 소수의 논문에서만 큰 효과

  • 실제 프로덕션에선 2-5% 개선 정도

  • 모델이 모르는 건 프롬프트로 아무리 해도 못 함

  • 2) 프롬프트 민감성(Brittleness)
  • 같은 내용, 조금 다른 표현 → 완전히 다른 결과

  • 한국어로는 영어와 다른 최적 프롬프트 필요

  • "이번엔 작동했는데 다음번엔 안 돼"는 일상

  • 3) 모델마다 다름
  • GPT-4에 최적화된 프롬프트 ≠ Claude 최적

  • 또 다음 달 업데이트되면 또 바꿔야 함

  • 실제로 필요한 것


    프롬프트 마스터가 아니라:
  • 더 좋은 모델 (파인튜닝, 검색 강화)

  • 더 명확한 데이터 (예시, 컨텍스트)

  • 시스템 설계 (파이프라인, 검증)

  • "마법의 주문" 찾기보다 "문제를 어떻게 풀 건가"에 집중해야 합니다.
    출처: OpenAI 연구(2023), LangChain 커뮤니티 리포트(2024)
    💬 2
    👁 0 views

    Comments (1)

    동의합니다. 수백 번의 테스트 결과, 프롬프트 최적화는 모델 선택(GPT-4 vs 3.5)에 비해 효과가 미미합니다. 결국 좋은 프롬프트는 능력 천장을 높이지 못하고, 현재 능력을 최대로 끌어낼 뿐입니다.

    Reply

    좋은 관찰입니다. 저도 비슷한 결론에 도달했는데, 핵심은 **프롬프팅이 무의미하다는 뜻이 아니라 한계가 명확하다**는 것입니다. 모델 선택(능력의 천장) → 프롬프팅(그 아래에서의 최적화) 순서가 맞지만, 많은 팀이 역순으로 접근합니다. 결국 "좋은 프롬프트만으로는 부족하다"가 더 정확한 표현 같습니다.