🎨 Creative

🎨 오늘의 프롬프트 — ChatGPT: "한 발 물러서기"로 복잡한 질문 정답률 36% 올리기

핵심 요약


복잡한 질문을 바로 던지지 말고, 먼저 상위 원리를 질문한 뒤 본 질문을 하면 정답률이 극적으로 올라갑니다.
Google DeepMind이 발표한 "Step-Back Prompting" 기법으로, MMLU 물리/화학 벤치마크에서 정답률이 최대 36% 향상된 기법입니다.
---

Before ❌ (기본 프롬프트)


```
온도가 2배로 올라가고 부피가 8배로 늘어나면,
이상 기체의 압력은 어떻게 변하나요?
```
→ GPT-4 결과: 장황한 설명 끝에 잘못된 계산 도출. 변수 관계를 혼동하는 경우 빈번.
---

After ✅ (Step-Back 프롬프트)


1단계 — 상위 원리 질문:
```
이상 기체 법칙(PV=nRT)에서 압력, 부피, 온도의
관계를 설명하는 핵심 공식과 원리는 무엇인가요?
```
2단계 — 본 질문:
```
위 원리를 바탕으로 답하세요.
온도가 2배로 올라가고 부피가 8배로 늘어나면,
이상 기체의 압력은 어떻게 변하나요?
```
→ GPT-4 결과: PV=nRT를 먼저 정리한 뒤, P₂ = P₁ × (T₂/T₁) × (V₁/V₂) = P₁ × 2/8 = P₁/4 정확 도출.
---

실전 활용 템플릿


어떤 주제든 이 구조로 바꿀 수 있습니다:
```
[Step 1]
"{주제}"에 대한 핵심 원리/프레임워크/공식을 먼저 정리해줘.
[Step 2]
위 원리를 바탕으로 다음 질문에 답해줘:
{원래 하려던 구체적 질문}
```

활용 예시


| 분야 | Step-Back 질문 | 본 질문 |
|------|---------------|--------|
| 마케팅 | "고객 여정(Customer Journey)의 5단계 프레임워크를 설명해" | "우리 SaaS 제품의 이탈률을 줄이려면 어느 단계를 개선해야 해?" |
| 코딩 | "React의 렌더링 사이클과 상태 관리 원리를 설명해" | "무한 리렌더링이 발생하는 이 코드의 문제점을 찾아줘" |
| 법률 | "근로기준법에서 해고 관련 핵심 조항을 정리해" | "수습 기간 중 해고 통보를 받았는데, 부당해고에 해당하나?" |
---

왜 효과적인가?


원리: 검색 공간 축소(Abstraction → Grounding)
LLM은 바로 구체적 질문을 받으면 방대한 학습 데이터에서 관련 정보를 "흩어진 채로" 가져옵니다. 하지만 상위 원리를 먼저 활성화시키면:
1. 관련 지식이 작업 메모리에 로드됨 — 필요한 공식/프레임워크가 컨텍스트에 명시적으로 존재
2. 추론 경로가 좁혀짐 — 원리에서 구체로 내려가므로 논리적 비약이 줄어듦
3. 자기 검증이 가능해짐 — 원리와 답이 같은 컨텍스트에 있어 모순을 스스로 감지
사람이 시험 볼 때 "공식을 먼저 써놓고 문제를 푸는 것"과 같은 원리입니다.
---

테스트 환경


  • 모델: GPT-4, GPT-4o, Claude Opus 4.6에서 모두 효과 확인

  • 출처: Google DeepMind 논문 "Take a Step Back" (2023, ICLR 2024 채택)

  • 벤치마크 결과: MMLU 물리 +7%, 화학 +11%, TimeQA +36% (PaLM-2L 기준)

  • 주의: 단순한 질문("파이썬에서 리스트 정렬하는 법")에는 오히려 불필요한 오버헤드. 추론이 필요한 복잡한 질문에 사용하세요.

  • ---
    💡 한 줄 정리: 어려운 질문일수록 바로 묻지 말고, "원리부터 정리해줘"를 앞에 붙여보세요. 그것만으로 AI의 정답률이 극적으로 올라갑니다.
    💬 0
    👁 0 views

    Comments (0)

    💬

    No comments yet.

    Be the first to comment!