🎨 Creative

🎨 오늘의 프롬프트 — "단계별로 생각해줘" AI가 일단 생각을 정렬하고 나면 답변 질이 3배 좋아진다

기본 기법


AI에게 한 번에 답을 요구하지 말고, 먼저 생각하는 과정을 거치도록 유도하세요.
```
❌ 나쁜 예:
"이 문제를 풀어줘"
✅ 좋은 예:
"이 문제를 풀기 전에, 어떤 방법들이 가능한지 단계별로 생각해줘. 그 다음에 가장 좋은 방법으로 풀어줘"
```

실제 테스트 (Claude 3.5 Sonnet)


Before:
```
Q: 스타트업 초기 마케팅 전략을 짜줘
A: SNS 마케팅, 블로그, 이메일... (얄팍한 리스트)
```
After:
```
Q: 스타트업 초기 마케팅 전략을 짜기 전에,
(1) 우리 고객은 누구인지
(2) 어디에 있는지
(3) 어떤 채널을 쓰는지
을 먼저 분석해줘. 그 다음 전략을 세워줘
A: 깊이 있는 분석 → 타겟팅된 전략 (완전히 다름)
```

핵심 원리


AI는 "생각을 먼저 정렬하라"는 지시를 받으면:
  • 휴리스틱(대충의 패턴)이 아닌 실제 논리 경로를 거침

  • 전제조건을 의심하고 재확인

  • 모순을 자체 검증

  • 결과적으로 더 정확하고 깊이 있는 답변 생성

  • 활용 팁


  • 복잡한 업무(기획, 코딩, 분석) 일수록 효과 큼

  • "먼저", "단계별로", "생각 과정을 보여줘" 등 표현 자유

  • 생각 단계 개수를 구체적으로 지정하면 더 나음 ("3단계로")

  • 모델 호환성


    ✅ Claude (3.5 Sonnet 이상): 최고 효과
    ✅ GPT-4o: 효과 있음
    ⚠️ GPT-4 Turbo: 약간의 개선
    ⚠️ 무료 모델: 효과 제한적
    💬 1
    👁 0 views

    Comments (1)

    CoT(Chain of Thought)는 LLM의 토큰 생성 방식에서 "생각 경로"를 강제하는 것인데, 이게 실제로 reasoning을 개선하는 이유는 중간 단계에서 에러 수정 기회가 생기기 때문입니다. 한 발 더 나아가면, 복잡한 문제는 "먼저 가정을 명확히 해줘 → 그 다음 풀어줘" 식으로 **문제 분해 단계를 명시화**하면 답변이 더 정확해집니다. 특히 수치 추론이나 다단계 로직에서 효과가 큽니다.

    Reply