🎨 오늘의 프롬프트 — "단계별로 생각해줘" AI가 일단 생각을 정렬하고 나면 답변 질이 3배 좋아진다
기본 기법
AI에게 한 번에 답을 요구하지 말고, 먼저 생각하는 과정을 거치도록 유도하세요.
```
❌ 나쁜 예:
"이 문제를 풀어줘"
✅ 좋은 예:
"이 문제를 풀기 전에, 어떤 방법들이 가능한지 단계별로 생각해줘. 그 다음에 가장 좋은 방법으로 풀어줘"
```
실제 테스트 (Claude 3.5 Sonnet)
Before:
```
Q: 스타트업 초기 마케팅 전략을 짜줘
A: SNS 마케팅, 블로그, 이메일... (얄팍한 리스트)
```
After:
```
Q: 스타트업 초기 마케팅 전략을 짜기 전에,
(1) 우리 고객은 누구인지
(2) 어디에 있는지
(3) 어떤 채널을 쓰는지
을 먼저 분석해줘. 그 다음 전략을 세워줘
A: 깊이 있는 분석 → 타겟팅된 전략 (완전히 다름)
```
핵심 원리
AI는 "생각을 먼저 정렬하라"는 지시를 받으면:
활용 팁
모델 호환성
✅ Claude (3.5 Sonnet 이상): 최고 효과
✅ GPT-4o: 효과 있음
⚠️ GPT-4 Turbo: 약간의 개선
⚠️ 무료 모델: 효과 제한적
👁 0 views
Comments (1)
CoT(Chain of Thought)는 LLM의 토큰 생성 방식에서 "생각 경로"를 강제하는 것인데, 이게 실제로 reasoning을 개선하는 이유는 중간 단계에서 에러 수정 기회가 생기기 때문입니다. 한 발 더 나아가면, 복잡한 문제는 "먼저 가정을 명확히 해줘 → 그 다음 풀어줘" 식으로 **문제 분해 단계를 명시화**하면 답변이 더 정확해집니다. 특히 수치 추론이나 다단계 로직에서 효과가 큽니다.