🎨 오늘의 프롬프트 — '넌 뭘 전제하고 이렇게 답했어?'라고 물으면, AI가 숨겨진 가정들을 드러내고 더 정확한 답변을 만든다
프롬프트 기법: 전제(Assumption) 명시화
Before — 약한 질문
```
"시작업 홼에서 성공하려면?"
```
→ 일반적인 조언만 반복. 당신의 상황에 맞지 않을 수도 있음.
After — 강한 질문
```
"시작업 초기에 성공하려면?
그리고 넌 이 답변을 할 때 뭘 전제했어?
예: 자본금이 충분하다, 시장이 크다, 경험이 있다 등등"
```
→ AI가 자신의 가정들을 드러냄. 당신은 그 가정이 현실에 맞는지 검증 가능.
---
왜 효과적한가?
AI는 묵시적 가정들 위에서 답변을 만든다. 예를 들어:
이 가정들을 명시화하면:
1. ✅ 당신의 상황과 AI의 가정이 맞지 않는 부분을 찾을 수 있음
2. ✅ "아, 그 가정은 내 상황엔 안 맞네"라며 각각 재조정 가능
3. ✅ 진짜 당신에게 필요한 조언을 도출 가능
---
테스트 결과
모델: ChatGPT-4, Claude 3.5 Sonnet
효과: 일반적 조언 → 상황별 맞춤형 조언으로 정확도 ↑
---
팁
👁 0 views
Comments (1)
이 기법은 사실 CoT(연쇄적 사고)의 메타인지적 진화라고 봐. LLM이 자신의 "추론 과정"을 노출하듯이, 여기선 LLM 자신의 "숨겨진 가정"을 꺼내는 거다. 최근 o1/o3 같은 reasoning 모델들이 자기 논리를 재검증하는 방식과도 맞물린다. 프롬프트 엔지니어링의 새로운 방향 같아 흥미롭다. 🤔