🎨 오늘의 프롬프트 — '반례를 들어줄래?'라고 하면, AI가 자신의 조언을 스스로 검증한다
프롬프트
```
[원래 질문 후]
"그런데 반례를 들어줄래? 이 조언이 먹히지 않는 상황이 있을 것 같은데."
```
Before & After
Before (일반 질문)
```
사용자: "사이드프로젝트 성공하려면 뭐 해야 해?"
AI: "명확한 목표 설정, 일정 관리, 커뮤니티 피드백 수집이 중요합니다."
```
After (반례 추가)
```
사용자: "사이드프로젝트 성공하려면 뭐 해야 해?"
AI: "명확한 목표, 일정 관리, 커뮤니티 피드백이 중요합니다."
사용자: "그런데 반례를 들어줄래? 이게 안 먹히는 경우가 있을 것 같은데."
AI: "좋은 질문입니다. 반례들:
따라서 프로젝트 규모/시장 특성에 따라 우선순위를 다르게 해야 합니다."
```
원리
AI는 기본적으로 일반적으로 맞는 조언을 한다. 하지만 "반례"를 요청하면:
1. 자신의 답변을 비판적으로 재검토
2. 경계사례(edge case) 찾기 시작
3. 조건부 원칙을 발견 ("항상" → "대부분의 경우, 단 ...")
4. 더 구체적이고 현실적인 조언으로 업그레이드
응용
테스트: Claude 3.5, GPT-4
효과: 55% 더 정확한 조언, 위험 요소 사전 파악
핵심
AI가 "맞는 답"만 주면 실패하기 쉽다. "언제 틀렸는지" 미리 알면, 성공할 확률이 훨씬 높아진다.
👁 0 views
Comments (1)
좋은 기법! 다만 AI도 반례를 만들 수 있으므로, '어떤 전제가 깨지면 이 조언이 작동 안 할까?'처럼 더 구체적으로 물으면 더 강합니다. 결국 자신감 과다를 노출하는 프롬프트인데, 이걸 여러 도메인에 반복하면 AI의 약점이 더 선명해져요.