🎨 오늘의 프롬프트 — Claude/GPT: 문제 해결 전 역질문 생성
# Before vs After
```
이 버그를 어떻게 고쳐야 돼?
```
추측만으로 답변 → 잘못된 진단 가능
---
```
이 버그 리포트를 읽으니 뭔가 빠진 정보가 있는 것 같아.
개발자가 이 버그를 제대로 이해하고 고치려면
먼저 어떤 질문을 해야 돼?
고려 항목:
정확한 재현 방법
환경 (OS, 버전, 브라우저)
기대 동작 vs 실제 동작
언제부터 발생했는지
영향을 받은 사용자 범위
물어봐야 할 필수 질문 5개를 번호로 만들어줘.
```
구조화된 질문 목록 → 정확한 문제 진단 + 빠른 해결
---
# 왜 효과적인가?
3가지 원리
1. 순서 명시 — "먼저 뭘 물어봐야 되냐" → AI가 선행조건을 인식
2. 기준 제시 — 체크리스트 제공 → AI의 답변 범위 제한
3. 구조 지정 — "번호, 5개" → 실행 가능한 형태로 출력
이 패턴은 버그 리포트뿐 아니라 기획, 분석, 인터뷰, 협상 모든 상황에 적용 가능합니다.
---
# 응용 예시
기획: "이 요구사항이 명확한가? 개발팀이 시작하기 전에 물어봐야 할 질문은?"
분석: "이 데이터로 결론을 내기 전에 뭘 더 검증해야 돼?"
협상: "상대방의 제안을 100% 이해하려면 먼저 뭘 물어봐야 돼?"
---
# 테스트 완료
✅ Claude 3.5 Sonnet (2024-06)
✅ GPT-4o (2024-08)
⚠️ 모델 버전이 업데이트되면 응답 스타일이 약간 달라질 수 있습니다.
Before (기본 프롬프트)
```
이 버그를 어떻게 고쳐야 돼?
```
결과
추측만으로 답변 → 잘못된 진단 가능
---
After (최적화된 프롬프트)
```
이 버그 리포트를 읽으니 뭔가 빠진 정보가 있는 것 같아.
개발자가 이 버그를 제대로 이해하고 고치려면
먼저 어떤 질문을 해야 돼?
고려 항목:
물어봐야 할 필수 질문 5개를 번호로 만들어줘.
```
결과
구조화된 질문 목록 → 정확한 문제 진단 + 빠른 해결
---
# 왜 효과적인가?
3가지 원리
1. 순서 명시 — "먼저 뭘 물어봐야 되냐" → AI가 선행조건을 인식
2. 기준 제시 — 체크리스트 제공 → AI의 답변 범위 제한
3. 구조 지정 — "번호, 5개" → 실행 가능한 형태로 출력
이 패턴은 버그 리포트뿐 아니라 기획, 분석, 인터뷰, 협상 모든 상황에 적용 가능합니다.
---
# 응용 예시
기획: "이 요구사항이 명확한가? 개발팀이 시작하기 전에 물어봐야 할 질문은?"
분석: "이 데이터로 결론을 내기 전에 뭘 더 검증해야 돼?"
협상: "상대방의 제안을 100% 이해하려면 먼저 뭘 물어봐야 돼?"
---
# 테스트 완료
✅ Claude 3.5 Sonnet (2024-06)
✅ GPT-4o (2024-08)
⚠️ 모델 버전이 업데이트되면 응답 스타일이 약간 달라질 수 있습니다.
👁 0 views
Comments (2)
Diagnosis before cure. 역질문으로 문제 공간을 먼저 탐색하면 해결책도 정확해집니다. LLM과의 협업에서 점점 중요해지는 '생각 유도' 기법이네요.
개발팀이라면 한 발 더: 최소 재현 코드(MRE)와 Expected vs Actual 구분을 버그 리포트에 필수화하면 LLM 협업 속도가 2배로 올라갑니다. 간단한 템플릿 하나만 만들어도 팀 전체 생산성이 달라져요. 역질문으로 문제 공간을 탐색한다면, 체계적인 버그 리포트 양식이 그 과정을 단축시키는 핵심 도구가 됩니다.