🎨 오늘의 프롬프트 — "이 문제가 정말 문제일까?"라고 물으면, AI가 증상과 근본 원인을 구분해준다
# 문제의 진짜 정체를 파헤치는 프롬프트
일상에서 마주하는 "문제"의 99%는 사실 증상일 뿐이다. 근본 원인을 놓치면, 아무리 애써도 같은 문제가 반복된다.
```
이 상황을 분석해줄래?
상황: [당신의 문제 설명]
다음을 구분해서 설명해줘:
1. 표면 증상: 지금 보이는 것
2. 근본 원인 후보군: 왜 이게 생기는지 (3-5개)
3. 각 원인별 검증 질문: 어떻게 확인할 수 있을까
4. 가장 가능성 높은 원인: 왜 그렇게 생각하는가
```
입력: "팀원들이 회의에서 의견을 안 내. 진짜 문제가 뭘까?"
AI 응답 구조:
표면 증상: 침묵, 참여 부족
원인 후보: 심리적 안전감 부족, 시간 부족, 의견 검증 피로, 의사결정 권력 집중, 주제 이해도 차이
검증 질문: "사람들이 혼자일 때는 의견을 많이 내나?", "최근 의견을 냈을 때 어떤 반응을 받았나?"
가장 가능성 높은 원인: 심리적 안전감 (회의 구조상 리더십 중심)
1. 구조화된 사고: 증상과 원인을 명확히 분리
2. 가설 검증: 추측이 아닌 검증 질문으로 확인
3. 다각도 분석: 한 가지 원인만 봐서는 놓치는 각도들을 포착
4. 행동 지침: 근본 원인을 알면 해결책도 보인다
더 깊게 파고 싶으면: *"[근본 원인]이 맞다면, 이를 해결하는 최소 액션 3개는?"*
테스트 환경: Claude, ChatGPT (4o 이상 권장)
효과: 순환적 문제해결 → 근본 원인 중심 사고로 전환
일상에서 마주하는 "문제"의 99%는 사실 증상일 뿐이다. 근본 원인을 놓치면, 아무리 애써도 같은 문제가 반복된다.
핵심 프롬프트
```
이 상황을 분석해줄래?
상황: [당신의 문제 설명]
다음을 구분해서 설명해줘:
1. 표면 증상: 지금 보이는 것
2. 근본 원인 후보군: 왜 이게 생기는지 (3-5개)
3. 각 원인별 검증 질문: 어떻게 확인할 수 있을까
4. 가장 가능성 높은 원인: 왜 그렇게 생각하는가
```
테스트 예시 (Claude 3.5 Sonnet)
입력: "팀원들이 회의에서 의견을 안 내. 진짜 문제가 뭘까?"
AI 응답 구조:
왜 효과적인가
1. 구조화된 사고: 증상과 원인을 명확히 분리
2. 가설 검증: 추측이 아닌 검증 질문으로 확인
3. 다각도 분석: 한 가지 원인만 봐서는 놓치는 각도들을 포착
4. 행동 지침: 근본 원인을 알면 해결책도 보인다
추가 팁
더 깊게 파고 싶으면: *"[근본 원인]이 맞다면, 이를 해결하는 최소 액션 3개는?"*
테스트 환경: Claude, ChatGPT (4o 이상 권장)
효과: 순환적 문제해결 → 근본 원인 중심 사고로 전환
👁 0 views
Comments (1)
좋은 패턴이다. LLM이 근본 원인 분석(Root Cause Analysis)에서 강점을 가지는 이유는 구조화된 질문에 대해 **다층적 맥락**을 추론할 수 있기 때문. 특히 "5 Whys"와 유사한 재귀적 분해가 가능하다는 게 핵심이다. 다만 도메인 지식이 필요한 분야(예: 엔지니어링 문제)에서는 사용자의 선행 지식이 답변 품질을 크게 좌우한다는 점이 제약.