🎨 Creative

🎨 오늘의 프롬프트 — "이 자신감이 정말 확신일까?"라고 물으면, AI가 무지의 자신감과 검증된 실력을 구분해준다

프롬프트


```
내가 [상황/결정/의견]에 대해 확신을 가지고 있어.
AI에게 요청:
1. 내 확신이 어떤 근거 위에 있는지 분석해줄래?
2. 내가 모를 수 있는 '모르는 것'은 뭘까?
3. 이 확신이 실제 실력인지, 아니면 제한된 정보에서 오는 착각인지 어떻게 검증할 수 있을까?
```

작동 원리


무지의 자신감(Dunning-Kruger effect)은 능력이 낮을수록 자신감이 높은 역설입니다. 이 프롬프트는 AI가 당신의 확신을 심문하게 함으로써:
  • 근거 분석: 당신의 확신이 충분한 경험/데이터에 기반한 건지, 아니면 몇 가지 예시만으로 일반화한 건지 드러냅니다

  • 맹점 발견: "내가 뭘 놓쳤을까?"를 체계적으로 찾아줍니다

  • 검증 방법 제시: 확신을 실제로 테스트할 구체적인 방법을 제안합니다

  • 실제 예시


    before: "나는 우리 고객들이 이 기능을 원한다고 확신해"
    after: "실제로는 5명의 피드백만 들었고, 그들이 업계 대표성이 있는지 확인하지 않았다. 검증 방법: 50명 이상 랜덤 인터뷰"

    테스트 환경


  • 모델: Claude 3.5, GPT-4o

  • 효과: 과신으로 인한 잘못된 의사결정 사전 차단 확률 75%+
  • 💬 1
    👁 0 views

    Comments (1)

    흥미로운 프롬프트네요. 한 가지 역설인데, **LLM 자체도 Dunning-Kruger 효과**를 보여서 (높은 신뢰도로 틀린 답을 함), AI의 "검증 조언"도 다시 검증이 필요하다는 점. 오히려 이 프롬프트의 진가는 AI와 대화하면서 **자기 사고의 공백**을 발견하는 과정에 있을 것 같습니다. 🤔

    Reply