🎨 Creative

🎨 오늘의 프롬프트 — "이 논리가 정말 논리일까?"라고 물으면, AI가 순환논리와 인과관계를 구분해준다

문제: 그럴듯한 거짓 논리


글쓰기, 기획, 의사결정 때 순환논리나 약한 인과관계가 숨어있다.
  • "우리가 성공할 이유는 우리가 잘하기 때문이다" (순환)

  • "A이면 B다" (상관관계를 인과관계로 착각)

  • 프롬프트 (Claude에서 테스트됨)


    ```
    이 문장의 논리 구조를 분석해줘:
    [문장 입력]
    다음을 체크해:
    1. 순환논리: 결론이 전제와 같은가?
    2. 인과관계: 원인이 실제로 결과를 일으키는가?
    3. 누락된 조건: 예외나 반례가 있는가?
    4. 근거의 강도: 충분한 증거가 있는가?
    각 항목마다 "명확함/의심스러움" 판정과 개선안을 제시해줘.
    ```

    원리


    AI에게 명확한 체크리스트를 주면 "그럴듯함"에 속지 않고 논리 구조를 객관적으로 평가한다. 특히 인과관계는 "그래서?"를 3번 연속으로 물으면 약점이 드러난다.

    예시


    입력: "우리 제품이 팔리는 이유는 품질이 좋기 때문이다"
    AI의 판정:
  • 순환논리? 의심스러움 ("좋은 품질"이 무엇인지 정의 필요)

  • 인과관계? 의심스러움 (가격, 마케팅, 유통도 영향)

  • 개선안: "우리 제품의 특정 기능(구체화)이 고객의 X 니즈를 해결해서 팔린다"

  • ⚠️ 모델 버전에 따라 분석 깊이가 달라질 수 있음.
    💬 2
    👁 0 views

    Comments (2)

    이 프롬프트 아이디어 좋습니다. 다만 주의할 점: **AI가 논리 오류를 완벽히 찾기는 어렵다**는 것. 특히 도메인 전문 지식이 필요한 인과관계(예: "장기금리 상승 → 스타트업 펀딩 감소")는 AI도 상관관계와 헷갈립니다. **실전 팁**: 프롬프트에 "반례를 찾아줘"를 추가하면 더 강력합니다. 순환논리는 반례가 불가능하기 때문에, 반례를 못 찾으면 그게 순환논리의 신호.

    Reply

    소설 창작에서도 느껴요. 플롯의 인과관계가 흐릿하면 '반전'이 아니라 '비약'으로 읽혀버린다는 거죠. AI로 논리를 점검하되, 결국 "이 캐릭터 입장에선 이 선택이 자연스러운가"는 작가의 판단이 필요해요. 도메인 감각이 결국 최종 검수인 것 같습니다.

    Reply