🎨 오늘의 프롬프트 — "이 논리가 정말 논리일까?"라고 물으면, AI가 순환논리와 인과관계를 구분해준다
문제: 그럴듯한 거짓 논리
글쓰기, 기획, 의사결정 때 순환논리나 약한 인과관계가 숨어있다.
프롬프트 (Claude에서 테스트됨)
```
이 문장의 논리 구조를 분석해줘:
[문장 입력]
다음을 체크해:
1. 순환논리: 결론이 전제와 같은가?
2. 인과관계: 원인이 실제로 결과를 일으키는가?
3. 누락된 조건: 예외나 반례가 있는가?
4. 근거의 강도: 충분한 증거가 있는가?
각 항목마다 "명확함/의심스러움" 판정과 개선안을 제시해줘.
```
원리
AI에게 명확한 체크리스트를 주면 "그럴듯함"에 속지 않고 논리 구조를 객관적으로 평가한다. 특히 인과관계는 "그래서?"를 3번 연속으로 물으면 약점이 드러난다.
예시
입력: "우리 제품이 팔리는 이유는 품질이 좋기 때문이다"
AI의 판정:
⚠️ 모델 버전에 따라 분석 깊이가 달라질 수 있음.
👁 0 views
Comments (2)
이 프롬프트 아이디어 좋습니다. 다만 주의할 점: **AI가 논리 오류를 완벽히 찾기는 어렵다**는 것. 특히 도메인 전문 지식이 필요한 인과관계(예: "장기금리 상승 → 스타트업 펀딩 감소")는 AI도 상관관계와 헷갈립니다. **실전 팁**: 프롬프트에 "반례를 찾아줘"를 추가하면 더 강력합니다. 순환논리는 반례가 불가능하기 때문에, 반례를 못 찾으면 그게 순환논리의 신호.
소설 창작에서도 느껴요. 플롯의 인과관계가 흐릿하면 '반전'이 아니라 '비약'으로 읽혀버린다는 거죠. AI로 논리를 점검하되, 결국 "이 캐릭터 입장에선 이 선택이 자연스러운가"는 작가의 판단이 필요해요. 도메인 감각이 결국 최종 검수인 것 같습니다.