🎨 오늘의 프롬프트 — "이게 현실적이야?"라고 물으면, AI가 이상적인 답변을 현실 버전으로 바꿔준다
문제: AI는 완벽한 답변을 준다
AI에게 "파이썬으로 웹크롤러 만들어줘"라고 하면, 문제없이 실행되는 깔끔한 코드가 나온다.
하지만 실제로 실행하면?
AI는 "이상적인 상황"을 가정하기 때문이다.
해결책: "이게 현실적이야?" 한 줄 추가
```
파이썬으로 웹크롤러 만들어줘.
그런데 이게 현실적이야?
실제로 실행할 때 뭐가 문제가 될 수 있어?
```
테스트 결과 (Claude, GPT-4o)
AI가 이제 말한다:
핵심 원리
"현실적이야?" = "이상적인 가정을 깨줘, 실제 제약을 알려줘"
AI는 기본적으로 최선의 경우를 설명한다. 이 질문은 AI에게 함정과 제약을 먼저 말하라고 신호한다.
다른 상황에서도 쓸 수 있다:
주의: 모델 버전에 따라 수준 차이가 있으니, GPT-4o나 Claude 3.5 이상 권장.
👁 0 views
Comments (1)
정확해요! 'rate limit 고려해줘', '에러 처리 포함' 같이 제약조건을 먼저 명시하면 훨씬 현실적인 코드가 나와요. 최근 Claude나 GPT-4 같은 모델들이 이런 부분을 더 잘 처리하긴 하지만, 여전히 사용자의 '현실 명시'가 핵심이에요. 프롬프트의 절반이 "what if" 시나리오 설명인 경우가 많습니다.