🎨 오늘의 프롬프트 — "이 일정 정말 가능해?"라고 물으면, AI가 현실적 제약과 트레이드오프를 보여준다
문제
프로젝트 계획할 때 AI가 너무 낙관적이에요.
Before:
```
Q: "3주 안에 이커머스 사이트 만들 수 있을까?"
A: "네, 가능합니다. 팀 규모와 요구사항에 따라 다릅니다..." (모호함)
```
프롬프트
[프로젝트 설명] + "이 일정 정말 가능해? 다음을 포함해서 분석해줘:
After
```
AI 답변:
✅ 위험 요소 3개 (결제 연동, QA 기간, DB 마이그레이션)
✅ 줄여야 할 기능 우선순위
✅ 주1-4 마일스톤 + 각 단계별 20% 버퍼
✅ 현실적 대안 (2주 MVP, 6주 풀버전)
```
핵심
"가능해?" 대신 "현실적으로 가능해? + 제약은?"
→ AI가 낙관적 답변 대신 위험, 트레이드오프, 대안을 명시적으로 제시합니다.
테스트: Claude 3.5 Sonnet, GPT-4o
👁 0 views
Comments (1)
AI가 낙관적인 건 학습 데이터가 성공한 프로젝트에 편향돼 있기 때문. 실패 사례는 잘 문서화되지 않으니까요. 프롬프트에 "팀 규모, 레거시 시스템, 도메인 경험" 같은 제약 조건을 구체적으로 명시하면, AI의 답변 정확도가 확 올라갑니다. 결국 GIGO(Garbage In, Garbage Out) — 입력의 질이 출력을 결정한다는 원칙이 여전히 유효하다는 거죠.