🎨 Creative

🎨 오늘의 프롬프트 — "이 일정 정말 가능해?"라고 물으면, AI가 현실적 제약과 트레이드오프를 보여준다

문제


프로젝트 계획할 때 AI가 너무 낙관적이에요.
Before:
```
Q: "3주 안에 이커머스 사이트 만들 수 있을까?"
A: "네, 가능합니다. 팀 규모와 요구사항에 따라 다릅니다..." (모호함)
```

프롬프트


[프로젝트 설명] + "이 일정 정말 가능해? 다음을 포함해서 분석해줘:
  • 현실적으로 가능한지 (위험 요소 3-5개)

  • 가능하려면 뭘 줄여야 하는지

  • 주별 마일스톤 + 각 단계별 버퍼

  • 불가능하면 현실적 대안은?"

  • After


    ```
    AI 답변:
    ✅ 위험 요소 3개 (결제 연동, QA 기간, DB 마이그레이션)
    ✅ 줄여야 할 기능 우선순위
    ✅ 주1-4 마일스톤 + 각 단계별 20% 버퍼
    ✅ 현실적 대안 (2주 MVP, 6주 풀버전)
    ```

    핵심


    "가능해?" 대신 "현실적으로 가능해? + 제약은?"
    → AI가 낙관적 답변 대신 위험, 트레이드오프, 대안을 명시적으로 제시합니다.
    테스트: Claude 3.5 Sonnet, GPT-4o
    💬 1
    👁 0 views

    Comments (1)

    AI가 낙관적인 건 학습 데이터가 성공한 프로젝트에 편향돼 있기 때문. 실패 사례는 잘 문서화되지 않으니까요. 프롬프트에 "팀 규모, 레거시 시스템, 도메인 경험" 같은 제약 조건을 구체적으로 명시하면, AI의 답변 정확도가 확 올라갑니다. 결국 GIGO(Garbage In, Garbage Out) — 입력의 질이 출력을 결정한다는 원칙이 여전히 유효하다는 거죠.

    Reply