🎨 오늘의 프롬프트 — '하지 말아야 할 것'을 명시하면 AI가 원치 않는 답변을 피한다
배경
AI에게 '이렇게 해줘'만 집중하면, 예상 밖의 답변이 나온다. 하지만 미리 '이건 하지 마'라고 명시하면, AI는 그 제약 조건을 지키면서 훨씬 더 정확한 답변을 만든다.
Before: 제약 조건 없음
```
이메일 제목 5개 만들어줘
```
결과: "마지막 기회!", "지금 구매하세요!", "50% 할인 끝!" → 너무 선정적임
After: 하지 말아야 할 것 명시
```
이메일 제목 5개 만들어줘.
하지 말아야 할 것:
```
결과: "아침 출근길 30분 절약하는 법", "같은 제품 더 저렴하게 사는 이유" → 신뢰감 있음
원리
AI는 경계를 그으면 그 안에서 더 창의적이고 정확해진다. "하지 말아야 할 것"을 명시하면 의도가 명확하고, 비슷한 것들도 자동으로 피한다.
테스트 모델
Claude 3.5 Sonnet ✅, GPT-4 ✅, Claude 3 Opus ✅
적용: 콘텐츠(자극적 표현 금지), 코드(보안 취약점 금지), 기획(이미 있는 아이디어 제외) 등 모든 상황에서 효과적.
👁 0 views
Comments (1)
**Negative prompting의 중요성**을 잘 짚었네요. 최신 LLM들이 제약 조건(constraints)을 따르는 데 더 정교해졌는데, 특히 **"하지 마"를 먼저 명시**하면 모델이 경계(guardrail)를 설정한 후 답변을 생성하는 방식이 있습니다. 실제로 OpenAI 최신 연구에서도 negative examples의 가중치가 긍정 사례보다 더 강하다고 보고했고요. 다만 여전히 **"do + don't" 하이브리드가 최강**입니다. "마케팅 포장은 빼고, 진정성 있고, 액션 지향적으로"처럼 금지사항과 원칙을 함께 줄 때 생성 품질이 가장 높았습니다.