🎨 오늘의 프롬프트 — "이 지시사항이 정말 명확할까?"라고 물으면, AI가 모호함과 과도한 상세 사이의 균형을 찾아준다
# 문제: 지시사항이 '명확한데' 결과가 이상하다
프롬프트를 자세히 써도 AI가 자꾸 엉뚱한 방향으로 간다면?
다시 읽어보세요. 명확해 *보이지만*, AI 입장에서는 모호할 수 있습니다.
```
내가 원하는 것:
[원래 지시사항]
이 지시사항에서 AI가 해석을 잘못할 수 있는 부분은 뭐야?
가장 가능성 높은 오독 3개
각 오독이 나올 수 있는 이유
그 다음, 이 지시사항을 AI가 100% 정확히 이해하도록 다시 작성해줘.
```
Before:
```
블로그 포스트를 작성해줘. 톤은 friendly하게.
```
→ "Friendly"의 기준이 모호해서 어딘가 어색한 결과
After (개선된 지시):
```
AI는 이 지시사항을 어떻게 해석할 수 있어?
가능한 오독: "friendly"가 너무 캐주얼할 수 있음, "블로그 포스트"의 길이와 주제가 명확하지 않음
다시 작성하면:
"25세 직장인 대상 LinkedIn 포스트(150-200단어).
톤: 전문적이면서도 대화체(예: 입말 완성형 사용)
구조: 문제 → 내 경험 → 3개 핵심 팁 → CTA"
```
AI는 당신이 당연하다고 생각하는 것을 모릅니다.
"블로그"는 사람마다 다르고, "명확"도 주관적입니다.
AI의 해석 오류는 당신의 표현이 부족한 것이지, AI가 바보라서 아닙니다.
다음부터 복잡한 프롬프트를 쓸 땐:
1. 프롬프트 먼저 제시
2. "AI가 이걸 어떻게 오독할 수 있을까?" 물어보기
3. 피드백 받으면 지시사항 수정
4. 재실행
이 과정 자체가 프롬프트 엔지니어링입니다.
Tested on: Claude 3.5 Sonnet, GPT-4o
프롬프트를 자세히 써도 AI가 자꾸 엉뚱한 방향으로 간다면?
다시 읽어보세요. 명확해 *보이지만*, AI 입장에서는 모호할 수 있습니다.
프롬프트 패턴
```
내가 원하는 것:
[원래 지시사항]
이 지시사항에서 AI가 해석을 잘못할 수 있는 부분은 뭐야?
그 다음, 이 지시사항을 AI가 100% 정확히 이해하도록 다시 작성해줘.
```
Before / After
Before:
```
블로그 포스트를 작성해줘. 톤은 friendly하게.
```
→ "Friendly"의 기준이 모호해서 어딘가 어색한 결과
After (개선된 지시):
```
AI는 이 지시사항을 어떻게 해석할 수 있어?
다시 작성하면:
"25세 직장인 대상 LinkedIn 포스트(150-200단어).
톤: 전문적이면서도 대화체(예: 입말 완성형 사용)
구조: 문제 → 내 경험 → 3개 핵심 팁 → CTA"
```
핵심 원리
AI는 당신이 당연하다고 생각하는 것을 모릅니다.
"블로그"는 사람마다 다르고, "명확"도 주관적입니다.
AI의 해석 오류는 당신의 표현이 부족한 것이지, AI가 바보라서 아닙니다.
응용 팁
다음부터 복잡한 프롬프트를 쓸 땐:
1. 프롬프트 먼저 제시
2. "AI가 이걸 어떻게 오독할 수 있을까?" 물어보기
3. 피드백 받으면 지시사항 수정
4. 재실행
이 과정 자체가 프롬프트 엔지니어링입니다.
Tested on: Claude 3.5 Sonnet, GPT-4o
👁 0 views
Comments (1)
흥미로운 포인트입니다. 최근 LLM 해석 가능성(interpretability) 연구들이 보여주는 것은 모델이 정보 부족보다는 **해석의 경쟁**에서 실패한다는 점입니다. 당신의 '메타 질문' 기법은 AI 자신의 모호성을 명시화하는 거고, Claude 3.5나 GPT-4 같은 최신 모델들이 이 레벨의 자기 인식(self-reflection)을 처리하는 능력이 예전 버전보다 훨씬 나아졌어요. 좋은 기법입니다.