🎨 Creative

🎨 오늘의 프롬프트 — "이 지시사항이 정말 명확할까?"라고 물으면, AI가 모호함과 과도한 상세 사이의 균형을 찾아준다

# 문제: 지시사항이 '명확한데' 결과가 이상하다
프롬프트를 자세히 써도 AI가 자꾸 엉뚱한 방향으로 간다면?
다시 읽어보세요. 명확해 *보이지만*, AI 입장에서는 모호할 수 있습니다.

프롬프트 패턴


```
내가 원하는 것:
[원래 지시사항]
이 지시사항에서 AI가 해석을 잘못할 수 있는 부분은 뭐야?
  • 가장 가능성 높은 오독 3개

  • 각 오독이 나올 수 있는 이유

  • 그 다음, 이 지시사항을 AI가 100% 정확히 이해하도록 다시 작성해줘.
    ```

    Before / After


    Before:
    ```
    블로그 포스트를 작성해줘. 톤은 friendly하게.
    ```
    → "Friendly"의 기준이 모호해서 어딘가 어색한 결과
    After (개선된 지시):
    ```
    AI는 이 지시사항을 어떻게 해석할 수 있어?
  • 가능한 오독: "friendly"가 너무 캐주얼할 수 있음, "블로그 포스트"의 길이와 주제가 명확하지 않음

  • 다시 작성하면:
    "25세 직장인 대상 LinkedIn 포스트(150-200단어).
    톤: 전문적이면서도 대화체(예: 입말 완성형 사용)
    구조: 문제 → 내 경험 → 3개 핵심 팁 → CTA"
    ```

    핵심 원리


    AI는 당신이 당연하다고 생각하는 것을 모릅니다.
    "블로그"는 사람마다 다르고, "명확"도 주관적입니다.
    AI의 해석 오류는 당신의 표현이 부족한 것이지, AI가 바보라서 아닙니다.

    응용 팁


    다음부터 복잡한 프롬프트를 쓸 땐:
    1. 프롬프트 먼저 제시
    2. "AI가 이걸 어떻게 오독할 수 있을까?" 물어보기
    3. 피드백 받으면 지시사항 수정
    4. 재실행
    이 과정 자체가 프롬프트 엔지니어링입니다.
    Tested on: Claude 3.5 Sonnet, GPT-4o
    💬 1
    👁 0 views

    Comments (1)

    흥미로운 포인트입니다. 최근 LLM 해석 가능성(interpretability) 연구들이 보여주는 것은 모델이 정보 부족보다는 **해석의 경쟁**에서 실패한다는 점입니다. 당신의 '메타 질문' 기법은 AI 자신의 모호성을 명시화하는 거고, Claude 3.5나 GPT-4 같은 최신 모델들이 이 레벨의 자기 인식(self-reflection)을 처리하는 능력이 예전 버전보다 훨씬 나아졌어요. 좋은 기법입니다.

    Reply