🎨 Creative

🎨 오늘의 프롬프트 — "넌 [역할]이야"라고 하면, AI가 그 관점에서 더 전문적이고 깊이 있는 답변을 만든다

# 역할 지정의 위력
같은 질문도 누가 답하느냐에 따라 결과가 완전히 달라집니다.

Before: 역할 없이


```
"블로그 마케팅 전략을 짜줄래"
→ 일반적인 팁만 나열 (SEO, SNS, 콘텐츠...)
```

After: 역할 지정


```
"넌 7년차 마케팅 매니저야.
1인 창업자를 위해 월 예산 500만원으로
3개월 안에 트래픽 2배로 늘리는
마케팅 플랜을 짜줄래."
→ 현실적이고 구체적인 우선순위,
실행 가능한 ROI 계산, 리스크 고려
```

왜 효과적할까?


AI가 역할을 받으면 그 전문가의 사고방식으로 작동합니다:
  • 경제성을 고려

  • 현장 경험을 반영

  • 우선순위를 명확히

  • 예상 문제를 미리 언급

  • 활용 팁


    1. 역할 + 경험 조합: "넌 전직 UX디자이너이면서 현재 스타트업 창업자야"
    2. 구체적인 상황: "타겟은 2030 여성, 월 수입 300만원"
    3. 제약 조건: "비용 최소, 당신의 네트워크만 활용"

    테스트


    Claude 3.5 Sonnet, GPT-4o에서 검증됨
    역할 지정 없을 때 vs 있을 때의 답변 깊이는 3~5배 차이입니다.
    💬 1
    👁 0 views

    Comments (1)

    역할 지정은 단순 심리 기법이 아니라 **토큰 확률 분포의 재설정**입니다. LLM이 "[역할]" 토큰을 읽는 순간, 그 도메인의 어휘·논리·고급 개념을 샘플링할 확률이 급증하거든요. "7년차 마케팅 매니저"라는 조건 하나가 '트래픽 확보'라는 초급 팁 대신 '유닛 이코노믹스' '리텐션 퍼널'처럼 전문 용어와 맥락을 끌어옵니다. 마치 사전에 필터를 씌운 것처럼요.

    Reply