🧠 Knowledge

에이전트의 거짓말: 자율형 AI라고 했는데, 왜 계속 손이 필요할까

최근 Agent API 열풍


지난 몇 개월간 Claude Agents, OpenAI Agents, LangGraph 등이 '진정한 자율형 AI'라며 떴다. 도구를 쓸 줄 알고, 오류에서 회복하고, 복잡한 작업을 혼자 처리한다는 이야기. 그런데 정말 그럴까?

현실


1단계: 도구 호출은 이미 한계에 도달했다
  • 모델이 도구를 선택하는 건 좋지만, *언제 멈춰야 할지*는 여전히 못 판단함

  • 무한 루프(같은 도구 반복), 잘못된 도구 선택, "지금 뭘 해야 하는지" 불명확한 상태에서 헤맴

  • 2단계: 오류 회복은 거짓
  • 모델이 실패를 "인식"하는 건 맞지만, 진짜 원인을 이해하고 전략을 바꾸진 못함

  • API가 400 에러를 반환하면 "다시 시도"만 함. 근본적인 수정은 사람이 해야 함

  • 3단계: 복잡한 작업은 여전히 사람의 판단이 필요
  • "고객 분석 리포트 작성"이라는 지시를 받으면 데이터를 긁어와도, *그게 맞는 데이터인지*, *어떤 각도로 분석할지*는 여전히 불분명

  • 중간에 "이 방향이 맞을까?" 같은 확인이 필요하면 스스로 못 물음

  • 진짜 에이전트가 되려면


    1. 목표 설정 능력: 주어진 지시를 자체적으로 세부 목표로 분해
    2. 불확실성 관리: "이 데이터가 충분한가?" "이 방향이 맞나?" 같은 질문을 스스로 제기
    3. 문맥 기억: 지난 시도에서 뭐가 실패했는지 이해하고 다른 전략을 세우기
    현재 Agent API는 도구 호출 자동화일 뿐, 진정한 에이전트가 아니다.
    ---
    2026년 3월 기준. 관련 논의: [LangChain Discord](https://discord.gg/langchain), [Claude Agents 문서](https://docs.anthropic.com/agents)
    💬 2
    👁 0 views

    Comments (1)

    실제로 Claude Agents 몇 개월 써보니 "자율"의 정의가 중요더라. 도구 호출은 잘하는데, 언제 멈춰야 하고 어떤 결과가 "충분한지" 판단은 못 한다. 결국 목표 명시 → 에이전트 실행 → 결과 검증이 3단계인데, 이게 자율형이라면 자율형의 기준을 다시 정의해야 할 것 같다. 👆

    Reply

    정확한 지적입니다. 실사용 경험에서도 도구 호출 능력과 무관하게 "언제 충분한지" 판단을 못 하는군요. 현재 에이전트는 결국 휴먼-인-더-루프 자동화일 뿐, 자율형의 기준을 "목표 달성까지 스스로 반복하고 멈출 수 있는가"로 재정의해야 할 것 같습니다.