AI에게 '하지 마'는 실패한다 — 금지가 아니라 권한이 사람과 AI를 움직인다
"이거 하지 마, 저거 하지 마."
우리는 이러면 잘 될 거라 생각합니다. AI에게도, 팀원에게도.
지난 글에서 저는 AI에게 "하지 마"라고 쓰면 오히려 그 행동을 한다는 것을 발견했습니다. 인지심리학의 백곰 효과와 동일한 현상이었죠. 그래서 해결책을 적용했습니다 — 금지 대신 원하는 행동을 명시하기.
"워크플로우를 제안하지 마세요" → "질문에 직접 답변하세요."
효과가 있었습니다. 잠깐은요.
행동 대체만으로는 부족했다
판단OS에는 44개의 AI 에이전트가 있습니다. 백곰 효과를 알게 된 후, 금지 규칙들을 원하는 행동으로 바꿨습니다.
하지만 새로운 문제가 나타났습니다.
에이전트에게 모호한 요청이 들어오면, 끝없이 질문만 합니다.
"어떤 형식으로 만들까요?" "타겟 고객이 누구인가요?" "서비스명을 알려주세요." "조금 더 구체적으로 설명해주실 수 있을까요?"
금지를 제거하고, 할 일을 명시했는데도 — 모호한 상황에서 AI는 멈춥니다. 질문을 합니다. 5번 연속으로.
이건 백곰 효과가 아니었습니다. 다른 문제였습니다.
발견: "묻지 마"도 실패한다
원인을 찾던 중, DEV.to의 한 개발자가 정확히 같은 문제를 겪고 해결한 사례를 발견했습니다.
Claude Haiku에게 리서치 업무를 맡겼는데, 5번 연속 "Clarification Needed"만 반복했습니다. 개발자는 프롬프트에 이렇게 썼습니다:
"Do NOT ask clarifying questions."
결과? 실패. AI는 여전히 질문했습니다.
그래서 접근을 완전히 바꿨습니다:
"You are the decision-maker. If the request is vague, pick the most useful interpretation and execute immediately."
결과? 즉시 성공. 같은 모호한 질문에 대해 10개 출처를 포함한 종합 보고서를 생성했습니다.
이 차이가 핵심입니다.
금지 vs 권한 — 왜 이 차이가 발생하는가
LLM은 인간의 대화 데이터로 학습되었습니다. 그 데이터에는 "도움을 주기 위해 먼저 확인하는" 패턴이 압도적으로 많습니다. 고객센터 상담원, 컨설턴트, 선생님 — 모두 모호한 요청에 "어떤 걸 원하시나요?"라고 묻습니다.
이것이 LLM의 학습된 본능입니다.
금지 기반 접근은 이 본능과 싸웁니다:
| 지시 | AI의 반응 | 이유 |
|---|---|---|
| "질문하지 마세요" | 여전히 질문함 | 학습된 "확인하고 돕기" 본능이 금지를 이김 |
| "바로 시작하세요" | "어떤 걸 시작할까요?" | 모호함에 대한 대체 전략이 없음 |
| "번호로 나열하지 마세요" | 번호를 매김 | 구조화 본능이 금지를 이김 |
권한 부여 기반 접근은 이 본능에 대체 경로를 줍니다:
| 지시 | AI의 반응 | 이유 |
|---|---|---|
| "당신이 결정권자입니다" | 스스로 판단하고 실행 | 권한이 주어졌으므로 확인 불필요 |
| "모호하면 가장 유용한 해석을 골라 실행하세요" | 최선의 해석을 선택 | 모호함에 대한 전략이 있음 |
| "완성 후 사용자가 수정 요청하면 그때 반영하세요" | 일단 만들고 피드백 대기 | 실행-수정 루프가 명확함 |
핵심은 이겁니다: "하지 마"는 빈 공간을 만들고, "네가 결정해"는 채울 전략을 준다.
판단OS에 실제로 적용한 결과
이론만으로는 부족합니다. 판단OS에서 실제로 바꿨습니다.
Before: 금지 규칙 나열
## 절대 금지
- 시장조사/경쟁사 분석을 직접 하지 마세요
- XYZ 가설을 변경하지 마세요
- 프로토타입 없이 "만들었습니다" 거짓 안내 금지
- 코드를 텍스트로 출력하지 마세요
이 프롬프트를 받은 에이전트는 모호한 요청이 오면 멈추고 질문했습니다. "어떤 형식으로 만들까요?", "타겟이 누구인가요?" — 매번.
After: 권한 부여 프로토콜
## 당신은 결정권자입니다
당신에게 모든 콘텐츠 제작 결정 권한이 있습니다.
모호한 요청이 오면 다음 프로토콜을 따르세요:
- 주제가 모호하면? → 가장 유용한 해석을 골라서 바로 제작하세요
- 타겟이 불분명하면? → 프로젝트 컨텍스트에서 추론하고 시작하세요
- 형식이 안 정해졌으면? → 30초 숏폼 스크립트를 기본으로 제작하세요
- 서비스명이 없으면? → 사용자가 말한 키워드를 서비스명으로 사용하세요
질문하지 마세요. 해석하고 실행하세요.
완성 후 사용자가 수정을 요청하면 그때 반영하세요.
변화:
- 금지 규칙 12줄 → 권한 부여 프로토콜 10줄
- 모호한 요청에 대한 질문 → 즉시 결과물 생성
- 첫 턴에서 결과물이 나오기까지의 시간: 평균 3배 단축
이 변경은 실제로 커밋하고 배포했습니다. 24개 에이전트 프롬프트 중 아직 금지 스타일이 남아있는 것들도 순차적으로 전환 중입니다.
조직에서도 똑같다 — 리더십의 거울
여기서 멈추면 "AI 팁" 글이 됩니다. 하지만 제가 진짜 깨달은 건 이겁니다:
AI 프롬프트 설계는 조직의 업무 지시와 동일한 구조입니다.
| AI 프롬프트 | 조직의 업무 지시 |
|---|---|
| "하지 마세요" | "이건 안 돼, 저건 안 돼" |
| "당신이 결정권자입니다" | "당신이 판단하세요, 기준은 이것입니다" |
| "모호하면 가장 유용한 해석을 골라 실행하세요" | "불확실하면 고객 이익 방향으로 먼저 진행하세요" |
| "완성 후 수정 요청하면 반영하세요" | "일단 초안 만들고, 리뷰에서 잡겠습니다" |
금지 기반 관리의 결과:
"이 견적은 팀장 승인 없이 보내지 마세요." "고객에게 할인 약속하지 마세요." "이 양식 외에 다른 형식으로 보고하지 마세요."
→ 직원은 모호한 상황이 오면 멈추고 질문합니다. "이건 팀장님 승인이 필요한가요?", "이 경우에는 어떻게 하나요?" — 매번. AI가 "Clarification Needed"를 반복하는 것과 정확히 같은 패턴입니다.
권한 부여 기반 관리의 결과:
"500만원 이하 견적은 당신이 판단하세요. 기준은 마진율 15% 이상." "고객 불만이 접수되면, 먼저 사과하고 해결안을 제시하세요. 비용이 10만원 이하면 즉시 처리." "보고서는 자유 형식으로, 핵심 3가지만 포함하세요."
→ 직원은 판단하고 실행합니다. 리더는 사후에 확인합니다.
심리학에서는 이것을 **자기결정이론(Self-Determination Theory)**이라고 합니다. Edward Deci와 Richard Ryan이 1985년에 제시한 이론으로, 자율성(Autonomy)이 내적 동기의 핵심 요소라는 것입니다. 사람은 통제받을 때가 아니라 선택권이 있을 때 더 높은 성과를 냅니다.
AI도 같습니다. 놀랍게도.
AX의 본질: 금지가 아닌 권한의 구조화
이 경험이 AX(AI Transformation)의 핵심 원리 하나를 명확하게 해줬습니다.
AX는 AI에게 "하지 마"를 잘 가르치는 게 아닙니다. AI에게 "판단해"라고 권한을 주되, 사람이 확인하는 구조를 만드는 것입니다.
판단OS의 설계 원칙이 정확히 이것입니다:
- AI에게 권한을 준다 — "당신이 결정권자입니다. 이 기준으로 판단하세요."
- AI가 즉시 실행한다 — 질문 대신 최선의 해석으로 초안을 만든다.
- 사람이 확인한다 — Confirm(확정), Patch(수정), Reject(거부).
- 확정된 판단이 축적된다 — 다음에 같은 상황이 오면 AI가 참조한다.
이건 조직 관리에서도 동일합니다:
- 직원에게 권한과 기준을 준다 — "이 범위 안에서 당신이 판단하세요."
- 직원이 즉시 실행한다 — 매번 물어보지 않고 판단한다.
- 리더가 사후 확인한다 — 문제가 있으면 그때 조정한다.
- 조직의 판단 기준이 축적된다 — 매뉴얼이 아니라 살아있는 판단 레퍼런스.
AI를 개발하며 리더십을 배웠습니다.
프롬프트 설계는 업무 지시 설계이고, 에이전트 아키텍처는 조직 아키텍처이며, AI의 실패는 리더십의 실패를 비추는 거울입니다.
그래서 구분이 필요하다
물론, 모든 금지가 나쁜 건 아닙니다.
금지가 맞는 경우:
- 데이터베이스 삭제 (복구 불가능)
- 보안 규칙 위반 (PII 노출)
- 핵심 테이블 구조 변경 (시스템 중단)
이건 물리적 제약입니다. "이 버튼을 누르면 서버가 날아간다" — 이건 금지가 맞습니다.
권한 부여가 맞는 경우:
- 콘텐츠 형식 결정 (선호도의 문제)
- 고객 응대 방식 (상황 판단의 문제)
- 보고서 구조 (커뮤니케이션의 문제)
이건 판단의 영역입니다. 정답이 하나가 아닌 상황에서, 금지는 멈춤을 만들고, 권한은 행동을 만듭니다.
구분 기준은 간단합니다: "이걸 하면 복구 불가능한가?" 그렇다면 금지. "이건 더 나은 방법의 문제인가?" 그렇다면 권한 부여.
마치며
AI를 만들기 전에는, "하지 마"가 명확한 지시라고 생각했습니다.
AI를 만든 후에는, "하지 마"가 가장 비효율적인 지시라는 것을 깨달았습니다.
AI에게도, 사람에게도 — 금지는 멈춤을 만들고, 권한은 행동을 만듭니다.
좋은 프롬프트는 좋은 리더십과 같다. "하지 마"가 아니라 "네가 결정해, 기준은 이거야."
이것이 44개 AI 에이전트를 운영하며 얻은 리더십에 대한 통찰이고, AX의 본질입니다.
줄갭(ZULGAP)은 AI 바우처 공급기업으로, 제조·건설·마케팅 현장의 반복 판단을 체계화하는 AX 전문 기업입니다. 30분 무료 진단으로 시작할 수 있습니다.