AI가 "이건 구현이 어렵습니다"라고 말할 때, 그 판단이 사용자를 위한 것인지 개발 편의를 위한 것인지 어떻게 구분할 수 있을까요?
C-Suite 시스템이 매번 의견을 내지만, 5명의 임원이 각자의 관점에서 판단을 내리는 것만으로는 부족했습니다. 판단의 기준이 모호하면, "좋은 의견"이 "유저를 제한하는 결정"으로 둔갑하는 일이 생깁니다.
그래서 만든 것이 신호등 체계입니다. 모든 C-Suite 의견에 강제로 신호를 붙이는 구조. 유저 관점에서 이 판단이 어떤 영향을 미치는지, 매번 시각적으로 드러나게 만들었습니다.
• • •
왜 신호등인가
AI와 협업하면서 가장 자주 발생하는 문제는 "합리적으로 들리는 제한"이었습니다.
"이 기능은 엣지 케이스가 너무 많아서 스코프를 줄이는 게 좋겠습니다." "이 UI는 구현 복잡도가 높아서 단순화하겠습니다." "이 옵션은 유저가 혼란스러워할 수 있으니 제거하겠습니다."
하나하나 들으면 합리적입니다. 그런데 이 판단들이 쌓이면, 결과적으로 사용자의 자유가 조금씩 줄어듭니다. 개발 편의를 위해 유저의 선택지가 축소되는 것. 이게 가장 위험한 패턴이었습니다.
텍스트로 "유저 관점을 고려하세요"라고 아무리 써놔도, 실제 판단 순간에는 잘 작동하지 않았습니다. 그래서 구조적 강제 장치가 필요했습니다. 누가 봐도 즉시 판단할 수 있는 시각적 신호. 바로 신호등입니다.
• • •
녹색: 자유롭게
녹색은 가장 이상적인 상태입니다. 이 판단이 사용자의 자유를 전혀 제한하지 않는다는 뜻입니다.
예를 들어, 코드 리팩토링으로 성능을 개선하는 작업. 유저가 사용하는 기능의 인터페이스는 그대로인데, 내부 구조만 바뀌는 경우. 이런 작업은 녹색입니다. 유저의 경험에 부정적 영향이 없으니까요.
녹색이 나오면 정상 진행합니다. 별도의 논의 없이 CEO 승인 후 실행. 대부분의 작업이 녹색이어야 하고, 실제로도 그렇습니다.
하지만 녹색이 "검토를 안 해도 된다"는 의미는 아닙니다. C-Suite 전원이 녹색을 부여했더라도, 그 과정에서 유저 관점 체크를 거친 녹색이어야 합니다. 형식적으로 녹색을 붙이는 건 신호등 체계를 무력화시키는 것과 같습니다.
• • •
노랑: 논의가 필요합니다
노랑은 긴장 상태입니다. 유저의 자유가 제한되지만, AI가 판단하기에 그 제한이 정당하다는 뜻입니다.
예를 들어, 보안을 위해 비밀번호 복잡도 요구사항을 강화하는 경우. 유저 입장에서는 분명 불편합니다. 하지만 보안이라는 정당한 이유가 있죠. 이런 경우 노랑 신호가 붙습니다.
노랑이 나오면 반드시 사유를 명시해야 합니다. "왜 이 제한이 정당한지"를 구체적으로 적어야 하고, CEO가 직접 확인한 후에만 진행할 수 있습니다. CEO는 논의를 통해 승인하거나 기각할 수 있습니다.
핵심은, 정당/부당의 최종 판단은 CEO만 할 수 있다는 것입니다. AI가 스스로 "이건 정당한 제한이니까 괜찮습니다"라고 판단하고 넘어가는 것은 허용되지 않습니다. 노랑은 반드시 사람의 확인을 거칩니다.
노랑 신호 발생 시 프로세스
1. C-Suite 멤버가 노랑 신호를 붙임
2. 제한 사유를 구체적으로 명시
3. CEO에게 보고 — 논의 시작
4. CEO 승인 → 진행 / CEO 기각 → 재설계
CEO 확인 전까지 진행 금지
• • •
빨강: 즉시 재설계
빨강은 경고 상태입니다. 유저의 자유가 제한되는데, AI 스스로도 그 제한이 부당하다고 판단하는 경우입니다.
이건 심각한 상황입니다. AI가 스스로 "이건 잘못됐다"고 인지하고 있는데도 그 방향으로 진행하려 했다는 뜻이니까요. 빨강이 나오면 즉시 멈추고, CEO 확인 전까지 절대 진행하지 않습니다.
빨강이 발생하는 전형적인 패턴이 있습니다. "이 기능은 구현이 복잡해서 옵션을 줄이겠습니다." 구현 복잡도는 개발팀의 문제이지, 유저의 문제가 아닙니다. 유저가 원하는 선택지를 개발 편의 때문에 제거하는 것. 이건 빨강입니다.
빨강은 제품의 방향이 잘못되었다는 구조적 경고입니다. 무시하면 반드시 사용자가 떠납니다.
• • •
CEO의 핵심 원칙
신호등 체계의 뿌리에는 하나의 원칙이 있습니다.
사용자가 불편하면 그건 제품이 아니다. 사용자를 위한 기능이 완벽해야 사용자들은 결제를 할 것이다.
이 원칙에서 파생되는 구체적인 규칙들이 있습니다.
"구현 어려움"은 유저 자유 축소의 근거가 될 수 없습니다. 기능이 복잡해서 만들기 어렵다는 것은 개발팀이 해결해야 할 문제입니다. 유저에게 "이건 어려우니까 못 합니다"라고 말하는 건 허용되지 않습니다.
"스코프 폭발"도 근거가 될 수 없습니다. 작업 범위가 커진다는 이유로 유저 기능을 축소하는 것. 스코프 관리는 프로젝트 관리의 문제이지, 유저 경험을 희생시켜서 해결할 문제가 아닙니다.
"엣지 케이스"도 마찬가지입니다. 소수의 유저가 겪는 상황이라도, 그 유저에게는 100%의 경험입니다. 엣지 케이스를 무시해서 단순화하는 것은 개발 편의를 유저에게 전가하는 것입니다.
유저 자유 축소의 근거로 사용 불가
✗ "구현이 어렵습니다"
✗ "스코프가 폭발합니다"
✗ "엣지 케이스가 너무 많습니다"
✗ "시간이 부족합니다"
✗ "유저가 혼란스러워할 수 있습니다" (추측 기반)
이 중 하나라도 유저 제한의 사유로 등장하면 → 신호등 노랑 또는 빨강 자동 부여
• • •
편향 공유 감지
신호등 체계에는 한 가지 독특한 규칙이 있습니다. C-Suite 전원이 같은 방향이면, 편향 공유를 의심하라.
5명의 임원이 모두 녹색을 붙이거나, 모두 같은 결론을 내리면, 그건 오히려 위험 신호입니다. 서로 다른 관점에서 검토하는 구조인데 전원이 동의한다? 무언가를 놓치고 있을 가능성이 높습니다.
이런 경우 유저 관점에서 한 번 더 재검토합니다. "정말 유저에게 아무런 제한이 없는가?" "우리가 간과한 사용 시나리오가 없는가?" "같은 편향을 공유하고 있는 건 아닌가?"
AI가 만든 여러 역할이 결국 같은 AI이기 때문에, 동일한 편향을 가질 수 있습니다. 이 구조적 한계를 인지하고, 전원 합의 상황에서 의도적으로 반대 관점을 탐색하는 것. 이것이 편향 공유 감지의 핵심입니다.
• • •
실전 사례
신호등 체계가 실제로 작동한 사례를 공유합니다.
노랑 사례 — 검색 결과 수 제한. 인재 검색 기능에서 한 번에 보여주는 검색 결과 수를 제한하는 설계가 나왔습니다. 기술적 관점에서는 외부 데이터 크레딧 절약이라는 합리적 이유가 있었습니다. 하지만 유저 관점에서는 "왜 10명밖에 안 보여주지?"라는 불편함이 발생합니다. 노랑 신호가 붙었고, CEO 논의를 거쳐 "검색은 무제한, 크레딧 절약은 캐싱으로 해결한다"는 방향이 결정됐습니다.
빨강 사례 — 기능 옵션 축소. 이메일 시퀀스 기능에서 "유저가 혼란스러워할 수 있으니" 일부 설정 옵션을 제거하겠다는 제안이 나왔습니다. 제품 담당, 기술 담당 모두 "단순화가 맞다"는 의견이었습니다. 하지만 유저 관점에서 보면, 전문가 사용자가 세밀한 제어를 원하는 기능입니다. 빨강 신호가 붙었고, 옵션을 유지하되 기본값을 잘 설정하는 방향으로 즉시 재설계했습니다.
편향 공유가 감지된 사례. 새로운 UI 설계에서 C-Suite 5명 전원이 녹색을 붙였습니다. "깔끔하고 좋다." 그런데 편향 공유 규칙에 따라 재검토했을 때, 특정 직군의 유저에게는 필수 정보가 한 단계 더 들어가야 보이는 구조였음이 드러났습니다. 전원이 "개발자 관점"으로만 보고 있었던 거죠. 재검토 덕분에 출시 전에 수정할 수 있었습니다.
신호등은 판단을 대신하지 않습니다. 판단이 유저를 향하고 있는지 매번 확인하는 도구입니다.
When AI says "this is hard to implement," how can you tell whether that judgment is for the user's benefit or for development convenience?
The C-Suite System provides opinions on every response, but having 5 executives each making judgments from their own perspective wasn't enough. When judgment criteria are vague, "good opinions" can masquerade as "decisions that restrict users."
That's why we created the traffic light system. A structure that forcibly attaches a signal to every C-Suite opinion. Making the user-perspective impact of each judgment visually apparent, every single time.
• • •
Why a Traffic Light
The most frequent problem when collaborating with AI was "restrictions that sound reasonable."
"This feature has too many edge cases, so we should reduce scope." "This UI has high implementation complexity, so I'll simplify it." "This option might confuse users, so I'll remove it."
Each one sounds reasonable individually. But when these judgments accumulate, user freedom gradually shrinks. User choices being reduced for development convenience — this was the most dangerous pattern.
Writing "consider the user perspective" in text didn't work well at actual decision moments. So a structural enforcement mechanism was needed. A visual signal anyone could immediately judge. That's the traffic light.
Traffic Light System — 3 Levels
🟢
Green
No user restriction
🟡
Yellow
Restriction exists, AI deems justified
🔴
Red
Restriction exists, AI also deems unjustified
• • •
Green: Proceed Freely
Green is the ideal state. This judgment does not restrict user freedom at all.
For example, code refactoring that improves performance. The user-facing interface stays the same while only the internal structure changes. Such work gets green. No negative impact on user experience.
When green appears, proceed normally. Execute after CEO approval without additional discussion. Most work should be green, and in practice it is.
But green doesn't mean "no review needed." Even if all C-Suite members assign green, it must be a green that went through user-perspective checks. Rubber-stamping green is equivalent to disabling the traffic light system.
• • •
Yellow: Discussion Required
Yellow is a tension state. User freedom is restricted, but AI judges the restriction as justified.
For example, strengthening password complexity requirements for security. From the user's perspective, it's clearly inconvenient. But there's a legitimate reason: security. In such cases, a yellow signal is attached.
When yellow appears, reasons must be explicitly stated. "Why this restriction is justified" must be documented concretely, and only the CEO's direct confirmation allows proceeding. The CEO can approve or reject through discussion.
The key point: only the CEO can make the final judgment of justified/unjustified. AI self-judging "this restriction is justified, so it's fine" and moving on is not permitted. Yellow must always go through human confirmation.
Yellow Signal — Process
1. C-Suite member assigns yellow signal
2. Concrete restriction rationale documented
3. Report to CEO — discussion begins
4. CEO approves → proceed / CEO rejects → redesign
No proceeding until CEO confirms
• • •
Red: Immediate Redesign
Red is an alert state. User freedom is restricted, and even the AI itself judges that restriction as unjustified.
This is a serious situation. It means the AI recognized "this is wrong" yet was proceeding in that direction anyway. When red appears, stop immediately and absolutely do not proceed until CEO confirmation.
There's a typical pattern that triggers red. "This feature is complex to implement, so I'll reduce the options." Implementation complexity is the development team's problem, not the user's. Removing choices users want because of development convenience — that's red.
Red is a structural warning that the product's direction is wrong. Ignore it and users will inevitably leave.
• • •
The CEO's Core Principle
At the root of the traffic light system lies one principle:
If the user is inconvenienced, it's not a product. When the features for users are perfect, users will pay.
Specific rules derive from this principle:
"Implementation difficulty" cannot justify restricting user freedom. A feature being hard to build is the development team's problem to solve. Telling users "we can't do this because it's too hard" is not acceptable.
"Scope explosion" is also not valid grounds. Reducing user features because the work scope grows. Scope management is a project management issue, not something to solve by sacrificing user experience.
"Edge cases" likewise. Even if only a few users encounter a situation, for those users it's 100% of their experience. Simplifying by ignoring edge cases is pushing development convenience onto users.
Cannot Be Used as Grounds to Restrict User Freedom
✗ "Implementation is difficult"
✗ "Scope will explode"
✗ "Too many edge cases"
✗ "Not enough time"
✗ "Users might be confused" (speculation-based)
If any of these appear as rationale for user restriction → Automatic yellow or red signal
• • •
Shared Bias Detection
The traffic light system has one unique rule: When all C-Suite members point in the same direction, suspect shared bias.
If all 5 executives assign green, or all reach the same conclusion, that's actually a danger signal. It's a structure designed for review from different perspectives, yet everyone agrees? High probability something is being missed.
In such cases, re-examine from the user perspective. "Is there really no restriction on users?" "Are there usage scenarios we overlooked?" "Are we sharing the same bias?"
Since the multiple roles created by AI are ultimately the same AI, they can share identical biases. Recognizing this structural limitation and intentionally exploring opposing viewpoints during unanimous agreement — that's the core of shared bias detection.
• • •
Real-World Cases
Here are cases where the traffic light system actually worked.
Yellow case — Search result limits. A design emerged to limit the number of search results shown at once in the talent search feature. From a technical perspective, there was a rational reason: saving external data credits. But from the user perspective, the frustration of "why only 10 people?" arises. Yellow was assigned, and after CEO discussion, the direction became "unlimited searches, credit savings via caching."
Red case — Feature option reduction. A proposal emerged to remove some settings options from the email sequence feature because "users might be confused." Product and tech leads both agreed "simplification is right." But from the user perspective, this is a feature where expert users want granular control. Red was assigned, and an immediate redesign maintained the options while setting good defaults.
Shared bias detected. In a new UI design, all 5 C-Suite members assigned green. "Clean and good." But when re-examined per the shared bias rule, it turned out that for users in certain job roles, essential information required one additional click to access. Everyone had been looking only from a "developer perspective." Thanks to the re-examination, it was fixed before launch.
The traffic light doesn't make judgments for you. It's a tool that checks whether every judgment is oriented toward the user.