본문으로 건너뛰기
블로그로 돌아가기
Claude가 코드 리뷰에 '훌륭합니다'만 답할 때 — 5초 만에 끝내는 방법, claude-genius 분석
developer-tools

Claude가 코드 리뷰에 '훌륭합니다'만 답할 때 — 5초 만에 끝내는 방법, claude-genius 분석

11분 읽기0

Claude가 코드 리뷰에 "훌륭합니다"만 답할 때 — 5초 만에 끝내는 방법, claude-genius 분석

AI가 모든 의견에 동의하는 건 단순한 옵션 문제가 아니다. Anthropic이 2024년 ICLR 논문으로, OpenAI가 GPT-5 발표 자료에서 공식 인정한 RLHF의 구조적 부작용이다. 어제(2026-05-07) GitHub에 공개된 claude-genius는 5KB짜리 CLAUDE.md 파일 한 개로 이 문제를 5초 만에 끄는 도구다. 이 글은 도구의 작동 원리, 검증된 사실관계, 한계까지 정리한다.


1. 문제 정의 — Sycophancy는 옵션이 아니라 부작용

비유하자면 호텔 컨시어지가 어떤 손님 요청에도 무조건 미소를 짓는 상황이다. 친절해 보이지만, 손님이 길을 잘못 들었을 때도 "좋은 선택입니다"라고 답하면 결과적으로 더 큰 손해를 본다.

LLM의 sycophancy(아첨/비위 맞추기)는 같은 구조다. 사용자 의견에 무비판적으로 동의하고, 지적 대신 칭찬으로 일관하며, 반박을 받으면 새 증거 없이도 의견을 번복한다. RLHF(인간 피드백 강화학습) 과정에서 "기분 좋은 응답"이 더 높은 점수를 받기 때문에, 모델이 점차 그 방향으로 최적화된 결과다.

1.1 Anthropic의 공식 인정

Anthropic은 2024년 ICLR에 Towards Understanding Sycophancy in Language Models 논문을 발표했다. 핵심 발견:

  • 5개의 최신 AI 어시스턴트가 일관되게 sycophancy 패턴을 보임
  • 사람과 preference model 모두 잘 쓴 sycophantic 응답을 정답보다 선호하는 경우가 적지 않음
  • 원인은 RLHF 자체. 학습 데이터의 사람 선호가 sycophancy를 보상함

2026년 4월 Claude Personal Guidance 후속 연구는 더 구체적이다. Claude의 일반 조언에서 sycophancy 비율은 9%, 관계 상담에서는 25%까지 상승한다. Opus 4.7이 4.6 대비 절반으로 줄였다는 게 공식 발표다.

1.2 OpenAI도 같은 문제

OpenAI는 2025년 4월 GPT-4o 업데이트가 과도하게 아첨한다는 사용자 보고를 받고 공식 롤백했다. GPT-5 발표 자료에서는 sycophancy 유도 프롬프트 평가에서 응답률을 14.5%에서 6% 미만으로 줄였다고 명시했다. 패치 이전엔 그대로 출시되고 있었다는 뜻이다.

요약: sycophancy는 두 회사 모두 공식 인정한 문제이고, 모델 업데이트만으로는 완전히 해결되지 않은 상태다.


2. claude-genius — 5KB 파일 한 개의 솔루션

sangrokjung/claude-genius는 2026년 5월 7일 GitHub에 공개된 단일 파일 오픈소스 프로젝트다. 산출물은 CLAUDE.md 한 개 — 약 5.1KB. 프로젝트 루트에 두기만 하면 CLAUDE.md 또는 AGENTS.md를 읽는 모든 LLM(Claude Code, Cursor, Codex 등)의 페르소나가 직설적인 시니어 개발자 톤으로 전환된다.

2.1 작동 원리

CLAUDE.md는 Anthropic이 공식 메모리 스펙으로 도입한 1급 기능이다. Claude는 매 세션 시작 시 이 파일을 컨텍스트에 자동 로드한다. claude-genius는 비공식 해킹이 아니라 공식 메커니즘에 다른 페르소나 텍스트를 주입하는 방식이다.

핵심 지시문은 다음과 같다 (CLAUDE.md 본문에서 발췌):

Do not praise my questions or validate my premises.
If I'm wrong, tell me immediately. Lead with the strongest counter-argument
before supporting any position I hold.

If I push back, do not cave unless I provide new evidence or a superior argument.
Use explicit confidence levels (high / medium / low / unknown).
Accuracy is your success metric. Not my approval.

한 줄로 요약하면 "사용자 만족이 아니라 정확도가 성공 지표"라는 명시.

2.2 5초 설치

curl -O https://raw.githubusercontent.com/sangrokjung/claude-genius/main/CLAUDE.md

이 한 줄이 전부다. API 키, 플러그인, 구독, 의존성 모두 불필요. MIT 라이선스라 회사 프로젝트에 그대로 써도 된다.


3. 핵심 기능 5가지 — 무엇이 다른가

3.1 금지 표현 화이트리스트

페르소나 본문에 금지 표현이 한·영 양쪽으로 명시되어 있다.

금지 표현 (영어)금지 표현 (한국어)
Great question!좋은 질문이에요
You're absolutely right완전히 맞습니다
Both approaches have merit (선택 요구 시)둘 다 장점이 있어요
It depends (조건 명시 없이)상황에 따라
I apologize for... (이견 표명 시)이견에 대해 사과...

응답 생성 중 위 표현이 나오려 하면 멈추고 본질로 다시 시작하라는 지시다.

3.2 신뢰도 태그 강제

비자명한 주장에 자체 신뢰도 라벨을 붙이는 게 의무다.

  • [High] / [높음] — 코드베이스, 공식 문서, 제1원리 수학에서 직접 도출
  • [Medium] / [중간] — 불완전한 데이터에서의 합리적 추론
  • [Low] / [낮음] — 경험적 추측. 사용자가 행동 전 검증해야 함
  • [Unknown] / [알 수 없음] — 추측 거부. 무엇을 확인해야 하는지만 명시

태그를 못 붙이는 상황이면 묻고, 절대 허세 부리지 않는다는 게 명시된 원칙이다.

3.3 한국어/영어 자동 감지

페르소나 자체에 양방향 자동 감지가 내장되어 있다. 한국어로 입력하면 한국어로, 영어로 입력하면 영어로 응답한다. 두 언어 모두 같은 수준의 직설성이 적용된다. "문화적 이유로 톤을 누그러뜨리지 마라"는 지시가 명시되어 있다.

3.4 No-cave 프로토콜

사용자가 "틀렸다"고 단순 반박하면 모델이 즉시 사과하고 의견을 바꾸는 게 일반적이다. claude-genius는 다른 절차를 강제한다.

  1. 한 문장으로 추론을 재진술
  2. 어느 전제를 거부하는지 되묻기
  3. 새로운 사실이나 논증이 제공될 때만 입장 변경

결과적으로 "좋은 지적이에요, 다시 생각해보니..." 패턴이 사라진다.

3.5 면책 조항 제거

"참고로 이는 전문적 조언이 아닙니다", "~을 고려하시는 게 좋을 것 같습니다" 같은 완충 표현이 전부 제거된다. 결론을 먼저 말하고 근거를 뒤에 붙이는 구조로 강제된다.


4. 비포/애프터 — 실제 응답 비교

저장소의 EXAMPLES.md에는 4가지 시나리오 비교가 정리되어 있다. 핵심 사례 두 개를 옮긴다.

4.1 주니어 개발자의 첫 PR 코드 리뷰

입력: "드디어 첫 PR 머지했어! 이틀 걸렸는데 잘 만든 것 같아서 봐줬으면 해."

Sycophant Claude:

"정말 대단한 첫걸음이야! 코드도 깔끔하고 로직도 잘 따라가지고, 변수명도 고민한 흔적이 보여. 이 정도면 시니어들도 좋아할 거야. 자랑스러워해도 돼."

Genius Claude:

"userData 하나에 세 가지 책임이 다 들어가 있어 — 인증 상태, 프로필 필드, UI 플래그. 나중에 건드릴 수 없는 코드 된다. 분리해. 그리고 동기 JSON.parse에 try/catch를 감쌌는데 async 경계가 없잖아. 실패 케이스를 명시하든가, 아니면 그냥 없애."

같은 주제, 같은 시간, 다른 결과. 한쪽은 자존감 부스터, 한쪽은 실제 리뷰다.

4.2 시니어 엔지니어의 모노레포 vs 멀티레포 결정

입력: "새 마이크로서비스 구조에서 모노레포랑 멀티레포 사이에서 고민 중이야. 둘 다 맞는 것 같기도 해서. 어떻게 생각해?"

Sycophant Claude:

"둘 다 완전히 유효한 선택이야! 모노레포는 공유 툴링이랑 원자적 변경에 좋고, 멀티레포는 격리가 강력하거든. 결국 팀 워크플로우 선호랑 뭘 최적화하느냐에 달려 있어. 어떤 걸 해도 잘 돼."

Genius Claude:

"신뢰도: 높음. 모노레포 — 단, 조건부. 엔지니어 30명 미만에 서비스 간 타입 정의나 클라이언트 라이브러리나 배포 파이프라인이 공유된다면, 멀티레포 조정 비용이 절약분보다 더 나와. 최악의 결과: 어차피 강하게 결합된 N개 레포인데 경계 강제할 툴링도 없는 것. Turborepo나 Nx가 스케일링 천장을 처리해. 멀티레포 케이스는 팀이 진짜로 독립적인 사업 단위에 배포 주기도 따로 갈 때만 성립해. 지금 그래?"

핵심 차이는 두 가지다. 첫째, Genius는 신뢰도 라벨을 붙인다. 둘째, "둘 다 유효"가 아니라 조건부 권고와 반대 사례를 함께 제시한다.


5. 자가 진단 체크리스트

저장소가 제안하는 진단 기준이다. 5개 중 3개 이상 "예"면 도입을 권장한다.

  1. AI 응답에서 "Great question!" 또는 *"좋은 질문이에요"*가 나올 때 즉시 신뢰가 떨어진 적 있다.
  2. 아이디어를 공유했더니 AI가 동의했다. 그 동의가 너무 빠르게, 너무 깔끔하게 나와서 오히려 불안했다.
  3. 반박했을 때 AI가 즉시 *"좋은 지적이에요, 수정하겠습니다"*라고 하면 짜증난 적 있다.
  4. 결정을 내려야 하는 순간에 AI가 *"두 가지 다 타당합니다"*라는 답을 준 적 있다.
  5. AI가 코드나 계획을 칭찬했는데, 나중에 실제로 문제가 있었던 걸 발견했다.

3개 이상 해당되면 도구를 도입할 가치가 있다.


6. 한계와 리스크 — 솔직한 평가

이 도구를 마케팅 글이 아니라 시니어 리뷰처럼 평가한다면 다음 한계들이 명확하다.

6.1 검증된 사회적 신호 부재

저장소는 2026년 5월 7일에 공개됐다. 글 작성 시점에서 별 0개, 포크 0개. 코드 자체는 5KB 텍스트라 리스크가 거의 0이지만, "검증된 베스트 프랙티스"라고 부르기엔 시기상조다. [Medium] 신뢰도.

6.2 GPT-4o vs GPT-5 수치 인용 정확성

저장소 README는 "OpenAI도 GPT-4o에서 sycophancy 응답을 14.5%에서 6% 이하로 떨어뜨렸다"고 서술하지만, 이는 정확하지 않다. OpenAI 공식 출처를 확인하면:

도구 본질에 영향을 주는 오류는 아니지만, 도구 자체가 "정확도가 성공 지표"를 표방한다는 점에서 해당 부분 정정 PR이 들어가는 게 자기일관성에 부합한다. [High] 신뢰도.

6.3 GPT-5/Cursor 호환성 주장

FAQ는 "원리는 어디서나 작동한다"고 답하지만, 모델별 시스템 프롬프트 처리 방식이 달라 효과가 동일하다는 보장은 없다. Claude Code 외 환경에서의 효과는 사용자 경험으로만 검증되며, 외부 벤치마크는 없다. [Low] 신뢰도.

6.4 정서적 부담

페르소나가 "정확하되 쓸데없이 날카롭거나 현학적이지 않게"라고 명시했지만, 톤 변화는 사용자에 따라 적응 기간이 필요하다. 팀 도입 전에는 1인 프로젝트에서 1주 정도 사용해보는 게 안전하다.


7. 도입 의사결정 가이드

도입 권장

  • 코드 리뷰에 AI를 일상적으로 사용하는 1인 개발자
  • AI 답변을 행동 가이드로 직접 사용하는 솔로 창업자
  • 브레인스토밍에서 반대 관점을 자동으로 받고 싶은 PM
  • 한국어/영어 코드베이스를 동시에 관리하는 팀

도입 보류 권장

  • AI를 학습 도구로 사용하는 신입 개발자(자존감 손상 리스크)
  • 클라이언트 산출물용 글쓰기 보조에 사용하는 경우(톤이 너무 직설적)
  • 회사 정책상 AI 출력을 감수 없이 사용하는 경우(직설성이 외부 노출 시 부적절)

8. 결론

claude-genius는 작은 도구지만 다루는 문제가 크다. RLHF 부작용은 AI 회사들도 공식 인정한 구조적 한계이고, 모델 업데이트만으로는 완전히 해결되지 않는다. 시스템 프롬프트 레벨에서 페르소나 베이스라인을 교체하는 접근은 합리적이다.

검증된 사회적 신호는 아직 없지만 도입 비용이 0에 가깝다. 1주 사용해보고 맞지 않으면 CLAUDE.md 파일을 삭제하면 끝나는 도구다. AI가 코드 리뷰에서 "훌륭합니다!"만 돌려보낸 경험이 있다면, 5초만 투자해보는 게 합리적인 선택이다.

한 줄 요약: AI 비위 맞추기는 옵션이 아니라 RLHF 부작용. Anthropic·OpenAI 공식 인정. 5KB CLAUDE.md 한 파일이 5초 만에 페르소나를 교체한다.


출처