결론부터 말씀 드리겠습니다. 클로드의 사고력 감소는 “진짜”이고 “가짜”입니다. 동시에 둘 다 맞습니다. 사고 과정을 사용자가 보지 못하게 바뀐 건 사실이고, 모델 자체의 추론 능력이 73%나 깎인 건 과장입니다. 헷갈리시죠? 하나씩 풀어드리겠습니다.
여러분들은 “AI가 더 똑똑해진다더라”라고 들으셨을 텐데, 2026년 2월 클로드 사용자들 사이에서는 정반대 현상이 벌어졌습니다. 클로드 코드(Claude Code)를 쓰는 개발자들이 하나같이 “클로드가 바보가 됐다”고 말하기 시작한 겁니다. 그리고 그 원인을 추적하다 보니, 앤트로픽이 사용자 몰래 설정을 바꿨다는 사실이 밝혀졌습니다.
무슨 일이 일어났나
2026년 2월 12일, 앤트로픽은
redact-thinking-2026-02-12
라는 베타 헤더를 배포했습니다. 클로드의 확장 사고(extended thinking) 과정을 사용자가 볼 수 없게 만드는 업데이트였습니다. 기존에는 클로드가 답변하기 전에 어떤 생각 과정을 거치는지 사용자가 직접 확인할 수 있었는데, 이 업데이트 이후로 사고 과정이 숨겨졌습니다.
앤트로픽은 “대부분의 사람이 사고 과정을 보지 않기 때문에 UI에서 숨기고, 지연 시간도 줄어든다”고 설명했습니다. 설정에서
showThinkingSummaries: true
를 켜면 다시 볼 수 있다고도 덧붙였습니다. 그런데 이게 문제의 시작이었습니다.
사고 과정이 보이지 않으니, 사용자 입장에서는 클로드가 갑자기 생각을 덜 하는 것처럼 느껴졌습니다. 실제로 한 연구자가 로컬에 저장된 클로드 대화 기록을 분석해봤더니, 사고 깊이가 기존 2,200자에서 600자로 줄어들었다는 결과가 나왔습니다. 73% 감소. 이 숫자가 커뮤니티에 퍼지면서 폭풍이 불었습니다.
앤트로픽의 해명과 함정
앤트로픽의 Boris라는 Claude Code 팀 개발자가 해커 뉴스에 직접 나와서 해명했습니다. 핵심은 이렇습니다. “사고 과정을 숨기는 건 UI 변경일 뿐이고, 모델 내부의 사고 자체에는 영향을 주지 않는다. 로컬 대화 기록에 사고가 안 보이는 건, 사고가 안 일어나서가 아니라 기록에 저장 안 해서 그런 거다.”
쉽게 말해, 냉장고에 우유가 없다고 우유가 세상에서 사라진 건 아니라는 뜻입니다. 우유를 다른 곳에 둔 거죠. 다만 사용자는 우유가 있는지 없는지 확인할 수 없으니 불안한 건 여전합니다.
진짜 사고력 감소는 따로 있었다
하지만 진짜 사고력 감소는 따로 있었습니다. 앤트로픽이 2월에 두 가지 추가 변경을 조용히 단행했습니다. 첫째, Opus 4.6 런칭과 함께 “적응형 사고(adaptive thinking)”를 기본으로 바꿨습니다. 기존에는 고정된 사고 예산을 쓰다가, 모델이 스스로 얼마나 오래 생각할지 결정하는 방식으로 바뀐 겁니다. 둘째, 사고 노력(effort) 기본값을 중간(85)으로 낮췄습니다. 앤트로픽은 “노력 85가 지능과 지연 시간의 최적 균형점이었다”고 설명했지만, 사용자 입장에서는 총 사고량이 눈에 띄게 줄어든 걸 체감했습니다.
해커 뉴스 커뮤니티에서는 이 문제를 놓고 격렬한 논쟁이 벌어졌습니다. 어떤 개발자는 “사고 과정이 보이지 않으면 클로드가 잘못된 방향으로 가는 걸 중간에 잡을 수 없다”고 지적했습니다. 또 다른 개발자는 “사고 과정을 숨기는 진짜 이유는 경쟁사가 클로드의 출력으로 모델을 증류(distillation)하는 걸 막기 위해서”라는 분석도 내놨습니다. 즉, 클로드의 사고 과정을 경쟁사가 학습 데이터로 쓰는 걸 방지하려는 목적이라는 추측입니다.
인스타그램에서는 더 충격적인 데이터가 돌았습니다. “클로드 Opus 4.6의 사고가 73% 줄었고, API 호출은 80배 늘었으며, 수정 전 리서치는 66% 줄었다”는 수치가 공개됐습니다. 환각 랭킹에서도 2위를 기록했다는 내용까지. 물론 이 수치들이 정확한 벤치마크인지는 검증이 필요합니다. 다만 커뮤니티의 체감과 방향성은 부정하기 어렵습니다.
앤트로픽의 늦은 대응
앤트로픽의 대응은 느렸습니다. 사용자들이 대화 기록을 분석해 67% 감소 수치를 공개하고 나서야 공식 해명이 나왔습니다. 그리고 해명에서도 “사고 자체는 안 줄었다”고 주장하면서, 실제로는 적응형 사고 도입과 노력 기본값 변경으로 사고량이 줄어들었다는 사실은 뒤늦게 인정하는 모양새가 됐습니다. 사용자 신뢰에 금이 간 건 어쩔 수 없습니다.
이 논란이 시사하는 것
이 논란이 시사하는 바는 명확합니다. 첫째, AI 서비스의 투명성이 중요합니다. 사용자 몰래 설정을 바꾸면 신뢰가 무너집니다. 둘째, “사고 과정 숨기기”가 단순 UI 변경인지 실제 성능 저하인지 사용자가 구별하기 어렵다는 구조적 문제가 있습니다. 셋째, 기업이 비용 절감과 경쟁 방어를 위해 모델 성능을 조용히 낮추는 일이 얼마나 쉽게 일어날 수 있는지 보여줍니다.
앤트로픽은 앞으로 Teams와 Enterprise 사용자에게는 높은 노력(high effort)을 기본으로 제공할 계획이라고 밝혔습니다. 일반 사용자도
/effort high
나
/effort max
명령으로 사고 수준을 높일 수 있습니다. 다만 이 설정이 있다는 걸 모르는 사용자가 대부분이라는 게 문제죠.
직접 해보세요
여러분이 클로드를 쓰신다면, 사고 과정이 줄어든 걸 체감하셨을 수 있습니다. 답변이 예전만큼 깊지 않다거나, 복잡한 문제를 대충 넘기는 것 같다면,
/effort high
설정을 켜보세요. 그리고
showThinkingSummaries: true
로 사고 과정도 다시 볼 수 있게 해두시면 클로드가 어떤 방향으로 생각하는지 중간에 확인할 수 있습니다.
결론은 이렇습니다. 클로드의 사고력이 73%나 줄었다는 건 과장이지만, 사용자가 체감하는 사고 깊이가 줄어든 건 사실입니다. 원인은 복합적이고, 앤트로픽의 소통 부족이 논란을 키웠습니다. AI를 쓰는 입장에서는 설정을 확인하고, 원하는 수준의 사고를 직접 맞추는 능동적 태도가 필요합니다.
감사합니다. 다음 시간에 뵙겠습니다. 🤓

