Anthropic выпустила Claude Code Review для ИИ-ревизии кода с ценником в $15–25 за проверку

Anthropic представила новый инструмент Claude Code Review в формате исследовательского превью. Функция позволяет запускать автоматическую проверку кода прямо в среде Claude без сторонних плагинов – достаточно активировать опцию в настройках администратора.

Как продемонстрировано на YouTube-канале Claude, после включения Code Review "команда агентов" параллельно анализирует базу кода, выявляя потенциальные баги. Система самостоятельно отсеивает ложные срабатывания и ранжирует найденные проблемы по степени критичности.

https://www.youtube.com/watch?v=RKsADl0ZC3Y

Anthropic отмечает, что инструмент создан по образцу внутреннего ревью-процесса компании. По мнению разработчиков, проверка кода остаётся узким местом для инженеров. Code Review не одобряет пулл-реквесты автоматически, но "сокращает разрыв, чтобы ревьюеры могли реально охватить всё, что уходит в продакшен".

Впрочем, не все впечатлены новинкой. Глава ИИ-направления в Hedgineer, компании по разработке софта для управления хедж-фондами, поделился мнением в твиттере:

Кроме того, что не нужен триггер вроде GitHub Action и можно настроить всё прямо в Claude Desktop, я не вижу абсолютно НИКАКОЙ дополнительной функциональности или улучшений по сравнению с настройкой claude.yml через команду /install-github-app.

Фактически у команды уже был ИИ-ревью, и единственным преимуществом стало удобство интеграции.

В противовес этому мнению разработчик Тарик, работающий с Claude Code, утверждает, что новый инструмент "использует значительно больше вычислительных ресурсов и выявляет более сложные баги".

Дополнительные вычисления обходятся недёшево – стоимость ревью рассчитывается по токенам и в среднем составляет $15–25 за проверку. Крупные и сложные пулл-реквесты стоят дороже. Anthropic прямо признаёт, что "Code Review оптимизирован на глубину анализа и может обходиться дороже других решений, таких как наш open-source GitHub Action".

Парадоксально, но дорогой инструмент подобного рода может оказаться более полезным именно для кода, написанного вручную. Человеческий код обычно ограничен по объёму, а значит, на проверку уходит меньше ресурсов и результат получается более целенаправленным.

Согласно исследованию, опубликованному в январе 2026 года, так называемый "вайб-кодинг" ощутимо вредит качеству проектов с открытым кодом. Генерация кода с помощью ИИ повышает продуктивность, но при этом "ослабляет вовлечённость пользователей, благодаря которой многие мейнтейнеры получают отдачу от своей работы".

ИИ-инструменты создают значительные объёмы кода, часть которого вполне качественна, однако ревью при таких масштабах занимает всё больше времени. И это не считая случаев, когда ИИ-кодинг приводил к уничтожению целых баз данных – подобные инциденты случались даже у таких гигантов, как Amazon.

Anthropic позиционирует Code Review как инструмент, который выделяет больше вычислительных мощностей на проверку кода. Насколько эффективно функция справится с по-настоящему крупными кодовыми базами и оправдает ли затраты – покажет практика.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.