Anthropic выпустила Claude Code Review для ИИ-ревизии кода с ценником в $15–25 за проверку
Anthropic представила новый инструмент Claude Code Review в формате исследовательского превью. Функция позволяет запускать автоматическую проверку кода прямо в среде Claude без сторонних плагинов – достаточно активировать опцию в настройках администратора.
Как продемонстрировано на YouTube-канале Claude, после включения Code Review "команда агентов" параллельно анализирует базу кода, выявляя потенциальные баги. Система самостоятельно отсеивает ложные срабатывания и ранжирует найденные проблемы по степени критичности.
Anthropic отмечает, что инструмент создан по образцу внутреннего ревью-процесса компании. По мнению разработчиков, проверка кода остаётся узким местом для инженеров. Code Review не одобряет пулл-реквесты автоматически, но "сокращает разрыв, чтобы ревьюеры могли реально охватить всё, что уходит в продакшен".
Впрочем, не все впечатлены новинкой. Глава ИИ-направления в Hedgineer, компании по разработке софта для управления хедж-фондами, поделился мнением в твиттере:
Кроме того, что не нужен триггер вроде GitHub Action и можно настроить всё прямо в Claude Desktop, я не вижу абсолютно НИКАКОЙ дополнительной функциональности или улучшений по сравнению с настройкой claude.yml через команду /install-github-app.
Фактически у команды уже был ИИ-ревью, и единственным преимуществом стало удобство интеграции.
В противовес этому мнению разработчик Тарик, работающий с Claude Code, утверждает, что новый инструмент "использует значительно больше вычислительных ресурсов и выявляет более сложные баги".
Дополнительные вычисления обходятся недёшево – стоимость ревью рассчитывается по токенам и в среднем составляет $15–25 за проверку. Крупные и сложные пулл-реквесты стоят дороже. Anthropic прямо признаёт, что "Code Review оптимизирован на глубину анализа и может обходиться дороже других решений, таких как наш open-source GitHub Action".
Парадоксально, но дорогой инструмент подобного рода может оказаться более полезным именно для кода, написанного вручную. Человеческий код обычно ограничен по объёму, а значит, на проверку уходит меньше ресурсов и результат получается более целенаправленным.
Согласно исследованию, опубликованному в январе 2026 года, так называемый "вайб-кодинг" ощутимо вредит качеству проектов с открытым кодом. Генерация кода с помощью ИИ повышает продуктивность, но при этом "ослабляет вовлечённость пользователей, благодаря которой многие мейнтейнеры получают отдачу от своей работы".
ИИ-инструменты создают значительные объёмы кода, часть которого вполне качественна, однако ревью при таких масштабах занимает всё больше времени. И это не считая случаев, когда ИИ-кодинг приводил к уничтожению целых баз данных – подобные инциденты случались даже у таких гигантов, как Amazon.
Anthropic позиционирует Code Review как инструмент, который выделяет больше вычислительных мощностей на проверку кода. Насколько эффективно функция справится с по-настоящему крупными кодовыми базами и оправдает ли затраты – покажет практика.
- Anthropic смягчила ключевое обязательство по безопасности на фоне давления со стороны Пентагона
- Министр войны США потребовал от Anthropic отказаться от ограничений безопасности ИИ под угрозой статуса "угрозы национальной безопасности"
- Пентагон угрожает разорвать контракт с Anthropic из-за отказа снять ограничения на слежку и автономное оружие