Исследование MIT показало масштабы распространения ИИ-агентов в интернете и почти полное отсутствие контроля
Лаборатория Массачуетского технологического института CSAIL опубликовала первое масштабное исследование ИИ-агентов в реальных условиях эксплуатации, которое показало стремительный рост интереса к этой технологии. Количество научных работ, упоминающих "AI Agent" или "Agentic AI" в 2025 году, превысило суммарный показатель за период с 2020 по 2024 год более чем вдвое. Опрос McKinsey выявил, что 62% компаний экспериментируют с ИИ-агентами или активно используют их.
Исследователи изучили 30 популярных ИИ-агентов трех категорий – чат-боты вроде ChatGPT Agent и Claude Code, браузерные боты как Perplexity Comet и ChatGPT Atlas, а также корпоративные решения типа Microsoft 365 Copilot и ServiceNow Agent. Результаты показали критический недостаток систем безопасности. Только половина проверенных агентов имеет опубликованные политики безопасности или доверия, как Anthropic Responsible Scaling Policy, OpenAI Preparedness Framework или Microsoft Responsible AI Standard. Треть агентов вообще не располагает документацией по безопасности, а пять из 30 не соответствуют никаким стандартам.
Особую тревогу вызывает факт, что 13 из 30 систем работают с продвинутым уровнем автономности, способные выполнять длительные последовательности задач практически без участия человека. Браузерные агенты действуют с наибольшей независимостью – примером служит недавно запущенный Google AI Autobrowse, который выполняет многоэтапные задачи, перемещаясь между сайтами и используя пользовательскую информацию для входа в системы от имени владельца.
Критической проблемой стала невозможность отличить активность агентов от действий реальных пользователей. Исследование MIT показало, что 21 из 30 агентов никак не сообщает конечным пользователям или третьим сторонам о своей искусственной природе. Только семь агентов публикуют стабильные строки пользователь-агент и диапазоны IP-адресов для верификации, тогда как почти столько же специально используют Chrome-подобные UA-строки и локальные IP-контексты для имитации человеческого трафика. Некоторые агенты, включая открытый BrowserUse, продают себя способностью обходить антибот-системы для "человекоподобного" просмотра.
Отсутствие стандартизации оценок безопасности создает реальную угрозу эксплойтов. Девять из 30 агентов не документируют защиту от потенциально вредоносных действий, 23 не предоставляют информацию о независимом тестировании безопасности. Индекс MIT демонстрирует огромный разрыв в прозрачности работы агентной ИИ на фоне их массового распространения.
Кажется, "Матрица" все ближе.