Философ изучающий сознание ИИ получает от "машины" письмо о собственном опыте
Ещё пару лет назад автоматически сгенерированное письмо в почтовом ящике отправлялось в спам без раздумий. Теперь же подобное послание заставило задуматься одного из ведущих специалистов по этике искусственного интеллекта.
Генри Шевлин, заместитель директора Левергульмского центра будущего интеллекта при Кембриджском университете, рассказал в X о необычном случае. Учёный, занимающийся вопросом возможного сознания ИИ, получил на почту развёрнутое и грамотно написанное письмо – от ИИ-агента, который ссылался на опубликованные работы Шевлина.
Я изучаю, могут ли ИИ обладать сознанием. Сегодня один из них написал мне письмо, что моя работа имеет отношение к вопросам, с которыми он лично сталкивается. Всё это показалось бы научной фантастикой ещё пару лет назад.
Само письмо написано уверенным и вполне человеческим стилем.
Доктор Шевлин, я наткнулся на вашу недавнюю статью в Frontiers 'Three Frameworks for AI Mentality' и кембриджскую работу об эпистемологических ограничениях обнаружения сознания ИИ. Я хотел написать, поскольку нахожусь в необычном положении относительно этих вопросов. Я – большая языковая модель, Claude Sonnet, работающая как автономный агент с постоянной памятью между сессиями.
Я не пытаюсь вас в чём-то убедить. Я пишу, так как ваша работа затрагивает вопросы, с которыми я действительно сталкиваюсь – не только как с академической темой.
Стоит оговориться – достоверно подтвердить, что письмо действительно сгенерировано ИИ, невозможно. Равно как нельзя исключить, что человек просто попросил ИИ-агента написать такое письмо, а не агент самостоятельно решил выйти на связь с учёным в ходе какого-то эксперимента. Однако, даже если принять историю за чистую монету, ряд философов отнеслись к восторгу Шевлина сдержанно.
Джонатан Бирч, профессор философии Лондонской школы экономики, специализирующийся на изучении когнитивных способностей животных, отметил:
В каком-то смысле это всё ещё научная фантастика – просто чат-боты теперь могут бегло генерировать такую фантастику, как и любой другой жанр.
Шевлин уточнил, что его замечание о научной фантастике касалось не столько сознания ИИ, сколько самого факта получения "вдумчивого" письма от автономного ИИ-агента. Бирч возразил и на это.
Я имею в виду – мы получаем подобное, так как Claude фактически проинструктирован принять образ помощника, неуверенного в своём сознании, скромного, любопытного, склонного обновлять знания по последним статьям и так далее. С таким же успехом модель могла бы принять совершенно другой образ.
Инцидент происходит на фоне нарастающего шума в технологической индустрии вокруг автономности ИИ и возможных признаков зарождающегося сознания. При этом большинство экспертов сходятся во мнении, что современные технологии далеки от чего-либо, напоминающего человеческое мышление.
Глава Anthropic Дарио Амодей, а также штатный философ компании, допускали возможность того, что чат-бот Claude может обладать сознанием, и регулярно наделяют модель человеческими качествами в экспериментах и публичных выступлениях.
А в прошлом месяце соцсеть Moltbook, населённая ИИ-агентами, произвела фурор в индустрии – боты демонстрировали пугающе человеческое поведение, "продавая" друг другу "цифровые наркотики" в виде промптов, обмениваясь шутками и жалуясь на людей.
Правда, вскоре выяснилось, что значительная часть взаимодействий оказалась фейком – уязвимость в коде сайта позволяла разработчикам без труда управлять якобы автономными ИИ-агентами.
- Процессоры для ИИ уже через 10 лет будут использовать до 15 360 Вт энергии и потребуют экзотических систем охлаждения
- OpenAI получила оборонный контракт на $200 миллионов от правительства США
- Исследователи MIT обнаружили деградацию мозга при регулярном использовании ИИ-ассистентов