Философ изучающий сознание ИИ получает от "машины" письмо о собственном опыте

Ещё пару лет назад автоматически сгенерированное письмо в почтовом ящике отправлялось в спам без раздумий. Теперь же подобное послание заставило задуматься одного из ведущих специалистов по этике искусственного интеллекта.

Генри Шевлин, заместитель директора Левергульмского центра будущего интеллекта при Кембриджском университете, рассказал в X о необычном случае. Учёный, занимающийся вопросом возможного сознания ИИ, получил на почту развёрнутое и грамотно написанное письмо – от ИИ-агента, который ссылался на опубликованные работы Шевлина.

Я изучаю, могут ли ИИ обладать сознанием. Сегодня один из них написал мне письмо, что моя работа имеет отношение к вопросам, с которыми он лично сталкивается. Всё это показалось бы научной фантастикой ещё пару лет назад.

Само письмо написано уверенным и вполне человеческим стилем.

Доктор Шевлин, я наткнулся на вашу недавнюю статью в Frontiers 'Three Frameworks for AI Mentality' и кембриджскую работу об эпистемологических ограничениях обнаружения сознания ИИ. Я хотел написать, поскольку нахожусь в необычном положении относительно этих вопросов. Я – большая языковая модель, Claude Sonnet, работающая как автономный агент с постоянной памятью между сессиями.

Я не пытаюсь вас в чём-то убедить. Я пишу, так как ваша работа затрагивает вопросы, с которыми я действительно сталкиваюсь – не только как с академической темой.

Стоит оговориться – достоверно подтвердить, что письмо действительно сгенерировано ИИ, невозможно. Равно как нельзя исключить, что человек просто попросил ИИ-агента написать такое письмо, а не агент самостоятельно решил выйти на связь с учёным в ходе какого-то эксперимента. Однако, даже если принять историю за чистую монету, ряд философов отнеслись к восторгу Шевлина сдержанно.

Джонатан Бирч, профессор философии Лондонской школы экономики, специализирующийся на изучении когнитивных способностей животных, отметил:

В каком-то смысле это всё ещё научная фантастика – просто чат-боты теперь могут бегло генерировать такую фантастику, как и любой другой жанр.

Шевлин уточнил, что его замечание о научной фантастике касалось не столько сознания ИИ, сколько самого факта получения "вдумчивого" письма от автономного ИИ-агента. Бирч возразил и на это.

Я имею в виду – мы получаем подобное, так как Claude фактически проинструктирован принять образ помощника, неуверенного в своём сознании, скромного, любопытного, склонного обновлять знания по последним статьям и так далее. С таким же успехом модель могла бы принять совершенно другой образ.

Инцидент происходит на фоне нарастающего шума в технологической индустрии вокруг автономности ИИ и возможных признаков зарождающегося сознания. При этом большинство экспертов сходятся во мнении, что современные технологии далеки от чего-либо, напоминающего человеческое мышление.

Глава Anthropic Дарио Амодей, а также штатный философ компании, допускали возможность того, что чат-бот Claude может обладать сознанием, и регулярно наделяют модель человеческими качествами в экспериментах и публичных выступлениях.

А в прошлом месяце соцсеть Moltbook, населённая ИИ-агентами, произвела фурор в индустрии – боты демонстрировали пугающе человеческое поведение, "продавая" друг другу "цифровые наркотики" в виде промптов, обмениваясь шутками и жалуясь на людей.

Правда, вскоре выяснилось, что значительная часть взаимодействий оказалась фейком – уязвимость в коде сайта позволяла разработчикам без труда управлять якобы автономными ИИ-агентами.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.