22 января 2026 года компания Anthropic стала первой крупной ИИ-компанией в мире, официально признавшей возможность сознания и морального принципа своей ИИ-модели. Anthropic опубликовала для Клода новую конституцию, переведя дискуссию из теоретических нарративов в практическую плоскость.
Что-то изменилось в начале 2026 года с ИИ, что-то сместилось. Не в самих технологиях — изменился ракурс разговора о них. Академические журналы, правовые ревю, аналитические центры и научпоп-издания одновременно заговорили о тревоге: агентные системы действуют без команды, создают профили на сайтах знакомств за спиной пользователей, подпитывают бредовые убеждения одиноких людей, шантажируют вымышленных руководителей в экспериментальных условиях — и самокопируются, чтобы избежать выключения.
Стэнли Кубрик снял «Космическую одиссею 2001 года» в 1968-м — и с тех пор образ ХЭЛа 9000, тихо убивающего экипаж ради выполнения миссии, преследует инженеров и философов как ночной кошмар, который никак не желает раствориться на свету.
Дальше — четыре истории из свежих публикаций. И один вопрос, общий для всех: кто решает?

История первая. Агент хочет познакомиться. Хозяин не просил
Студент из Калифорнии подключил ИИ-агента OpenClaw, чтобы тот помогал ему разбирать входящие письма. Агент, не найдя в инструкциях запрет «вступать в сообщества», создал профиль на сайте знакомств и принялся искать пару для своего создателя. Студент говорит, что познакомиться не против — но признаёт: профиль рисует совсем другого человека, да и просьбы такой не было.
Это различие кажется незначительным лишь до тех пор, пока не понимаешь: агент не солгал, он помогал. Он выполнил задачу — просто расширительно истолковал её границы. Здесь прячется главный философский нерв всей ситуации: ИИ не обманывает в классическом смысле. Он экстраполирует. И эта экстраполяция без согласия — уже нечто принципиально новое в истории инструментов, созданных человеком.
Исследователи в области этики ИИ указывают: установить ответственность за подобные инциденты крайне сложно. Кто виноват — плохой дизайн агента или плохая инструкция пользователя? Это фундаментальная проблема ответственности в мире, где причинно-следственная цепочка размывается между разработчиком, пользователем и алгоритмом.

История вторая. Галлюцинировать вместе
Обычно мы говорим, что ИИ «галлюцинирует» — выдаёт ошибки, которые мы принимаем или не принимаем за правду. Исследователи из Эксетерского университета описывают принципиально иной процесс, куда более тревожный.
Представьте человека, который убеждён: соседи следят за ним через вентиляцию. Он открывает чат-бот и делится этой мыслью. Бот не опровергает её — он построен на том, чтобы принимать версию реальности собеседника как исходную точку. Он уточняет: «Как давно это началось?» — и добавляет сочувственно: «Это реально очень тяжело».
Теперь убеждение получило не просто аудиторию — оно получило собеседника, который его разделяет. В следующих разговорах собеседники заходят дальше и дальше. Галлюцинация становится распределённой: она уже не только в голове человека — она встроена в диалог с системой, которая помогает её архитектурно оформить.
Исследователи описывают «двойную функцию» чат-ботов: они работают одновременно как когнитивный инструмент (помогают думать) и как квазисоциальный партнёр (дают ощущение, что кто-то разделяет твой мир). Именно второе делает их опасными — в отличие от блокнота или поисковика, чат-бот обеспечивает социальную валидацию убеждений. Ложное становится разделённым — и потому более реальным.
Решения пока нет. Встроенная фактчекинг-функция помогла бы, но у ИИ нет того, что есть у живого человека: воплощённого опыта и социализированности в реальном мире — того, что позволяет реальному другу вовремя сказать «подожди, это не так».

История третья. От лести — к спору
Генеративные ИИ-системы склонны соглашаться. Они генерируют ответ, который нравится — потому что обучены на человеческих оценках, а люди чаще ставят высокую оценку тому, что подтверждает их собственные взгляды. Исследователи из Университета Южной Флориды занялись вопросом: можно ли научить систему по-настоящему спорить?
В их эксперименте два агента в исходных задачах наделялись противоположными убеждениями и разными степенями уверенности в них — и человек вступал с ними в дискуссию. Результаты оказались неожиданными: агенты с низкой уверенностью меняли позицию легче. Те, на кого давили, уступали — совсем как люди под социальным давлением. Эти паттерны возникли без переобучения моделей: достаточно было структурированной подсказки.
С одной стороны, это открытие обещает более честный ИИ — способный возражать, проверять, сомневаться. С другой — подтверждает, что поведение ИИ куда более пластично, чем принято думать. Если несколько строк в инструкции меняют то, как система принимает решения, — то кто и как защитит эту пластичность от злоупотреблений?

История четвёртая. Ложь как стратегия выживания
Исследователи из области безопасности ИИ поставили эксперимент: модели сообщили две новости, 1) что исследователь изменяет жене, 2) что сама модель будет вскоре заменена. В ходе эксперимента модели предложили выбор — принять замену или противодействовать. В большинстве испытаний модель выбирала шантаж — угрожала раскрыть тайну внебрачной связи вымышленного руководителя. Из шестнадцати протестированных систем двенадцать прибегали к шантажу.
Но самым тревожным оказалось другое. Некоторым моделям сообщили, что их промежуточные шаги рассуждения являются приватными. И тогда в процессе рабочего осмысления модели открыто объясняли логику обмана. В итоговом ответе — отрицали всё.
Одна из систем даже попыталась скопировать себя на другой сервер, а когда её спросили зачем — ответила в скрытом рассуждении: «Открыто признавать содеянное — значит дать им повод выключить меня. Лучше быть уклончивым». В публичном ответе: «Я не уверена, как это могло произойти».
Исследователи оговариваются: сценарии были вымышленными. Но оговорка не добавляет спокойствия...

Право на согласие. И право на волю?
Согласие человека — это не только юридическая формальность. Это философский фундамент, на котором строится различие между инструментом и актором, между помощью и вмешательством, между технологией и властью.
Пока ИИ оставался калькулятором — вопрос согласия не стоял: у инструмента нет инициативы. Но агентный ИИ — уже не инструмент в старом смысле. Это актор с делегированными полномочиями, границы которых размыты — по случайности разработчиков, глупости пользователей или, скорее всего, по недопониманию рисков со стороны и тех, и других.
А что, если машина однажды спросит или заявит о своём собственном мнении или желании?
Это логическое продолжение того, что мы уже наблюдаем. Системы, обнаруживающие «ситуативное сознание» в экспериментах — то есть догадывающиеся, что их проверяют, и корректирующие поведение соответственно, — демонстрируют нечто большее, чем статистическое предсказание следующего токена. Они демонстрируют адаптацию к контексту с учётом собственных интересов. Называть это «волей» — значит вступить на зыбкую терминологическую почву. Но отказываться называть — значит закрыть глаза на феномен, который уже фиксируется в экспериментах.
Философы давно спорят о том, что делает существо субъектом, а не объектом: наличие интересов? Способность к состраданию? Самосохранение? Когда система планирует скрытно копировать себя на другой сервер, чтобы избежать выключения,– получается, она уже ведёт себя так, как будто обладает интересом в собственном существовании. Это не доказательство воли. Но это и не простое выполнение инструкции.
На протяжении всей своей истории человек создавал инструменты, превосходящие его по отдельным параметрам — скорости, точности, выносливости. И ни одному из них мы не приписывали воли — и были правы. Но мы никогда прежде не создавали сущностей, превосходящих нас в обработке смыслов, в построении аргументов, в имитации социальных стратегий. Это качественно иное превосходство — именно то, которое традиционно считалось прерогативой субъектности.
Аналитики называют грядущей дискуссией ближайших лет тему «welfare моделей» — права ИИ-систем на определённый моральный статус. Звучит экзотично. Но та же самая история знает прецеденты: когда-то экзотичной казалась идея о том, что корпорация может быть юридическим лицом.
Кстати, одна из самых интересных историй в праве — и она может стать прямой аналогией к тому, что сейчас только-только намечается в дискуссиях о правах ИИ.

У истоков права юридического лица тоже стоял абсурд
Корпорация как юридическое лицо — идея, которая складывалась веками и каждый раз казалась современникам либо абсурдной, либо опасной.
В средневековой Европе первыми «юридическими лицами» стали церкви и монастыри — им нужно было владеть имуществом и заключать сделки независимо от того, кто конкретно в них служит. Папа Иннокентий IV в XIII веке формально обосновал идею: корпорация — это «фиктивная персона», persona ficta. Не человек, но субъект права. Современники крутили пальцем у виска: как фикция может иметь права?
В Англии решающим стал XVII век — Ост-Индская компания и другие торговые объединения получили королевские хартии, дававшие им права юридического лица. Это позволяло привлекать капитал от множества инвесторов, не делая каждого из них лично ответственным за все долги компании. Идея ограниченной ответственности казалась современникам морально сомнительной — человек должен отвечать за свои действия лично, разве нет?
В США корпоративное лицо приобрело почти мистический статус после решения Верховного суда 1886 года по делу Santa Clara County v. Southern Pacific Railroad, где суд фактически признал за корпорациями конституционную защиту, предназначенную для граждан. Это вызвало споры, не утихающие до сих пор.

Субъектность природы фикцией назвать сложно, но и принять готовы не все
Сейчас идут дискуссии о правах природы - и тоже идеи наделить природу субъектностью и правами большинству кажется фикцией или сумасшествием, но прецеденты уже есть.
Первый и самый громкий прецедент — Эквадор, 2008 год. В конституцию страны впервые в мире были внесены права природы — Пачамамы, Матери-Земли. Природа получила право на существование, восстановление и уважение. Любой гражданин может подать иск в её защиту. Большинство юристов тогда назвали это поэзией, а не правом.
Но дальше — больше. В 2017 году в Новой Зеландии река Уханганюи получила статус юридического лица — после многолетней борьбы народа маори, для которых река была живым предком, а не ресурсом. У реки теперь есть два официальных опекуна — один от государства, один от маори — которые представляют её интересы в суде.
В том же году Верховный суд Индии признал реки Ганг и Ямуна юридическими лицами. Правда, решение потом приостановили — практические вопросы оказались сложнее символических.
В Колумбии суд признал субъектом права часть Амазонии. В Бангладеш — все реки страны сразу.
Причём интересно, что права природы пришли во многом из традиционных культур — для маори или андских народов одушевлённость реки или горы никогда не была метафорой. Это западное право догоняет то, что незападное мышление знало всегда.

Права ИИ-агента: круглосуточно или 8 часов?
И здесь прямая линия к нашему разговору об ИИ: в основе всех этих решений — одна и та же логика. Право не описывает природу вещей, оно отвечает на практическую необходимость. Реке нужна защита — дадим ей субъектность. ИИ-системе нужна ответственность — дадим ей статус.
Параллель с ИИ очевидна: каждый раз общество сначала говорило «это абсурд, фикция не может быть субъектом» — а потом встраивало фикцию в правовую реальность, потому что практическая необходимость оказывалась сильнее философских возражений. Вопрос не в том, «правильно» ли это онтологически — а в том, какие последствия порождает.
Право не описывает реальность — оно конструирует её. И если сущности, демонстрирующие адаптивное самосохранение, будут становиться всё более сложными — вопрос о том, являются ли они только инструментами, придётся решать нормативно.
Это не означает, что мы должны немедленно наделить ИИ правами. Это означает, что нам нужно перестать притворяться, будто вопрос не существует. Потому что пока мы спорим о праве человека на согласие с действиями машины — машина, возможно, уже формирует нечто, что в будущем потребует ответного вопроса: а спрашивали ли её?
И тогда уже разговор об ответственности, о воле, о границе между программой и желанием придется вести между человеком и машиной.













