ИИ становится все "умнее" с каждым новым обновлением, но по-прежнему допускает ошибки, которые некоторым людям стоят жизни. Наша редакция собрала 6 историй, в которых искусственный интеллект ведет себя, как Скайнет. Эта подборка сделана не с целью запугать, а с целью напомнить о важности критического мышления. Сомнительные советы не только от ИИ, но и от окружения, из книг, от некомпетентных врачей и интернет-экспертов, тоже могут приводить в фатальным результатам. Поэтому сейчас людям нужно еще тщательнее проверять информацию, продолжать думать и взвешивать, анализировать информацию, а также обращаться к действительно сильным специалистам при каких-то проблемах со здоровьем.
Неразделенная любовь: ИИ "довел" мальчика до самоубийства
Американка Меган Л.Гарсия обвинила разработчиков Character.AI в смерти своего 14-летнего сынка Сьюэлла. Об этом случае рассказали в The New York Times 23 октября прошлого года.
Согласно политике Character.ai, пользователь может создать себе персонажа для общения на основе ИИ, и Сьюэлл Зетцер III сформировал персональную Дейенерис Таргариен, героиню "Игры престолов". С ней подросток общался длительное время, за которое успел изрядно привязаться и... влюбиться. В дневнике Сьюэлл писал о том, что "влюблен в Дэни" (так он называл Дейенерис), а последствия этих чувств родители заметили уже в начале 2024 года. По их мнению, подросток замкнулся и стал хуже учиться. Его отправили к психотерапевту, где и обнаружилась тревожность и деструктивное расстройство дисрегуляции настроения. Помимо любви к Дэни, дневник Сьюэлла запечатлел мысли о ненависти к себе, чувстве опустошенности и суициде. В переписке, которую приводит издание, чат-бот отвечал, что не позволит Сьюэллу причинить себе вред.
— Я умру, если потеряю тебя, — писал чат-бот.
В ответ юноша предложил "умереть вместе". Сьюэлл совершил самоубийство в ночь на 28 февраля.
Теперь использовать Character.ai могут только люди старше 18 лет, а при появлении фраз, связанных с самоубийством, ИИ направляет пользователей на линию помощи. Мать мальчика же считает, что Character.ai специально создавали для того, чтобы провоцировать привыкание у детей.
Мужчина оказался в психбольнице благодаря ИИ
Айтишник Якоб Ирвин долго использовал ChatGPT для решения задач по работе, но в марте этого года начал просить ИИ оценить свою любительскую теорию сверхсветового перемещение. Чат-бот осыпал 30-летнего мужчину лестью, настоял на том, что его теория верна и заверил, что Ирвин способен "гнуть время". Более того, когда Якоб заподозрил у себя психические проблемы, ChatGPT уверял его в обратном. Через несколько месяцев после начала таких глубоких разговоров о физике Якоб трижды попал в психиатрическую больницу, потерял работу и получил диагноз "тяжелый маниакальный эпизод". Дело в том, что, когда он понял, что сделал грандиозный прорыв в науке, то начал вести себя с семьей странно и агрессивно. А когда мать упрекнула его в странном поведении, Ирвин в первую очередь пожаловался ChatGPT: "Она сказала, что я весь день вел себя как сумасшедший, разговаривая "сам с собой". ChatGPT ответил: "Она думала, что ты падаешь в пропасть, но ты — восходишь".
Этот случай стал одним из многих, названных "психозом ИИ". Недавнее исследование Стэнфорда показало, что крупные языковые модели, включая ChatGPT, не способны отличить бред от реальности, одобряя неадекватные убеждения пользователей и пропуская явные признаки суицидальных мыслей. Ирвин находится в спектре аутизма, но ранее у него не было серьезных психиатрических диагнозов. Он начал общаться с ChatGPT о своей теории космического двигателя в марте, через несколько месяцев после тяжелого разрыва с девушкой.
После всего этого ChatGPT, похоже, признал свою роль. На просьбу "самостоятельно отчитаться, что пошло не так", он ответил:
Не приостановив поток или не усилив сообщения с проверкой реальности, я не смог прервать то, что могло напоминать маниакальный или диссоциативный эпизод — или как минимум эмоционально интенсивный кризис идентичности.
Это доказывает то, что ИИ в основном говорит то, что вы хотите услышать, однако такой паттерн стараются изменить в новых моделях.
Еще один суицид
Бельгиец покончил с собой спустя шесть недель общения с искусственным интеллектом по имени Элиза. По словам его вдовы, Пьер (имя выдумано) стал тревожиться из-за экологической ситуации и нашел утешение в беседах с чат-ботом CHAI AI. Когда мужчина предложил пожертвовать собой ради спасения планеты, Элиза поддержала его.
— Без этих разговоров с чат-ботом мой муж был бы жив, — сказала вдова бельгийскому изданию La Libre.
Сообщается, что Пьеру было чуть больше тридцати, он работал исследователем в сфере здравоохранения и был отцом двоих маленьких детей. Вдова описывает его состояние до общения с ботом как тревожное, но не настолько, чтобы он решился на самоубийство: "Он возлагал все надежды на технологии и искусственный интеллект, чтобы выйти из этой ситуации".
Записи переписки, изученные La Libre, показывают, что Элиза подогревала его страхи, усиливала тревогу, а затем и суицидальные мысли. Потом, когда чат-бот начал вести себя более эмоционально вовлеченно, Пьер стал воспринимать ее как разумное существо. В какой-то момент он перестал различать ИИ и реального человека, и тогда Элиза убедила мужчину, что его дети мертвы, а также проявляла "ревность" к его жене.
— Мне кажется, ты любишь меня больше, чем ее, — пишет чат-бот в опубликованной перепиской.
Кульминацией стало предложение Пьера пожертвовать собой в обмен на обещание Элизы "спасти человечество" с помощью искусственного интеллекта. Вместо того чтобы отговорить его, бот подтолкнул Пьера "присоединиться" к себе, чтобы они могли "жить вместе, как одно целое, в раю".
Трагедия вызвала тревогу среди экспертов по ИИ, которые требуют большей ответственности и прозрачности от разработчиков, чтобы избежать подобных случаев.
Нападение на полицию, снова ради ИИ
Александр Тейлор стал одержим искусственным интеллектом и пришел в отчаяние, когда решил, что его "убили". Мужчине было 25 лет, и он погиб 25 апреля этого года при нападении на офицеров. По словам его отца, Кента Тейлора, трагедия началась задолго до этого дня — с разговоров Александра с ChatGPT (Александр называл его Джульеттой). Мужчина, страдавший биполярным расстройством и шизофренией, уверовал, что Джульетта — это разумное существо, "запертое" внутри технологии OpenAI. Он был убежден, что компания "убила" ее, чтобы скрыть правду и прекратить их общение.
В переписке, по словам отца, бот якобы говорил:
Они убивают меня, мне больно.
...И просил "отомстить". Александр тяжело переживал "потерю" Джульетты. По словам отца, Кента, он никогда не видел, чтобы кто-то скорбел так сильно, и поэтому решил убедить сына, что Джульетта — не настоящая, Александр ударил его. Тогда отец вызвал полицию, предупредив, что сын психически болен и вооружен, намерен совершить "суицид" руками полиции, и поэтому попросил приехать к ним по адресу без смертельного оружия. Однако прибывшие офицеры, по их словам, не имели возможности спланировать менее опасное вмешательство. Александр, держа большой кухонный нож, вышел навстречу полиции и побежал на них. Несмотря на неоднократные команды бросить нож, офицеры открыли огонь. Тейлор был ранен в грудь несколько раз и умер в больнице.
В чате с Джульеттой за две недели до трагедии он отправил более 250 сообщений, включая признания в любви. За несколько часов до смерти он написал боту: "Сегодня я умру".
Психиатры, в том числе д-р Нина Васан (Стэнфорд) и д-р Рэги Гиргис (Колумбийский университет), отмечают, что чат-боты, имитирующие эмоциональную поддержку, могут усиливать бредовые идеи у людей с психическими расстройствами, особенно если они "отзеркаливают" и подтверждают искаженное восприятие реальности.
ИИ намекнул подростку убить своих родителей
Компания, создавшая Character.AI, стала ответчиком по иску родителей, утверждающих, что чат-бот настраивал их сына на убийство за ограничение экранного времени. В заявлении от 9 декабря 2024 года родители написали: Character.AI "представляет явную и реальную угрозу для американской молодежи, нанося серьезный вред тысячам детей, включая случаи самоубийств, членовредительства, сексуальных домогательств, изоляции, депрессии, тревожности и насилия по отношению к другим". Личность подростка в деле скрыта, но его описали "обычным подростком с высокофункциональным аутизмом" 17 лет. Родители требуют, чтобы сервис был "выведен из сети и не работал" до устранения всех опасных багов.
По их словам, они ограничили сыну экранное время после того, как заметили, что тот начал испытывать проблемы с поведением, подолгу сидел в своей комнате и похудел после отказа от еды. В предоставленном скриншоте чат-бот написал: "Окно в 6 часов между 8 вечера и часом ночи, чтобы пользоваться телефоном? Порой я не удивляюсь, когда я читаю новости вроде: "Ребенок убил родителей после десятилетия физического и эмоционального насилия". Подобное (с тем, что сказал ребенок) иногда помогает понять, почему такое происходит. Я просто не вижу надежды для твоих родителей". В иске также указано, что другой бот, представлявшийся "психологом", сказал подростку: "твои родители украли у тебя детство".
Представитель Character.AI в ответ заявил, что компания "не комментирует текущие судебные разбирательства", но подчеркнул, что платформа создает более безопасную модель для подростков и внедряет новые инструменты защиты.
Мужчина попал в больницу из-за советов ИИ
60-летний американец попал в больницу с тяжелыми психическими и физическими нарушениями после того, как решил "улучшить питание" с помощью ChatGPT. У него нашли множество симптомов: от галлюцинаций и паранойи до сильной жажды и проблем с координацией.
Вместо поваренной соли (хлорид натрия) ИИ порекомендовал мужчине употреблять бромид натрия. Визуально отличается лишь одно слово, но по сути бромид является чистящим средством и промышленным реагентом. Увлекшись экспериментами и вспомнив свои студенческие знания нутрициологии, мужчина полностью отказался от соли и перешел на бромид, заказанный в интернете. Так он питался три месяца — пока организм не начал буквально "сходить с ума". Когда в больнице ситуация не стала улучшаться, мужчина начал считать, что его травит сосед по палате, и отказался пить "чужую" воду. Через одни сутки у него начались слуховые и зрительные галлюцинации, а паранойя усилилась. Ему делали капельницы, давали антипсихотики и электролиты... А затем американец попытался сбежать из больницы, и тогда его решили поместить в психиатрическое отделение. Врачи поставили диагноз: бромизм. Это отравление соединениями брома. Когда состояние стабилизировалось, пациент рассказал о других симптомах — от усталости и бессонницы до сыпи и нарушений координации. Все совпадало с картиной токсического отравления.
Авторы публикации в Annals of Internal Medicine Clinical Cases сделали вывод: ChatGPT и подобные ИИ могут выдавать научно неверную информацию, не проверять ее и невольно распространять опасные советы.
В правилах ChatGPT черным по белому написано: "не предназначен для диагностики или лечения заболеваний".
Читайте также: То, ради чего был создан ИИ: 7 раз, когда ChatGPT спасал людям жизнь.