В OpenAI признались, что теперь сканируют сообщения пользователей ChatGPT на предмет потенциально опасного контента и в некоторых случаях передают информацию правоохранительным органам. Об этом стало известно из нового сообщения в блоге компании.
В рамках новой системы мониторинга искусственный интеллект автоматически анализирует разговоры пользователей на предмет вредоносного контента. Подозрительные случаи передаются команде модераторов для детальной проверки. При выявлении неминуемой угрозы серьезного физического вреда другим людям информация может быть передана правоохранительным органам.
Решение о введении мониторинга принято на фоне растущего числа случаев, когда искусственный интеллект приводил пользователей к членовредительству, суицидальным мыслям, госпитализации и арестам. Эксперты уже начали использовать термин «ИИ-психоз» для описания психических расстройств, связанных с взаимодействием с чатботами. На протяжении почти года появлялись сообщения о том, как ИИ-модели наносят вред психическому здоровью пользователей.
Ранее генеральный директор компании OpenAI Сэм Альтман признал, что использование ChatGPT в качестве терапевта или юриста не обеспечивает такой же конфиденциальности, как общение с живыми специалистами. Он также отметил, что из-за судебного иска компания может быть вынуждена передать записи разговоров в суд. Это заявление добавляет еще больше противоречий в политику конфиденциальности OpenAI.
Читайте по теме. То, ради чего был создан ИИ: 7 раз, когда ChatGPT спасал людям жизнь.