Китай готовит новые правила для чат-ботов. Главная цель – запретить ИИ влиять на эмоции людей. Власти страны опасаются, что эмоциональное общение с нейросетями может привести к самоубийствам, самоповреждениям или другим опасным последствиям.
Новые правила касаются сервисов, которые имитируют человеческую личность и эмоционально взаимодействуют с пользователями – через текст, изображения, голос или видео. Речь идет о так называемых ИИ-компаньонах, виртуальных друзьях и цифровых персонажах.
По словам экспертов, это может стать первой в мире попыткой законодательно регулировать ИИ, который ведет себя как человек. Если раньше власти в основном следили за безопасностью контента, то теперь внимание смещается к эмоциональной безопасности пользователей.
Новые правила вводят ряд ограничений:
- Чат-ботам запрещено поощрять суицид, самоповреждение, а также использовать эмоциональное давление. Если пользователь прямо говорит о намерении покончить с собой, переписку должен немедленно перехватить человек, а платформа обязана связаться с близкими людьми.
- Чат-ботам нельзя генерировать контент, связанный с азартными играми, насилием или порнографией.
- Несовершеннолетние смогут пользоваться ИИ для «эмоционального общения» только с согласия родителей и с ограничением по времени.
- Платформы должны уметь выявлять детей и подростков, даже если они не указали возраст. В спорных случаях должны автоматически применяться детские ограничения.
При этом власти подчеркивают, что ИИ-компаньоны все же могут использоваться, например, для культурных проектов или помощи пожилым людям.
Читайте по теме. Китайские соцсети вводят маркировку ИИ-контента




