Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Китай ограничит чат-ботов из-за риска суицидов и зависимости

Китай ограничит чат-ботов из-за риска суицидов и зависимости

Китай чат-боты

Китай готовит новые правила для чат-ботов. Главная цель – запретить ИИ влиять на эмоции людей. Власти страны опасаются, что эмоциональное общение с нейросетями может привести к самоубийствам, самоповреждениям или другим опасным последствиям.

Новые правила касаются сервисов, которые имитируют человеческую личность и эмоционально взаимодействуют с пользователями – через текст, изображения, голос или видео. Речь идет о так называемых ИИ-компаньонах, виртуальных друзьях и цифровых персонажах.

По словам экспертов, это может стать первой в мире попыткой законодательно регулировать ИИ, который ведет себя как человек. Если раньше власти в основном следили за безопасностью контента, то теперь внимание смещается к эмоциональной безопасности пользователей.

Новые правила вводят ряд ограничений:

  • Чат-ботам запрещено поощрять суицид, самоповреждение, а также использовать эмоциональное давление. Если пользователь прямо говорит о намерении покончить с собой, переписку должен немедленно перехватить человек, а платформа обязана связаться с близкими людьми.
  • Чат-ботам нельзя генерировать контент, связанный с азартными играми, насилием или порнографией.
  • Несовершеннолетние смогут пользоваться ИИ для «эмоционального общения» только с согласия родителей и с ограничением по времени.
  • Платформы должны уметь выявлять детей и подростков, даже если они не указали возраст. В спорных случаях должны автоматически применяться детские ограничения.

При этом власти подчеркивают, что ИИ-компаньоны все же могут использоваться, например, для культурных проектов или помощи пожилым людям.

Читайте по теме. Китайские соцсети вводят маркировку ИИ-контента

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Оставайтесь на связи с ER10 Media! Вы можете найти нас в:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *