Хамит клиентам, ругается и не уважает начальство – компании все чаще отключают чат-боты (от розетки), которые «ловят» галлюцинации и начинают себя вести непотребным образом. По словам известного исследователя ИИ Гэри Маркуса, бизнес все чаще обнаруживает, что на искусственный интеллект просто нельзя положиться. И таких примеров становится все больше.
Одна британская компания была вынуждена отключить свой чат-бот после того, как он начал ругаться с клиентами и весьма нелестно отзываться о своих работодателях. Калифорнийский автосалон был вынужден сделать то же самое после того, как чат-бот, начал предлагать покупателям автомобили по $1.
Американская авиакомпания была вынуждена возместить ущерб после того, как ее чат-бот обманул скорбящего клиента, сказав ему, что если он купит билет за полную стоимость, чтобы присутствовать на похоронах своей бабушки, то позже ему будет гарантирована скидка в связи с тяжелой утратой. Такие случаи приводит издание futurism.com.
– Никто не хочет создавать продукт на основе модели, которая все выдумывает. Основная проблема заключается в том, что модели GenAI – это не информационно-поисковые системы. Они являются синтезирующими моделями, не способными отличать данные, на которых они обучаются, если не будут установлены существенные ограничения, – говорит генеральный директор консалтинговой компании Humane Intelligence Румман Чоудхури.
– Бизнесмены говорят, что технология очень крутая, но они не могут заставить чат-боты работать достаточно надежно, чтобы внедрить их для работы с клиентами, – продолжает Гэри Маркус.
Многие эксперты говорят, что на рынке ИИ раздут пузырь, но сама технология слишком далека от совершенства. Вероятно, считают они, потребуется немало времени пока ИИ избавится от детских болезней и превратится в эффективный рабочий инструмент. Но не факт, что такая перспектива понравится инвесторам.
– Легко сказать, что через несколько месяцев вы увидите чудо. Но оно может не произойти. Не потому, что я не думаю, что ИИ или AGI невозможны, а просто потому, что у этой конкретной технологии много проблем, – отметил Гэри Маркус.
Недостатки технологии трудно не заметить. Большие языковые модели, такие как ChatGPT, склонны к галлюцинациям и распространению дезинформации. Чат-боты и нейросети, создающие изображения, обвинялись в плагиате, а аппаратное обеспечение, используемое генеративным ИИ, на данный момент требует огромного количества энергии.