Крупные компании, такие как Walmart, Nestle, Starbucks, Delta Air Lines, T-Mobile, Chevron и другие используют ИИ для анализа переписки сотрудников в Slack, Microsoft Teams, Zoom и других популярных приложениях. Для этого используется ИИ-модель от стартапа Aware. Об этом рассказывает издание cnbc.com.
Как говорят разработчики, искусственный интеллект не шпионит за сотрудниками – в анализе используются исключительно анонимизированные данные.
– Такой мониторинг позволяет увидеть, как сотрудники определенной возрастной группы или в определенной географии реагируют на новую корпоративную политику или маркетинговую кампанию. ИИ-модель помогает понять риски в их коммуникациях, получая информацию о настроениях сотрудников в режиме реального времени, а не на основе ежегодных или проводимых два раза в год опросов, – рассказывает CEO Aware Джефф Шуманн.
По его словам, десятки моделей искусственного интеллекта, созданных Aware для чтения текста и обработки изображений, могут также выявлять случаи запугивания, преследования, дискриминации, несоблюдения требований, порнографии, обнаженной натуры и другие виды поведения.
По словам разработчиков, аналитический инструмент Aware, который отслеживает настроения и токсичность в общении, не имеет возможности отмечать имена отдельных сотрудников. Но инструмент eDiscovery может это сделать в случае экстремальных угроз или другого рискованного поведения, заранее определенного клиентом.
Впрочем, эксперты считают, что подобное ИИ-наблюдение несет серьезные риски. По словам экспертов, агрегирование или анонимизация информации – это несовершенная концепция. Исследование конфиденциальности информации с использованием данных переписи населения США 1990 года показало, что 87% американцев можно идентифицировать только по почтовому индексу, дате рождения и полу. Клиенты Aware, использующие ее аналитический инструмент, имеют возможность добавлять метаданные к отслеживанию сообщений, такие как возраст, местоположение, подразделение, стаж работы или должностные обязанности сотрудника.
Согласно последним исследованиям, модель искусственного интеллекта, которую использует Aware, может эффективно генерировать выводы из совокупных данных, делая точные предположения, например, о личных идентификаторах на основе языка, контекста, сленговых терминов и многого другого.
– Это оказывает сдерживающее воздействие на то, что люди говорят на рабочем месте. Здесь мы видим проблемы с правами работников и с конфиденциальностью, – отмечает исполнительный директор Института AI Now при Нью-Йоркском университете Эмба Как (Amba Kak).