У OpenAI новые амбициозные планы. Компания намерена создать голосовые ИИ-устройства, которым будет не нужен экран, а все взаимодействие будет происходить при помощи звука.
Сообщается, что в первом квартале 2026 года OpenAI планирует представить новую аудиоязыковую модель. Она станет важным шагом к выпуску физического устройства с голосовым управлением.
Внутри компании считают, что голосовые модели пока уступают текстовым – они работают медленнее и делают больше ошибок. Кроме того, большинство пользователей ChatGPT предпочитают писать, а не разговаривать с ИИ. OpenAI надеется, что более качественные аудио-модели смогут изменить эту привычку и сделать голосовое общение удобнее и популярнее.
Для этого OpenAI объединила сотрудников из разных отделов – исследований, разработки и продуктовых команд – в одну инициативу, посвященную аудио-технологиям.
В будущем компания планирует выпустить целую линейку устройств. Первым станет голосовой ИИ-гаджет, а затем могут появиться умные колонки, очки и другие форматы. Главное отличие – упор на голосовое управление, а не на экраны. Такие ИИ-устройства, например, могут быть полезны в автомобилях.
OpenAI движется в этом направлении не в одиночку. Google, Meta, Amazon и другие крупные компании тоже активно развивают голосовые и аудио-интерфейсы. Например, Meta делает ставку на умные очки.
Ожидается, что первое аудио-устройство от OpenAI выйдет примерно через год. Как оно будет выглядеть и что именно сможет делать – пока неизвестно.
Читайте по теме. OpenAI столкнулась с судебными исками из-за ChatGPT




