Мошенникам на заметку. OpenAI представила предварительную версию генератора голоса, который способен создавать естественную речь на основе одного 15-секундного аудиообразца.
Компания сообщает, что протестировала Voice Engine во множестве возможных вариантов использования, включая помощь в чтении детям, языковой перевод и восстановление голоса у больных раком.
В OpenAI признали, что существуют огромные риски, что технологией будут пользоваться мошенники. Именно поэтому компания пока воздерживается от более широкого выпуска программного обеспечения из-за возможности злоупотреблений.
– Мы осторожно и осознанно подходим к более широкому выпуску из-за возможности злоупотребления синтетическим голосом. Мы надеемся начать диалог об ответственном использовании технологии и о том, как общество может адаптироваться к этим новым возможностям. На основе дискуссии и результатов испытаний мы примем более взвешенное решение о том, стоит ли внедрять эту технологию в широких масштабах, – говорится в сообщении компании.
Компания заявила, что взаимодействует с американскими и международными партнерами из правительственных кругов, СМИ, индустрии развлечений, образования, гражданского общества и других сфер, чтобы обеспечить учет их мнений в процессе разработки.
Компания заявила, что ее правила использования запрещают выдавать себя за другого человека без согласия или законного права. Указывается, что широкое развертывание должно сопровождаться проверкой подлинности личности. В документе также содержится призыв к созданию списка запрещенных голосов, чтобы предотвратить подделку личностей известных людей.
Доцент психологии из Университета Нью-Мексико Джеффри Миллер указал, что появление подобной технологии в открытом доступе может нанести непоправимый ущерб самой OpenAI.
– Когда миллионы пожилых людей будут обмануты на миллиарды долларов этими глубокими фальшивыми голосами, будет ли OpenAI готова к последующему цунами судебных разбирательств? – спросил спикер.