Генеральный директор OpenAI Сэм Альтман заявил, что предоставит ранний доступ к следующей крупной генеративной ИИ-модели Институту безопасности ИИ США (U.S. AI Safety Institute) для тестирования безопасности. Это правительственное ведомство занимается оценкой и устранением рисков на платформах искусственного интеллекта.
Это второе подобное соглашение с государственными органами. Ранее компания заключила аналогичную сделку с британским органом, отвечающим за безопасность ИИ.
Похоже, OpenAI намеревается опровергнуть мнение о том, что компания отодвинула на второй план работу над безопасностью ИИ в погоне за более мощными технологиями генеративного ИИ.
Напомним, в мае OpenAI фактически расформировала подразделение, занимавшееся проблемой разработки средств контроля для предотвращения выхода «сверхинтеллектуальных» систем ИИ из-под контроля.
По сообщениям СМИ, OpenAI отбросила исследования безопасности в пользу запуска новых продуктов, что в конечном итоге привело к отставке двух соруководителей Ильи Суцкевера и Яна Лейке.
В ответ на обвинения критиков, OpenAI заявила, что отменит ограничительные положения о неразглашении с увольняемыми сотрудниками, создаст комиссию по безопасности, а также выделит 20% своих вычислительных ресурсов на исследования в области безопасности.