Федеральный судья штата Техас Брэнтли Старр распорядился, чтобы в его зале никогда не использовались материалы, созданные генеративным искусственным интеллектом. А если нейросети были задействованы в работе, то каждый факт должен быть перепроверен человеком.
Решения техасского судьи стало ожидаемым продолжением истории с адвокатом Стивеном Шварцем, который, готовясь к слушаниям, попросил ChatGPT подобрать необходимые прецеденты. Впоследствии оказалось, что все материалы по 6 делам были полностью вымышлены языковой моделью.
Федеральные судьи Техаса имеет право устанавливать конкретные правила для своего зала суда. Брэнтли Старр воспользовался такой возможностью, чтобы в будущем оградить себя и всех участников заседаний от сюрпризов, связанных с нейросетями.
Согласно требованию судьи, все адвокаты должны внести в список дел сертификат, подтверждающий, что ни одна часть иска не была подготовлена генеративным искусственным интеллектом. Если же при подборе материалов были задействованы нейросети, то каждый факт необходимо проверить на точность с помощью печатных изданий или официальных юридических баз данных.
По словам специалистов, генеративные нейросети в их нынешнем состоянии подвержены галлюцинациям и предвзятости. Они способны придумать любую чушь, преподнеся ее, как цитату известного человека. Также, алгоритмы не несут никакой ответственности за предоставляемые факты, что является существенным риском при их использовании в судебных процессах.