Генеративный ИИ позволит недобросовестным ученым создавать фейковые доказательства своих открытий. И подобные случаи уже происходят. Это создает серьезные проблемы для академических издателей, борющихся с мошенничеством в научных статьях.
Опишите изображение для DALL-E, Stable Diffusion и Midjourney, и они создадут его за считанные секунды. За последние несколько лет нейросети быстро совершенствовались и теперь способны создавать реалистичные картинки.
Модели преобразования текста в изображение сегодня широко доступны, дешевы в использовании, и они могут помочь хитрым ученым подделывать результаты и публиковать фиктивные исследования.
Манипулирование изображениями уже вызывает серьезную озабоченность у академических издателей. Раньше авторы могли использовать всевозможные уловки, такие как переворачивание, поворот или обрезка частей одного и того же изображения. Им нередко удавалось вводить в заблуждение редакторов. Но теперь недобросовестные исследователи могут создать любую картинку «с нуля».
Качество научных исследований ухудшится, если академические издатели не смогут найти способы обнаружения поддельных изображений, считают эксперты.
В настоящее время Управление перспективных исследовательских проектов Министерства обороны США (DARPA) запустило свою программу семантической криминалистики SemaFor, способную обнаруживать картинки, созданные нейросетью.
Она находится на стадии разработки, но специалисты надеются, что с помощью таких инструментов удастся эффективно бороться с мошенниками.