Люди перестали отличать сгенерированные нейросетями видео от настоящих
https://i.playground.ru/p/p4q8bKiv6G....webp?760xauto
Люди перестали отличать сгенерированные нейросетями видео от настоящих
Новое научное исследование демонстрирует тревожную тенденцию в восприятии цифрового контента. Согласно полученным данным, человечество достигло точки, когда способность визуально отличать созданные искусственным интеллектом видеоролики от реальных съемок упала до уровня случайного угадывания. Эффективность распознавания дипфейков теперь сопоставима с подбрасыванием монетки.
Особое внимание специалисты обращают на категорию видео с людьми. Точность выявления сгенерированных говорящих голов опустилась ниже порога случайности и составляет всего 46,6%. Это означает, что зрители теперь чаще ошибаются, принимая фейк за правду, чем дают верный ответ. Распознавание ненастоящих пейзажей и животных дается людям лишь немногим лучше, показывая результаты в 54,7% и 51,7% соответственно.
Добавление звука к видеоряду незначительно повышает шансы на успех, но только в том случае, если речь идет на знакомом респонденту языке. При этом исследователи выяснили интересный факт, касающийся подготовки наблюдателя. Знание о том, что видео может быть сгенерировано нейросетью, никак не влияет на точность его детектирования. Единственным значимым демографическим фактором оказался возраст, так как пожилые люди справляются с идентификацией синтетических медиа заметно хуже молодежи.
Работа была опубликована группой исследователей во главе с Ди Куком. Анализ данных за период с 2019 по 2025 год показывает стремительное падение точности человеческого восприятия по мере совершенствования технологий генеративного ИИ. Если еще несколько лет назад артефакты генерации были очевидны, то современные алгоритмы создают контент, который человеческий глаз уже не в силах надежно отфильтровать без помощи специальных технических средств.
Отсюда: https://www.playground.ru