Люди не отличают созданные нейросетью видео от настоящих

В США исследователи провели любопытный тест, попросив 1000 человек разного возраста определить, какие из показанных им роликов были сгенерированы нейросетью OpenAI Sora, а какие сняты реальными людьми.

С задачей не справился ни один человек: большинство участников ошиблись в 5 из 8 попыток.

Опрос проводила компания HarrisX, которая занимается маркетинговыми исследованиями. Она предложила респондентам указать, какие из 8 видео были созданы людьми, а какие сгенерированы ИИ (в наборе 4 ролика были сгенерированы ИИ и столько же созданы людьми). Участники опроса постоянно ошибались, причём в обе стороны: человеческие произведения принимали за подделки и наоборот.

Большинство респондентов сообщило, что развитие ИИ не вызывает у них негативных чувств. 28% указали, что реалистичные ИИ-видео вызывают у них любопытство, 25% сообщили, что открыты новым технологиям, а 18% испытали воодушевление. Страх почувствовали только 2% участников, но на тревогу пожаловались 18%.

Интересно, что большинство опрошенных считают, что сфере ИИ-видео нужно жёсткое законодательное регулирование. Причём без разницы, положительно или отрицательно они относятся к технологии: респондентов всё равно пугает возможность создания дипфейков.

Например, можно сгенерировать видео, на котором человек совершает преступление, а затем наложить на него нужное лицо. Суд, скорее всего, сможет отличить такое «доказательство» от истины, но широкая общественность — нет. Особенно если показать его по телевизору, без возможности перемотать обратно и изучить внимательно. Политики в США опасаются, что в будущем это может дестабилизировать страну перед выборами.

Сейчас Sora ещё недоступна широкой публике, но уже вызывает тревогу среди политиков, создателей контента и работников киноиндустрии. Эта нейросеть от OpenAI генерирует минутные видео из текстовых подсказок.

Их главная особенность — высокая реалистичность и точность в деталях, которая приводит зрителей в замешательство. Верить своим глазам уже нельзя — происходящее на экране может оказаться не реальной записью, а поделкой ИИ.

Поделиться в: