Синтезированные искусственным интеллектом лица неотличимы от реальных и вызывают больше доверия

Свое исследование предоставили ученые из университетов Ланкастера (Великобритания) и Калифорнии (США), в журнале PNAS.

В трех экспериментах приняли участие 315, 219 и 223 участника соответственно. В первом добровольцы классифицировали 128 лиц, созданных ИИ, как реальные или синтезированные. Точность, таким образом, составила 48 процентов.

Во втором эксперименте новые участники, которых обучили распознавать  реальные и искусственно созданные лица, определили те же 128 «фотографий», точнее, но ненамного. Процент «попадания» повысился лишь до 59 процентов. На третьем этапе испытуемые оценивали надежность 128 изображений по шкале от одного (очень ненадежно) до семи (очень надежно).

В итоге средняя оценка реальных лиц оказалась на 4,48 показателя ниже, чем у синтезированных и созданных ИИ. То есть участники на 7,7 процента больше доверяли вторым, а не первым, пишет Naked-science.

Настоящие (R) и синтетические (S) лица, ©www.pnas.org

Ученые пришли к выводу, что искусственно созданные лица кажутся людям более реальными, чем естественные. Интересно, что изображения женщин у участников вызывали большее доверие, чем фото мужчин. То же самое касается чернокожих лиц по сравнению с южноазиатскими. Улыбающимся лицам также поставили более высокие оценки достоверности, чем тем, чье выражение лица было нейтральным. Улыбающимся лицам также поставили более высокие оценки достоверности, чем тем, чье выражение лица было нейтральным.

Таким образом, исследование показывает, что механизмы синтеза способны создавать лица, которые неотличимы и заслуживают большего доверия, чем настоящие лица.

Ученый также опасаются, что в цифровом мире, где любое изображение или видео может быть подделано, подлинность любой неудобной или нежелательной записи может быть поставлена ​​под сомнение.

Такие технологии, например, могут использовать в создании порнографического контента с «участием» знаменитостей, «подделывать» лица реальных людей, создавая их «аватары» в ситуациях, в которых они никогда не были.

Несмотря на то, что был достигнут прогресс в разработке автоматических методов обнаружения дипфейкового контента, существующие методы недостаточно эффективны или точны, чтобы бороться с потоком ежедневных загрузок . Таким образом, средний потребитель онлайн-контента должен бороться с тем, чтобы отделить настоящее от подделки.

Титульное фото: courtesy of Shutterstock.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *