Большинство россиян не могут отличить сгенерированные нейросетями изображения от настоящих фотографий, показало исследование MWS AI.
В ходе исследования респондентам показали десять изображений людей: четыре из них были созданы искусственным интеллектом, а шесть — реальные снимки. Три из четырех ИИ-фотографий сгенерировали с помощью специализированных нейросетей для создания дипфейков, а четвертую — с использованием обычной языковой модели на основе текстового описания.
Исследование показало, что более 60% участников не смогли отличить дипфейки от реальных фото. Три сгенерированных портрета большинство респондентов приняли за изображения реальных людей — в каждом случае правильных ответов было менее 40%. Один из дипфейков 81% опрошенных посчитали фотографией настоящего человека. При этом изображение, созданное обычной ИИ-моделью, чаще распознавали как сгенерированное. Многие участники также ошибочно приняли три из шести настоящих фотографий за дипфейки.
Эксперты MWS AI объясняют …
Свежие комментарии