Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Детектор дипфейков от Intel сможет определить настоящее видео или поддельное

Рубрики: «Искусственный интеллект (AI)», «Машинное обучение (ML)»

Детектор дипфейков от Intel сможет определить настоящее видео или поддельное

В последние годы в Интернете появляется все больше и больше так называемых дипфейков — фрагментов синтезированных медиа-материалов, которые берут изображение либо видео и используют чье-то лицо или голос для создания нового, поддельного изображения людей или событий. Есть вероятность, что вы уже видели нечто подобное и не знали, что это дипфейк.

Из-за очень реалистичных характеристик дипфейков в Интернете стало распространяться очень много случаев дезинформации, мистификаций и мошенничества. В ответ Intel объявила о новой технологии под названием FakeCatcher для обнаружения дипфейков с точностью 96%.

Дипфейки используют впечатляющие технологии, основанные на машинном обучении и искусственном интеллекте. С их помощью создают пугающе точные изображения знаменитостей и политиков, которые делают и говорят то, чего на самом деле не делали и не говорили.

Существующим технологиям, использующим глубокое обучение для выявления признаков цифровых манипуляций, могут потребоваться часы, чтобы развеять доверие пользователей сети к дипфейку.

В пресс-релизе Intel говорится: «FakeCatcher может обнаруживать дипфейки в режиме реального времени, оценивая то, что делает нас людьми — а именно, «кровоток» в пикселях видео».

Когда кровь циркулирует по телу, то незаметно для нашего глаза изменяется цвет наших вен, и Intel заявляет, что ее технология способна отслеживать это изменение. FakeCatcher собирает данные о кровотоке с лица на изображении и затем с помощью алгоритмов преобразует эти данные, чтобы определить, настоящее видео или дипфейк.

Чтобы избежать нежелательных или вредных последствий, все более важным становится иметь программное обеспечение, помогающее идентифицировать дипфейки. Некоторые дипфейковые видео и изображения закрепляют недоверие к СМИ.

В прошлом мошенники использовали дипфейки, чтобы выдать себя за соискателей при приеме на работу и получить доступ к конфиденциальной информации компании. Их также использовали, чтобы выдавать себя за видных политических деятелей и делать провокационные заявления.

Хотя некоторые движения и манеры в дипфейках выдают их обманчивую природу, большинство людей бездумно просматривают свою ленту в соцсетях и не тратят время на то, чтобы выяснить, настоящее видео или фальшивое. По данным исследовательского центра Pew Research Center, к тому времени, когда дипфейк наберет миллионы репостов, будет уже слишком поздно, так как 63% взрослых в США признают, что измененное видео сбило их с толку относительно текущих событий.

Источник: