В России разработали нейросеть для идентификации фейковых лиц на фото и видео.

Просмотров: 86
Понедельник, 16 октября 2023 г.

В России разработали нейросеть для идентификации фейковых лиц на фото и видео. фото

В России разработали нейросеть для идентификации фейковых лиц на фото и видео.

В университете МИСИС разработали нейросеть для поиска дипфейков на фото и видео. Об этом сообщает "Газета.ру". ❕ Дипфейк — это способ создания поддельного медиаконтента с помощью алгоритмов глубокого обучения. Слово deepfake объединяет в себе два понятия — глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake). 🔐 Пользователи смогут загружать изображения для проверки через специально разработанное веб-приложение. Также предусмотрена возможность анализа картинок и видео в реальном времени через камеру компьютера. Для обучения нейросети разработчики использовали набор данных из 16 500 изображений . Это были как подлинные, так и фейковые изображения. Для обучения использовались печатные фотографии и изображения на экранах электронных устройств, маски и персонажи мультфильмов. Приложение анализирует информацию в два этапа, их результаты объединяются и проходят через несколько финальных слоев для получения окончательного вывода о подлинности изображения. Этот подход позволил команде достичь высокого значения точности при определении подлинности лиц. ⌨️ Как россияне относятся к дипфейк-технологиям Согласно опросу, проведенному по заказу "Лаборатории Касперского", каждый десятый респондент пользуется или по крайней мере пробовал такие нейросети, как дипфейк-технологии, умные чат-боты и генераторы изображений. Респонденты отмечают, как преимущества, так и риски таких технологий. Наиболее перспективными россиянам кажутся генераторы изображений: мнение, что за ними будущее, разделяют 43% респондентов . Аналогичная точка зрения относительно умных чат-ботов — у 40% , а дипфейк-технологий — у 31% . Что касается киберрисков, то 45% опрошенных считают, что дипфейк-технологии будут активно использоваться злоумышленниками и недоброжелателями. Часть респондентов боятся, что дипфейк-технологии, умные чат-боты и генераторы изображений могут быть использованы в отношении лично них — 26%, 20% и 17% соответсвенно.