Алексей Рыков, известный как предприниматель и ИИ-режиссёр, выразил озабоченность по поводу технологических возможностей генеративных нейросетей, способных воссоздавать не только внешний облик человека, но и его мимику, жесты, а также характерные поведенческие черты. Он отметил, что такие технологии могут сделать дипфейки мощным инструментом манипуляций.
В интервью газете «Известия», Рыков подчеркнул, что для производства реалистичных видеоматериалов нейросети используют реальные изображения и видео, из которых они извлекают характерные поведенческие модели.
Рыков также уточнил, что подобные технологии уже активно применяются мошенниками. Используя синтетические лица и голоса для видеозвонков, они могут вводить людей в заблуждение. Более того, пользователи социальных сетей сами невольно предоставляют данные для создания таких цифровых копий, делясь своими фотографиями и видео.
В предшествующем интервью старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников делился с RT советами, как эффективно скрывать личные данные на изображениях документов.
05.04.2026 14:13
05.04.2026 11:57