Мошенники используют ИИ для создания дипфейков и обмана

Злоумышленники придумали новую схему обмана и используют ИИ для этого. По данным МВД, мошенники создают видео с дипфейками близких жертвы, которые якобы просят одолжить деньги. Об этом сообщает РИА Новости со ссылкой на официальные материалы ведомства.

В частности, злоумышленники с помощью нейросетей превращают обычные фотографии в реалистичные видео. Искусственный интеллект воссоздаёт мимику, голос, жесты и эмоции человека на фото, а затем генерирует ролики, где «аватар» просит финансовой помощи у родственников и друзей пострадавшего. Такие видео выглядят крайне убедительно и создают дополнительное доверие, что значительно повышает шансы мошенников на успех.

В МВД настоятельно рекомендуют при получении подобных видеосообщений всегда звонить «персонажу» и уточнять детали запроса. Часто именно вовремя заданный вопрос может помочь выявить обман и предотвратить финансовые потери. Если человек просит деньги без объяснения причин, есть высокая вероятность, что его аккаунт взломали или кто-то использует его образ с преступной целью.

На фоне активного роста кибермошенничества Минцифры России разработало второй пакет мер по усилению защиты граждан. Эти меры направлены на предупреждение и борьбу с подобными технологиями обмана, защищая пользователей от финансового и информационного вреда. Ранее Правительство России поручило ведомствам разработать механизм добровольного ограничения доступа к потенциально опасному контенту, который ещё не запрещён законом, но может навредить пользователям.

Таким образом, использование технологий ИИ в кибермошенничестве становится все более сложным и изощренным, что требует от граждан повышенной внимательности и осторожности при общении через цифровые каналы.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *