pixabay.com Москва, 23 марта.
Технологии ИИ на службе у аферистов

Злоумышленники активно применяют искусственный интеллект для создания поддельных аудио- и видеоматериалов. С помощью нейросетей они изменяют голосовые характеристики и генерируют фальшивые ролики, имитируя голоса близких людей.
Советы по защите от цифровых угроз
Специалисты МВД РФ рекомендуют проявлять повышенную бдительность при получении неожиданных звонков или сообщений. Даже короткий фрагмент аудио может стать основой для мошеннических схем. Важно проверять информацию через личное общение в безопасных каналах связи.
Отдельное внимание уделяется случаям использования нейросетей для модификации изображений в видео. Подобные технологии применяются аферистами для шантажа или распространения дезинформации. Ведомство призывает граждан оперативно сообщать о подозрительных ситуациях.
Ранее МВД уже предупреждало о рисках ответных звонков на незнакомые номера. Длительное удержание на линии приводит к списанию средств со счёта абонента. Соблюдение простых правил безопасности помогает минимизировать риски.
Источник: ural.aif.ru






