Сгенерированные ИИ голоса начали обманывать россиян
Роскачество предупреждает о новом виде мошенничества, использующем технологии искусственного интеллекта для клонирования голоса. Первые случаи такого мошенничества были зафиксированы в западных странах в 2022 году, а в начале 2023 года они стали появляться и в России. В одном из таких случаев в Подмосковье, мошенники, используя голос бабушки, выманили у школьницы 300 тысяч рублей. Для создания клона голоса достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети.
Роскачество призывает быть бдительными и предупредить близких о возможных схемах обмана. Важно не вестись на эмоции и перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу.
Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества, отмечает, что схемы обмана остаются прежними, но инструменты становятся все более прогрессивными. Любой человек, у которого есть смартфон и деньги на счету, может стать потенциальной жертвой мошенников, особенно пожилые люди и подростки. Поэтому важно провести беседу с близкими, придумать кодовое слово, как сообщается в Роскачестве.
Читайте также:
В Лахденпохском районе Карелии ввели режим ЧС
На юге Карелии столкнулись сразу четыре автомобиля, один водитель скрылся
В Петрозаводске автобус с пассажирами врезался в столб на оживленной магистрали
Пришлось накладывать несколько швов: 74-летняя бабушка пробила школьнику голову из-за громких разговоров