Хакеры начали использовать ИИ для обмана своих жертв
С помощью нейросетей киберпреступники подделывают голоса близких людей своих жертвМошенники нашли новый способ обмана, используя искусственный интеллект для подделки аудио и видеосообщений. По информации Аллы Храпуновой, куратора платформы «Мошеловка», злоумышленники взламывают аккаунты в WhatsApp, скачивают переписку и затем с помощью ИИ создают дипфейки, имитируя голос и видео жертвы. Это позволяет мошенникам отправлять сообщения от имени жертвы её знакомым, подделывая интонацию и манеру общения.
По словам Храпуновой, такие мошенники начинают общение с обычных тем, избегая разговоров о деньгах. Лишь позже они переходят к просьбам о финансовой помощи. Эксперт советует всегда проверять просьбы о помощи, связываясь с человеком другим способом, и использовать «контрольные вопросы», ответы на которые знает только владелец аккаунта.
Если вы заметили, что ваш аккаунт взломан, важно как можно скорее предупредить свои контакты через другие каналы связи и отключить все активные сеансы в WhatsApp. Также полезно сообщить о мошеннических счетах в банк, чтобы предотвратить дальнейшие транзакции.