Если вам пишет знакомый с просьбой перевести небольшую сумму — легко заподозрить, что это мошенники взломали его аккаунт. Такая схема обмана известна уже много лет. Сейчас ее сильно усовершенствовали: злоумышленники с помощью искусственного интеллекта могут подделать голос и даже видео с вашим близким. «Зеркало» рассказывает, что важно знать, чтобы не попасть в эту ловушку.
В феврале 2024 года мошенники взломали аккаунт оршанца в Telegram, получили доступ к перепискам и сгенерировали поддельное аудио с его голосом. Всем контактам мужчины разослали просьбу помочь и добавили поддельное голосовое сообщение. Звучало достоверно — несколько человек поверили и перевели деньги.
В августе похожую просьбу получила с аккаунта знакомой сотрудница госиздания «Минская правда». У нее попросили 15 тысяч — она ничего не стала переводить.
В феврале 2024 года пользователь из России рассказал о мошенниках, которые внимательно изучили его переписку с другом. Они использовали характерное для его приятеля приветствие «Бро, салют», верно назвали марку машины и год окончания вуза. А после прислали фото банковской карты с его фамилией и просьбой перечислить 50 тысяч российских рублей (540 долларов).
Также есть сообщения и о подделке «кружков» с видео в Telegram — их тоже генерируют при помощи нейросетей.
И, возможно, самый коварный вариант этого обмана: голос могут подделать во время звонка в реальном времени.
«Мошенники звонят потенциальной жертве, говорят голосом родственника и рассказывают вымышленную историю — как правило, связанную с какой-то бедой или катастрофой, выход из которой, конечно, есть, но нужно перечислить определенную сумму денег на определенный счет», — описывал эту схему «СберБанк» Беларусь.
Если звонят с аккаунта близкого человека и говорят его голосом — в это сложно не поверить.
Как такое возможно?
Эта технология называется «дипфейк». Современные AI-модели могут создавать очень убедительные имитации голоса.
Мошенники находят аудио-сообщения в диалогах или чатах, загружают их в качестве образца — и могут «сказать» любую фразу голосом этого человека. Достаточно иметь всего несколько минут образца.
Точно так же и с видео: если есть образец — можно сгенерировать имитацию. Получится видео, где человек «говорит» те слова, которые нужны мошенникам.
Как себя защитить?
— Такие атаки направлены на психику и естественные реакции человека — приходит сообщение — быстро отреагировать на что-то важное. А заподозрить, что сообщение или голос фальшивые, трудно, если они и правда похожи на настоящие. И это нормально! — объясняет эксперт по цифровой безопасности из инициативы CyberBeaver.
Вот несколько советов специалиста на случай, если вы столкнетесь с такой атакой:
- если вам приходит запрос, на который нужно быстро отреагировать, напишите человеку в другом мессенджере и уточните, действительно ли он/она/они вам его прислали. Если атакован был только один аккаунт человека, то другой вариант связи поможет понять, настоящее ли было сообщение;
- проверяйте и уточняйте данные, которые вам присылают, через другой канал связи. Возможно, номер карты, ссылка на оплату и другие реквизиты окажутся не связанными с человеком.
Еще один вариант проверки собеседника — спросить что-то, что знаете только вы двое. Только учитывайте, что ответ не должен фигурировать в ваших предыдущих переписках.
Как распознать подделку?
Пока нейросети работают неидеально — и иногда можно заметить странности. Более надежные варианты проверки указаны выше. Но к тому, что вам прислали, тоже есть смысл присмотреться повнимательнее.
В случае с аудиосообщением имитация может быть очень убедительной. Технически возможно быстро генерировать новые сообщения с фальшивым голосом. То есть если вы попросите записать еще одно голосовое — мошенник в теории сможет это сделать. Однако если слушать внимательно, в сгенерированных аудио можно заметить небольшие неестественности в интонации или произношении.
Заранее подготовленное видеосообщение тоже может быть очень убедительным. Для проверки можно попросить выполнить специфические действия: например, покрутить головой, чтобы ее было видно с разных ракурсов.
Подделка голоса во время голосового вызова в Telegram тоже возможна. При этом могут быть какие-то задержки или артефакты в звуке, но это бывает сложно заметить.
Подделать голос и внешность во время видеозвонка технически можно, но пока сложно. Такая атака потребует от мошенника много времени на подготовку. Для проверки попросите во время видеозвонка показать не только лицо, но и окружающую обстановку с разных ракурсов.
И еще несколько универсальных советов
Если вы не хотите, чтобы ваш Telegram взломали:
- настройте в Telegram двухфакторную аутентификацию («Настройки» — «Конфиденциальность» — «Облачный пароль»). Она добавит дополнительный пароль для входа в аккаунт;
- не переходите по подозрительным ссылкам;
- не вводите на сторонних сайтах учетные и персональные данные.
Что делать, если Telegram уже взломали?
Если аккаунт взломали, но у вас остался доступ:
1. Проверьте и закройте незнакомые сессии (С телефона: Настройки > Устройства. С компьютера: Настройки > Конфиденциальность > Безопасность > Показать все сеансы).
2. Включите облачный пароль (двухфакторную аутентификацию) или поменяйте его. С телефона: Настройки > Конфиденциальность > Облачный пароль. С компьютера: Настройки > Конфиденциальность > Безопасность > Облачный пароль.
Если аккаунт взломали, доступ остался, но сеанс мошенника завершить не получается — есть смысл удалить аккаунт. В будущем вы сможете создать новый на этот же номер.
Если ваш аккаунт взломали и вы потеряли к нему доступ — стоит обратиться в техподдержку и описать проблему.