Мошенники научились использовать искусственный интеллект для того, чтобы “заговорить” на казахском, передаёт BaigeNews.kz со ссылкой на МВД РК.
В полиции предупредили, что аферисты могут отправлять сообщения или звонки, имитируя голоса и текст, похожие на реальных людей – например, от имени банка, правоохранительных органов или ваших близких.
Также они могут использовать технологию Deepfake для создания поддельных изображений известных людей или родственников, чтобы быть убедительнее.
"Обращайте внимание на нелогичные фразы и отсутствие эмоций. Никогда не передавайте свои личные данные (ИИН, номер банковского счёта, пароли) и доверяйте только официальным источникам", - заявили в МВД.