
pixabay.com
Полицейские предупреждают казахстанцев о рисках мошенничества с использованием искусственного интеллекта, передаёт BaigeNews.kz.
С развитием технологий искусственного интеллекта мошенники приобрели новые возможности для обмана граждан. Они могут подделывать голоса, создавать фальшивые видео, имитировать знакомых людей и даже взламывать личные аккаунты с помощью нейросетей.
«Если раньше преступники звонили от имени банков и полиции, то теперь они могут клонировать голос вашего близкого человека и просить срочно перевести деньги. Кроме того, злоумышленники создают поддельные видео с помощью ИИ, якобы с вашим участием, и шантажируют ими жертв. Эти технологии делают обман более правдоподобным, поэтому важно быть особенно бдительными», – отметил начальник управление по противодействию киберпреступности ДП Жамбылской области Валихан Агыбаев.
Полиция призывает не переводить деньги по аудио и видеосообщениям, даже если они поступили от знакомых. Всегда проверять срочные просьбы через другие каналы связи. Не открывать подозрительные ссылки и файлы, чтобы избежать фальшивых сайтов. Рекомендуется настроить двухфакторную аутентификацию для защиты ваших аккаунтов.
Мы есть в YouTube и в Google News, в социальных сетях ВК, Одноклассники, Фейсбук, Tik Tok и Инстаграм. Хотите получать новостную рассылку? У вас есть новости: фото, видео? Наш номер в WhatsApp и Telegram 8-707-558-35-13. Отправляйте заявку, мы добавим ваш номер в рассылку.