Ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов сообщил, что мошенники уже умеют использовать нейросети и дипфейки для своих целей.
Они могут создавать синтезированные доказательства, которых на самом деле не было, и использовать их для мошенничества. Об этом информирует РИА «Новости».
Например, они могут создавать дипфейки, чтобы написать посты в социальных сетях со ссылкой на мошенническую страницу.
Эксперт отметил, что мошенники постоянно эволюционируют и создают дипфейковые видео, которые уже сложнее отличить от настоящих.
Однако, по мнению Тушканова, дипфейки не являются плохой технологией. Они могут быть использованы в обучающих видео и кинематографе.
Но для мошенников это возможность заставить людей поверить в их сообщения.
Мошенники также используют ажиотаж вокруг нейросетей и доступность ChatGPT для своих целей.
Тушканов считает, что запретить искусственный интеллект законодательно не выход.
Нужно правильно применять технологию и устанавливать правила ее использования.
В разных странах могут быть разные правила, например, заставлять предупреждать, что говоришь с роботом, а не с человеком, и подписывать сгенерированную картинку, чтобы не вводить людей в заблуждение.
Ранее сообщалось, что РБК объяснило кризис госдолга США.