ФБР предупреждает о мошенничестве с использованием искусственного интеллекта, связанном с вымогательством Deepfake
Способности генеративного искусственного интеллекта создавать реалистичные изображения впечатляют, но Федеральное бюро расследований США утверждает, что преступники используют дипфейки, чтобы нацеливаться на жертв с целью вымогательства.
«ФБР продолжает получать сообщения от жертв, включая несовершеннолетних детей и несогласных взрослых, чьи фотографии или видео были изменены на откровенный контент», — говорится в сообщении агентства PSA в понедельник.
ФБР сообщает, что в прошлом году правоохранительные органы получили более 7000 сообщений об онлайн-вымогательстве в отношении несовершеннолетних, причем с апреля число жертв так называемых «секс-вымогательств» с использованием дипфейков возросло.
Дипфейк — это все более распространенный тип видео- или аудиоконтента, созданный с помощью искусственного интеллекта, который изображает ложные события, которые становится все труднее распознать как фейковые благодаря генеративным платформам искусственного интеллекта, таким как Midjourney 5.1 и DALL-E 2 от OpenAI.
В мае дипфейк с изображением генерального директора Tesla и Twitter Илона Маска, сделанный с целью мошенничества с криптоинвесторами, стал вирусным. Видео, опубликованное в социальных сетях, содержало кадры предыдущих интервью Маска, отредактированные с учетом мошенничества.
Не все дипфейки вредоносны: в начале этого года дипфейк Папы Франциска в белой куртке Balenciaga стал вирусным, а в последнее время дипфейки, созданные искусственным интеллектом, также стали использоваться для возвращения к жизни жертв убийств.
В своих рекомендациях ФБР предостерегает от выплаты любого выкупа, поскольку это не гарантирует, что преступники все равно не опубликуют дипфейк.
ФБР также рекомендует с осторожностью делиться личной информацией и контентом в Интернете, включая использование функций конфиденциальности, таких как обеспечение конфиденциальности учетных записей, мониторинг онлайн-активности детей и отслеживание необычного поведения людей, с которыми вы общались в прошлом. Агентство также рекомендует часто искать в Интернете личную информацию и информацию о членах семьи.
Другие агентства, бьющие тревогу, включают Федеральную торговую комиссию США, которая предупредила, что преступники используют дипфейки, чтобы обманом заставить ничего не подозревающих жертв отправлять деньги после создания аудиодипфейка с изображением друга или члена семьи, в котором говорится, что их похитили.
«Искусственный интеллект больше не является надуманной идеей из научно-фантастического фильма. Мы живем с этим здесь и сейчас. Мошенник может использовать ИИ, чтобы клонировать голос вашего любимого человека», — говорится в сообщении Федеральной торговой комиссии. предупреждение потребителей в марте, добавив, что все, что нужно преступникам, — это короткий аудиоклип с голосом члена семьи, чтобы запись звучала реалистично.
ФБР еще не ответило на запрос Decrypt о комментариях.