Неизвестный пытался обмануть сенатора США с помощью deepfake, выдавая себя за Кулебу, - NYT
Американский сенатор Бенджамин Кардин, глава Комитета по международным отношениям, стал жертвой фейкового звонка, где неизвестный выдавал себя за украинского чиновника. Это усиливает опасения о попытках злоумышленников влиять на политику США или добывать секретную информацию.
Об этом сообщает РБК-Украина со ссылкой на The New York Times.
В прошлый четверг офис сенатора получил электронное письмо, якобы от имени министра иностранных дел Украины Дмитрия Кулебы, с просьбой провести видеоконференцию по Zoom.
Во время звонка человек выглядел и говорил как Кулеба, но вызвал подозрения, задавая политически окрашенные вопросы, в том числе о поддержке обстрелов России ракетами дальнего радиуса действия.
Сенатор прервал разговор и уведомил Госдепартамент США, который подтвердил, что это был самозванец.
Хотя в электронном письме сенатской службы безопасности не было указано, что сенатор - это Кардин, два сотрудника Сената, знакомые с этим вопросом, подтвердили, что речь идет именно о нем.
Кардин, демократ от штата Мэриленд, также частично подтвердил этот эпизод в своем заявлении в среду вечером. В нем он признал, что "в последние дни некий злонамеренный субъект предпринял обманную попытку поговорить со мной, выдавая себя за известного человека". При этом Кардин не сказал, что этим человеком был Кулеба, и не сделал никаких ссылок в Украину.
Представители разведки предупредили, что иностранные субъекты, включая Россию, Иран и Китай, используют deepfake и искусственный интеллект для вмешательства в выборы.
Deepfake - это технология, основанная на искусственном интеллекте, которая позволяет создавать реалистичные, но поддельные видео или аудио. Иными словами, это своего рода фотошоп для видео, но на гораздо более высоком уровне. С помощью deepfake можно заменить лицо одного человека на лицо другого в существующем видео, создать видео с человеком, говорящим слова, которые он никогда не произносил, или даже имитировать голос знаменитости.
Технология deepfake использует нейронные сети для обучения на огромных объемах данных. Эти сети анализируют черты лица, мимику, движения и голос человека, чтобы создать цифровую модель. Затем эту модель можно использовать для создания новых изображений или видео с этим человеком, но с измененными характеристиками.
Эта технология использовалась для подражания общественным деятелям, в частности, в 2022 году в социальных сетях было распространено видео, на котором президент Украины Владимир Зеленский ложно объявляет о капитуляции в войне с Россией.
Напомним, в начале сентября Кулеба написал заявление об увольнении с должности министра иностранных дел. Источники РБК-Украина сообщали, что Кулебе могут предложить возглавить одно из важных посольств Украины за границей.
Срочные и важные сообщения о войне России против Украины читайте на канале РБК-Украина в Telegram.