Авторские материалы Британская королева попалась в нейросеть
Персоны
Британская королева рассказала «правду» и станцевала на столе в рождественском ролике: "альтернативное поздравление" выпустил местный телеканал. Видео сделали с помощью нейросети. В нем скопированы манеры Елизаветы II, но содержание предпраздничной речи – юмористическое. Шутливая версия выступления королевы взбесила многих британцев. Они назвали ролик отвратительным и подлым. Насколько законна новая технология, позволяющая подставить лицо любого человека в видео, и как отличить дипфейк на глаз? Тему продолжит корреспондент «Вестей ФМ» Мария Скородилко.
Новое видео британского телеканала оказалось скандальным. В нем английская королева выступает с ежегодной речью под Рождество.
Мир сошел с ума. Ведь королева всегда выходит в эфир на BBC и ITV, ну а Channel 4 в это время показывает что-то альтернативное. Разоблачая вранье BBC, Елизавета благодарит 4-й канал за возможность "говорить правду" и без обиняков делится впечатлениями о 2020. Делится сплетнями об отъезде принца Гарри в Канаду с женой. Не забывает и о скандале с принцем Эндрю из-за дружбы с человеком, которого ранее обвинили в сутенерстве. А еще танцует на столе на фоне сверкающей елки для блога в TikTok.
«Около 70 лет я соблюдала традицию выступать с обращением к народу в канун Рождества. Но на BBC у меня не было возможности говорить прямо и честно. Именно поэтому я благодарю Channel 4 за такую возможность – сказать все, что я хочу, не пряча важные слова. Главной темой моего выступление станет доверие. Вера в то, что подлинно, а что – нет. Этот год стал для многих из вас годом изменений. И многим благодаря ему не хватало туалетной бумаги».
Сама технология появилась в 2014 в Стэнфорде. В основе дипфейка – нейросеть. Она подробно изучает лицо человека, а затем подставляет к исходному файлу лицо того, кого нужно спародировать. С дипфейком чаще всего играются журналисты и блогеры: зрителей смешит Трамп, которого принимает на работу его нелюбимый российский телеканал.
«Сам Путин предложил мне работу. Я мог ответить: «Нет уж, спасибо!» или сказать: «Спасибо!». Я сказал: «Конечно, давайте!». – Итак, я представляю вам моего соведущего – Дональда Трампа. – Спасибо, Сьюзен, дальше я сам. – Вообще-то, я Никки. – «Любое имя, детка, выбирай сама! А как еще мне сражаться с фейковыми новостями? И с репортерами, которые говорят неправду? CNN – сплошной негатив».
Иногда подобные технологии даже полезны. Так, в прошлом году в прокат вышел 9 эпизод «Звездных войн». В списке актеров значилась покойная на тот момент Кэрри Фишер, чей персонаж появился в фильме, несмотря на смерть актрисы.
И все же дипфейки опаснее "Фотошопа". Войну нейросети объявили все популярные соцсети, крупные поисковики и университеты. Однако ничего серьезного против дипфейков пока что нет.
Некоторые подделки настолько убедительные и несмешные, что искажают правду. Так, об опасностях дипфейков однажды предупреждал и фальшивый Обама:
«Мы вступаем в эру, в которой наши враги могут создать впечатление, будто кто-то говорит что-либо в любой момент времени».
А 2 года назад Сеть заполонили порноролики с лицами голливудских актрис. Однако звезды, попавшие в неудобное положение, сразу же задались вопросом: легально ли это? Ведь подобные технологии с использованием чужого лица сравнимы с воровством текстов, фотографий и музыки. Вот и закон говорит: использовать чужое изображение без письменного согласия человека нельзя. И здесь юристы отвечают: звезды могут решить эти вопросы через суд. Ведь контекст, в котором используют их снимки, может испортить репутацию. А жалобы обычных людей, скорее всего, рассмотрят с точки зрения вреда. Просто «не нравится, что лицо подставили» в этом случае никого не убедит.
Разоблачить же искусственный интеллект на глаз сложно, но возможно. Плохие дипфейки будут размытыми по краям. Лицо героя может быть сглаженным, словно натянутым на глобус. И вообще, будет ощущение наигранности. Таких видео, правда, все меньше. А значит, часто фальшивка видна лишь другим алгоритмам, которые комбинируют видеоданные и исследуют вещи на уровне пикселей. И это – не глаз, говорит директор агентства «Трико» Илья Калимулин.
КАЛИМУЛИН: Появляются новые технологии и способы создания нейросетей. Они построены на других физических принципах. Можно попытаться сравнить исходник видео с фотоаппарата с фейковым. Называется метод – "выявление по типовой карте". Но если исходника нет, отличить практически нереально.
Правда, подделка – это не всегда плохо. Ведь их используют в рекламе. Лицом новогодней рекламной кампании «Сбера» стал Жорж Милославский, не узнать которого просто невозможно.
«Граждане! Храните деньги в сберегательной кассе! – Жорж! – Где я? – Вы в 2020. – Что-то мне не по себе».
Созданный с помощью искусственного интеллекта герой сегодня рассказывает россиянам обо всех услугах банка, который давно уже больше чем просто банк.