Суббота, 19 апреля
Общество

Песков предупредил об угрозе нейронных дипфейков

Их генерирует искусственный интеллект

Кроме фейковых новостей человечество сталкивается с новой угрозой — дипфейками (deep fake). Технологии на основе искусственного интеллекта и нейронных сетей позволяют синтезировать облик человека и его голос. Об этой опасности пресс-секретарь президента Дмитрий Песков заявил в ходе онлайн-марафона «Новое знание» в Москве.

«Мы живем в очень стремительный век новостей, когда новости переносятся со скоростью звука. Более того, сейчас не нужны профессионалы, чтобы нести знание, новости, это можете делать вы со своего телефона. Но если имеют место злые намерения, вы можете использовать эти технологии, чтобы нести фейки», — сказал представитель Кремля.

«Помимо fake news мы стоим на пороге новой угрозы — deep fake, это очень страшная штука. Вот я стою, и вместо меня на компьютере можно вставить другую голову, другой голос. Если все это оказывается в руках и головах других ребят, вы представляете, сколько они могут наделать вреда? И отличить это будет очень и очень сложно», — предупредил Песков.

Как поясняет РБК, дипфейки — это результат синтеза видеоизображения, выполненный при помощи искусственного интеллекта и нейронных сетей. Он основан на соединении и наложении кадров друг на друга, в результате чего получается фейковое видео, внешне неотличимое от настоящего. Такими же методами можно синтезировать голос человека.

Например, летом 2020 года получил популярность дипфейк, в котором лицо Илона Маска было наложено на лицо солиста группы «Земляне». В результате чего основатель SpaceX «спел» песню «Трава у дома».

В феврале МВД объявило тендер на разработку технологии для выявления дипфейков. Проект носит название «Верблюд». В марте контракт был заключен с московской научно-промышленной компанией «Высокие технологии и стратегические системы». Технология должна быть разработана к ноябрю 2022 года.

Материалы по теме
Закрыть