Исследователи предупреждают о злоупотреблениях хакерами ИИ

Быстрое развитие искусственного интеллекта повышает риски того, что злоумышленники в скором времени будут использовать эти технологии для создания автоматических атак, в том числе вызывать аварии самоуправляемых автомобилей или превращать коммерческие дроны в целевое оружие.
25 исследователей в области техники и государственной политики из Кембриджа, Оксфорда и Йельского университета, военные эксперты и специалисты по безопасности опубликовали работу, в которой обеспокоены потенциальным злоупотреблением ИИ странами-изгоями, преступниками и хакерами-одиночками.
Исследователи заявили, что злонамеренное использование ИИ угрожает цифровой, физической и политической безопасности, позволяя осуществлять широкомасштабные, точно нацеленные, высокоэффективные атаки. В работе рассматриваются разработки последних пяти лет.
Мы все согласны со множеством положительных применений ИИ, – сказал сотрудник Института Будущего Человечества в Оксфорде Майлз Брандэйдж. – В литературе был пробел в вопросе о злонамеренном использовании.
Искусственный интеллект или ИИ считается мощной силой для раскрытия всех технических возможностей, но стал предметом резких споров о влиянии массовой автоматизации на уровень безработицы и появление других социальных дислокаций.

98-страничный документ предупреждает о снижении стоимости атак, благодаря использованию ИИ для тех задач, которые ранее требовали человеческого труда и опыта. Могут возникнуть новые атаки, которые нецелесообразно разрабатывать только для людей или которые использовали бы уязвимости самих систем ИИ.
Для устранения этих опасностей в работе содержится призыв к сотрудничеству правительств, политических и технических экспертов.
ИИ способен генерировать синтетические изображения, текст и аудио, чтобы олицетворять других в Интернете, тем самым он может поколебать общественное мнение. Подобную тактику могут использовать авторитарные режимы.
В работе содержится ряд рекомендаций, в том числе о регулирование ИИ как двунаправленной военной/коммерческой технологии.
Исследователи задались вопросом, должны ли ученые раскрывать и публиковать новые разработки в области ИИ до того, как другие специалисты в этой области не изучат их и не выявят потенциальные опасности, которые они могут представлять.
В итоге мы получили гораздо больше вопросов, чем ответов, – сказал Брандейдж.
Некоторые предсказания ученых сбылись во время написания работы. Авторы предположили, что ИИ можно использовать для создания высоко реалистичных фейковых аудио и видео с публичными людьми в целях пропаганды.
В конце прошлого года в интернете появились так называемые «deepfake», порнографические видео с лицами знаменитостей, очень хорошо прицепленными к разным телам. Пока это произошло с порнографией, но это не означает, что такого не будет с пропагандой.
Источник: REUTERS