Исследователи предупреждают о злоупотреблениях хакерами ИИ

Робот Sophia, объединяющий новейшие технологии и искусственный интеллект, разработан Hanson Robotics. Фото: REUTERS
Робот Sophia, объединяющий новейшие технологии и искусственный интеллект, разработан Hanson Robotics. Фото: REUTERS

Быстрое развитие искусственного интеллекта повышает риски того, что злоумышленники в скором времени будут использовать эти технологии для создания автоматических атак, в том числе вызывать аварии самоуправляемых автомобилей или превращать коммерческие дроны в целевое оружие.

25 исследователей в области техники и государственной политики из Кембриджа, Оксфорда и Йельского университета, военные эксперты и специалисты по безопасности опубликовали работу, в которой обеспокоены потенциальным злоупотреблением ИИ странами-изгоями, преступниками и хакерами-одиночками.

Исследователи заявили, что злонамеренное использование ИИ угрожает цифровой, физической и политической безопасности, позволяя осуществлять широкомасштабные, точно нацеленные, высокоэффективные атаки. В работе рассматриваются разработки последних пяти лет.

Мы все согласны со множеством положительных применений ИИ, – сказал сотрудник Института Будущего Человечества в Оксфорде Майлз Брандэйдж. – В литературе был пробел в вопросе о злонамеренном использовании.

Искусственный интеллект или ИИ считается мощной силой для раскрытия всех технических возможностей, но стал предметом резких споров о влиянии массовой автоматизации на уровень безработицы и появление других социальных дислокаций.

Фото: pctechmag.com
Фото: pctechmag.com

98-страничный документ предупреждает о снижении стоимости атак, благодаря использованию ИИ для тех задач, которые ранее требовали человеческого труда и опыта. Могут возникнуть новые атаки, которые нецелесообразно разрабатывать только для людей или которые использовали бы уязвимости самих систем ИИ.

Для устранения этих опасностей в работе содержится призыв к сотрудничеству правительств, политических и технических экспертов.

ИИ способен генерировать синтетические изображения, текст и аудио, чтобы олицетворять других в Интернете, тем самым он может поколебать общественное мнение. Подобную тактику могут использовать авторитарные режимы.

В работе содержится ряд рекомендаций, в том числе о регулирование ИИ как двунаправленной военной/коммерческой технологии.

Исследователи задались вопросом, должны ли ученые раскрывать и публиковать новые разработки в области ИИ до того, как другие специалисты в этой области не изучат их и не выявят потенциальные опасности, которые они могут представлять.

В итоге мы получили гораздо больше вопросов, чем ответов, – сказал Брандейдж.

Некоторые предсказания ученых сбылись во время написания работы. Авторы предположили, что ИИ можно использовать для создания высоко реалистичных фейковых аудио и видео с публичными людьми в целях пропаганды.

В конце прошлого года в интернете появились так называемые «deepfake», порнографические видео с лицами знаменитостей, очень хорошо прицепленными к разным телам. Пока это произошло с порнографией, но это не означает, что такого не будет с пропагандой.

Источник: REUTERS