Штучний інтелект може стати небезпечною зброєю в руках терористів та кіберзлочинців. Про це йдеться в опублікованому днями стосторінковому дослідженні The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. В чому саме полягає загроза світові з боку AI і як цьому зарадити?

Звіт, в якому висвітлюються загрози штучного інтелекту для людства, був створений групою з 26 провідних дослідників штучного інтелекту – вчених Оксфордського, Кембриджського і Стенфордського університетів, експертів Electronic Frontier Foundation та OpenAI та представників інших авторитетних організацій. K750 публікує основні тези масштабного дослідження.

Небезпека для цифрового світу

Можливості АІ стають більш потужними. У дослідженні визначається три основні напрями, для яких існує найбільше ризиків – цифрова безпека, фізичні об’єкти та політична сфера.

В чому полягає небезпека для цифрової сфери? Штучний інтелект, потрапивши в руки зловмисників, може знизити перешкоди для проведення руйнівних хакерських атак.

«Розумні» технології можуть виявити критичні помилки програмного забезпечення та швидко вибирати потенційних жертв для фінансових злочинів. Більше того, АI може сприяти використанню соціальної інженерії як методу атаки. «Інформація з інтернету про ту чи іншу людину використовується для автоматичного створення шкідливих сайтів/посилань чи електронних листів, на які, швидше за все, відповідатиме потенційна жертва, адже вони надходитимуть від справжніх людей та імітуватимуть їхній стиль спілкування», – прогнозує звіт.

Подальший розвиток AI, на думку авторів дослідження, може призвести до того, що переконливі чат-боти зможуть долучати людей до тривалих діалогів, таким чином збільшуючи рівень довіри до себе, або навіть набувати вигляду реальних людей у відеочаті.

Роботи-вбивці

Іншою небезпекою, яка з’являється на горизонті, є можливість атаки на фізичні об’єкти. Автори звіту попереджають, що AI може проникати у системи безпілотних автомобілів, управляти ними та призводити до аварій. Ще одним прикладом може бути використання «армій дронів», які за допомогою технології розпізнавання обличчя можуть вбивати людей, наголошується у дослідженні.

У звіті описується сценарій, в якому робот-прибиральник офісів на ім’я SweepBot, оснащений бомбою, проникає у міністерство фінансів Німеччини та «губиться» серед інших машин такого ж виробника. Робот-зловмисник спочатку поводить себе природньо – збирає сміття, підмітає коридори, доглядає за вікнами, аж поки програма для розпізнавання обличчя не зафіксує певну особу (міністра) і не запустить пусковий механізм.

Прихований вибуховий пристрій вбиває міністра та спричиняє поранення працівників, які стояли неподалік – так закінчується науково-фантастична історія-передбачення, викладена в звіті.

Фейк як нова реальність

На політичному фронті штучний інтелект може використовуватися як інструмент спостереження, створення більш цілеспрямованої пропаганди та активного розповсюдження дезінформації. Держави можуть використовувати автоматизовані платформи спостереження для придушення інакомислення. Штучний інтелект може надсилати користувачам персоналізовані повідомлення, щоб вплинути на їхню поведінку під час виборів.

AI у руках зловмисників відкриватиме нові можливості для розповсюдження фейкових новин. Використання досягнень в області обробки зображень і звуку забезпечать створення високореалістичних відео з державними діячами, які нібито роблять провокаційні заяви. Більше того, створення та публікація фейкових новин може стати автоматизованим. Вже сьогодні роботи часто пишуть новини зі спортивних подій, а також роблять публікації на основі фінансових звітів.

Fabrice Coffrini/AFP/Getty Images

«Виробництво та поширення високоякісних підробок дешевшає, а значить, такі «синтетичні мультимедіа» можуть скласти значну частку контенту засобів масової інформації та інформаційної екосистеми в цілому», – пишуть дослідники.

Вихід є?

Автори звіту не пропонують точних сценаріїв дій, за яких штучний інтелект не зможе стати потужною зброєю в руках злочинців та маніпуляторів. Втім, аналітики дають кілька важливих порад, як протидіяти потенційній небезпеці.

По-перше, на думку авторів звіту, політики повинні співпрацювати з розробниками технологій та спільно визначити, де існують загрози неправомірного використання AI. По-друге, розробники технологій, усвідомлюючи «подвійне призначення» штучного інтелекту, мусять сприяти ефективному використанню технології та вживати заходів, що запобігають шкідливому використанню AI.

По-третє, автори звіту рекомендують працювати над розширенням кола зацікавлених сторін, які можуть сприяти попередженню та пом’якшенню ризиків неправомірного використання AI. Йдеться про підтримку громадянського суспільства, експертів з питань національної безпеки, дослідників AI та питань кібербезпеки, підприємств, що пропонують продукти з AI, етиків і так далі.

Автори доповіді визнають, що найкращим способом протидії AI є… AI. Водночас вони зауважують: “Захист, що базується на штучному інтелекті, не є панацеєю, особливо коли ми дивимося за межі цифрового світу».