Шкідливе програмне забезпечення, створене штучним інтелектом, яке уникає виявлення, вже може бути доступним для держав, повідомляє агентство кібербезпеки Великої Британії.
Щоб створити таке потужне програмне забезпечення, зловмисникам потрібно навчити модель штучного інтелекту на "якісних даних про експлойти", - заявили в Національному центрі кібербезпеки (NCSC). Отримана в результаті система створить новий код, який оминає поточні заходи безпеки.
"Існує реальна можливість того, що високопотужні держави мають сховища шкідливого програмного забезпечення, достатньо великі для ефективного навчання моделі ШІ для цієї мети", - попередили в NCSC.
Це попередження стало частиною хвилі тривожних заяв, що лунають з боку NCSC. Агентство очікує, що штучний інтелект посилить глобальну загрозу програм-вимагачів, покращить таргетинг жертв і знизить вхідний бар'єр для кіберзлочинців.
Генеративний ШІ також підвищує рівень загроз. Він особливо корисний для методів соціальної інженерії, таких як переконлива взаємодія з жертвами та створення документів-приманок.
GenAI ускладнить виявлення фішингу, спуфінгу та зловмисних електронних листів або запитів на зміну пароля. Таким чином, кіберзлочинці отримають найпотужнішу зброю.
"Високопрофесійні державні суб'єкти майже напевно мають найкращі можливості серед суб'єктів кіберзагроз для використання потенціалу ШІ в передових кіберопераціях", - зазначили в агентстві.
Однак у найближчій перспективі очікується, що штучний інтелект посилить наявні загрози, а не змінить ландшафт ризиків. Експерти особливо занепокоєні тим, що він посилить глобальну загрозу програм-вимагачів.
"Програми-вимагачі продовжують становити загрозу національній безпеці", - заявив Джеймс Беббедж, генеральний директор з питань загроз Національного агентства по боротьбі зі злочинністю.
"Як показує звіт, загроза, ймовірно, зросте в найближчі роки через розвиток штучного інтелекту та використання цієї технології кіберзлочинцями".