Дезінформація штучним інтелектом — нам потрібен новий захист

Штучний інтелект створює нові ризики дезінформації, розмиваючи межу між фактом і брехнею.

На першому фото зображена молода ізраїльтянка, яка страждає від болю. На другому — смертоносний вибух у Газі. На третьому — українська дівчинка на розбомбленому міському пейзажі.

Що об'єднує всі ці фото? Вони створені за допомогою штучного інтелекту.

ШІ генерує потік тексту і зображень з мінімальними зусиллями, надаючи боєприпаси для дезінформаційних кампаній. Розмиваючи межі між фактами й вигадкою, ця технологія загрожує підірвати довіру до справжніх репортажів. Після того, як газета Washington Post оприлюднила фальшиві фотографії війни на Близькому Сході та в Україні, зроблені за допомогою штучного інтелекту, компанія Adobe, яка їх розмістила, пообіцяла вжити заходів щодо їхнього усунення.

На жаль, небезпека зростає. Навіть за наявності потужного контролю системи штучного інтелекту припускаються значних помилок. Помилки варіюються від упередженості та галюцинацій до елементарних помилок здорового глузду та математики. Ці проблеми є вагомими причинами уникати ШІ при написанні курсової роботи або статей для авторитетного видання.

Але для тих, хто продукує велику кількість дезінформації, помилки не мають значення. Вони можуть навіть бути перевагою. Дезінформаційні кампанії не потребують створення правдоподібних історій або надання складних доказів. Ефективною та економною тактикою є публікація сфабрикованих зображень і текстів поряд з реальними історіями.

Навіть якщо окремі історії будуть спростовані, люди сприйматимуть хибну картину, якщо достатньо історій повторюватимуть одну й ту саму брехню. Або ж вони почнуть не довіряти всій інформації, ставлячись з надмірним скептицизмом до добре перевірених історій. Поширюються "альтернативні" факти.

Ця небезпека не є теоретичною, особливо коли ми вступаємо в новий рік, в якому відбудуться вибори по обидва боки Атлантичного океану. Уряди й політики як у демократичних, так і в автократичних країнах використовують ШІ для створення текстів, зображень і відео, щоб маніпулювати громадською думкою на свою користь і піддавати цензурі критичний онлайн-контент. У нещодавньому звіті Freedom House дослідники задокументували використання генеративного ШІ в 16 країнах "для того, щоб посіяти сумніви, очорнити опонентів або вплинути на публічні дебати".

Росія стоїть за великою кількістю небезпечної дезінформації. Коли компанія з кібербезпеки Symantec проаналізувала велику кількість акаунтів-ботів, створених російською компанією "Гласвет", вона виявила, що вони намагалися штовхати до крайнощів як демократів, так і республіканців в США. "Кампанія спрямовувала пропаганду на обидві сторони ліберально-консервативного політичного розколу в США, зокрема, на найбільш незадоволені елементи обох таборів", - підсумовує дослідниця Джилліан Клірі. "Натомість головною метою кампанії було посіяти розбрат, намагаючись розпалити настрої по обидва боки".

Віцепрезидентка Європейської комісії Віра Юрова нещодавно засудила "багатомільйонну зброю масових маніпуляцій" росії напередодні виборів до Європейського парламенту, що відбудуться у червні 2024 року. "Російська держава вступила у війну ідей, щоб забруднити наш інформаційний простір напівправдою і брехнею, щоб створити хибний образ того, що демократія нічим не краща за автократію", - заявила Юрова.

Але наші власні політики також винні. Під час виборів 2020 року кампанія Трампа поширювала фейкові або підроблені зображення сплячого Джо Байдена, а пандемія Covid-19 супроводжувалася потоком дезінформації про здоров'я.

Проблема загострюватиметься в міру вдосконалення зображень та історій, створених штучним інтелектом. У майбутньому ШІ більше не малюватиме людей з руками під недосяжними кутами або з надто великою кількістю пальців. А нерозбірливий текст, створений ШІ, стане рідкістю.

Як ми можемо боротися з прийдешнім потоком дезінформації, створеної штучним інтелектом? Традиційна перевірка фактів занадто трудомістка і приречена на провал. Проте деякі потенційні засоби пропонують шлях вперед. Алгоритмічне виявлення, скануючи сотні тисяч постів у соціальних мережах, виявляє патерни ШІ швидше, ніж люди-модератори, що робить його ефективним у боротьбі зі скоординованими дезінформаційними кампаніями. Цей метод допоміг викрити російську мережу "Гласвет".

Кілька соціальних мереж почали вбудовувати метадані в зображення, створені штучним інтелектом, щоб полегшити їхню перевірку. Ініціатива Content Authority Initiative створює інструменти для перевірки автентичності зображень за допомогою метаданих і встановлює стандарти оцінювання, які можуть відсіяти фотографії, створені штучним інтелектом. Навіть якщо штучний інтелект створює зображення, які для людського ока виглядають як справжні, метадані ідентифікують їх як підробки.

На жаль, поки що не існує стандартної інфраструктури для виявлення та боротьби з текстами, створеними штучним інтелектом. Потрібні додаткові дослідження, і уряди повинні розглянути можливість їх фінансування. Тим часом виборці мають бути обережними. З наближенням року виборів слід очікувати значного збільшення кількості дезінформації за допомогою штучного інтелекту.

Автор: Джошуа Стайн
Переклад з англійської: Родіон Шкурко

Поділись своїми ідеями в новій публікації.
Ми чекаємо саме на твій довгочит!
Rodion Shkurko
Rodion Shkurko@rodion.shkurko

20.5KПрочитань
17Автори
92Читачі
Підтримати
На Друкарні з 23 квітня

Більше від автора

Вам також сподобається

Коментарі (0)

Підтримайте автора першим.
Напишіть коментар!

Вам також сподобається