Алгоритмічна справедливість зачіпає безліч аспектів, від кредитного скорингу до систем попереднього взяття під варту. Філософи колись пропонували різні підходи до розуміння і досягнення справедливості в суспільстві. Наприклад, філософ й соціолог Джон Роулз виводив справедливість із поняття неупередженості, припускаючи, що рішення мають бути ухвалені так, ніби вони виходять із вихідного положення, де ніхто не знає свого місця в суспільстві.
Як можна гарантувати, що ШІ-системи діють справедливо і не відтворюють наявні упередження?
На практиці алгоритми ШІ часто навчаються на даних, які можуть відображати людські упередження. ШІ може несвідомо підсилювати існуючу дискримінацію. Так от, cучасний стан впровадження цензури в ШІ напярму декларує цей статус кво. Приклади також включають алгоритми розпізнавання облич, які показують низьку точність для осіб небілих рас, або системи передбачення злочинності, які можуть непропорційно маркувати певні соціальні групи як більш схильні до злочинів.
Розв'язання гордієвого вузла потребує комплексного підходу
Етики ШІ, як-от Тімніт Гебру, виводять цілком очевидну відповідь на розв'язання несправедливості: річ у тім, що неупередженості можна досягти або в повному невелюванні соціальних відмінностей, або в їх асимілюванні. Перший випадок відсилає нас до уявних експериментів Роулза. Тоді як другий апостолює різноманітність та інклюзивність, як мозаїка із безлічі перспектив, що робить несумісним існування упередженості як такої. Бо упередженість протилежна подібним гомогенним владним структурам. У стані “упередженості” привілейовані групи домінують, а всі інші зазнають дискримінації без вшитих принципів гуманності.
Враховуючи, що людські упередження стають комом у горлі створення ідеальної штучної моделі справедливості, можливо побудувати справедливий світ вдасться не нам, подібно тому як ми колись вигадали упорядкований світ диким тваринам.
ПОВНИЙ ТЕКСТ УСІХ “ГЛАВ” ВИ МОЖЕТЕ ЗНАЙТИ У МОЄМУ БЛОЗІ, ЗА ПОСИЛАННЯМ У ШАПЦІ ПРОФІЛЮ