Неможливо уникнути хайпу навколо штучного загального інтелекту. Не проходить і дня без нового заголовку про концепцію, яка передбачає, що комп'ютерні системи перевершують людину у виконанні різних когнітивних завдань.
Лише за останній місяць трійця технологічних гігантів зробила нові заяви. Генеральний директор Nvidia Дженсен Хуанг припустив, що AGI з'явиться протягом п'яти років. Бен "батько AGI" Гертцель спрогнозував лише три. Ілон Маск зазвичай робив найсміливіші прогнози щодо переломного моменту: кінець 2025 року.
Проте не всі налаштовані настільки оптимістично. Одним із відомих скептиків є Ян Лекун, головний науковець зі штучного інтелекту компанії Meta та лауреат престижної премії Тьюрінга.
Лекун, якого часто називають одним з трьох "хрещених батьків ШІ", навіть стверджує, що "не існує такого поняття, як ШІ", оскільки "людський інтелект далеко не загальний". Він вважає за краще прокладати шлях до "ШІ людського рівня".
На заході у вівторок в Лондоні — флагманському інженерному центрі Meta за межами США — Лекун сказав, що навіть це залишається далекою метою.
Він вказав на квартет когнітивних викликів: міркування, планування, стійка пам'ять і розуміння фізичного світу.
"Це чотири основні характеристики людського інтелекту — а також інтелекту тварин, якщо на те пішло — які не можуть бути притаманні сучасним системам штучного інтелекту", - сказав він.
Без цих можливостей додатки зі штучним інтелектом залишаються обмеженими та схильними до помилок. Автономні транспортні засоби все ще не є безпечними на дорогах загального користування. Домашні роботи не справляються з основними домашніми справами. Наші розумні помічники можуть виконувати лише базові завдання.
Ці інтелектуальні недоліки особливо помітні у великих мовних моделях. На думку Лекуна, вони серйозно обмежені тим, що покладаються на одну форму людських знань — текст.
"Нас легко обдурити, думаючи, що вони розумні через їхнє вільне володіння мовою, але насправді їхнє розуміння реальності дуже поверхневе", - сказав він.
"Вони корисні, в цьому немає жодних сумнівів. Але на шляху до інтелекту людського рівня LLM - це, по суті, з'їзд з дороги, відволікання, глухий кут".
Чому штучний інтелект не такий розумний, яким здається
Такі програми, як LLaMA від Meta, GPT-3 від OpenAI та Bard від Google, навчаються на величезних обсягах даних. За словами Лекуна, людині знадобиться близько 100 000 років, щоб прочитати весь текст, який проковтнув провідний LLM. Але це не наш основний метод навчання.
Ми споживаємо набагато більше інформації через нашу взаємодію зі світом. За оцінками Лекуна, типова чотирирічна дитина бачить у 50 разів більше даних, ніж найбільший у світі магістр права.
"Більшість людських знань насправді не є мовою, тому ці системи ніколи не зможуть досягти людського рівня інтелекту — якщо не змінити архітектуру", - сказав Лекун.
Звісно, він говорить і про альтернативну архітектуру. Він називає її "об'єктивно-керованим ШІ".
Цілі штучного інтелекту
Об'єктно-орієнтовані системи ШІ створюються для досягнення конкретних цілей, поставлених людиною.
Замість того, щоб виховуватися на дієті чистого тексту, вони вивчають фізичний світ за допомогою сенсорів і тренувань на відеоданих.
Результатом є "модель світу", яка показує вплив дій. Всі потенційні зміни потім оновлюються в пам'яті системи.
Яка різниця, наприклад, якщо стілець штовхнути вліво чи вправо в кімнаті? Навчаючись на власному досвіді, кінцеві стани починають ставати передбачуваними. Як наслідок, машини можуть планувати кроки, необхідні для виконання різних завдань.
"Врешті-решт, машини перевершать людський інтелект... але це потребує значного часу", - сказав він. "Це не просто через рік-два — і це точно не наступного року, як сказав наш друг Ілон".
Потрібен сайт? Weblium - це український конструктор сайтів з віртуальним AI-помічником