У мережі можна знайти цікаву історію однієї панди на ім’я Meng Er. Коли він розламує бамбук, він демонструє вирази, немов це складне завдання. Однак ми можемо уявити приблизну силу панди та зрозуміти, що розламати бамбук для неї — не надто складна задача. Цю поведінку пояснюють тим, що панда Meng Er був розлучений зі своєю матір’ю і вирощувався під опікою Пекінського зоопарку. Там щоразу, коли доглядач намагався розламати бамбук навпіл, він зосереджено морщив чоло і скреготів зубами, а Meng Er, спостерігаючи за цими діями, почав їх повторювати. Очевидно, що Мeng Er не усвідомлює, навіщо він імітує міміку. Він просто повторює поведінку, яку спостерігав раніше, оскільки це стало частиною його повсякденної рутини.
Загалом, ця коротка історія описує те, як працюють сучасні Generative Large Language Models (коротко G.L.L.M (Gollem) або Gen.AI).
Коли користувач робить свій запит у Gen.AI, він очікує отримати відповідь, яка була б причетна до логіки заданого промпту. Як правило, алгоритми видають якісно точні результати, але іноді можна зустріти такі конфабуляції ШІ, які не ґрунтуються на натренованих даних та створюють шалені та дурні відповіді.
Коли таке відбувається, ми відкрито заявляємо — наш ШІ галюцинує.
Традиційно галюцинації ШІ сприймаються як суто алгоритмічна помилка, що виникає під час неправильного декодування результатів генерації трансформером. Однак у цій статті ми відійдемо від суто технічного огляду ШІ та зосередимося на можливих емерджентних властивостях, властивих усім складним системам, у тому числі взаємодії різних компонентів нейронної мережі.