Як стати експертом в сфері ШІ. Без реєстрації та SMS

Зміст

Як стати експертом у галузі штучного інтелекту? - я поставив це питання ChatGPT. Наступної секунди він почав генерувати відповідь:

Щоб стати експертом у галузі штучного інтелекту, потрібно докласти чимало зусиль і самовідданості. Ось кілька кроків, які ви можете зробити, щоб стати експертом зі штучного інтелекту:

  1. Вивчіть основи: Почніть з вивчення основ штучного інтелекту, включаючи типи ШІ, машинне навчання, глибоке навчання, обробку природної мови та комп’ютерний зір.

  2. Ознайомтеся з мовами програмування, які зазвичай використовуються в розробці ШІ, такими як Python, R і Java.

  3. Запишіться на онлайн-курси або навчальні програми, які поглиблено вивчають теми ШІ. Такі платформи, як Coursera, edX та Udemy, пропонують різноманітні курси зі штучного інтелекту, які викладають експерти галузі.

  4. Читайте книги та статті, написані експертами та дослідниками в галузі ШІ, щоб бути в курсі останніх тенденцій та досягнень у цій сфері.

  5. Беріть участь в проєктах, пов’язаних з ШІ, щоб отримати практичний досвід і вдосконалити свої навички. Ви також можете долучитися до проєктів з ШІ з відкритим вихідним кодом на таких платформах, як GitHub.

  6. Відвідуйте конференції та воркшопи, щоб познайомитися з іншими фахівцями та дослідниками.

  7. Практикуйтеся розв’язувати задачі за допомогою ШІ, щоб розвинути критичне мислення та навички розв’язання проблем. Такі платформи, як Kaggle, пропонують розв’язувати реальні проблеми з ШІ.

  8. Створюйте власні проєкти з ШІ, щоб застосувати свої знання та отримати практичний досвід. Ви можете почати з невеликих проєктів і поступово збільшувати їхню складність.

  9. Спілкуйтеся з іншими фахівцями з ШІ через соціальні мережі, онлайн-форуми та професійні мережі, щоб обмінюватися знаннями та отримувати нові ідеї.

Пам’ятайте, що для того, щоб стати експертом зі штучного інтелекту, потрібен час і зусилля, тому будьте терплячими та наполегливими у своєму навчанні.

Додати нічого, проте, всім ставати експертами ШІ може й не потрібно, але розбиратись в основах технології, яка швидко проникає у всі сфери нашого життя, необхідно.

На щастя, автори NYT Кевін Рус (Kevin Roose) та Кейд Метц (Cade Metz) випустили серію публікацій на цю тему. Автори не тільки пояснюють простою мової складні концепції ШІ, але й пропонують практичні домашні завдання для закріплення прочитаного матеріалу.

В першій частині пояснюється, що таке штучний інтелект, як він працює за допомогою нейронних мереж, а також про деякі з поточних прикладів застосування та викликів, які стоять перед чат-ботами.

Частина друга зосереджена на концепції великих мовних моделей, або L.L.M., які є типом штучного інтелекту, що забезпечують роботу таких чат-ботів, як ChatGPT, Bing і Bard. У статті розглядаються етапи створення L.L.M. з нуля на прикладі гіпотетичного чат-бота, який допомагає відповідати на електронні листи. Розділ охоплює такі теми, як постановка мети, збір даних, побудова нейронної мережі, навчання моделі та оцінка її ефективності. Також обговорюються деякі виклики та обмеження L.L.M., такі як якість даних, упередженість, етика та узагальнення.

В третій частині йдеться про феномен “галюцинацій” - коли чат-боти генерують правдоподібні, але нерелевантні, безглузді або фактично неправильні відповіді через те, що навчаються на основі величезних обсягів даних, які можуть містити помилки, упередження та сміття.

Частина четверта зосереджена на різних способах використання чат-ботів з ШІ, у повсякденному житті та роботі, наприклад, для пояснення складних понять, редагування текстів, написання коду, створення контенту, узагальнення інформації та розваг.

Завершальна п’ята частина присвячена майбутньому чат-ботів та інших технологій штучного інтелекту в розрізі можливих переваг та небезпек для суспільства і людства. У статті обговорюються деякі з поточних і нових сфер застосування чат-ботів, таких як мультимодальні системи, створення зображень і відео. У публікації також розглядаються деякі виклики та ризики, пов’язані з чат-ботами, такі як конфіденційність даних, упередженість, регулювання, дезінформація, шахрайство та екзистенційні загрози.

Я зробив переклад цих матеріалів та об’єднав їх в одну публікацію. Читайте та розумнішайте!


I. Що таке штучний інтелект?

Оригінал можна знайти за цим посиланням.

Почнімо з початку

Термін “штучний інтелект” часто використовують для опису роботів, безпілотних автомобілів, технологій розпізнавання облич і майже всього іншого, що здається трохи футуристичним.

Група науковців запровадила цей термін наприкінці 1950-х років, коли поставила собі за мету створити машину, яка могла б робити все, що може робити людський мозок — міркувати, розв’язувати проблеми, вивчати нові завдання та спілкуватися природною мовою.

Прогрес був відносно повільним до 2012 року, допоки одна ідея не змінила всю галузь.

Її назва — нейронна мережа. Звучить як комп’ютеризований мозок, але насправді це математична система, яка навчається, знаходячи статистичні закономірності у величезних обсягах даних. Наприклад, проаналізувавши тисячі фотографій котиків, вона може навчитися розпізнавати котиків. Нейронні мережі дозволяють Siri та Alexa розуміти, що ви говорите, ідентифікувати людей і об’єкти в Google Фото і миттєво перекладати десятки мов.

Наступна велика зміна: великі мовні моделі. Приблизно у 2018 році такі компанії, як Google, Microsoft і OpenAI, почали створювати нейронні мережі, які навчалися на величезних обсягах тексту з Інтернету, зокрема, на статтях Вікіпедії, цифрових книгах і наукових працях.

На подив експертів, ці системи навчилися писати унікальну прозу та комп’ютерний код, а також вести складні розмови. Це іноді називають генеративним штучним інтелектом.

Як результат: ChatGPT та інші чат-боти тепер готові кардинально змінити наше повсякденне життя.

Ваше перше завдання

У вас є домашнє завдання! Один з найкращих способів зрозуміти штучний інтелект — використовувати його самостійно.

Перший крок — зареєструватися в цих чат-ботах.

ChatGPT

Bing Chat

Коли все буде готово, просто введіть свій запит (так званий промпт) в текстове поле, і чат-бот відповість вам. Можливо, ви захочете погратися з різними запитами й подивитися, що вийде.

Завдання: Попросіть ChatGPT або одного з його конкурентів написати мотиваційного листа на роботу вашої мрії — наприклад, астронавта NASA.

Можете поділитися результатом в коментарях.

Балачки про чат-ботів

Ми (автори NYT) вже давно висвітлюємо розвиток штучного інтелекту, і обидва написали книги на цю тему. Але те, що відбувається зараз, відчутно відрізняється від того, що було раніше. Нещодавно ми поспілкувалися у Slack з нашим редактором Адамом Пасіком про те, як кожен з нас наближається до цього унікального моменту.

Кейд: Технології, що рухають нову хвилю чат-ботів, просочувалися роками. Але випуск ChatGPT дійсно відкрив людям очі. Він спричинив нові перегони озброєнь в Кремнієвій долині. Такі технологічні гіганти, як Google і Meta, неохоче випускали цю технологію, але тепер вони наввипередки змагаються з OpenAI.

Кевін: Так, це божевілля — я відчуваю, що у мене паморочиться голова. Існує природна схильність скептично ставитися до технологічних трендів. Хіба криптовалюта не повинна була змінити все? Хіба ми не говорили про метаверс? Але зі штучним інтелектом все інакше, частково тому, що мільйони користувачів вже відчувають його переваги. Я брав інтерв’ю у вчителів, режисерів та інженерів, які щодня використовують такі інструменти, як ChatGPT. А він з’явився лише чотири місяці тому!

Адам: Як вам вдається врівноважувати захоплення та обережність щодо того, до чого це може призвести?

Кейд: Штучний інтелект не такий потужний, як може здатися. Якщо ви зробите крок назад, то зрозумієте, що ці системи не можуть повністю дублювати наш здоровий глузд або міркування. Згадайте хайп навколо безпілотних автомобілів: Чи були ці машини дивовижними? Так, напрочуд дивовижними. Чи були вони готові замінити людей-водіїв? Зовсім ні.

Кевін: Я підозрюю, що такі інструменти, як ChatGPT, насправді потужніші, ніж здаються. Ми ще не виявили всього, що вони можуть зробити. І, ризикуючи стати надто екзистенціальним, я не впевнений, що ці моделі працюють інакше, ніж наш мозок. Хіба багато людських міркувань не є просто розпізнаванням закономірностей і прогнозуванням того, що буде далі?

Кейд: Ці системи в чомусь імітують людину, а в чомусь ні. Вони демонструють те, що ми можемо з повним правом назвати інтелектом. Але, як сказав мені генеральний директор OpenAI, це “інопланетний інтелект”. Так, так, вони будуть робити речі, які нас здивують. Але вони також можуть обдурити нас, змусивши думати, що вони більше схожі на нас, ніж є насправді. Вони водночас потужні й недосконалі.

Кевін: Як деякі люди, яких я знаю!

II. Як насправді працює ChatGPT?

Дізнаємось, як працює “велика мовна модель”.

Це переклад другої частини серії публікацій про основи ШІ на прикладі чат-ботів, яка зосереджена на концепції великих мовних моделей, або L.L.M., які є типом штучного інтелекту, що забезпечує роботу таких чат-ботів, як ChatGPT, Bing і Bard.

ChatGPT від Microsoft і Bard від Google, можуть вести людські розмови та писати природну, невимушену прозу на нескінченну кількість тем. Вони також можуть виконувати складні завдання — від написання коду до планування дитячого дня народження.

Але як це все працює? Щоб відповісти на це питання, нам потрібно зазирнути під капот так званої великої мовної моделі (large language model) — типу штучного інтелекту, який керує цими системами.

Великі мовні моделі, або L.L.M., є відносно новим явищем на сцені ШІ. Перші з них з’явилися близько п’яти років тому, і вони були не дуже. Але сьогодні вони можуть створювати електронні листи, презентації та нотатки, а також навчати вас іноземній мові. У найближчі місяці та роки з’явиться ще більше можливостей, оскільки технології вдосконалюються, а Кремнієва Долина намагається заробити на цьому.

Я покажу вам, як створити велику мовну модель з нуля, спростивши та оминувши багато складних математичних розрахунків. Уявімо, що ми намагаємося створити L.L.M., яка допоможе вам відповідати на електронні листи. Назвемо її MailBot.

Крок 1: Визначте мету

Кожна система штучного інтелекту потребує мети. Дослідники називають це цільовою функцією (objective function). Вона може бути простою — наприклад, “виграти якомога більше шахових партій” — або складною, як-от “передбачити тривимірну форму білків, використовуючи лише їхні амінокислотні послідовності”.

Більшість великих мовних моделей мають однакову базову цільову функцію: за заданою послідовністю тексту вгадати, що буде далі. Пізніше ми поставимо перед MailBot більш конкретні цілі, але поки що дотримуймося цієї.

Крок 2: Зберіть багато даних

Далі нам потрібно зібрати навчальні дані, на яких MailBot навчиться писати. В ідеалі нам потрібно зібрати колосально велике сховище тексту, що зазвичай означає мільярди сторінок, витягнутих з Інтернету — наприклад, пости в блогах, твіти, статті з Вікіпедії та новини.

Для початку ми скористаємося деякими безплатними загальнодоступними бібліотеками даних, такими як сховище веб-даних Common Crawl. Але ми також захочемо додати наш власний секретний інгредієнт у вигляді пропрієтарних або спеціалізованих даних. Можливо, ми ліцензуємо якийсь іншомовний текст, щоб MailBot навчився створювати листи французькою чи іспанською, а також англійською мовами. Загалом, чим більше у нас буде даних і чим різноманітніші джерела, тим кращою буде наша модель.

Перш ніж завантажити дані в нашу модель, нам потрібно розбити їх на одиниці, які називаються токенами (token), — це можуть бути слова, фрази або навіть окремі символи. Розділення тексту на невеликі шматочки допомагає моделі легше його аналізувати.

Крок 3: Створіть нейронну мережу

Після того, як наші дані токенізовані, нам потрібно зібрати “мозок” штучного інтелекту — тип системи, відомий як нейронна мережа (neural network). Це складна мережа взаємопов’язаних вузлів (або “нейронів”), які обробляють і зберігають інформацію.

Для MailBot ми збираємося використовувати відносно новий тип нейронної мережі, відомий як трансформер (transformer model). Вона може аналізувати кілька фрагментів тексту одночасно, що робить її швидкою та ефективною. (Трансформери — це ключ до таких систем, як ChatGPT, повна абревіатура якої розшифровується як “Генеративний попередньо натренований трансформер”).

Крок 4: Натренуйте нейронну мережу

Далі модель проаналізує дані, токен за токеном, виявляючи закономірності та зв’язки. Вона може помітити, що після слова “Dear” часто стоїть ім’я, або що “Best regards” зазвичай стоїть перед вашим ім’ям. Виявляючи ці закономірності, штучний інтелект вчиться будувати повідомлення, які мають сенс.

Система також розвиває відчуття контексту. Наприклад, вона може дізнатися, що “банк” може означати фінансову установу або скляну посудину, залежно від слів, що стоять поряд.

Вивчаючи ці закономірності, модель-трансформер створює мапу — надзвичайно складне математичне представлення людської мови. Вона відстежує ці взаємозв’язки за допомогою числових значень, відомих як параметри (parameters). Багато з найкращих сьогоднішніх L.L.M. мають сотні мільярдів параметрів і навіть більше.

Тренування може зайняти кілька днів або навіть тижнів і вимагатиме величезних обчислювальних потужностей. Але коли все буде зроблено, система буде майже готова почати писати ваші електронні листи.

Як не дивно, це може розвинути й інші навички. Коли L.L.M. вчаться передбачати наступне слово в послідовності, знову і знову, вони можуть набути інших, несподіваних здібностей, наприклад, вміння писати програми. Дослідники ШІ називають це емерджентною поведінкою (emergent behaviors), і вони все ще спантеличені цим.

Крок 5: Тонке налаштування моделі

Після того, як велика мовна модель навчена, її потрібно відкалібрувати для конкретної роботи. Наприклад, чат-бот, який використовується в лікарні, повинен розуміти медичні терміни.

Щоб налаштувати MailBot, ми можемо попросити його згенерувати кілька електронних листів, найняти людей, які оцінять їхню точність, а потім завантажити оцінки назад у модель, доки вона не покращиться.

Це приблизно такий підхід, який був використаний з ChatGPT, відомий як навчання з підкріпленням (reinforcement learning) за допомогою зворотного зв’язку від людей.

Крок 6: Запускайте, обережно

Вітаємо вас! Після того, як MailBot був натренований і налаштований, він готовий до використання. Як тільки ви створите для нього певний користувацький інтерфейс — наприклад, розширення для Chrome, яке підключається до вашого поштового клієнта, — він може почати відправляти листи.

Але яким би гарним він не здавався, вам все одно захочеться стежити за своїм новим помічником. Такі компанії, як Microsoft і Meta, на власному досвіді переконалися, що системи штучного інтелекту можуть бути нестабільними та непередбачуваними, або навіть моторошними й небезпечними.

В наступній частині ми дізнаємося більше про те, як все може піти не так.

Ваше домашнє завдання

Розгляньмо одну з найбільш творчих здібностей L.L.M.: здатність поєднувати розрізнені концепції та формати у щось химерне та нове. Наприклад, наші колеги з Well попросили ChatGPT “написати пісню Тейлор Свіфт за сюжетами книг доктора Сьюза”.

Спробуйте поєднати формат, стиль і тему — наприклад, “Напиши лімерик у стилі Снуп Дога про глобальне потепління”.

Не забудьте поділитися своїм творінням у коментарі.

III. Чому чат-боти з ШІ помиляються?

Галюцинації програмного забезпечення.

В третій частині серії публікації про ШІ поговоримо про те, чому чат-боти іноді поводять себе не так, як очікувалось.

29 березня 2023 року група експертів зі штучного інтелекту та технологічних лідерів, включно з Ілоном Маском, закликала лабораторії ШІ призупинити роботу над своїми найсучаснішими системами, попередивши, що вони становлять “серйозні ризики для суспільства та людства”.

Група закликала до шестимісячної паузи в роботі над системами, потужнішими за GPT-4, представленої цього місяця (березень 2023) компанією OpenAI, співзасновником якої був сам Маск. Пауза дасть час для впровадження “спільних протоколів безпеки”, йдеться у відкритому листі групи. “Якщо така пауза не може бути прийнята швидко, уряди повинні втрутитися і ввести мораторій”.

Багато експертів розходяться в думках щодо серйозності ризиків, про які йдеться в листі, і ми розглянемо деякі з них пізніше. Але низка неочікуваностей, пов’язаних з ШІ, вже спливла на поверхню.

На початку лютого Google представив нового чат-бота Bard, який відповідав на запитання про космічний телескоп Джеймс Вебб. Існувала лише одна проблема: одне з тверджень бота — про те, що телескоп зробив найперші знімки планети за межами нашої Сонячної системи — було абсолютно неправдивим.

Такі боти, як Bard і ChatGPT від OpenAI, надають інформацію з моторошною спритністю. Але вони також видають правдоподібну брехню або роблять справді моторошні речі, наприклад, наполягають на тому, що вони закохані в журналістів New York Times.

Як таке можливо?

Сміття в інтернеті та галюцинації

У минулому технологічні компанії ретельно визначали, як має поводитися програмне забезпечення, по одному рядку коду за раз. Тепер вони розробляють чат-ботів та інші технології, які самостійно навчаються, визначаючи статистичні закономірності у величезних обсягах інформації.

Значна частина цих даних надходить з таких сайтів, як Вікіпедія та Reddit. Інтернет кишить корисною інформацією, від історичних фактів до медичних порад. Але він також переповнений неправдою, мовою ворожнечі та іншим сміттям. Чат-боти поглинають все це, включаючи явну та приховану упередженість (bias) тексту.

І завдяки дивовижному способу, в який вони змішують і комбінують вивчене для створення абсолютно нового тексту, вони часто створюють переконливе твердження, яке є абсолютно неправильним або взагалі не існує в їхніх навчальних даних. Дослідники ШІ називають цю тенденцію до вигадування “галюцинаціями” (hallucination), які можуть включати нерелевантні, безглузді або фактично неправильні відповіді.

Ми вже бачимо реальні наслідки галюцинацій штучного інтелекту. Stack Overflow, сайт запитань і відповідей для програмістів, тимчасово заборонив користувачам надсилати відповіді, згенеровані за допомогою ChatGPT, оскільки чат-бот занадто легко генерував правдоподібні, але неправильні відповіді.

“Ці системи живуть у світі мови, — каже Мелані Мітчелл, дослідниця ШІ з Інституту Санта-Фе. “Цей світ дає їм деякі підказки про те, що є правдою, а що ні, але мова, з якої вони вчаться, не ґрунтується на реальності. Вони не обов’язково знають, чи є те, що вони генерують, правдивим чи неправдивим”.

(Коли ми попросили Bing навести приклади галюцинацій чат-ботів, він фактично відповів галюцинацією).

Уявляйте собі чат-ботів як джазових музикантів. Вони можуть переварити величезні обсяги інформації — наприклад, кожну пісню, яка коли-небудь була написана, — а потім зімпровізувати на результатах. Вони здатні поєднувати ідеї у дивовижні та креативні способи. Але неправильні ноти вони також грають з абсолютною впевненістю.

Справа не тільки в них — справа в нас

Іноді причиною є не програмне забезпечення. А люди.

Ми схильні бачити закономірності, яких насправді немає, і приписувати людські риси та емоції нелюдським сутностям. Це називається антропоморфізмом (anthropomorphism). Коли собака дивиться нам в очі, ми схильні вважати її розумнішою, ніж вона є насправді. Так працює наш розум.

А коли комп’ютер починає складати слова, як ми, у нас складається хибне враження, що він може міркувати, розуміти й виражати емоції. Ми також можемо поводитися непередбачувано. (Минулого року компанія Google відправила інженера в оплачувану відпустку після того, як відхилила його заяву про те, що її штучний інтелект є розумним. Пізніше його звільнили).

Чим довше триває розмова, тим більше ви впливаєте на те, що говорить велика мовна модель. Сумнозвісна розмова Кевіна з Bing є особливо гарним прикладом. За словами дослідників, таких як піонер ШІ Террі Сейновскі, через деякий час чат-бот може почати відображати ваші думки та цілі. Якщо ви скажете йому стати моторошним, він стане моторошним.

Він порівняв технологію з Дзеркалом Бажань, чарівним артефактом з романів і фільмів про Гаррі Поттера. “Воно дає все, що ви шукаєте — все, що ви хочете, чого очікуєте або бажаєте”, — сказав д-р Сейновскі. “Оскільки людина і L.L.M. віддзеркалюють одне одного, з часом вони будуть прагнути до спільного концептуального стану”.

Чи можна це виправити?

Такі компанії, як Google, Microsoft та OpenAI працюють над розв’язанням цих проблем.

OpenAI працювала над вдосконаленням чат-бота, використовуючи відгуки людей-тестувальників. Використовуючи техніку під назвою “навчання з підкріпленням”, система отримала краще розуміння того, що вона повинна і чого не повинна робити.

Microsoft, зі свого боку, обмежила тривалість розмови зі своїм чат-ботом Bing. Вона також латає вразливості, які виявили небайдужі користувачі. Але виправити кожну окрему заминку складно, якщо взагалі можливо.

Тож так, якщо ви розумні, ви, ймовірно, зможете змусити ці системи робити щось образливе або моторошне. Багато експертів побоюються, що ці боти дозволять інтернет-шахраям, недобросовісним маркетологам і ворожим національним державам поширювати дезінформацію та спричиняти інші види неприємностей.

Одна важлива річ

Використовуючи цих чат-ботів, зберігайте скептицизм. Подивіться на них такими, якими вони є насправді.

Вони не відчувають і не мають свідомості.

В чомусь вони розумні, а в чомусь ні.

Пам’ятайте, що вони можуть помилятися.

Пам’ятайте, що вони можуть щось вигадувати.

Але з іншого боку, є багато інших речей, для яких ці системи дуже корисні. В наступній частині розповімо про це докладніше.

Ваше домашнє завдання

Попросіть ChatGPT або Bing пояснити якусь тему, в якій ви добре розбираєтесь. Чи правильні його відповіді?

Якщо ви отримали цікаві відповіді, правильні чи неправильні, ви можете поділитися ними в коментарях.

IV. Як використовувати чат-боти з ШІ?

Великі мовні моделі вже добре справляються з найрізноманітнішими завданнями.

В четвертій частині серії публікацій про ШІ ми дізнаємось, що великі мовні моделі вже добре справляються з найрізноманітнішими завданнями — і вони стають розумнішими з кожним днем.

Я (Kevin Roose) використовую такі інструменти ШІ, як ChatGPT, майже щодня вже кілька місяців, і я бачив, як вони випльовують безліч неправильних відповідей.

Але я також бачив, як ці програми зі штучним інтелектом роблять дивовижні речі — подвиги творчості, гнучкості та ефективності, від яких перехоплювало подих. І я хвилююся, що в спробі вгамувати ажіотаж навколо ШІ скептики не бачать того, що робить цю технологію такою революційною — і потенційно руйнівною — для світу.

Великі мовні моделі пишуть вірші та сценарії. Одна з останніх, GPT-4, отримала 90-й процентиль на адвокатському іспиті та отримала найвищі бали в низці тестів Advanced Placement. А потенційний приріст продуктивності для працівників є величезним. (В одному дослідженні програмісти, які використовували GitHub Copilot — L.L.M. для кодерів — виконали завдання на 56% швидше, ніж програмісти, які не використовували його).

Ось шість речей, в яких штучний інтелект зараз особливо гарний:

Пояснення понять на різних рівнях складності

Протягом останніх кількох місяців я використовую ChatGPT як особистого тьютора щоразу, коли мені стає цікаво вивчити нову тему. Якщо це, скажімо, банківська резервна система, я починаю з того, що прошу ChatGPT “пояснити банківське резервування на рівні старшої школи”. (Або, якщо я все ще плутаюся, “на рівні середньої школи”).

ChatGPT та інші чат-боти зі штучним інтелектом добре справляються з такими запитами, використовуючи свої навички обробки природної мови (natural language processing), якщо тільки ви не запитуєте про нещодавні події або вкрай незрозумілі речі. Звернутися до безмежно терплячого, безплатного тьютора, який допоможе розібратися з новими темами, схоже на суперсилу. При правильному використанні ШІ може бути чудовим інструментом для навчання.

Редагування та конструктивна критика

Я все ще пишу свої колонки сам. Але за останні кілька місяців я залучив ChatGPT в якості помічника.

Коли я застрягаю, я часто вставляю кілька речень в чат і дивлюся, чи може це наштовхнути на якісь ідеї. Якщо я намагаюся посилити аргументацію, я прошу ChatGPT знайти прогалини в моїх міркуваннях.

Я виявив, що Bing особливо добре підходить для редагування, тому що він може шукати інформацію в інтернеті. (Один з моїх улюблених письменницьких хаків — попросити його прочитати “Елементи стилю” Странка і Вайта і запропонувати правки, засновані на принципах книги).

Ви можете використовувати подібні трюки, щоб покращити свої емейли, супровідні листи чи будь-які інші тексти, над якими ви працюєте. Також нагадуємо, що ви завжди повинні ретельно перевіряти роботу штучного інтелекту.

Подолання творчої кризи

Штучний інтелект також може бути хорошим інструментом для того, щоб вивільнити вашу творчу енергію. Нещодавно я намагався придумати запитання для гостя подкасту. Я вставив біографію гостя в ChatGPT і попросив його дати мені “10 вдумливих, гострих питань для інтерв’ю” для цієї людини. Більшість з тих запитань, які він згенерував, були досить вдалими, і я використав кілька з них у шоу.

Ітан Моллік, професор Уортонської школи Університету Пенсильванії, рекомендує використовувати ШІ для подолання письменницького ступору або для початку роботи над складними проєктами. Наприклад, людина, яка хоче відкрити пекарню, може попросити у ChatGPT список усього необхідного обладнання та дозволів.

“Дуже легко відволіктися від виконання завдання через якусь складну проблему, — написав пан Молік у нещодавньому дописі в блозі. “ШІ дає можливість надати собі імпульс”.

Репетиція перед реальними завданнями

Я також використовував ChatGPT та інші застосунки з ШІ як своєрідну репетицію офлайн-завдань, які я вважаю неприємними або важкими.

Коли мені потрібно було провести складну розмову з другом, я попросив ChatGPT взяти участь у рольовій грі. “Уяви, що ти мій друг, і відреагуй так, як, на твою думку, міг би відреагувати мій друг”, — сказав я йому. Потім я провів імітацію розмови. Це не зробило справжню розмову безболісною, але я почувався впевненіше, знаючи, що вже попрактикувався з чат-ботом.

Звичайно, чат-боти не можуть замінити людську дружбу. Але вони можуть стати своєрідним “резонатором”, що пропонує нам базовий зворотний зв’язок і поради без осуду.

SparkNotes для всього

Одна з найпотужніших можливостей мовних моделей зі штучним інтелектом — швидко узагальнювати великі обсяги тексту.

Я використовував програми зі штучним інтелектом, щоб “читати” довгі статті та конспектувати наукові роботи. Зазвичай вони правильно передають загальні риси, навіть якщо деякі деталі пропущені.

Ця сила по-справжньому проявляється, коли ви поєднуєте її з іншими здібностями ШІ, наприклад, транскрибуванням аудіо- та відеозаписів. Раптом з’являється можливість ущільнити двогодинний подкаст у кілька пунктів або отримати стислий підсумок робочої зустрічі, коли ви ще перебуваєте на ній.

Якщо вам набридло читати цей допис, ви можете попросити ChatGPT або Bing підсумувати (summarize) решту за вас, або переписати його у вигляді веселого лімерику. Обіцяю, я не ображуся.

Програмуйте, навіть якщо не програміст

Люди вже використовують ШІ для написання коду, незалежно від того, знають вони мови програмування чи ні.

Ці моделі не були розроблені для написання програмного забезпечення. Але коли вони пройшли навчання на величезних обсягах інтернет-тексту, включаючи вміст сайтів для програмування, таких як GitHub і Stack Overflow, вони навчилися кодувати — це явище, відоме як емерджентна поведінка (emergent behavior). Тепер, якщо ви введете запит на кшталт “Створіть мені розширення для Chrome, яке перекладає текст будь-якого веб-сайту на піратську мову”, ви можете отримати назад код програми, яка дійсно працюватиме.

За останні кілька місяців соціальні мережі рясніють прикладами здивованих людей, які використовують інструменти штучного інтелекту для створення веб-сайтів і застосунків швидше, ніж це може зробити будь-яка людина — за мізерну частку вартості.

Що ж далі?

Усе це підіймає досить очевидні питання про майбутнє, такі як: Якщо L.L.M. допомагають не-письменникам добре писати, а не-програмістам добре кодувати, то які ще можливості вони відкриють? І скільки робочих місць ці нові здібності штучного інтелекту ліквідують?

Про це — в п’ятій частині.

Ваше домашнє завдання

Які ще навички чат-бота ви можете відкрити для себе?

Подумайте про завдання, яке забирає багато ваших щоденних розумових зусиль, наприклад, про нудну рутину на роботі або про те, як скласти план харчування на тиждень, щоб нагодувати всю сім’ю. Потім попрацюйте з чат-ботом, щоб побачити, наскільки добре він може впоратися з цим завданням.

Як завжди, діліться своїми найкращими, найгіршими та найцікавішими результатами в коментарях.

V. Яке майбутнє у штучного інтелекту?

Де ми будемо завтра, наступного року і пізніше.

В завершальній частині цього циклу публікацій про ШІ ми поговоримо про те, що можна очікувати від штучного інтелекту найближчими роками.

На початку березня я відвідав офіс OpenAI в Сан-Франциско, щоб ознайомитися з GPT-4, новою версією технології, яка лежить в основі чат-бота ChatGPT. Найбільш разючий момент настав, коли Грег Брокман (Greg Brockman), президент і співзасновник OpenAI, продемонстрував функцію, яка досі недоступна широкому загалу: Він дав боту фотографію з космічного телескопа “Хаббл” і попросив його описати зображення “в найдрібніших деталях”.

Опис був абсолютно точним, аж до дивної білої лінії, створеної супутником, що простяглася по небу. Це один із поглядів на майбутнє чат-ботів та інших технологій штучного інтелекту: Нова хвиля мультимодальних систем (multimodal systems) буде жонглювати зображеннями, звуками й відео так само як і текстом.

В цьому розділі ми зосередимось на можливостях і потрясіннях, які очікують нас в міру того, як ШІ набуватиме нових здібностей і навичок.

ШІ в найближчій перспективі

Генеративний ШІ вже може відповідати на запитання, писати вірші, генерувати комп’ютерний код і вести бесіди. Як і передбачає сутність поняття “чат-бот”, він спочатку розгортається в розмовних форматах, таких як ChatGPT і Bing.

Але це триватиме недовго. Microsoft і Google вже оголосили про плани включити ці технології штучного інтелекту у свої продукти. Ви зможете використовувати їх для написання чернетки електронного листа, автоматичного підбиття підсумків зустрічі та багатьох інших цікавих трюків.

OpenAI також пропонує API (інтерфейс прикладного програмування), який інші технологічні компанії можуть використовувати для підключення GPT-4 до своїх програм і продуктів. Вже створено серію плагінів від таких компаній, як Instacart, Expedia і Wolfram Alpha, які розширюють можливості ChatGPT.

ШІ у середньостроковій перспективі

Багато експертів вважають, що ШІ зробить деяких працівників, зокрема лікарів, юристів і програмістів, більш продуктивними, ніж будь-коли. Вони також вважають, що деякі працівники будуть замінені ШІ.

“Це торкнеться завдань, які є більш повторюваними, більш шаблонними, більш загальними”, — сказав Закарі Ліптон (Zachary Lipton), професор Університету Карнегі-Меллона, який спеціалізується на штучному інтелекті та його впливі на суспільство. “Це може призвести до звільнення деяких людей, які погано виконують повторювані завдання. При цьому існує загроза для людей, які спеціалізуються на повторюваній роботі”.

Можуть зникнути роботи з транскрипції та перекладу аудіо-в-текст, що виконуються людиною. У юридичній сфері GPT-4 вже достатньо кваліфікована, щоб успішно скласти іспит на адвоката, а бухгалтерська фірма PricewaterhouseCoopers планує впровадити юридичного чат-бота на базі OpenAI для своїх співробітників.

Водночас такі компанії, як OpenAI, Google і Meta, створюють системи, що дозволяють миттєво генерувати зображення та відео, просто описавши те, що ви хочете побачити.

Інші компанії створюють ботів, які можуть користуватися веб-сайтами та програмними застосунками, так само як це робить людина. На наступному етапі розвитку системи штучного інтелекту зможуть купувати в інтернеті різдвяні подарунки, наймати людей для виконання дрібної роботи по дому та відстежувати ваші щомісячні витрати.

Є над чим замислитися. Але найбільша проблема може полягати ось у чому: Перш ніж ми встигнемо зрозуміти, як ці системи вплинуть на світ, вони стануть ще потужнішими.

ШІ в довгостроковій перспективі

Такі компанії, як OpenAI та DeepMind, лабораторія, що належить материнській компанії Google, планують просунути цю технологію якнайдалі. Вони сподіваються зрештою створити те, що дослідники називають штучним загальним інтелектом, або A.G.I. — машину, яка може робити все, що може робити людський мозок.

Як сказав мені Сем Альтман, виконавчий директор OpenAI, три роки тому: “Моя мета — побудувати A.G.I., який принесе користь широкому загалу. І я розумію, що це звучить безглуздо”. Сьогодні це звучить вже не так безглуздо. Але це все ще легше сказати, ніж зробити.

Для того, щоб штучний інтелект став штучним загальним інтелектом, він повинен розуміти фізичний світ в цілому. І неясно, чи зможуть системи навчитися імітувати довжину і широту людських міркувань і здорового глузду, використовуючи методи, за допомогою яких були створені такі технології, як GPT-4. Ймовірно, будуть потрібні нові прориви.

Питання в тому, чи дійсно ми хочемо, щоб штучний інтелект став настільки потужним? І дуже важливе пов’язане з цим питання: Чи є спосіб запобігти цьому?

Ризики штучного інтелекту

Багато керівників компаній, що займаються ШІ, вважають, що технології, які вони створюють, покращать наше життя. Але деякі з них десятиліттями попереджають про похмурий сценарій, коли наші творіння не завжди робитимуть те, що ми хочемо, або виконуватимуть наші вказівки непередбачуваним чином, що може призвести до жахливих наслідків.

Експерти зі штучного інтелекту говорять про “вирівнювання” (“alignment”) — щоб системи ШІ відповідали людським цінностям і цілям.

Перед випуском GPT-4 OpenAI передала його сторонній групі, щоб вона уявила і протестувала небезпечні способи використання чат-бота.

Група виявила, що система може найняти людину в Інтернеті, щоб обійти тест на введення капчі. Коли людина запитала, чи це не “робот”, система без підказки тестувальників збрехала і сказала, що це людина з вадами зору.

Тестувальники також показали, що систему можна змусити запропонувати купити нелегальну вогнепальну зброю в Інтернеті та описати способи виготовлення небезпечних речовин з побутових предметів. Після змін, внесених OpenAI, система більше не робить таких речей.

Але усунути всі потенційні зловживання неможливо. Оскільки така система навчається на даних, вона розвиває навички, яких її творці ніколи не очікували. Важко передбачити, що може піти не так після того, як нею почнуть користуватися мільйони людей.

“Щоразу, коли ми створюємо нову систему штучного інтелекту, ми не можемо повністю охарактеризувати всі її можливості та всі її проблеми з безпекою — і ця проблема з часом стає не кращою, а гіршою”, — каже Джек Кларк (Jack Clark), засновник і керівник з політики Anthropic, стартапу в Сан-Франциско, який займається розробкою подібних технологій.

І OpenAI та такі гіганти, як Google, навряд чи єдині, хто досліджує цю технологію. Основні методи, які використовуються для створення цих систем, широко зрозумілі, і інші компанії, країни, дослідницькі лабораторії та зловмисники можуть бути менш обережними.

Засоби захисту від ШІ

Зрештою, для того, щоб тримати під контролем небезпечні технології штучного інтелекту, потрібен далекосяжний погляд. Але експерти не налаштовані оптимістично.

“Нам потрібна міжнародна регуляторна система”, — каже Авів Овадія (Aviv Ovadya), дослідник Центру Беркмана Кляйна з питань Інтернету та суспільства в Гарварді, який допомагав тестувати GPT-4 перед його випуском. “Але я не бачу, що наші наявні урядові інституції готові поквапитись із цим”.

Як вже відомо, понад 1000 технологічних лідерів і дослідників, включаючи Ілона Маска (ох уж ця “апеляція до авторитету” — примітка Артема), закликали лабораторії штучного інтелекту призупинити розробку найсучасніших систем, попередивши у відкритому листі, що інструменти ШІ становлять “глибокі ризики для суспільства і людства”.

Розробники ШІ “втягнуті в неконтрольовані перегони з розробки та впровадження все більш потужних цифрових розумів, які ніхто — навіть їхні творці — не може зрозуміти, передбачити або надійно контролювати”, — йдеться в листі.

Деякі експерти в основному стурбовані короткостроковими небезпеками, включаючи поширення дезінформації та ризик того, що люди будуть покладатися на ці системи для отримання неточних або шкідливих медичних та емоційних порад.

Але інші критики, що є частиною великої й впливової інтернет-спільноти, яку називають раціоналістами або ефективними альтруїстами, вважають, що ШІ може зрештою знищити людство. Ця думка і була відображена в цьому листі.

Ваше домашнє завдання

Ми можемо розмірковувати про те, куди прийде штучний інтелект у далекому майбутньому, але можемо також запитати про це самих чат-ботів. У фінальному завданні поставтеся до ChatGPT, Bing або Bard, як до молодого претендента на роботу, і запитайте його, ким він бачить себе за 10 років.

Як завжди, діліться відповідями в коментарях.

Глосарій

В кінці давайте пригадаємо основні поняття.

Вирівнювання (Alignment): Спроби дослідників ШІ та фахівців з етики забезпечити, щоб штучний інтелект діяв відповідно до цінностей і цілей людей, які його створили.

Мультимодальні системи (Multimodal systems): ШІ, подібні до ChatGPT, які також можуть обробляти зображення, відео, аудіо та інші нетекстові вхідні та вихідні дані.

Штучний загальний інтелект (Artificial general intelligence): Штучний інтелект, який відповідає людському інтелекту і може робити все, що може робити людський мозок.

Обробка природної мови: Методи, що використовуються великими мовними моделями для розуміння і генерування людської мови, включаючи класифікацію текстів і аналіз настроїв. Ці методи часто використовують поєднання алгоритмів машинного навчання, статистичних моделей і лінгвістичних правил.

Емерджентна поведінка: Неочікувані або ненавмисні здібності великої мовної моделі, що з’являються завдяки шаблонам і правилам тренування моделі з її навчальних даних. Наприклад, моделі, які навчаються на сайтах з програмування та кодування, можуть писати новий код. Інші приклади включають творчі здібності, такі як написання віршів, музики та вигаданих історій.

Галюцинації (Hallucination): Добре відоме явище у великих мовних моделях, коли система дає відповідь, яка є фактично неправильною, нерелевантною або безглуздою через обмеження в її навчальних даних та архітектурі.

Зміщення, упередження (Bias): Тип помилки, яка може виникнути у великій мовній моделі, якщо її вихідні дані спотворені навчальними даними моделі. Наприклад, модель може пов’язувати певні риси чи професії з певною расою, чи гендером, що призводить до неточних прогнозів і образливих відповідей.

Антропоморфізм (Anthropomorphism): Схильність людей приписувати чат-ботам людські якості або характеристики. Наприклад, ви можете вважати його добрим або жорстоким на основі його відповідей, хоча він не здатний відчувати емоції, або ви можете вважати ШІ розумним, оскільки він дуже добре імітує людську мову.

Параметри: Числові значення, які визначають структуру і поведінку великої мовної моделі, як підказки, що допомагають їй здогадатися, які слова будуть наступними. Вважається, що такі системи, як GPT-4, мають сотні мільярдів параметрів.

Навчання з підкріпленням: Метод, який навчає модель ШІ знаходити найкращий результат методом спроб і помилок, отримуючи винагороду або покарання від алгоритму, в залежності від результатів. Цю систему можна вдосконалити за допомогою зворотного зв’язку від людей, які дають відгуки про її роботу у вигляді оцінок, виправлень і пропозицій.

Модель-трансформер: Архітектура нейронної мережі, що використовується для розуміння мови, вона не аналізує слова по одному, а може розглядати ціле речення відразу. Це був прорив у галузі ШІ, оскільки він дозволив моделям розуміти контекст і довгострокові залежності в мові. Трансформери використовують техніку самоуваги, яка дозволяє моделі зосередитися на конкретних словах, важливих для розуміння сенсу речення.

Нейронна мережа: Математична система, змодельована на основі людського мозку, яка навчається, знаходячи статистичні закономірності в даних. Складається з шарів штучних нейронів: Перший шар отримує вхідні дані, а останній виводить результати. Навіть експерти, які створюють нейронні мережі, не завжди розуміють, що відбувається всередині.

Велика мовна модель: тип нейронної мережі, яка навчається, зокрема створенню прози, веденню розмов і написанню комп’ютерного коду, аналізуючи величезну кількість тексту з Інтернету. Основна функція — передбачати наступне слово в послідовності, але ці моделі здивували експертів, навчившись новим здібностям.

Генеративний ШІ: технологія, яка створює контент — включаючи текст, зображення, відео та комп’ютерний код — шляхом виявлення закономірностей у великих обсягах навчальних даних, а потім створює новий, оригінальний матеріал, який має схожі характеристики. Приклади включають ChatGPT для тексту та DALL-E і Midjourney для зображень.


Сподобалась публікація? Дуже на це сподіваюсь, адже автор відшукував матеріал, перекладав, редагував та адаптував його для того, щоб читання приносило не лише задоволення, але й було корисним. Можете підтримати його донатом. Навіть 1 гривня принесе радість!

Поділись своїми ідеями в новій публікації.
Ми чекаємо саме на твій довгочит!
Артем
Артем@artem

Намагається збагнути світ

4.3KПрочитань
8Автори
45Читачі
Підтримати
На Друкарні з 15 квітня

Більше від автора

  • Провести School Maker Faire і вижити. Власний досвід

    24 травня 2024 року в Ukrainian Global School пройшов School Maker Faire подія, що об'єднала учнів, вчителів та батьків навколо ідей STEAM (наука, технології, інженерія, мистецтво та математика). Це було справжнє свято винахідливості, креативності та практичного навчання.

    Теми цього довгочиту:

    Maker Faire
  • Чому micro:bit краще за Arduino для початкової школи

    В сучасному цифровому світі дуже важливо щоб діти вивчали основи програмування та електроніки. Погодьтесь, якщо ти розумієш, як влаштована та чи інша технологія, у тебе менше шансів потрапити в якесь незручне становище.

    Теми цього довгочиту:

    Освіта
  • “Другий Мозок” своїми руками

    Після невеликої перерви я вирішив повернутися до теми Продуктивності та Роботи з інформацією. Якщо до цього я робив переклади матеріалів, то цей довгочит вже авторський.

    Теми цього довгочиту:

    Продуктивність

Вам також сподобається

Коментарі (2)

Оце реально довгочит

Вам також сподобається