Французький стартап FlexAI залучив значні seed-інвестиції для того, щоб "перебудувати обчислювальну інфраструктуру" для розробників, які хочуть більш ефективно створювати та навчати додатки штучного інтелекту (ШІ).
FlexAI, як називається компанія, працювала в стелс режимі з жовтня 2023 року, але паризька компанія офіційно запускається в середу з €28,5 млн ($30 млн) фінансування, одночасно презентуючи свій перший продукт: хмарний сервіс на вимогу для навчання ШІ.
Це солідні кошти для seed-раунду, що зазвичай означає значний досвід засновників, і в цьому випадку так і є. Співзасновник і генеральний директор FlexAI Бріджеш Трипатхі раніше був старшим інженером-проектувавальником у гіганті GPU, а тепер улюбленцю сфери ШІ, Nvidia. Перш ніж зайняти різні керівні інженерні та архітектурні посади в Apple; Tesla (працюючи безпосередньо під керівництвом Ілона Маска); Zoox (до того, як Amazon придбав стартап автономного водіння); і, зовсім недавно, Трипатхі був віце-президентом підрозділу штучного інтелекту та суперкомп'ютерної платформи Intel, AXG.
Співзасновник і технічний директор FlexAI Далі Кілані також має вражаюче резюме, працюючи на різних технічних посадах у таких компаніях, як Nvidia та Zynga, а зовсім недавно обіймаючи посаду технічного директора у французькому стартапі Lifen, який розробляє цифрову інфраструктуру для охорони здоров'я.
Раунд seed-фінансування очолили Alpha Intelligence Capital (AIC), Elaia Partners та Heartcore Capital за участю Frst Capital, Motier Ventures, Partech та генерального директора InstaDeep Каріма Бегіра.
Складнощі з обчислювальними потужностями
Щоб зрозуміти, що намагаються зробити Трипатхі та Кілані з FlexAI, потрібно спочатку зрозуміти, з чим стикаються розробники та фахівці зі ШІ, отримуючи доступ до "обчислювальних потужностей". Це стосується потужності обробки, інфраструктури та ресурсів, необхідних для виконання обчислювальних задач, таких як обробка даних, запуск алгоритмів та виконання моделей машинного навчання.
"Використання будь-якої інфраструктури в сфері ШІ є складним; це не для слабких духом і не для недосвідчених", - сказав Трипатхі TechCrunch. "Це вимагає від вас занадто багато знань про те, як будувати інфраструктуру, перш ніж ви зможете її використовувати."
Навпаки, екосистема загальнодоступної хмари, яка розвивалася протягом останніх двох десятиліть, служить чудовим прикладом того, як ціла галузь виникла з потреби розробників створювати програми, не турбуючись про бекенд.
"Якщо ви маленький розробник і хочете написати програму, вам не потрібно знати, де вона запускається або що таке бекенд - вам просто потрібно запустити екземпляр EC2 [хмара Amazon Elastic Compute] і все готово", - сказав Трипатхі. "Сьогодні ви не можете цього зробити з обчислювальними потужностями для ШІ."
У сфері ШІ розробники повинні визначити, скільки графічних процесорів (GPU) їм потрібно з'єднати через мережу якого типу, що керується програмною екосистемою, за налаштування якої вони повністю відповідають. Якщо виходить з ладу GPU або мережа, або щось інше в цьому ланцюжку дає збій, відповідальність за його усунення лягає на розробника.
"Ми хочемо привести інфраструктуру обчислювальних потужностей для ШІ до того ж рівня простоти, якого досягла загальнодоступна хмара - після 20 років, так, але немає причин, чому обчислювальні потужності для ШІ не можуть отримати такі ж переваги", - сказав Трипатхі. "Ми хочемо дійти до того моменту, коли запуск робочих навантажень ШІ не вимагатиме від вас перетворення на експертів з центрів обробки даних."
З огляду на те, що поточна ітерація його продукту проходить тестування у кількох бета-клієнтів, FlexAI запустить свій перший комерційний продукт пізніше цього року. По суті, це хмарний сервіс, який підключає розробників до "віртуальних різнорідних обчислювальних потужностей", що означає, що вони можуть запускати свої робочі навантаження та розгортати моделі ШІ на декількох архітектурах, сплачуючи за використання, а не орендуючи графічні процесори за погодинною ставкою.
Графічні процесори є важливими елементами розробки ШІ, наприклад, для навчання та запуску великих мовних моделей (LLM). Nvidia є одним із провідних гравців у сфері графічних процесорів і одним із головних бенефіціарів революції ШІ, започаткованої OpenAI та ChatGPT. За 12 місяців з моменту запуску OpenAI API для ChatGPT у березні 2023 року, що дозволяє розробникам інтегрувати функціональність ChatGPT у свої власні програми, акції Nvidia зросли з приблизно 500 мільярдів доларів до більш ніж 2 трильйонів доларів.
Зараз великі мовні моделі активно випускаються технологічною індустрією, а попит на графічні процесори стрімко зростає. Але експлуатація графічних процесорів є дорогою, а оренда їх для менших задач або разових випадків використання не завжди має сенсу і може бути надмірно дорогою; саме тому AWS займається обмеженим за часом орендою для менших проектів ШІ. Але оренда все одно залишається орендою, тому FlexAI хоче абстрагуватися від базових складнощів і дозволити клієнтам отримувати доступ до обчислювальних потужностей ШІ за потреби.
"Мультихмарність" для ШІ
Вихідна точка FlexAI полягає в тому, що більшість розробників насправді не дуже переймаються тим, чиї графічні процесори або чипи вони використовують, чи то Nvidia, AMD, Intel, Graphcore або Cerebras. Їхнє головне завдання - мати можливість розробляти свій ШІ та створювати програми в рамках своїх бюджетних обмежень.
Саме тут на сцену виходить концепція FlexAI "універсальних обчислювальних потужностей для ШІ", де FlexAI бере на себе вимоги користувача та призначає їх на будь-яку архітектуру, яка підходить для певної роботи, беручи на себе всі необхідні перетворення на різних платформах, чи то інфраструктура Intel Gaudi, AMD ROCm чи Nvidia CUDA.
"Це означає, що розробник зосереджений лише на створенні, навчанні та використанні моделей", - сказав Трипатхі. "Ми дбаємо про все, що знаходиться під ними. Відмови, відновлення, надійність - усе цим керуємо ми, і ви платите за те, що використовуєте."
Багатьма способами FlexAI прагне пришвидшити для ШІ те, що вже відбувається в хмарі, що означає не просто копіювання моделі оплати за використання, а й можливість перейти до "мультихмарності", спираючись на різні переваги різних інфраструктур графічних процесорів і чіпів.
По суті, FlexAI є "агрегатором попиту", орендуючи саме обладнання традиційними способами та використовуючи свої "міцні зв'язки" з людьми в Intel та AMD, отримує пільгові ціни, які потім розповсюджує серед власної клієнтської бази. Це не обов'язково означає оминання головного гравця Nvidia, але можливо, що значною мірою - з огляду на те, що Intel та AMD борються за залишки ринку графічних процесорів після Nvidia - для них є величезний стимул співпрацювати з агрегаторами, такими як FlexAI.
"Якщо я зможу зробити це для клієнтів і привести десятки чи сотні клієнтів до їхньої інфраструктури, вони [Intel і AMD] будуть дуже задоволені", - сказав Трипатхі.
Це контрастує з подібними гравцями хмарних GPU, такими як добре фінансовані CoreWeave і Lambda Labs, які зосереджені виключно на апаратному забезпеченні Nvidia.
"Я хочу привести обчислювальні потужності для ШІ до того рівня, на якому зараз знаходиться загальнодоступна хмарна обробка", - зазначив Трипатхі. "Ви не можете використовувати мультихмарність в ШІ. Вам потрібно вибрати певне обладнання, кількість графічних процесорів, інфраструктуру, підключення, а потім самостійно її підтримувати. Сьогодні це єдиний спосіб отримати обчислювальні потужності для ШІ."
На запитання про те, хто саме є партнерами з запуску, Трипатхі відповів, що не може назвати всіх через відсутність "офіційних зобов'язань" з боку деяких із них.
"Intel - сильний партнер, вони однозначно надають інфраструктуру, а AMD - партнер, який надає інфраструктуру", - сказав він. "Але існує другий рівень партнерства, який відбувається з Nvidia та кількома іншими кремнієвими компаніями, якими ми поки що не готові поділитися, але всі вони беруть участь, і меморандуми про взаєморозуміння (MOU) підписуються прямо зараз."
можна встановити це на платформі FlexAI, щоб отримати максимальну віддачу від обчислювальних потужностей за свої гроші. Це може означати звернення до Intel для отримання дешевших (але повільніших) обчислювальних потужностей, але якщо розробнику потрібен невеликий запуск, що вимагає найшвидшого можливого результату, тоді його можна буде спрямувати через Nvidia.
По суті, FlexAI є "агрегатором попиту", орендуючи саме обладнання традиційними способами та використовуючи свої "міцні зв'язки" з людьми в Intel та AMD, отримує пільгові ціни, які потім розповсюджує серед власної клієнтської бази. Це не обов'язково означає оминання головного гравця Nvidia, але можливо, що значною мірою - з огляду на те, що Intel та AMD борються за залишки ринку графічних процесорів після Nvidia - для них є величезний стимул співпрацювати з агрегаторами, такими як FlexAI.
"Якщо я зможу зробити це для клієнтів і привести десятки чи сотні клієнтів до їхньої інфраструктури, вони [Intel і AMD] будуть дуже задоволені", - сказав Трипатхі.
Це контрастує з подібними гравцями хмарних GPU, такими як добре фінансовані CoreWeave і Lambda Labs, які зосереджені виключно на апаратному забезпеченні Nvidia.
"Я хочу привести обчислювальні потужності для ШІ до того рівня, на якому зараз знаходиться загальнодоступна хмарна обробка", - зазначив Трипатхі. "Ви не можете використовувати мультихмарність в ШІ. Вам потрібно вибрати певне обладнання, кількість графічних процесорів, інфраструктуру, підключення, а потім самостійно її підтримувати. Сьогодні це єдиний спосіб отримати обчислювальні потужності для ШІ."
На запитання про те, хто саме є партнерами з запуску, Трипатхі відповів, що не може назвати всіх через відсутність "офіційних зобов'язань" з боку деяких із них.
"Intel - сильний партнер, вони однозначно надають інфраструктуру, а AMD - партнер, який надає інфраструктуру", - сказав він. "Але існує другий рівень партнерства, який відбувається з Nvidia та кількома іншими кремнієвими компаніями, якими ми поки що не готові поділитися, але всі вони беруть участь, і меморандуми про взаєморозуміння (MOU) підписуються прямо зараз."
Вплив Ілона Маска
Трипатхі більш ніж готовий до майбутніх викликів, адже він працював у деяких найбільших технологічних компаніях світу.
"Я достатньо знаю про графічні процесори; Я їх проєктував", - сказав Трипатхі про свою семирічну роботу в Nvidia, яка завершилася в 2007 році, коли він перейшов до Apple під час запуску першого iPhone. "В Apple я зосередився на вирішенні реальних проблем клієнтів. Я був там, коли Apple почала створювати свої перші системи на кристалі для телефонів."
Трипатхі також два роки, з 2016 по 2018 рік, працював в Tesla на посаді керівника апаратного забезпечення, де він врешті-решт працював безпосередньо під керівництвом Ілона Маска протягом останніх шести місяців після того, як двоє людей, які були вище за нього, раптово покинули компанію.
"Те, чого я навчився в Tesla і застосував у своєму стартапі, полягає в тому, що немає обмежень, крім науки та фізики", - сказав він. "Те, як робляться речі сьогодні, не є тим, як вони повинні або можуть бути зроблені. Ви повинні йти до того, що є правильним з перших принципів, і для цього потрібно видалити всі чорні скриньки."
"Одним із перших кроків, які я зробив у Tesla, було з'ясувати, скільки мікроконтролерів є в автомобілі, і для цього нам буквально довелося перебрати купу цих великих чорних коробок із металевим екрануванням і корпусом, щоб знайти ці справді крихітні мікроконтролери всередині", - розповів Трипатхі. "І врешті-решт ми поклали це на стіл, розклали і сказали: 'Ілоне, в автомобілі є 50 мікроконтролерів. І іноді ми платимо за них із націнкою в 1000 разів, тому що вони захищені та розміщені у великому металевому корпусі.' А він сказав: 'Давайте зробимо свої власні.' І ми це зробили."
Графічні процесори як застава
Заглядаючи далі в майбутнє, FlexAI також має амбіції щодо розбудови власної інфраструктури, включаючи центри обробки даних. За словами Трипатхі, це фінансуватиметься за рахунок боргового фінансування, спираючись на нещодавню тенденцію, коли конкуренти в цій сфері, включаючи CoreWeave і Lambda Labs, використовують чіпи Nvidia як заставу для отримання кредитів, а не віддають більшу частку акцій.
"Тепер банкіри знають, як використовувати графічні процесори як заставу", - сказав Трипатхі. "Навіщо роздавати акції? Доки ми не станемо справжнім постачальником обчислювальних потужностей, вартість нашої компанії недостатня, щоб отримати сотні мільйонів доларів, необхідних для інвестування в будівництво центрів обробки даних. Якби ми залучали лише акціонерний капітал, ми б зникли, коли б гроші закінчилися. Але якщо ми фактично поставимо їх під заставу за допомогою графічних процесорів, вони можуть забрати ці графічні процесори та розмістити їх в іншому центрі обробки даних."
Підтримати автора можна зареєструвавшись на сайті Whitebit за реферальним посиланням https://whitebit.com/referral/6f7c7706-ec7d-4a60-8021-adf88b3a9559