Hugging Face

З Вікіпедії, вільної енциклопедії

Hugging Face, Inc. — американська компанія, яка розробляє інструменти для створення програм за допомогою машинного навчання[3]. Отримала відомість завдяки створенню бібліотеки Transformers для обробки природної мови і платформи, яка дозволяє користувачам обмінюватися моделями машинного навчання та наборами даних.

Коротка інформація Тип, Галузь ...
Hugging Face, Inc.
ТипПриватна компанія
ГалузьШтучний інтелект, машинне навчання, розробка програмного забезпечення
Спеціалізаціямашинне навчання 
Засновано2016; 9 років тому (2016) in New York City
Штаб-квартираNew York City, USA
Ключові особи
  • Clément Delangue (CEO)
  • Julien Chaumond (CTO)
  • Thomas Wolf (CSO)
ПродукціяTransformers, datasets, spaces
Виторг15 000 000 $ (2022)[1]
Співробітники170 осіб (вересень 2023)[2]
Дочірні компаніїHugging Face SASd 
huggingface.co
 Hugging Face у Вікісховищі 
Закрити

Історія

Узагальнити
Перспектива

Компанія заснована у 2016 році французькими підприємцями Клеманом Деланге, Жюльєном Шомоном і Томасом Вульфом, спочатку як компанія, яка розробила додаток для чат-ботів, орієнтований на підлітків[4]. Відкривши модель чат-бота, компанія змінила фокус, щоб стати платформою для машинного навчання.

У березні 2021 року Hugging Face зібрав 40 мільйонів доларів у раунді фінансування серії B[5].

28 квітня 2021 року компанія запустила BigScience Research Workshop у співпраці з кількома іншими дослідницькими групами, щоб випустити відкриту велику мовну модель[6]. У 2022 році воркшоп завершився анонсом BLOOM, багатомовної великої мовної моделі зі 176 мільярдами параметрів[7].

21 грудня 2021 року компанія оголосила про придбання Gradio, бібліотеки програмного забезпечення, яка використовується для створення інтерактивних демонстрацій моделей машинного навчання в браузері[8].

5 травня 2022 року компанія оголосила про раунд фінансування серії C за участі Coatue і Sequoia[9]. Компанія отримала оцінку в 2 мільярди доларів.

13 травня 2022 року компанія представила свою програму Student Ambassador Program, яка втілює місію компанії — навчити машинному навчанню 5 мільйонів людей до 2023 року[10]

26 травня 2022 року компанія оголосила про партнерство з Graphcore щоб оптимізувати свою бібліотеку Transformers для Graphcore IPU[11].

3 серпня 2022 року компанія анонсувала Private Hub, корпоративну версію свого загальнодоступного Hugging Face Hub, яка підтримує як SaaS так і локальне розгортання[12].

У лютому 2023 року компанія оголосила про партнерство з Amazon Web Services (AWS), яке дозволить використовувати продукти Hugging Face, як будівельні блоки для створення своїх програм в AWS. Компанія також повідомила, що наступне покоління BLOOM працюватиме на Trainium, власному чіпі машинного навчання, створеному AWS[13][14].

Послуги та технології

Узагальнити
Перспектива

Бібліотека трансформерів

Бібліотека Transformers — це пакет Python, який містить реалізації моделей трансфомерів з відкритим вихідним кодом для текстових, графічних і звукових задач. Він сумісний з бібліотеками глибокого навчання PyTorch, TensorFlow і JAX та включає в себе реалізації відомих моделей, таких як BERT і GPT.[15] Бібліотека спочатку називалася «pytorch-pretrained-bert», яку потім перейменували на «pytorch-transformers» і, нарешті, на «transformers»[16].

Hugging Face Hub

Hugging Face Hub — це платформа, де користувачі можуть ділитися попередньо натренованими моделями, наборами даних і демонстраціями проектів машинного навчання[17]. Hub містить функції, запозичені з GitHub, для спільного використання коду та співпраці, включаючи обговорення та запити на зміни коду. Платформа також включає в собі Hugging Face Spaces, службу, яка дозволяє користувачам створювати веб-версії програм машинного навчання за допомогою Gradio або Streamlit.

Інші бібліотеки

Окрім Transformers і Hugging Face Hub, екосистема Hugging Face містить бібліотеки для інших завдань, таких як обробка наборів даних, оцінка якості моделей, симуляція, створення демонстрацій молделей машинного навчання[18].

Примітки

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.