Loading AI tools
З Вікіпедії, вільної енциклопедії
Hugging Face, Inc. — американська компанія, яка розробляє інструменти для створення програм за допомогою машинного навчання[3]. Отримала відомість завдяки створенню бібліотеки Transformers для обробки природної мови і платформи, яка дозволяє користувачам обмінюватися моделями машинного навчання та наборами даних.
Тип | Приватна компанія |
---|---|
Галузь | Штучний інтелект, машинне навчання, розробка програмного забезпечення |
Спеціалізація | машинне навчання |
Засновано | 2016 in New York City |
Штаб-квартира | New York City, USA |
Ключові особи |
|
Продукція | Transformers, datasets, spaces |
Виторг | 15 000 000 $ (2022)[1] |
Співробітники | ▲170 осіб (вересень 2023)[2] |
Дочірні компанії | Hugging Face SASd |
huggingface.co | |
Hugging Face у Вікісховищі |
Компанія заснована у 2016 році французькими підприємцями Клеманом Деланге, Жюльєном Шомоном і Томасом Вульфом, спочатку як компанія, яка розробила додаток для чат-ботів, орієнтований на підлітків[4]. Відкривши модель чат-бота, компанія змінила фокус, щоб стати платформою для машинного навчання.
У березні 2021 року Hugging Face зібрав 40 мільйонів доларів у раунді фінансування серії B[5].
28 квітня 2021 року компанія запустила BigScience Research Workshop у співпраці з кількома іншими дослідницькими групами, щоб випустити відкриту велику мовну модель[6]. У 2022 році воркшоп завершився анонсом BLOOM, багатомовної великої мовної моделі зі 176 мільярдами параметрів[7].
21 грудня 2021 року компанія оголосила про придбання Gradio, бібліотеки програмного забезпечення, яка використовується для створення інтерактивних демонстрацій моделей машинного навчання в браузері[8].
5 травня 2022 року компанія оголосила про раунд фінансування серії C за участі Coatue і Sequoia[9]. Компанія отримала оцінку в 2 мільярди доларів.
13 травня 2022 року компанія представила свою програму Student Ambassador Program, яка втілює місію компанії — навчити машинному навчанню 5 мільйонів людей до 2023 року[10]
26 травня 2022 року компанія оголосила про партнерство з Graphcore щоб оптимізувати свою бібліотеку Transformers для Graphcore IPU[11].
3 серпня 2022 року компанія анонсувала Private Hub, корпоративну версію свого загальнодоступного Hugging Face Hub, яка підтримує як SaaS так і локальне розгортання[12].
У лютому 2023 року компанія оголосила про партнерство з Amazon Web Services (AWS), яке дозволить використовувати продукти Hugging Face, як будівельні блоки для свторення свої програм в AWS. Компанія також повідомила, що наступне покоління BLOOM працюватиме на Trainium, власному чіпі машинного навчання, створеному AWS[13][14].
Бібліотека Transformers — це пакет Python, який містить реалізації моделей трансфомерів з відкритим вихідним кодом для текстових, графічних і звукових задач. Він сумісний з бібліотеками глибокого навчання PyTorch, TensorFlow і JAX та включає в себе реалізації відомих моделей, таких як BERT і GPT .[15] Бібліотека спочатку називалася «pytorch-pretrained-bert», яку потім перейменували на «pytorch-transformers» і, нарешті, на «transformers»[16].
Hugging Face Hub — це платформа, де користувачі можуть ділитися попередньо натренованими моделями, наборами даних і демонстраціями проектів машинного навчання[17]. Hub містить функції, запозичені з GitHub, для спільного використання коду та співпраці, включаючи обговорення та запити на зміни коду . Платформа також включає в собі Hugging Face Spaces, службу, яка дозволяє користувачам створювати веб-версії програм машинного навчання за допомогою Gradio або Streamlit.
Окрім Transformers і Hugging Face Hub, екосистема Hugging Face містить бібліотеки для інших завдань, таких як обробка наборів даних, оцінка якості моделей, симуляція, створення демонстрацій молделей машинного навчання[18].
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.