Loading AI tools
масштабована система машинного навчання для градієнтного підсилювання З Вікіпедії, вільної енциклопедії
XGBoost[2] (від англ. eXtreme Gradient Boosting, екстремальне градієнтне підсилювання) — це програмна бібліотека з відкритим кодом, яка пропонує систему градієнтного підсилювання[en] для C++, Java, Python,[3] R,[4] Julia,[5] Perl,[6] та Scala. Вона працює під Linux, Windows[7] та macOS.[8] З опису її проекту, вона має на меті забезпечити «Масштабовану Портативну та Розподілену Бібліотеку Градієнтного Підсилювання (GBM, GBRT, GBDT)». Вона працює як на одній машині, так і підтримує системи розподіленої обробки Apache Hadoop, Apache Spark та Apache Flink[en]. Вона нещодавно набула великої популярності та уваги як вибір алгоритму багатьох команд-переможниць змагань з машинного навчання.[9]
Тип | Машинне навчання |
---|---|
Розробник | The XGBoost Contributors |
Перший випуск | 27 березня 2014 |
Стабільний випуск | 1.2.1[1] (13 жовтня 2020 ) |
Операційна система | Linux, macOS, Windows |
Мова програмування | C++ |
Ліцензія | Apache License 2.0 |
Репозиторій | github.com/dmlc/xgboost |
Вебсайт | xgboost.ai |
XGBoost первинно було розпочато як дослідницький проект Тенці Чжена (англ. Tianqi Chen)[10] у складі групи Спільноти Розподіленого (Глибинного) Машинного Навчання (англ. Distributed [Deep] Machine Learning Community, DMLC). Первинно вона почалася як консольна програма, яку могло бути налаштовано за допомогою файлу налаштування libsvm. Вона стала добре відомою в колах змагань з машинного навчання через її застосування в переможному рішенні в Higgs Machine Learning Challenge. Незабаром після цього було побудовано пакети Python та R, а тепер XGBoost має пакетні втілення і для Java, Scala, Julia, Perl та інших мов. Це донесло дану бібліотеку до більшої кількості розробників, і посприяло її популярності серед спільноти Kaggle, де її було використано для великої кількості змагань.[9]
Незабаром її було інтегровано з рядом інших пакетів, що полегшило її використання у їхніх відповідних спільнотах. Її тепер вже інтегровано зі scikit-learn для користувачів Python та з пакетом caret [Архівовано 26 січня 2021 у Wayback Machine.] для користувачів R. Її також можливо вбудовувати до таких систем потокової обробки даних як Apache Spark, Apache Hadoop та Apache Flink[en] за допомогою абстрагованих Rabit[11] та XGBoost4J.[12] XGBoost є також доступною в OpenCL для ПКВМ.[13] Ефективне, масштабоване втілення XGBoost було опубліковано Тенці Чженом та Карлосом Ґестріном.[14]
До важливих властивостей XGBoost, які відрізняють її від інших алгоритмів підсилювання градієнту, належать:[15][16][17]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.