Loading AI tools
застосування попередньо навченого знання до нових задач З Вікіпедії, вільної енциклопедії
Передава́льне навча́ння (ПН, англ. transfer learning, TL) — це дослідницька задача в машинному навчанні (МН), зосереджена на зберіганні знань, отриманих під час розв'язання однієї задачі, та застосуванні їх до іншої, але пов'язаної задачі.[1][2] Наприклад, знання, отримані під час навчання розпізнаванню легкових автомобілів, може бути застосовано при намаганні розпізнавати вантажівки. Цей напрямок досліджень має певне відношення до тривалої історії психологічної літератури з передавання навчання, хоча практичні зв'язки між цими двома напрямами є обмеженими. З практичної точки зору, повторне використання або передавання інформації з раніше навчених задач для навчання нових задач має потенціал значно покращувати ефективність вибірки агента навчання з підкріпленням.[3]
Цей розділ наділяє певні ідеї, події чи суперечливі твердження надмірною, невиправданою вагою. (квітень 2021) |
1976 року Стево Бозіновський та Анте Фулгосі опублікували працю, в якій чітко розглянуто питання передавального навчання в тренуванні нейронних мереж.[4][5] У цій праці наведено математичну та геометричну модель передавального навчання. 1981 року було зроблено звіт про застосування передавального навчання в тренуванні нейронної мережі на наборі зображень, що представляють літери комп'ютерних терміналів. Було експериментально продемонстровано як позитивне, так і негативне передавальне навчання.[6]
1993 року Лоріен Пратт опублікував статтю про передавання в машиннім навчанні, сформулювавши алгоритм передавання на основі розрізнювальності (англ. discriminability-based transfer, DBT).[7]
1997 року Пратт та Себастьян Трун стали запрошеними редакторами спеціального випуску журналу «Machine Learning», присвяченого передавальному навчанню,[8] а до 1998 року ця галузь розвинулася до включення багатозадачного навчання[en][9] а також більш формального аналізу теоретичних основ.[10] «Вчитися вчитися»[11] під редакцією Труна та Пратта — це огляд цієї теми 1998 року.
Передавальне навчання знайшло застосування також і в когнітивістиці, а Пратта також запрошували 1996 року редагувати випуск журналу «Connection Science» про повторне використання нейронних мереж через передавання.[12]
Ендрю Ин у своєму семінарі на NIPS 2016[13][14][15] сказав, щоби підкреслити важливість ПН, що воно буде наступним рушієм комерційного успіху МН після керованого навчання.
Визначення передавального навчання задають у термінах областей визначення та задач. Область визначення складається з простору ознак та відособленого розподілу ймовірності , де . Для заданої конкретної області визначення задача складається з двох складових: простору міток та цільової передбачувальної функції . Функцію використовують для передбачування відповідної мітки нового примірника . Цієї задачі, позначуваної через , навчаються з тренувальних даних, що складаються з пар , де , а .[16]
Для заданої первинної області визначення та задачі навчання , цільової області визначення та задачі навчання , де , або , передавальне навчання має на меті допомогти покращити навчання цільової передбачувальної функції в , використовуючи знання в і .[16]
Існують доступні алгоритми для передавального навчання в марковських логічних мережах[en][17] та баєсових мережах.[18] Передавальне навчання також застосовували до виявляння підтипів раку,[19] використання будівель[en],[20][21] універсальних ігрових програм[en],[22] класифікації текстів,[23][24] розпізнавання цифр,[25] медичного унаочнювання та фільтрування спаму.[26]
2020 року було виявлено, що, завдяки їхній подібній фізичній природі, є можливим передавальне навчання між електроміографічними (ЕМГ) сигналами від м'язів при класифікуванні поведінки електроенцефалографічних (ЕЕГ) мозкових хвиль з області розпізнавання жестів[en] до області розпізнавання психічного стану. Було також зазначено, що цей взаємозв'язок працював і в зворотному напрямку, показуючи, що ЕЕГ також може подібним чином бути додатково використано для класифікування ЕМГ.[27] Ці експерименти відзначали, що точність нейронних мереж та згорткових нейронних мереж покращилася[28] завдяки передавальному навчанню як у першу епоху (до будь-якого тренування, тобто порівняно зі стандартним випадковим розподілом ваг), так і в асимптоті (у кінці процесу навчання). Тобто алгоритми вдосконалюються завдяки впливові іншої області визначення. Більше того, для досягнення кращої продуктивності кінцевий користувач попередньо натренованої моделі може змінювати структуру повноз'єднаних шарів.[29]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.