Remove ads
З Вікіпедії, вільної енциклопедії
Метанавча́ння[1][2] (англ. meta learning) — це підгалузь машинного навчання, в якій застосовують алгоритми автоматичного навчання до метаданих про експерименти з машинного навчання. Станом на 2017 рік цей термін не знайшов стандартного тлумачення, проте головна мета полягає у використанні таких метаданих для розуміння того, як автоматичне навчання може стати гнучким у розв'язуванні проблем навчання, й відтак покращити продуктивність наявних алгоритмів навчання, або навчити (індукувати) сам алгоритм навчання, звідси альтернативний термін навча́ння навча́тися (англ. learning to learn).[1]
Гнучкість важлива, оскільки кожен алгоритм навчання ґрунтується на наборі припущень щодо даних, його індуктивному упередженні[en].[3] Це означає, що він навчатиметься добре, лише якщо ці упередження відповідають задачі навчання. Алгоритм навчання може працювати дуже добре в одній області, але не в наступній. Це накладає серйозні обмеження на використання методів машинного навчання та добування даних, оскільки зв'язок між задачею навчання (часто якась база даних) та ефективністю різних алгоритмів навчання досі не зрозумілий.
Використовуючи різні види метаданих, як-от властивості задачі навчання, властивості алгоритму (як-от показники продуктивності), або образи, попередньо отримані з даних, можливо вивчати, обирати, змінювати та комбінувати різні алгоритми навчання, щоби ефективно розв'язати задану задачу навчання. Критика підходів метанавчання дуже схожа на критику метаевристики, можливо пов'язаної задачі. Добра аналогія з метанавчанням і джерело натхнення ранніх праць Юргена Шмідхубера (1987)[1] та праці Йошуа Бенжіо[en] зі співавт. (1991)[4] виходить з того, що генетична еволюція навчається процедури навчання, закодованої в генах, і виконується в мозку кожної людини. У відкритій ієрархічній системі метанавчання[1] з використанням генетичного програмування можливо навчатися кращих еволюційних методів за допомогою метаеволюції, яку саму по собі можливо вдосконалювати за допомогою метаметаеволюції тощо.[1]
Пропоноване визначення[5] системи метанавчання поєднує три вимоги:
Упередження (англ. bias) стосується припущень, які впливають на вибір пояснювальних гіпотез,[6] а не поняття зміщення (теж англ. bias), поданого в компромісі зміщення та дисперсії. Метанавчання цікавиться двома аспектами упереджень навчання.
Існує три поширені підходи:[8]
Моделі метанавчання на основі моделей швидко уточнюють свої параметри за кілька кроків тренування, чого можливо досягати за рахунок їхньої внутрішньої архітектури, або керування іншою моделлю метанавчання.[8]
Стверджують, що нейронна мережа з доповненою пам'яттю (англ. Memory-Augmented Neural Network), або скорочено НМДП (англ. MANN), здатна швидко кодувати нову інформацію, й відтак адаптуватися до нових завдань, лише за кількома прикладами.[9]
Метамережі (англ. Meta Networks, MetaNet) навчаються знання метарівня між завданнями та зміщують свої індуктивні упередження за допомогою швидкого параметрування для швидкого узагальнення.[10]
Центральна ідея метанавчання на основі мір подібна до алгоритмів найближчих сусідів, чия вага породжується ядровою функцією. Воно спрямоване на навчання міри або функції відстані над об'єктами. Поняття доброї міри залежить від задачі. Вона повинна подавати зв'язок між входами в просторі завдання й полегшувати розв'язання задачі.[8]
Сіамська нейронна мережа[en] складається з двох мереж-близнюків, вихід яких тренується спільно. Існує функція поверх для навчання зв'язку між парами зразків даних входу. Ці дві мережі однакові, мають однакові ваги й параметри мережі.[11]
Узгоджувальні мережі (англ. Matching Networks) навчаються мережі́, яка відображує невеличкий мічений опорний набір даних та немічений приклад до його мітки, уникаючи необхідності тонкого настроювання для пристосовування до нових типів класів.[12]
Реляційна мережа (РМ, англ. Relation Network, RN) навчається наскрізно з нуля. Під час метанавчання вона навчається навчатися глибокої міри відстані, щоби порівнювати невелику кількість зображень у межах епізодів, кожен з яких розроблено для імітування постановки навчання з кількох поглядів (англ. few-shot setting).[13]
Прототипові мережі (англ. Prototypical Networks) навчаються метричного простору, в якому класифікування можливо виконувати шляхом обчислення відстаней до прототипних подань кожного з класів. Порівняно з нещодавніми підходами навчання з кількох поглядів, вони відображають простіше індуктивне зміщення, корисне в цьому режимі обмежених даних, і досягають задовільних результатів.[14]
Мета алгоритмів метанавчання на основі оптимізації полягає в тому, щоби налаштувати алгоритм оптимізації таким чином, щоби модель могла навчатися добре з кількох прикладів.[8]
Система метанавчання на основі ДКЧП (англ. LSTM-based meta-learner) призначена навчатися точного алгоритму оптимізації, який використовують для тренування іншої системи навчання нейромережного класифікатора[en] в режимі кількох поглядів. Ця параметризація дозволяє навчатися відповідних уточнень параметрів спеціально для сценарію, коли буде зроблено встановлену кількість уточнень, у той же час навчаючись загальних початкових значень навчаної мережі (класифікатора), які забезпечують швидку збіжність тренування.[15]
МАМН (англ. MAML), скорочення від моделеагностичного метанавчання (англ. Model-Agnostic Meta-Learning), це доволі загальний алгоритмом оптимізації, сумісний із будь-якою моделлю, яка навчається за допомогою градієнтного спуску.[16]
Рептилія (англ. Reptile) — це надзвичайно простий алгоритм оптимізації метанавчання, враховуючи, що обидві його складові покладаються на метаоптимізацію через градієнтний спуск, й обидві не залежать від моделі.[17]
Деякі підходи, які розглядали як приклади метанавчання:
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.