Remove ads
Из Википедии, свободной энциклопедии
Байесовское программирование — это формальная система и методология определения вероятностных моделей и решения задач, когда не вся необходимая информация является доступной.
Эдвин Томпсон Джейнс предложил рассматривать вероятность как альтернативу и расширение логики для рациональных рассуждений с неполной и неопределенной информацией. В своей основополагающей книге «Теория вероятности: логика науки»[1] он развил эту теорию и предложил то, что он назвал «роботом», который был не физическим устройством, а машиной вывода, автоматизирующей вероятностные рассуждения — что-то вроде Пролога для теории вероятности вместо логики. Байесовское программирование[2] является формальной и конкретной реализацией этого «робота».
Байесовское программирование также можно рассматривать как формальную алгебраическую систему для задания графовых моделей, таких как, например, байесовские сети, динамические байесовские сети[англ.], фильтры Кальмана или скрытые марковские модели. Действительно, байесовское программирование обобщает байесовские сети и имеет выразительную мощность эквивалентную фактор-графам[англ.].
Байесовская программа является средством задания семейства распределений вероятности.
Ниже представлены составляющие элементы байесовской программы:
Описание задает эффективный метод вычисления совместного распределения вероятности[англ.] набора переменных для заданного набора экспериментальных данных и некоторого определения . Это совместное распределение обозначается как .
Чтобы задать предварительное знание , программист должен выполнить следующее:
Пусть множество содержит подмножеств, переменные определены как , каждая из которых соответствует одному из этих подмножеств. Каждая переменная получается как конъюнкция переменных , относящихся к -тому подмножеству. Рекурсивное применение теоремы Байеса приводит к
Применение гипотезы условной независимости позволяют проделать дальнейшие упрощения. Гипотеза условной независимости для переменной определяется выбором некоторой переменной среди переменных, присутствующих в конъюнкции . Обозначая через конъюнкцию выбранных переменных и принимая
Получаем
Такое упрощение совместного распределения в виде произведения более простых распределений называется декомпозицией, выведенной с помощью цепного правила[англ.].
Это обеспечивает, чтобы каждая переменная появлялась слева от черточки условности не менее одного раза, что является необходимым и достаточным условием написания математически верных выкладок[источник не указан 3219 дней].
Каждое распределение , встречающееся в произведении, далее связывается или с параметрической формой (то есть функцией ), или с вопросом к другой байсовской программе .
Когда это форма , в общем случае является вектором параметров, которые могут зависеть или от , или , или от обоих. Когда некоторые из этих параметров вычисляются с применением набора данных , происходит обучение.
Важная особенность байесовского программирования — это способность использовать вопросы к другим байесовским программам как составляющую определения новой байесовской программы. получается выводом, произведенным другой байесовской программой, заданной определением и данными . Это похоже на вызов подпрограммы в классическом программировании, и предоставляет простой способ построения иерархических моделей.
Пусть дано описание (то есть ), вопрос получается разбиением на три множества: исследуемые (англ. searched) переменные, известные (англ. known) переменные и свободные (англ. free) переменные.
Три переменные , и определяются как конъюнкция переменных, принадлежащих к этим множествам.
Вопрос определяется как набор распределений
составленный из «конкретизированных вопросов» как кардинал , где каждый конкретизированный вопрос является распределением
Для заданного совместного распределения всегда возможно вычислить любой вопрос, применяя следующий общий вывод:
где первое равенство следует из правила обособления (англ. marginalization rule), второе вытекает из теоремы Байеса, а третье соответствует второму применению обособления. Знаменатель оказывается нормирующим членом (англ. normalization term), и его можно заменить постоянной .
Теоретически это позволяет решать любые задачи байесовского вывода. Однако на практике почти во всех случаях затраты на исчерпывающее и точное вычисление оказываются слишком большими.
Заменяя совместное распределение его декомпозицией, получаем
которое обычно является выражением, значительно более простым для вычисления, поскольку размерность задачи значительно снижена разложением на произведение распределений меньшей размерности.
Целью байесовской фильтрации спама является устранение мусорных электронных писем.
Формулировка этой задачи достаточно простая. Электронные письма должны классифицироваться по одной из двух категорий: не-спам и спам. Единственной доступной информацией для классификации электронных писем является их содержание: набор слов. Использование слов без принятия во внимания их порядка в предложении часто называют моделью мешка слов.
Кроме того, классификатор должен быть способным адаптироваться к своему пользователю и учиться из опыта. Начиная со стандартной начальной настройки, классификатор должен изменять свои внутренние параметры, если пользователь не соглашается с его решением. Он, следовательно, будет адаптироваться к пользовательским критериям различия между не-спамом и спамом. Он будет улучшать собственные результаты, сталкиваясь со все большим количеством классифицированных электронных писем.
Следующие переменные необходимы для написания этой программы:
Эти двоичных переменных суммируют всю информацию об электронной почте.
Начиная с определения совместного распределения и рекурсивно применяя теорему Байеса, получаем:
Это точное математическое выражение.
Оно может быть радикально упрощено, если предположить, что вероятность появления слова при известной категории текста (спам или нет) является независимой от появления других слов. Такое предположение является наивным байесовским, и поэтому этот фильтр спама является наивной байсовской моделью.
Например, программист может предположить, что
и в итоге получить
Это предположение известно как наивное байесовское предположение. Оно является «наивным» в том смысле, что независимость между словами, очевидно, не является истинной. Например, оно полностью пренебрегает тем, что появление пары слов может быть более значимым, чем изолированные появления. Однако программист может принять эту гипотезу, и может разрабатывать эту модель и связанный с ней вывод, чтобы проверить, насколько надежной и эффективной она является.
Чтобы иметь возможность вычислить совместное распределение, программист теперь должен указать распределений, присутствующих в разложении:
где — количество появлений -го слова в неспамовых электронных письмах, а — общее количество неспамовых электронных писем. Аналогично, — количество появлений -го слова в спамовых электронных письмах, а — общее количество спамовых электронных писем.
форм еще не определены полностью, поскольку параметров , , и еще не имеют значений.
Идентификация этих параметров может быть осуществлена или пакетной обработкой группы классифицированных электронных писем, или инкрементальным обновлением параметров с помощью классификации электронных писем пользователем в процессе их поступления.
Оба метода могут быть объединены: система может стартовать с начальными стандартными значениями этих параметров, выданных из обобщенной базы данных, а затем некоторое инкрементальное обучение подгоняет классификатор под каждого отдельного пользователя.
Вопрос, который задается программе: «какова вероятность того, что данный текст является спамом, если известно, какие слова в нем присутствуют, а какие — нет?» Его можно формализовать как
что может быть вычислено следующим образом:
В этом выражении знаменатель оказывается нормализующей константой[англ.]. Его не обязательно вычислять для того, чтобы выяснить, имеем ли мы дело со спамом. Например, простой прием для вычисления отношения:
Такое вычисление является более быстрым и удобным, поскольку оно требует всего лишь произведений.
Программа байесовского фильтра спама полностью определяется как
Байесовские фильтры (которые часто называют рекурсивной байесовской оценкой[англ.]) являются общими вероятностными моделями для процессов, разворачивающихся во времени. Многочисленные модели являются частными случаями этого общего подхода, например, фильтр Кальмана или скрытая марковская модель.
Декомпозиция основывается на:
Выбор параметрических форм не ограничен, и различные варианты ведут к различным хорошо известным моделям: см. ниже фильтры Кальмана и скрытые марковские модели.
Обычный вопрос для этих моделей — : каково распределение вероятности состояния в момент времени , если известны наблюдения от момента до ?
Самый общий случай — это байесовская фильтрация, для которой , что означает, что определяется состояние в настоящий момент времени при известных предыдущих наблюдениях.
Однако также возможно осуществлять и экстраполяцию будущего состояния, используя прошлые наблюдения, или осуществлять сглаживание , чтобы восстановить прошлое состояние из наблюдений, сделанных или до, или после некоторого момента времени.
Могут задаваться и более сложные вопросы, как показано ниже в разделе СММ.
Байесовские фильтры имеют очень интересное рекурсивное свойство, что значительно способствует их привлекательности. может быть вычислено просто с помощью по следующей формуле:
Еще одна интересная точка зрения на это уравнение — рассмотреть существование двух фаз: фазы предвидения и фазы оценки:
Хорошо известные фильтры Кальмана[3] являются частным случаем байесовских фильтров.
Они задаются следующей байесовской программой:
Используя эти гипотезы и рекурсивной формулу, задачу вывода для получения ответа на обычный вопрос можно решать аналитически. Это дает чрезвычайно эффективный алгоритм, что объясняет популярность фильтров Кальмана и многочисленность их повседневных применений.
Когда очевидных линейных моделей перехода и наблюдения нет, часто все еще возможно, применяя разложение Тейлора первого порядка, считать эти модели линейными локально. Это обобщение обычно называют расширенным фильтром Кальмана[англ.].
Скрытые марковские модели (СММ) — еще один очень популярный частный случай фильтров Кальмана.
Они задаются следующей байесовской программой:
Какова наиболее вероятная последовательность состояний, ведущая к текущему состоянию при известных прошлых наблюдениях?
Ответ на данный вопрос можно получать посредством очень эффективного алгоритма — алгоритма Витерби.
Также для СММ был разработан алгоритм Баума-Велша.
В течение последних 15 лет байесовское программирование применялось во многих университетах для разработки как приложений в робототехнике, так и моделей в науках о жизни[4].
В робототехнике байесовское программирование применялось в автономной робототехнике[5][6][7][8][9], роботизированных САПР[10], системах расширенной помощи водителю[англ.][11], роботизированном управлении манипуляторами[англ.], мобильной робототехнике[англ.][12][13], человеко-роботном взаимодействии[14], человеко-автомобильном взаимодействии (байесовские модели автономного водителя)[15][16][17][18][19][20], программировании и обучении аватаров в видеоиграх[21] и в стратегических играх реального времени (ИИ).[22]
В науках о жизни байесовское программирование применялось в науках о зрении для восстановления формы по движению[23], для моделирования зрительно-вестибулярной взаимодействия[24] и исследования саккадического движения глаз[25]; в восприятии и контроле речи для исследования раннего усвоения речи[англ.][26] и появления артикулярно-акустических систем[27]; для моделирования восприятия и контроля рукописного текста[28].
Байесовское программирование имеет потенциальные приложения в области распознавания и синтеза речи, распознавания изображений и обработке естественного языка. Здесь оно использует принципы композируемости (построение абстрактных представлений из частей), причинности (построение сложного из частей) и обучения обучению (использование понятий, распознанных ранее, для упрощения создания новых понятий)[29].
Сравнение вероятностных подходов (не только байесовского программирования) и теорий возможностей продолжает оставаться предметом дебатов.
Теории возможностей, такие как, например, нечеткие множества[30], нечеткая логика[31] и собственно теория возможностей[32] предлагают различные альтернативы для моделирования неопределенности с помощью вероятности. Они утверждают, что вероятность является недостаточной или неудобной для моделирования определенных аспектов неполного или неопределенного знания.
Защита вероятностного подхода главным образом базируется на теореме Кокса[англ.], которая состоит из четырех постулатов относительно рационального рассуждения в условиях неопределенности. Она показывает, что единственная математическая модель, которая удовлетворяет этим постулатам, это теория вероятности. Доказательство заключается в том, что любой другой подход отличный от теории вероятности нарушает один из этих постулатов.
Цель вероятностного программирования — объединение сферы классических языков программирования с вероятностным моделированием (особенно с байесовскими сетями) для того, чтобы быть в состоянии иметь дело с неопределенностью и в то же время пользоваться выразительной силы языков программирования для описания сложных моделей.
Расширенные классические языки программирования включают в себя логические языки, как предлагается в Вероятностной абдукции Горна[англ.] (англ. Probabilistic Horn Abduction)[33], Логике независимого выбора (англ. Independent Choice Logic)[34], PRISM[35] и ProbLog, являющимся расширением языка Prolog.
Оно также может быть расширением функциональных языков программирования (по сути LISP и Scheme), такими как IBAL или Church. Языки, лежащие в основе расширения, также могут быть объектно-ориентированными, как в случае BLOG и FACTORIE, или более стандартными, как в CES и FIGARO Архивная копия от 1 февраля 2016 на Wayback Machine.
Цель байесовского программирования несколько другая. Установка Джейнса о «вероятности как логике» отстаивает мнение, что вероятность является расширением и альтернативой логике, поверх которой может быть выстроена заново вся теория рациональности, алгоритмов и программирования[1]. Байесовское программирование не ищет способа расширить классические языки, оно стремится заменить их новым подходом к программированию на основе вероятности, который учитывает неполноту и неопределенность.
Точное сравнение семантики и выразительной мощности байесовского и вероятностного программирования пока остается открытым вопросом.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.