Русская Википедия:Логическая вероятность

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.

Понятие логической вероятности является одной из интерпретаций понятия вероятности наряду с частотной вероятностью и субъективной вероятностью[1]. Формально логическая вероятность является функцией предложений какого-либо языка. Аналитическим предложениям (тавтологиям) приписывается единичное значение этой функции; противоречиям — нулевое; синтетическим предложениям — любое действительное число из интервала (0, 1)[2][3][4][5][6][7]. Конкретные значения логической вероятности для каждого её синтетического аргумента H зависят от другого предложения E, которое можно интерпретировать как описание знаний некоторого субъекта[7][8][9][10][11]. По этой причине логическую вероятность называют эпистемологической (зависящей от знаний) вероятностью. В некотором смысле её также можно трактовать и как разновидность субъективной вероятности. Однако значения логической вероятности однозначно определяются заданной системой знаний и, в этом смысле, имеют объективный характер[2]. В научной литературе принято различать логическую и субъективную вероятности[1].

Поскольку предложения языка описывают некоторые события или состояния, то логическую вероятность также можно рассматривать как функцию этих событий или состояний[12][13][14].

История

Понятие логической вероятности возникло и развивалось в работах Кейнса, Джонсона и Джеффри[2][3][4][5][6]. Наиболее систематическое изучение данного понятия было проведено Карнапом[7][8][9][10][11]. Его формулирование логической вероятности началась с конструирования формального языка. В 1950 году он рассмотрел класс очень простых языков, состоящих из конечного числа логически независимых одноместных предикатов, именуемых свойствами, и счетного количества констант. Для получения более сложных предложений использовались логические связки. Далее Карнап составил описания всех возможных состояний универсума.

Рассмотрим следующий пример, взятый из работы[1]. Пусть формальный язык содержит три индивидуальные константы a, b, c и предикат F. Для определенности примем, что константы обозначают конкретных людей: Алису, Боба и Цезаря, а предикату соответствует свойство: «быть молодым». Существуют восемь возможных описаний состояний для этого случая, которые представлены в табл. 1.

Таблица 1

N Описания состояний Вероятности 1 Вероятности 2
1 <math>F(a) \land F(b) \land F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{4}</math>
2 <math>F(a) \land F(b) \land \neg F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{12}</math>
3 <math>F(a) \land \neg F(b) \land F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{12}</math>
4 <math>F(a) \land \neg F(b) \land \neg F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{12}</math>
5 <math>\neg F(a) \land F(b) \land F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{12}</math>
6 <math>\neg F(a) \land F(b) \land \neg F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{12}</math>
7 <math>\neg F(a)\land \neg F(b)\land F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{12}</math>
8 <math>\neg F(a) \land \neg F(b) \land \neg F(c)</math> <math>\frac{1}{8}</math> <math>\frac{1}{4}</math>

Символ «<math>\land</math>» обозначает логическую связку «И», а символ «<math>\neg</math>» — логическую связку «НЕ». Первое предложение можно прочитать следующим образом: «Алиса, Боб и Цезарь — все молодые», второе — «Алиса и Боб — молодые, а Цезарь — нет», третье «Алиса и Цезарь — молодые, а Боб — нет» и т. д.

Карнап обозначал абсолютную логическую вероятность предложения A символом m(A). Её значение определяется как сумма вероятностей состояний, в которых предложение A является истинным. Предположим, что субъект не располагает фактическими знаниями и априори считает, что все состояния универсума одинаково вероятны. Тогда значения абсолютных логических вероятностей каждого состояния равны 1/8 (см. табл. 1). Следовательно, вероятности атомарных предложений равны 1/2, вероятность конъюнкции двух атомарных предложений — 1/4, вероятность дизъюнкции двух атомарных предложений — 3/4.

Карнап определяет функцию подтверждения c(H, E) предложения H предложением E следующим образом:

<math>c(H,E) = \frac{m(H \land E)}{m(E)}</math>.

С точки зрения обычной теории вероятностей функция подтверждения является условной вероятностью. Когда описания состояний универсума равновероятны, как в данном случае, мы не можем использовать полученный опыт для предсказания дальнейших событий. Например, функция подтверждения гипотезы "Цезарь молодой" при отсутствии всякого свидетельства, при наличии свидетельства "Алиса молодая" и при наличии свидетельства "Алиса молодая и Боб молодой" принимает одинаковое значение, равное 1/2.

Карнапа интересовал вопрос индуктивного вывода. Он считал, что индуктивная логика — это вероятностная логика, и новые свидетельства в пользу гипотезы должны увеличивать степень её подтверждения[11]. В попытке согласовать свою модель с ожидаемыми результатами он обратился к структурным описаниям, которые можно получить, если все константы в языке считать неразличимыми (взаимозаменяемыми)[7]. В нашем примере имеем четыре структурных описания.

1). «три молодых человека»,

2). «два молодых человека и один старый»,

3). «один молодой и два старых»,

4). «трое стариков».

Первому структурному описанию соответствует состояние 1 (см. табл. 1); второму — состояния 2, 3 и 5; третьему — состояния 4, 6, 7; четвертому — состояние 8. Каждому структурному описанию назначают одинаковое значение вероятности (равное 1/4 в нашем примере). Поскольку второму структурному описанию соответствуют три описания состояний 2, 3 и 5, то значения вероятностей этих состояний будут в три раза меньше значения вероятности структурного описания (то есть 1/12). Такие же значения вероятностей будут иметь и состояния 4, 6 и 7. Теперь имеем новое распределение вероятностей состояний, в котором значения вероятностей различаются (см. последний столбец табл. 1).

Для этого случая Карнап использует специальные обозначения логических функций m* и c*. Их численные значения для разных предложений языка в общем случае отличаются от значений функций m и c. Теперь появляется возможность обучения на опыте. Предположим, мы идем по улице. Значение функции подтверждения c* гипотезы "нам встретится молодой человек" при отсутствии всякого свидетельства равно 1/2. После того как мы увидели молодую девушку (Алису), оно повысится до величины 2/3. А после новой встречи с молодым человеком (Бобом) увеличивается до величины 3/4. Наши наблюдения могут наводить на мысль, что где-то поблизости расположен университет и студенты спешат на занятия. Поэтому нам и встречаются одни только молодые люди.

Необходимо заметить, что значения логической вероятности зависят от свидетельства (то есть от предложения), а не от фактов реального мира. Гипотеза «Цезарь окажется молодым» в отношении свидетельства «Алиса оказалась молодой и Боб тоже оказался молодым» имеет вероятность 3/4, независимо от того, видели ли мы Алису и Боба в реальной жизни или только вообразили себе их.

Обратимся к другому примеру. Допустим, некий человек увидел однажды черную ворону и ожидает, что и следующая увиденная им ворона окажется черной. Если это подтвердилось, то ожидания снова встретить ворону черного цвета у него будут выше, чем прежде. Впрочем, это не значит, что ситуация не может измениться (бывают ведь и белые вороны). Европейцы привыкли видеть белых лебедей и были несказанно удивлены (и очарованы), когда в Австралии обнаружили черного лебедя.

Предположим, что мы встретили юную девушку Алису, а затем немолодого Боба (возможно, что это профессор нашего гипотетического университета). Какова вероятность того, что в дальнейшем нам встретится молодой Цезарь? Говоря формальным языком, нам нужно найти значение функции подтверждения c* для этого случая. Оно будет равно 1/2. Вполне ожидаемый результат. Любопытно, что при новом распределении вероятностей состояний универсума атомарные предложения начинают зависеть друг от друга. Однако это уже не логическая, а физическая зависимость. Изменения в распределении вероятностей состояний приводят к получению новой информации (изменению знаний субъекта). В нашем случае — это представление о взаимозаменяемости индивидуальных констант. Другой пример: предложения «идет дождь» и «земля мокрая» являются логически независимыми. Однако физически они зависят друг от друга, это можно проверить опытным путём.

Классификация логических вероятностей

Согласно Карнапу[7], логические вероятности делятся на два класса: дедуктивные и индуктивные. Дедуктивными являются функции m и c. Примером индуктивных вероятностей могут служить функции m* и c*. Последние имеют особое значение, поскольку с их помощью можно построить логику индуктивного вывода)[11][12][13][14][15].

Правило последовательности

Задолго до Карнапа Лаплас вывел формулу, позволяющую рассчитывать предсказывающую (индуктивную) вероятность. Рассмотрим последовательность случайных исходов некоторого эксперимента, каждый принимает одно значение из двух возможных: либо 1, либо 0 (единица означает успех, а ноль — неудачу). Пусть E обозначает предложение «в n испытаниях было k успехов», а H обозначает предложение «следующее испытание закончится успехом». Тогда вероятность того, что следующее испытание завершится успехом, равна:

<math>P(H \mid E)=\frac{k+1}{n+2}</math>,

Это знаменитое правило последовательности Лапласа.

Вернемся к нашему примеру. Пусть успех эксперимента заключается в том, что, двигаясь по улице, мы встречаем молодого человека, а неуспех — в том, что встречаем немолодого. Пока мы никого не встретили, <math>n=0</math> и <math>k=0</math>. Поэтому <math>P(H \mid E)=\frac{1}{2}</math>. После встречи с Алисой (<math>n=1</math>), которая является юной девушкой (<math>k=1</math>), предсказывающая вероятность увеличивается <math>P(H \mid E)=\frac{2}{3}</math>. А после встречи с Бобом (<math>n=2</math>), который также имеет юный возраст (<math>k=2</math>), она еще более увеличивается <math> P(H \mid E)=\frac{3}{4}</math>.

Карнап пошел дальше Лапласа. Он обобщил его формулу на случай <math>t</math> исходов (<math>t>2</math>) различных типов. Пусть в результате <math>n</math> испытаний <math>n_i</math> из них закончились исходом <math>i</math>-го типа. Тогда вероятность того, что следующее <math>n+1</math> испытание завершится исходом <math>i</math>-го типа, равна[7][14]:

<math>P(H \mid E)=\frac{n_i +1}{n+t} </math>

В дальнейшем Карнап получил еще более общую формулу.

Континуум Джонсона — Карнапа

Ранний Карнап излагал свою теорию скорее как философ, а не как математик[14]. Позднее стиль его работ изменился, он стал использовать аксиомы и формальные доказательства[11]. Современный подход к определению индуктивной вероятности заключается в следующем. Индуктивная вероятность рассматривается в виде <math>P(A \mid B \land K)</math>, где предложения <math>A</math> и <math>B</math> входят в некоторую алгебру предложений, а <math>K</math> является фиксированным предложением, называемом «фоновым свидетельством»[15].

В нашем примере предложениями алгебры являются атомарные предложения <math>F(a)</math>, <math>F(b)</math> и <math>F(c)</math> и их отрицания, а также молекулярные предложения, составленные из данных атомов с помощью логических связок. Фоновым свидетельством является утверждение о том, что все структурные описания имеют одинаковые вероятности. Предположим, что алгебра содержит предложения <math>A</math>, <math>B</math>, <math>C</math> и <math>D</math>. Следующие пять аксиом гарантируют, что <math>P(A \mid B \land K)</math> удовлетворяет законам вероятности.

Аксиома 1. <math>P(A \mid B)\ge 0</math>.

Аксиома 2. <math>P(A \mid A)=1</math>.

Аксиома 3. <math>P(A \mid B)+P(\neg A\mid B)=1</math>.

Аксиома 4. <math>P(A \land B \mid C)=P(A \mid C)P(B \mid A \land C)</math>.

Аксиома 5. Если <math>A \land K \equiv C \land K</math> и <math>B \land K \equiv D \land K</math>, то <math>P(A \mid B)=P(C \mid D)</math>.

Здесь символ «<math>\equiv</math>» означает логическую эквивалентность. К этим пяти аксиомам следует добавить еще четыре аксиомы Карнапа[10].

Аксиома 6. (Регулярности) <math>P(B)>0</math>.

Аксиома 7. (Симметрии) <math>P(B)</math> не изменяется при перестановке индивидуальных констант.

Аксиома 8. (Текущей релевантности (Шаблон:Lang-en)) <math>P(H \mid E_2)>P(H \mid E_1)</math>, где свидетельство <math>E_2</math> содержит всю информацию, которая содержится в <math>E_1</math>, плюс новые подтверждения гипотезы <math>H</math>.

Аксиома 9. (Постулат достаточности) Индуктивная вероятность является функцией <math>n_i</math> и <math>n</math>.

На основании этих аксиом Карнап доказал следующую теорему[10]. Если имеется <math>t>2</math> различных исходов испытаний, то существуют положительные действительные константы <math>\alpha_1</math> ,…, <math>\alpha_t </math>, такие что

<math>P(H \mid E)=\frac{n_i +\alpha_i}{n+\alpha}</math>

где <math>{\alpha}=\sum_{i=1}^{t}\alpha_i</math>.

Позднее выяснилось, что задолго до Карнапа этот результат был получен Джонсоном[3][4], однако вследствие его ранней смерти оказался неизвестен широкой научной общественности[14]. Полученную формулу можно представить в виде:

<math>P(H \mid E)=(\frac{n}{n+\alpha})[\frac{n_i}{n}]+(\frac{\alpha}{n+\alpha})[\frac{\alpha_i}{\alpha}]</math>

Выражения в квадратных скобках имеют очевидную интерпретацию. Первое <math>\frac{n_i}{n}</math> представляет собой эмпирическую частоту, а второе <math>\frac{\alpha_i}{\alpha}</math> — априорную вероятность исхода <math>i</math>-го типа, полученную на основе анализа пространства возможных состояний. Выражения в круглых скобках — это относительные веса, которыми представлены эмпирические наблюдения и априорная информация в значении логической вероятности. При фиксированном <math>n</math>, чем больше <math>\alpha</math>, тем большую роль играет априорная информация (и наоборот). При малых <math>n</math>, когда выборка наблюдений является недостаточно представительной, логично отдавать предпочтение априорной вероятности; при большом числе наблюдений, напротив — эмпирической частоте. При <math>n\to\infty</math> значение индуктивной вероятности асимптотически стремится к значению частотной (независимо от конечной величины <math>\alpha</math>).

Универсальное обобщение

Пусть объектом наблюдения являются <math>n</math> ворон, и все они оказались черными (<math>n_i =n</math>). На основании данного опыта можно выдвинуть гипотезу о том, что вороны — черные вообще. Какова вероятность такого утверждения? На этот вопрос теория Джонсона — Карнапа дает парадоксальный ответ — она равна нулю[1][14][15].

Сэнди Забелл решил этот парадокс, заменив постулат достаточности новым постулатом[13]. Пусть <math>T</math> означает число исходов разных типов, наблюдаемых в серии из <math>n</math> опытов. Новый постулат формулируется так: для всех <math>n \ge 1</math> предсказывающая вероятность <math>P(H \mid E)</math> является функцией <math>n_i</math> и <math>n</math>, за исключением случаев, когда <math>n_i =0</math> и <math>T=1</math>. В результате Забелл получил следующие формулы для индуктивной вероятности[13]:

<math>P(H \mid E)=\frac{n_i +\alpha_i}{n+\alpha}</math> для <math>T>1</math>,

<math>P(H \mid E)=\varepsilon^{(n)}_{i}+(1-\varepsilon^{(n)}_{i})\frac{n_i +\alpha_i}{n+\alpha}</math> для <math>T=1</math> и <math>n_i =n</math>.

<math>P(H \mid E)=(1-\varepsilon^{(n)}_{j})\frac{\alpha_i}{n+\alpha}</math> для <math>T=1</math>, <math>n_i =0</math> и <math>n_j =n</math>.

где <math> \varepsilon^{(n)}_{i}=\frac{\varepsilon_i}{\varepsilon_i +(1-\varepsilon) \prod^{n-1}_{j=0}(\frac{j+\alpha_i}{j+\alpha})}</math>,

<math>0 \leq \varepsilon_i <1</math>,

<math>{\varepsilon}=\sum_{i=1}^{t}\varepsilon_i <1</math>.

Здесь <math>\varepsilon_i</math> — априорная и <math>\varepsilon^{(n)}_{i}</math> — апостериорная вероятности того, что исход <math>i</math>-го типа в данном эксперименте будет наблюдаться всегда.

Место логической вероятности в ряду вероятностей других типов

Согласно классическому определению, вероятность есть отношение числа избранных исходов некоторого эксперимента к числу всех мыслимых его исходов. При этом все они полагаются равновозможными. Как известно [1], критика недостатков этого определения привела к появлению понятия частотной вероятности. Логические теории возвращают нас к идее о том, что вероятность может быть определена априори путём исследования пространства возможностей, хотя теперь возможности могут быть заданы и с неравным весом.

Логическая вероятность имеет отношение к доступному свидетельству и не зависит от неизвестных фактов о мире, а частотная — является фактом о мире и не имеет отношения к доступному свидетельству[16]. Тем не менее, различие между этими вероятностями достаточно тонкое. Например, если известно, что при бросании игральной кости величина частотной вероятности выпадения шестерки равна q=0,18, то логическая вероятность гипотезы «выпадет шестерка» относительно свидетельства «брошена кость с заданной q» равна 0,18.

Существует мнение[1][14][15], что если знания субъекта можно представить в виде некого сложного предложения (total evidence), то логическая вероятность способна служить разумным обоснованием субъективной вероятности. Однако в работе[16] утверждается, что, субъективная вероятность — это смесь мистики, прагматизма и высокомерия, в которой лишь немного индуктивной вероятности.

Примечания

Шаблон:Примечания

  1. 1,0 1,1 1,2 1,3 1,4 1,5 Ошибка цитирования Неверный тег <ref>; для сносок list1 не указан текст
  2. 2,0 2,1 2,2 Ошибка цитирования Неверный тег <ref>; для сносок list2 не указан текст
  3. 3,0 3,1 3,2 Ошибка цитирования Неверный тег <ref>; для сносок list3 не указан текст
  4. 4,0 4,1 4,2 Ошибка цитирования Неверный тег <ref>; для сносок list4 не указан текст
  5. 5,0 5,1 Ошибка цитирования Неверный тег <ref>; для сносок list5 не указан текст
  6. 6,0 6,1 Ошибка цитирования Неверный тег <ref>; для сносок list6 не указан текст
  7. 7,0 7,1 7,2 7,3 7,4 7,5 Ошибка цитирования Неверный тег <ref>; для сносок list7 не указан текст
  8. 8,0 8,1 Ошибка цитирования Неверный тег <ref>; для сносок list8 не указан текст
  9. 9,0 9,1 Ошибка цитирования Неверный тег <ref>; для сносок list9 не указан текст
  10. 10,0 10,1 10,2 10,3 Ошибка цитирования Неверный тег <ref>; для сносок list10 не указан текст
  11. 11,0 11,1 11,2 11,3 11,4 Ошибка цитирования Неверный тег <ref>; для сносок list11 не указан текст
  12. 12,0 12,1 Ошибка цитирования Неверный тег <ref>; для сносок list12 не указан текст
  13. 13,0 13,1 13,2 13,3 Ошибка цитирования Неверный тег <ref>; для сносок list13 не указан текст
  14. 14,0 14,1 14,2 14,3 14,4 14,5 14,6 Ошибка цитирования Неверный тег <ref>; для сносок list14 не указан текст
  15. 15,0 15,1 15,2 15,3 Ошибка цитирования Неверный тег <ref>; для сносок list15 не указан текст
  16. 16,0 16,1 Ошибка цитирования Неверный тег <ref>; для сносок list16 не указан текст