Русская Википедия:Семантическая информация

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Семантическая информация — смысловой аспект информации, отражающий отношение между формой сообщения и его смысловым содержанием.

Начиная с работ Клода Шеннона, принято считать[1], что понятие информации складывается из трёх аспектов: синтаксического, семантического и прагматического. Синтаксический связан с техническими проблемами хранения и передачи информации, семантический имеет отношение к смыслу и значению истинности сообщений, прагматический затрагивает вопросы влияния информации на поведение людей. Теория семантической информации исследует область человеческих знаний и является составной частью разработки искусственного интеллекта[2].

История

Формирование понятия семантической информации

Возникновение семиотики в 19 веке создало предпосылки для появления понятия семантической информации[3]. Окончательно оно сложилось после появления Математической теории связи, созданной Клодом Шенноном в 1948 году[4]. Теория Шеннона, рассматриваемая сейчас как теория синтаксической информации, полностью игнорирует смысл сообщения. Именно тогда была осознана необходимость создания теории семантической информации.

Теория Бар-Хиллела и Карнапа

В 1952 году Йегошуа Бар-Хиллелом и Рудольфом Карнапом была предложена теория семантической информации, основанная на понятии логических вероятностей[5]. Семантическая информация трактуется авторами как синоним смыслового содержания, которым обладают как истинные, так и ложные выражения. Рассматриваются две основные меры количества семантической информации в предложении <math>s</math>. Первая <math> \mbox{cont}(s)</math> определяется так:

<math> \mbox{cont}(s)=1-q(s)</math>,

где <math>q(s)</math> — абсолютная логическая вероятность предложения <math>s</math>. Вторая мера <math> \mbox{inf}(s)</math> является нелинейной функцией первой:

<math>\mbox{inf}(s)=\log_2{\frac{1}{1-\mbox{cont}(s)}}=\log_2{\frac{1}{q(s)}}</math>.

Она интересна тем, что для двух логически независимых предложений <math>s_1</math> и <math>s_2</math> имеем неравенство: <math>\mbox{cont}(s_1)+\mbox{cont}(s_2)>\mbox{cont}(s_1 \land s_2)</math>, где «<math>\land</math>» — знак логической связки «И», тогда как:

<math>\mbox{inf}(s_1)+\mbox{inf}(s_2)=\mbox{inf}(s_1 \land s_2)</math>, (*)

что больше подходит для меры количества информации.

Для определения величин логических вероятностей предложений Бар-Хиллел и Карнап конструируют формальный язык и составляют с его помощью описания всевозможных состояний универсума (так называемое «множество возможных миров»). Приведём пример простого языка, в котором имеется одна константа <math>a</math> (под ней мы будем подразумевать девушку Алису) и два предиката: <math>B</math> и <math>W</math>, обозначающие свойства «красива» и «умна». Тогда выражение <math>B(a)</math> означает предложение «Алиса красива», а выражение <math>W(a)</math> — «Алиса умна». Теперь используем логическую связку «НЕ», которую обозначим символом: «<math>\neg</math>». Тогда выражение <math>\neg B(a)</math> будет означать предложение «Алиса не красива», а выражение <math>\neg W(a)</math> — «Алиса не умна». Теперь мы можем составить все возможные описания состояний универсума для нашего скромного языка. Всего их будет четыре.

<math>B(a)\land W(a)</math>
<math>B(a)\land\neg W(a)</math>
<math>\neg B(a)\land W(a)</math>
<math>\neg B(a)\land\neg W(a)</math>

Как можно видеть, каждый мир универсума состоит из логически независимых атомарных предложений (и их отрицаний), называемых базисными. Обычно в формальных языках используется множество констант и множество предикатов, причём, не обязательно одноместных. Так что количество миров может быть очень большим.

Если не заданы предварительные условия, то логические вероятности всех миров одинаковы. В этом случае величина абсолютной логической вероятности предложения <math>s</math> равна отношению числа миров, в которых <math>s</math> истинно, к общему числу миров в универсуме. В теории Бар-Хиллела и Карнапа величины логических вероятностей аналитических выражений одинаковы и равны единице (поскольку они истинны во всех мирах), а логическая вероятность противоречия равна нулю. Величины логических вероятностей синтетических выражений заключены в интервале от нуля до единицы.

Чем больше миров в универсуме, тем выше неопределённость (относительно того, какой мир является истинным). После получения сообщения <math>s</math> неопределённость уменьшается, поскольку те миры, в которых <math>s</math> ложно, можно исключить из рассмотрения. Семантическая информация в предложении <math>s</math> понимается как множество исключённых миров (оно обозначается символом <math>\mbox{Cont}(s)</math>). По поводу этого определения авторы пишут, что оно согласуется с древним философским принципом «omnis determinatio est negatio» («всякое определение является исключением»). Теперь для меры <math>\mbox{cont}(s)</math> можем записать:

<math>\mbox{cont}(s)={\frac{|\mbox{Cont}(s)|}{|\mbox{U}|}}</math>,

где <math>|\mbox{Cont}(s)|</math> — мощность множества <math>\mbox{Cont}(s)</math>, <math>|\mbox{U}|</math> — мощность множества всех миров универсума <math>\mbox{U}</math>.

Количество семантической информации в сообщении <math>s</math> относительно знаний получателя <math>e</math> определяется следующим образом:

<math>\mbox{inf}(s/e)=\mbox{inf}(s\land e)-\mbox{inf}(e)=\log_2{\frac{q(e)}{q(s\land e)}}=\log_2{\frac{1}{q(s/e)}}</math>,

где <math>q(s/e)</math> — относительная (условная) логическая вероятность истинности высказывания <math>s</math> при условии истинности выражения <math>e</math>.

Замечательно, что чисто внешне формулы теории Бар-Хиллела и Карнапа похожи на формулы теории Шеннона. И там, и здесь мы имеем логарифмы и вероятности. Только у Шеннона все вероятности — статистические (то есть эмпирические), а не логические.

Если логическая вероятность выражения <math>s\land e</math> меньше логической вероятности выражения <math>e</math>, то сообщение <math>s</math> несёт новую информацию получателю, обогащая, таким образом, его знания. Если <math>e</math> имплицирует <math>s</math>, то <math>s\land e</math> эквивалентно <math>e</math> и сообщение <math>s</math> не несёт информации адресату (поскольку в нём для него нет ничего нового). Если выражение <math>s\land e</math> является противоречием, то <math>q(s\land e)=0</math>. Количество семантической информации в противоречии по Бар-Хиллелу и Карнапу равно бесконечности. Этот парадоксальный результат впоследствии послужил поводом для критики со стороны Лучано Флориди.

Альтернативные идеи

Хотя теория Бар-Хиллела и Карнапа до сих пор пользуется вниманием исследователей, она вызвала поток новых идей. Александр Харкевич предложил измерять ценность информации по изменению вероятности достижения определённой цели, возникающему под воздействием данного сообщения[6]. Юлий Шрейдер полагал, что количество семантической информации в послании любой природы можно оценивать как степень изменения системы знаний адресата в результате восприятия сообщения[7]. Идея о семантическом аспекте связи информации и энтропии была впервые предложена в 1966 советским философом и логиком Евгением Казимировичем Войшвилло в работе «Попытка семантической интерпретации статистических понятий информации и энтропии».

Современные теории семантической информации

Теория Флориди

В своей работе 2004 года Лучано Флориди с первой строки обрушивается на теорию Бар Хиллела и Карнапа: «„Треугольник имеет четыре стороны“: согласно классической теории семантической информации в этом противоречии заключено больше смыслового содержания, чем в условно истинном утверждении „Земля имеет только одну Луну“»[8]. Флориди назвал это «парадоксом Бар-Хиллела-Карнапа». Решение этого парадокса он видит в том, что количество семантической информации в сообщениях должно зависеть не только от заключённого в них смыслового содержания, но и от значения истинности этих сообщений. Флориди ввёл понятие условно ложного предложения (contingently false sentence), представляющего собой конъюнкцию двух его составных частей, одна из которых истинная, а вторая — ложная. Примером такого предложения может служить высказывание: «Луна вращается вокруг Земли и внутри она полая». Такое предложение одновременно несёт информацию (тем, кто не знает, что Луна вращается вокруг Земли) и дезинформацию (в обычной жизни часто приходится встречаться с подобным — дезинформацию легче продвигать, если она дополняется некоторой долей информации).

С точки зрения классической логики условно ложное предложение является просто ложным и несёт только дезинформацию. Однако приведённый пример показывает, что на самом деле это не так. Первоначальная теория Бар-Хиллела и Карнапа не в состоянии решить эту антиномию. Поэтому Флориди отверг её (как «слабую» теорию) и создал свою собственную — «сильную». Он отказался от использования логических вероятностей и заявил, что теория семантической информации не должна быть похожей на теорию Шеннона[9]. В его собственной интерпретации количество семантической информации в сообщении определяется степенью соответствия этого сообщения ситуации (то есть тому, что происходит в данном месте и в данное время). Несоответствие возникает либо в результате бессодержательности сообщения, либо в результате его неточности. В своей теории Флориди непосредственно не использует понятие дезинформации, вместо этого он вводит понятие степени неточности условно ложных предложений. Степень неточности в условно ложном предложении <math>s</math> равна:

<math> -v(s)=-{\frac{f(s)}{l(s)}} </math>,

где <math>f(s)</math> — число ложных атомарных выражений в <math>s</math>; <math>l(s)</math> — общее число атомарных предложений в <math>s</math>. Для определения истинности атомарных предложений требуется принять принцип априорного всезнания. Степень бессодержательности истинного предложения <math>s</math> рассчитывается по формуле:

<math>+v(s)={\frac{m(s)}{n}}</math>,

где <math>m(s)</math> — число миров универсума, в которых <math>s</math> истинно; <math>n</math> — общее число миров универсума (заметим, что, согласно этому определению, величина <math>+v(s)</math> в точности равна величине логической вероятности <math>q(s)</math>). Далее Флориди вводит понятие функции степени информативности:

<math> i(s)=1-v^2(s)</math>.

Количество семантической информации <math>i^*(s)</math> в сообщении <math>s</math> равно определённому интегралу от функции степени информативности <math>i(s)</math>:

<math> i^*(s)={\frac{3}{2}}\int\limits_{v(s)}^{1}(1-x^2)\mathrm dx=1-{\frac{3v(s)}{2}}+{\frac{v^3(s)}{2}} </math>.

Несмотря на все отличия между классической теорией и теорией Флориди, в них есть нечто общее. Если <math>s</math> является истинным предложением, то величина <math>+v(s)</math> равна величине логической вероятности <math>q(s)</math>. Мера <math>i^*(s)</math> подобна мере <math>\mbox{cont}(s)</math>, но в отличие от последней, является нелинейной функцией <math>v(s)</math>. К сожалению, в теории Флориди нет ничего похожего на меру <math>\mbox{inf}(s)</math>, обладающую замечательным свойством (*) для логически независимых предложений.

Теория семантической информации и дезинформации

Поднятая Флориди проблема может быть решена в рамках теории, основанной на логических вероятностях. Необходимо отметить, что к началу текущего века у некоторых учёных сформировалось скептическое отношение к индуктивной логике Карнапа[10]. Однако современные математики смогли изменить ситуацию, модифицировав эту теорию[11][12][13]. Благодаря этому интерес к логическим вероятностям вновь возродился.

В работе[14] предлагается модифицировать классическую теорию семантической информации, включив в неё понятие дезинформации, которую несёт ложное сообщение. В новой теории, как и в теории Флориди, рассматривается множество различных ситуаций (точек пространства-времени). Одно и то же предложение языка может быть истинным в одной ситуации и ложным в другой. Поскольку получатель сообщений не может быть застрахован от ошибок при оценке их истинности, количество семантической информации оценивается отдельно с точки зрения получателя и с точки зрения всезнающего эксперта.

В каждой конкретной ситуации истинное сообщение несёт только информацию, а абсолютно ложное — одну только дезинформацию. Условно ложное предложение <math>s</math> рассматривается как конъюнкция: <math>s_T\land s_F</math>, где <math>s_T</math> — истинная часть сообщения, <math>s_F</math> — ложная часть сообщения. При этом требуется, чтобы <math>s_T</math> и <math>s_F</math> были логически независимыми (это нужно, в частности, для того, чтобы противоречие не оказалось условно ложным предложением). Тогда ненормализованные меры количества информации <math>\mbox{in}_E(s)</math> и количества дезинформации <math>\mbox{mi}_E(s)</math> в условно ложном предложении <math>s</math> с точки зрения эксперта определяются следующим образом:

<math>\mbox{in}_E(s)=\mbox{cont}(s_T)</math>,
<math>\mbox{mi}_E(s)=\mbox{cont}(s_F)</math>.

Индекс «<math>E</math>», которым помечены символы «<math>\mbox{in}</math>» и «<math>\mbox{mi}</math>» в формулах, указывает на то, что рассматриваются количества информации и дезинформации с точки зрения эксперта. Нормализованные меры количества семантической информации <math>\mbox{inf}_E(s)</math> и дезинформации <math>\mbox{mis}_E(s)</math> в условно ложном предложении <math>s</math> с точки зрения эксперта:

<math>\mbox{inf}_E(s)=\log_2{\frac{1}{1-\mbox{cont}(s_T)}}=\log_2{\frac{1}{q(s_T)}}</math>,
<math>\mbox{mis}_E(s)=\log_2{\frac{1}{1-\mbox{cont}(s_F)}}=\log_2{\frac{1}{q(s_F)}}</math>.

Противоречие с точки зрения эксперта несёт нулевое количество информации и бесконечное количество дезинформации. Таким образом решается парадокс Бар-Хиллела-Карнапа. Бесконечное количество дезинформации объясняется тем, что, если бы противоречие вдруг кому-то показалось истиной, то мир изменился бы для него до неузнаваемости. Двумя словами это не описать. Предположим, что получатель информации имеет условно ложные знания <math>e</math>, эквивалентные конъюнкции: <math>e_T\land e_F</math>, где <math>e_T</math> — истинная часть его знаний, <math>e_F</math> — заблуждения. Тогда с точки зрения эксперта, получив условно ложное сообщение <math>s</math>, адресат реально имеет семантическую информацию и дезинформацию в следующих количествах:

<math>\mbox{inf}_E(s/e)=\log_2{\frac{q(e_T)}{q(s_T\land e_T)}}=\log_2{\frac{1}{q(s_T/e_T)}}</math>,
<math>\mbox{mis}_E(s/e)=\log_2{\frac{q(e_F)}{q(s_F\land e_F)}}=\log_2{\frac{1}{q(s_F/e_F)}}</math>.

Если получатель воспринимает <math>s</math> как истинное предложение и конъюнкция <math>s\land e</math> не является противоречием, то с его точки зрения он получил следующее количество информации:

<math>\mbox{inf}_R(s/e)=\log_2{\frac{1}{q(s/e)}}=\mbox{inf}_E(s/e)+\mbox{mis}_E(s/e) </math>.

Индекс «<math>R</math>» обозначает оценку адресата. Очевидно, что точное количество информации (и дезинформации) в пришедшем сообщении может определить только эксперт, а получатель способен лишь на более-менее точные оценки.

Теория универсальной семантической информации

Формальное описание семантической информации, применимое для всех видов физических систем (живых и неживых) дано математиком Дэвидом Волпертом (David Wolpert) в его работе "Semantic information, agency, and nonequilibrium statistical physics": синтаксическая информация, которой обладает физическая система об окружающей среде, и которая казуально необходима системе для поддержания собственного существования в состоянии низкой энтропии.

Казуальная необходимость определяется в терминах гипотетических вмешательств (counter-factual interventions), которые рандомизируют корреляции между системой и внешней средой. Критерием степени автономности физической системы является объём имеющейся семантической информации.

Примечания

Шаблон:Примечания

  1. Ошибка цитирования Неверный тег <ref>; для сносок list1 не указан текст
  2. Ошибка цитирования Неверный тег <ref>; для сносок list2 не указан текст
  3. Ошибка цитирования Неверный тег <ref>; для сносок list3 не указан текст
  4. Ошибка цитирования Неверный тег <ref>; для сносок list4 не указан текст
  5. Ошибка цитирования Неверный тег <ref>; для сносок list5 не указан текст
  6. Ошибка цитирования Неверный тег <ref>; для сносок list6 не указан текст
  7. Ошибка цитирования Неверный тег <ref>; для сносок list7 не указан текст
  8. Ошибка цитирования Неверный тег <ref>; для сносок list8 не указан текст
  9. Ошибка цитирования Неверный тег <ref>; для сносок list9 не указан текст
  10. Ошибка цитирования Неверный тег <ref>; для сносок list10 не указан текст
  11. Ошибка цитирования Неверный тег <ref>; для сносок list11 не указан текст
  12. Ошибка цитирования Неверный тег <ref>; для сносок list12 не указан текст
  13. Ошибка цитирования Неверный тег <ref>; для сносок list13 не указан текст
  14. Ошибка цитирования Неверный тег <ref>; для сносок list14 не указан текст