Как можно оценить вероятность исхода события информатика

Как можно оценить вероятность исхода события информатика

Количество информации – это мера снятия неопределённости одной случайной величины в результате наблюдения за другой.

Количественно выраженная неопределённость состояния получила название энтропии. При получении информации уменьшается неопределённость, т. е. энтропия системы.

В информатике, как правило, измерению подвергается информация, представленная дискретным сигналом.

Различают следующие подходы к измерению информации [1]:

1. Структурный подход

Измеряет количество информации простым подсчётом информационных элементов, составляющих сообщение. Применяется для оценки возможностей запоминающих устройств, объёмов передаваемых сообщений, инструментов кодирования без учёта статистических характеристик их эксплуатации.

В рамках структурного подхода выделяют три меры информации:

1) геометрическая – определяет максимально возможное количество информации в заданных объемах. Единицей измерения является информационный элемент. Мера может быть использована для определения информационной ёмкости памяти компьютера. В этом случае в качестве информационного элемента выступает минимальная единица хранения – бит;


2) комбинаторная – оценивает возможность представления информации при помощи различных комбинаций информационных элементов в заданном объёме.

Использует типы комбинаций элементов и соответствующие математические соотношения, которые приводятся в одном из разделов дискретной математики – комбинаторике.

Комбинаторная мера может использоваться для оценки информационных возможностей некоторого автомата, который способен генерировать дискретные сигналы (сообщения) в соответствии с определённым правилом комбинаторики.

Пусть, например, есть автомат, формирующий двузначные десятичные целые положительные числа (исходное множество информационных элементов {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}). В соответствии с положениями комбинаторики, данный автомат генерирует размещения (различаются числа, например, 34 и 43) из 10 элементов (используются 10 цифр) по 2 (по условию задачи, формируются двузначные числа) с повторениями (очевидно, возможны числа, состоящие из одинаковых цифр, например, 33). Тогда можно оценить, сколько различных сообщений (двузначных чисел) может сформировать автомат, иначе говоря, можно оценить информационную ёмкость данного устройства:

Р(102) = 102 = 100;


3) аддитивная – эта мера предложена в 1928 г. американским учёным Хартли, поэтому имеет второе название – мера Хартли.

Хартли впервые ввёл специальное обозначение для количества информации – I – и предложил следующую логарифмическую зависимость между количеством информации и мощностью исходного алфавита:


I = l log h,


где I – количество информации, содержащейся в сообщении;
l – длина сообщения;
h – мощность исходного алфавита.

При исходном алфавите {0, 1}; l = 1; h = 2 и основании логарифма, равном 2, имеем


I = 1 · log2 2 = 1.


Данная формула даёт аналитическое определение бита (BIT – BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре.
Единицей измерения информации в аддитивной мере является бит.


Приведём пример.

Необходимо рассчитать количество информации, которое содержится в шестнадцатеричном и двоичном представлении ASCII–кода для числа l.

В соответствии с таблицей ASCII–кодов имеем: шестнадцатеричное представление числа l – 31, двоичное представление числа l – 00110001.

Тогда по формуле Хартли получаем:

для шестнадцатеричного представления

I = 2 · log2 16 = 8 бит;


для двоичного представления

I = 8 · log2 2 = 8 бит.


Таким образом, разные представления ASCII–кода для одного символа содержат одинаковое количество информации, измеренной аддитивной мерой.

2. Статистический подход

Учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т. е. менее всего ожидалось. Применяется при оценке значимости получаемой информации.

В 30-х г. ХХ в. американский ученый Клод Шеннон предложил связать количество информации, которое несет в себе некоторое сообщение, с вероятностью получения этого сообщения.

Вероятность p – количественная априорная (т. е. известная до проведения опыта) характеристика одного из исходов (событий) некоторого опыта. Измеряется в пределах от 0 до 1. Если заранее известны все исходы опыта, сумма их вероятностей равна 1, а сами исходы составляют полную группу событий. Если все исходы могут свершиться с одинаковой долей вероятности, они называются равновероятными.


3. Семантический подход

Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и её соответствия реальности.


4. Вероятностный подход

Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Согласно формуле Р. Хартли:


I = log2N


– количество информации, которое вмещает один символ N-элементного алфавита, равно log2N.


Рассмотрим пример.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:

I = log2 100 = 6,644.


Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Клод Шеннон в 1948 г. предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Каждому сигналу присваивалась определённая вероятность его появления.

Чем меньше вероятность появления того или иного сигнала, тем больше он несёт информации.

Формула К. Шеннона:



где pi – вероятность появления i-го сигнала; N – количество возможных сигналов.

Количество информации здесь представляется как результат выбора из набора возможных вариантов.

В качестве единицы информации Клод Шеннон предложил принять один бит.


5. Алфавитный подход

Согласно Колмогорову, количество информации, содержащейся в последовательности символов, определяется минимально возможным количеством двоичных знаков, необходимых для кодирования этой последовательности безотносительно к содержанию представленного ею сообщения. При этом для кодирования наиболее часто используется двоичный алфавит, состоящий из нуля и единицы, это так называемое двоичное кодирование информации.



Источник: lib.ssga.ru


Добавить комментарий