количество информация

През 1928 г. американският инженер Р. Хартли предложен научен подход към оценяването на съобщения. формулата, предложен от него беше, както следва:

I = log2 К,
Къде K - броят на еднакво вероятно мероприятия; I - броя на битовете в съобщението, така че всеки от К събития се случи. След това К = 2 I.
Понякога Хартли формула изписва така:

I = log2 К = log2 (1 / п) = - log2 р,
т. к. За всяка от събития е equiprobable резултат р = 1 / К, К = 1 / р.

Топката е в един от трите кутии: А, В или С. За да се определи колко бита информация съдържа съобщение, че е в цт Б.

Това съобщение съдържа I = log2 3 = 1585 бита информация.

Но не всички положения имат еднаква вероятност за реализация. Има много такива случаи, при които вероятността за изпълнение варират. Например, ако хвърлите монета или асиметрична "правило сандвич".

"След като в детството си е спаднал сандвич ме гледа виновно избършете масло петно ​​оставащите на пода, по-големият брат ме утеши .:

- не се притеснявайте, че ще работи законът на сандвич.

- Що за закон е това? - попитах аз.

- Законът, който гласи: "Един сандвич винаги попада масло страна надолу." Въпреки това, че е шега, - продължи brat.- няма закон не. Prsto сандвич наистина се държи доста странно:-голямата част от маслото е на дъното.

- Да се ​​няколко пъти спадна сандвича си, проверете - аз предложих. - И все пак, тъй като той ще трябва да се изхвърли.

Проверихме. Осем от десет пъти сандвич паднаха с масло страна надолу.

И тогава си помислих: това е възможно да се знае предварително, както е сега ще падне масло сандвич нагоре или надолу?

Експериментите ни прекъснати от майката ... "
(Откъс от книгата "Тайната на великите пълководци" V.Abchuk).

През 1948 г. един американски инженер и математик Чрез Шанън предложи формула за изчисляване на размера на информация за събития с различни вероятности.
Ако аз - количеството информация
K - броят на възможните събития,
пи - вероятност за отделни събития,
количеството информация за събития с различни вероятности може да се определи с формулата:

I = - Сума пи log2 пи.
където I се стойностите от 1 до К.

Хартли формула вече може да се разглежда като специален случай на формула Шанън:

I = - Сума 1 / log2 (1 / K) = I = log2 К.

В equiprobable събития получи максимално количество информация.

Задачи.
1. Определя се количеството на информацията, получена при изпълнението на всеки случай, ако на гласове
а) асиметричен четиристенен пирамида;
б) симетрично и равномерно четиристранна пирамида.

а) Ще се хвърлят асиметрична четиристранна пирамида.
Вероятността за отделни събития ще бъде, както следва:
p1 = 1/2,
Р2 = 1/4,
p3 = 1/8
Р4 = 1/8
След това количеството на информацията, получена след прилагането на една от тези събития, се изчислява, както следва:
I = - (1/2 log2 1/2 + 1/4 log2 1/4 + 1/8 log2 1/8 + 1/8 log2 1/8) = 1/2 + 2/4 + 3/8 + 3/8 = 14/8 = 1.75 (бита).
б) Сега ние се изчисли количеството на информацията, която се получава, когато хвърляне на симетрични и еднакво тетраедални пирамида:
I = log2 4 = 2 (бита).
2. Вероятността случай на порите е 0,5, а втората и третата от 0,25. Колко информация, която получаваме, след изпълнението на един от тях?
3. Колко информация ще бъде получена в играта на рулетка с 32 сектори?
4. Колко различни числа могат да бъдат кодирани с 8 бита?
Решение: I = 8 бита, К = 2 I = 2 8 = 256 различни номера.

Физиолози и психолози са се научили как да се определи количеството на информацията, че хората могат да възприемат чрез сетивата, трябва да имате предвид и да бъдат лекувани. Информацията може да бъде в различни форми. Звук, подписва и други считат по-горе метод за определяне на размера на получената информация в съобщенията, които намаляват несигурността на нашите познания, като се има предвид информацията за позицията от неговото съдържание на новост и разбираемост за индивида. От тази гледна точка, в опита на гласове зарове същото количество информация, съдържаща се в съобщенията ", две", "нагоре лице спадна на което две точки" в визуален образ паднал куба.

Имайки предвид, че азбуката (набор от символи система знак) - събитие, появата на един от героите в съобщението може да се разглежда като един от щатите на събитието. Ако появата на знаци с еднаква вероятност, че е възможно да се изчисли колко бита информация, носена от всеки символ. Информация капацитет се определя от техния брой знаци в азбуката. Than повече знаци включва азбуката, толкова по-голямо количество информация носи една марка. Общият брой на букви и цифри се нарича силата на азбуката.

Молекулите на ДНК (дезоксирибонуклеинова киселина), съставен от четири различни компоненти (нуклеотидни), които формират генетична азбука. Информация капацитет на марката азбука е:

I. 4 = 2, т.е. I = 2 бита.

Всяка буква от азбуката българския (приемайки, че е = е) съдържа информация от 5 бита (32 = 2 I).

При този подход, в резултат докладвано от хвърляне на зара. Различна е количество информация, за да го изчисли, умножете броя на символите на количеството на информацията, носена от един символ.

Количеството информация, която съдържа съобщение кодиран със система за знак, равна на сумата на информация, осъществен само с един знак, умножена по броя на символите в съобщението.

Използвани материали училище номер учител 3
Илина Олга Владимировна, област Tutaev Ярославъл ..