измерване на данни

Основните обекти на изследване на компютърните науки са информация и тире процес. Информатика като самостоятелна наука се появи в средата на ХХ век, обаче, научният интерес се появиха по-рано информация и научните изследвания в тази област.

Предшественикът на съвременния компютър наука е науката на "кибернетика", основан от Н. Винер работи в края на 1940 - началото на 50-те години. В кибернетиката се задълбочи концепцията за информация, информация за местоположението е бил идентифициран в системите за контрол в живите организми, в социалните и техническите системи. Кибернетика разследвани принципите на управление на програмата. Първоначалната в същото време с появата на първите компютри, кибернетика, посочени научните основи за конструктивното им развитие, както и за различни приложения.

Компютър (PC) -Автоматично устройство за решаване на проблемите на информация чрез извършване на информационните процеси: съхраняване, обработка и предаване на информация. Описание на основните принципи и процеси на това законодателство се отнася и за теоретичните основи на компютърните науки.

Концепцията за "език" произлиза от лингвистиката. Език - etosistema символично представяне на информацията, използвана за неговото съхранение и предаване. Концепцията на език е един от основните понятия на компютърните науки, тъй като и двете данни и програми в компютъра ви са представени под формата на дизайн на героите. Език PC общуването с човек повече, идващи към формите на естествен език.

От основите на компютърните науки се прилага теорията на алгоритми. Концепцията на алгоритъма въведена в статия "Информация обработката" на. Тази тема е покрита подробно в петата част на енциклопедията.

Всеки герой има определена сума на текстова информация. Тя се нарича тегло на информация за характера. Ето защо, в размер на текстова информация е сумата от теглата на цялата информация, от знаци, които правят текста.

Тук се предполага, че текстът - верига маргаритка номерирани символи. Във формула (1) i1 означава информацията за теглото на първия текст характер, i2 - втори текст информация тегло символ и др.; K - големината на текста, т.е. от общия брой на знаци в текста.

Всички много различни символи, използвани за писане на текстове. Тя се нарича азбуката. размер азбука - цяло число, че nazyvaetsyamoschnostyu азбука. Трябва да се има предвид, че в азбуката включва не само букви opredelennogoyazyka, но и всички други символи, които могат да бъдат използвани в текста: цифри, препинателни знаци, различни скоби, пространство и така нататък.

Определяне на информационните тежести символи могат да се появят в две приближения:

1) при допускане на еднаква вероятност (същата честота на възникване) на всеки символ в текста;

2) с различни вероятности (с различна честота на възникване) на различните символи в текста.

Сближаване на равни символи на вероятностите в текста

Ако приемем, че всички букви от азбуката във всеки текстов появяват със същата честота, информацията за теглото на всички герои ще бъдат същите. Нека N - мощност на азбуката. След това споделете всеки символ в текста е 1 / N-ти на текста. По дефиниция, вероятността (виж "Измерване на подхода Информация Тематичната ..") Тази стойност е равна на вероятността от възникване на героя във всяка позиция на текста:

Съгласно формула K.Shennona (виж "съществена подход за измерване на информация .."), количеството на информация, носена от символ се изчислява както следва:

Следователно символ информация от теглото (I) и на изхода азбука (N) са свързани помежду си с формула Hartley (см ". Информацията измерване. Съдържателна подход")

Знаейки, теглото на една информация символ (и) и размера на текстови знаци изрази сума (K), може да се изчисли размерът на текстова информация по формулата:

Тази формула е специален вариант на формула (1), в случая, където всички символи имат същата информация тегло.

От формула (2) следва, че за N = 2 (двоично азбука) тегло информация на един символ е 1 бит.

От гледна точка на по азбучен подход за измерване на information.1 малко - тегло информационен символ на двоична азбука.

По-голяма единица на информация е байт.

1 байт - информация символ от капацитета на азбука тегло 256 на.

Тъй 256 = 2 8 след това следва от формула Hartley комуникация между битов байт и: