измерване на данни
Основните обекти на изследване на компютърните науки са информация и тире процес. Информатика като самостоятелна наука се появи в средата на ХХ век, обаче, научният интерес се появиха по-рано информация и научните изследвания в тази област.
Предшественикът на съвременния компютър наука е науката на "кибернетика", основан от Н. Винер работи в края на 1940 - началото на 50-те години. В кибернетиката се задълбочи концепцията за информация, информация за местоположението е бил идентифициран в системите за контрол в живите организми, в социалните и техническите системи. Кибернетика разследвани принципите на управление на програмата. Първоначалната в същото време с появата на първите компютри, кибернетика, посочени научните основи за конструктивното им развитие, както и за различни приложения.
Компютър (PC) -Автоматично устройство за решаване на проблемите на информация чрез извършване на информационните процеси: съхраняване, обработка и предаване на информация. Описание на основните принципи и процеси на това законодателство се отнася и за теоретичните основи на компютърните науки.
Концепцията за "език" произлиза от лингвистиката. Език - etosistema символично представяне на информацията, използвана за неговото съхранение и предаване. Концепцията на език е един от основните понятия на компютърните науки, тъй като и двете данни и програми в компютъра ви са представени под формата на дизайн на героите. Език PC общуването с човек повече, идващи към формите на естествен език.
От основите на компютърните науки се прилага теорията на алгоритми. Концепцията на алгоритъма въведена в статия "Информация обработката" на. Тази тема е покрита подробно в петата част на енциклопедията.
Всеки герой има определена сума на текстова информация. Тя се нарича тегло на информация за характера. Ето защо, в размер на текстова информация е сумата от теглата на цялата информация, от знаци, които правят текста.
Тук се предполага, че текстът - верига маргаритка номерирани символи. Във формула (1) i1 означава информацията за теглото на първия текст характер, i2 - втори текст информация тегло символ и др.; K - големината на текста, т.е. от общия брой на знаци в текста.
Всички много различни символи, използвани за писане на текстове. Тя се нарича азбуката. размер азбука - цяло число, че nazyvaetsyamoschnostyu азбука. Трябва да се има предвид, че в азбуката включва не само букви opredelennogoyazyka, но и всички други символи, които могат да бъдат използвани в текста: цифри, препинателни знаци, различни скоби, пространство и така нататък.
Определяне на информационните тежести символи могат да се появят в две приближения:
1) при допускане на еднаква вероятност (същата честота на възникване) на всеки символ в текста;
2) с различни вероятности (с различна честота на възникване) на различните символи в текста.
Сближаване на равни символи на вероятностите в текста
Ако приемем, че всички букви от азбуката във всеки текстов появяват със същата честота, информацията за теглото на всички герои ще бъдат същите. Нека N - мощност на азбуката. След това споделете всеки символ в текста е 1 / N-ти на текста. По дефиниция, вероятността (виж "Измерване на подхода Информация Тематичната ..") Тази стойност е равна на вероятността от възникване на героя във всяка позиция на текста:
Съгласно формула K.Shennona (виж "съществена подход за измерване на информация .."), количеството на информация, носена от символ се изчислява както следва:
Следователно символ информация от теглото (I) и на изхода азбука (N) са свързани помежду си с формула Hartley (см ". Информацията измерване. Съдържателна подход")
Знаейки, теглото на една информация символ (и) и размера на текстови знаци изрази сума (K), може да се изчисли размерът на текстова информация по формулата:
Тази формула е специален вариант на формула (1), в случая, където всички символи имат същата информация тегло.
От формула (2) следва, че за N = 2 (двоично азбука) тегло информация на един символ е 1 бит.
От гледна точка на по азбучен подход за измерване на information.1 малко - тегло информационен символ на двоична азбука.
По-голяма единица на информация е байт.
1 байт - информация символ от капацитета на азбука тегло 256 на.
Тъй 256 = 2 8 след това следва от формула Hartley комуникация между битов байт и: