Какое количество информации содержится, к примеру,в тексте романа "Война имир", в фресках Рафаэля или в генетическомкоде человека? Ответа на этивопросы наука не даёт и, по всей вероятности,даст не скоро.А возможно ли объективно измерить количествоинформации? Важнейшимрезультатом теории информации является вывод:В определенных, весьма широких условиях можнопренебречь качественнымиособенностями информации, выразить её количествочислом, а также сравнитьколичество информации, содержащейсяв различных группах данных.В настоящее время получили распространение подходы копределению понятия"количество информации", основанные на том, чтоинформацию, содержащуюся всообщении, можно нестрого трактовать в смыслееё новизны или, иначе,уменьшения неопределённости наших знанийоб объекте.Так, американский инженер Р. Хартли (1928 г.)процесс получения информациирассматривает как выбор одного сообщения изконечного наперёд заданногомножества из N равновероятных сообщений, аколичество информации I,содержащееся в выбранном сообщении, определяеткак двоичный логарифм N.Формула Хартли: I = log2N.Допустим, нужно угадать одно число из наборачисел от единицы до ста. Поформуле Хартли можно вычислить, какоеколичество информации для этоготребуется: I = log2100 ” 6,644. То есть сообщениео верно угаданном числесодержит количество информации, приблизительноравное 6,644 единицинформации.Приведем другие примеры равновероятныхсообщений:при бросании монеты: "выпала решка","выпал орел";на странице книги: "количество букв чётное","количество букв нечётное".Определим теперь, являются ли равновероятнымисообщения "первой выйдет издверей здания женщина" и "первым выйдет из дверей зданиямужчина". Однозначноответить на этот вопрос нельзя. Все зависит от того,о каком именно зданииидет речь. Если это, например, станция метро, товероятность выйти из дверейпервым одинакова для мужчины и женщины, а еслиэто военная казарма, то длямужчины эта вероятность значительно выше,чем для женщины.Для задач такого рода американский учёный Клод Шеннонпредложил в 1948 г.другую формулу определения количества информации,учитывающую возможнуюнеодинаковую вероятность сообщений в наборе.Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . .+ pN log2 pN ),где pi — вероятность того, что именно i-е сообщениевыделено в наборе из Nсообщений.Легко заметить, что если вероятности p1, ..., pN равны,то каждая из нихравна 1/N, и формула Шеннона превращается вформулу Хартли.Помимо двух рассмотренных подходов к определениюколичества информации,существуют и другие. Важно помнить, что любыетеоретические результатыприменимы лишь к определённому кругу случаев,очерченному первоначальнымидопущениями.В качестве единицы информации условилисьпринять один бит (англ. bit —binary, digit — двоичная цифра).Бит в теории информации — количество информации,необходимое для различениядвух равновероятных сообщений.А в вычислительной технике битом называютнаименьшую "порцию" памяти,необходимую для хранения одного из двух знаков"0" и "1", используемых длявнутримашинного представления данных и команд.Бит — слишком мелкая единица измерения. На практикечаще применяется болеекрупная единица — байт, равная восьми битам. Именновосемь битов требуетсядля того, чтобы закодировать любой из 256 символовалфавита клавиатурыкомпьютера (256=28).Широко используются также ещё более крупные производныеединицы информации:1 Килобайт (Кбайт) = 1024 байт = 210 байт,1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.В последнее время в связи с увеличением объёмовобрабатываемой информациивходят в употребление такие производные единицы,как:1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.За единицу информации можно было бы выбратьколичество информации,необходимое для различения, например, десятиравновероятных сообщений. Этобудет не двоичная (бит), а десятичная (дит)единица информации.
Здравствуйте дорогие читатели!
В этом предисловие я объясню, как быстро пользоваться навигацией по сайту.
1.Слева и справа от статьи есть Меню «Архив».
2.В нем выберете первый месяц сверху "Ноябрь 2011" и начните просмотр статей, найдите интересующею вас статью и нажмите на ней.
3.Двигайтесь сверху вниз по месяцам и статьям, выбирая и просматривая интересующие вас статьи.
Хорошего вам просмотра, не забывайте комментировать, очень интересно знать ваше мнение.
С уважением, Администратор
Виктор Чернецкий.
С уважением, Администратор
Виктор Чернецкий.
Измерение информации.
воскресенье, 6 ноября 2011 г.
Автор:
Чернецкий Виктор Анатольевич
на
00:28
Подписаться на:
Комментарии к сообщению (Atom)



0 коммент.:
Отправить комментарий