Меню сайта

1 Понятие информация

Понятие«информация».

Слово «информация» происходит от латинского слова informatio, что в переводеозначает сведение, разъяснение, ознакомление. Понятие «информация» являетсябазовым в курсе информатики, невозможно дать его определение через другие,более «простые» понятия. В геометрии, например, невозможно выразить содержаниебазовых понятий «точка», «луч», «плоскость» через более простые понятия.Содержание основных, базовых понятий в любой науке должно быть пояснено напримерах или выявлено путем их сопоставления с содержанием других понятий.

В случае с понятием «информация» проблема его определения еще более сложная,так как оно является общенаучным понятием. Данное понятие используется вразличных науках (информатике, кибернетике, биологии, физике и др.), при этом вкаждой науке понятие «информация» связано с различными системами понятий.

Информация в физике. В физике мерой беспорядка, хаоса длятермодинамической системы является энтропия системы, тогда как информация(антиэнтропия) является мерой упорядоченности и сложности системы. По мереувеличения сложности системы величина энтропии уменьшается, и величинаинформации увеличивается. Процесс увеличения информации характерен дляоткрытых, обменивающихся веществом и энергией с окружающей средой,саморазвивающихся систем живой природы (белковых молекул, организмов, популяцийживотных и так далее).

Таким образом, в физике информация рассматривается как антиэнтропия илиэнтропия с обратным знаком.

Информация в биологии. В биологии, которая изучает живую природу,понятие «информация» связывается с целесообразным поведением живых организмов.Такое поведение строится на основе получения и использования организмоминформации об окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиямимеханизмов наследственности. Генетическая информация передается по наследству ихранится во всех клетках живых организмов. Гены представляют собой сложныемолекулярные структуры, содержащие информацию о строении живых организмов.Последнее обстоятельство позволило проводить научные эксперименты поклонированию, то есть созданию точных копий организмов из одной клетки.

Информация в кибернетике. В кибернетике (науке об управлении) понятие«информация» связано с процессами управления в сложных системах (живыхорганизмах или технических устройствах). Жизнедеятельность любого организма илинормальное функционирование технического устройства зависит от процессовуправления, благодаря которым поддерживаются в необходимых пределах значения ихпараметров. Процессы управления включают в себя получение, хранение,преобразование и передачу информации.

Социально значимые свойства информации. Человек — существосоциальное, для общения с другими людьми он должен обмениваться с нимиинформацией, причем обмен информацией всегда производится на определенном языке— русском, английском и так далее. Участники дискуссии должны владеть темязыком, на котором ведется общение, тогда информация будет понятной всемучастникам обмена информацией.

Информация должна быть полезной, тогда дискуссия приобретаетпрактическую ценность. Бесполезная информация создает информационный шум,который затрудняет восприятие полезной информации. Примерами передачи иполучения бесполезной информации могут служить некоторые конференции и чаты вИнтернете.
Широко известен термин «средства массовой информации» (газеты, радио,телевидение), которые доводят информацию до каждого члена общества. Такаяинформация должна быть достоверной и актуальной. Недостовернаяинформация вводит членов общества в заблуждение и может быть причинойвозникновения социальных потрясений. Неактуальная информация бесполезна ипоэтому никто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире,информация должна быть полной и точной. Задача получения полной иточной информации стоит перед наукой. Овладение научными знаниями в процессеобучения позволяют человеку получить полную и точную информацию о природе,обществе и технике.

Единицы измерения количестваинформации.

Информация и знания. Человек получает информацию из окружающего мирас помощью органов чувств, анализирует ее и выявляет существенные закономерностис помощью мышления, хранит полученную информацию в памяти. Процесссистематическог
о научного познания окружающего мира приводит к накоплениюинформации в форме знаний (фактов, научных теорий и так далее). Таким образом,с точки зрения процесса познания информация может рассматриваться как знания.
Информацию, которую получает человек, можно считать мерой уменьшениянеопределенности знаний. Если некоторое сообщение приводит к уменьшениюнеопределенности наших знаний, то можно говорить, что такое сообщение содержитинформацию.

Уменьшение неопределенности знаний. Подход к информации как мереуменьшения неопределенности знаний позволяет количественно измерять информацию,что чрезвычайно важно для информатики. Рассмотрим вопрос об определенииколичества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. Сравной вероятностью произойдет одно из двух возможных событий — монета окажетсяв одном из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытовколичества выпадений «орла» и «решки» постепенно сближаются. Например, если мыбросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, еслибросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, еслибросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и такдалее.

В итоге при очень большой серии опытов количества выпадений «орла» и «решки»практически сравняются.
Перед броском существует неопределенность наших знаний (возможны два события),и, как упадет монета, предсказать невозможно. После броска наступает полнаяопределенность, так как мы видим (получаем зрительное сообщение), что монета вданный момент находится в определенном положении (например, «орел»). Этосообщение приводит к уменьшению неопределенности наших знаний в два раза, таккак до броска мы имели два вероятных события, а после броска — только одно, тоесть в два раза меньше.

В окружающей действительности достаточно часто встречаются ситуации, когдаможет произойти некоторое количество равновероятных событий. Так, при бросанииравносторонней четырехгранной пирамиды существуют 4 равновероятных события, апри бросании шестигранного игрального кубика — 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальнаянеопределенность и соответственно тем большее количество информации будетсодержать сообщение о результатах опыта.

Единицы измерения количества информации. Для количественноговыражения любой величины необходимо определить единицу измерения. Так, дляизмерения длины в качестве единицы выбран метр, для измерения массы — килограмми так далее. Аналогично, для определения количества информации необходимоввести единицу измерения.

За единицу количества информации принимается такое количество информации,которое содержит сообщение, уменьшающее неопределенность в два раза. Такаяединица названа «бит».

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как разуменьшается в два раза и, следовательно, полученное количество информации равно1 биту.

Минимальной единицей измерения количества информации является бит, аследующей по величине единицей является байт, причем 1 байт = 23 бит= 8 бит.

В информатике система образования кратных единиц измерения количестваинформации несколько отличается от принятых в большинстве наук. Традиционныеметрические системы единиц, например Международная система единиц СИ, вкачестве множителей кратных единиц используют коэффициент 10n, где n= 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103),Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления,поэтому в кратных единицах измерения количества информации используетсякоэффициент 2n.
Так, кратные байту единицы измерения количества информации вводятся следующимобразом:
1 Кбайт = 210 байт = 1024 байт-
1 Мбайт = 210 Кбайт = 1024 Кбайт-
1 Гбайт = 210 Мбайт = 1024 Мбайт. —

Количество возможных событий и количество информации. Существуетформула, которая связывает между собой количество возможных событий N иколичество информации I: N=2I.
По этой формуле можно легко определить количество возможных событий, еслиизвестно количество информации. Например, если мы получили 4 бита информации,то количество возможных событий составляло: N = 24= 16.
Наоборот, для определения количества информации, если известно количе
ствособытий, необходимо решить показательное уравнение относительно I. Например, вигре «Крестики-нолики» на поле 8×8 перед первым ходом существует возможныхсобытия (64 различных варианта расположения «крестика»), тогда уравнениепринимает вид: 64 = 2I.
Так как 64 = 26, то получим: 26 = 2I.
Таким образом, I = 6 битов, то есть количество информации, полученное вторымигроком после первого хода первого игрока, составляет 6 битов.

Алфавитный подход к определению количества информации.

При определении количества информации на основе уменьшения неопределенностинаших знаний мы рассматриваем информацию с точки зрения содержания, еепонятности и новизны для человека. С этой точки зрения в опыте по бросаниюмонеты одинаковое количество информации содержится и в зрительном образеупавшей монеты, и в коротком сообщении «Орел», и в длинной фразе «Монета упалана поверхность земли той стороной вверх, на которой изображен орел».

Однако при хранении и передаче информации с помощью технических устройствцелесообразно отвлечься от содержания информации и рассматривать ее какпоследовательность знаков (букв, цифр, кодов цветов точек изображения и такдалее).
Набор символов знаковой системы (алфавит) можно рассматривать как различныевозможные состояния (события). Тогда, если считать, что появление символов всообщении равновероятно, по формуле можно рассчитать, какое количествоинформации несет каждый символ.

Так, в русском алфавите, если не использовать букву ё, количество событий(букв) будет равно 32. Тогда: 32 = 2I,откуда I = 5 битов.
Каждый символ несет 5 битов информации (его информационная емкость равна 5битов). Количество информации в сообщении можно подсчитать, умножив количествоинформации, которое несет один символ, на количество символов.
Количество информации, которое содержит сообщение, закодированное с помощьюзнаковой системы, равно количеству информации, которое несет один знак,умноженному на количество знаков.

Категория: Информатика | Дата: 11.04.13

Меню раздела
Блок