Сайт Информационных Технологий

2.3. История изучения информации

Конечно, сегодня каждый ведущий ученый в области информатики, понимая ограниченность количественного подхода, старается дать свое определение информации. Что же называют информацией в разных источниках? Обратимся к научным работам, например, [9].

Информацией называют:

В некотором смысле даже трудно назвать, что ею не называют. Предлагаем вставить эти определения в существующие определения информатики в те места, где там встречается термин “информация”, если он там вообще встречается, и посмотреть, что получится с информатикой.

Несмотря на широту, практическую всеохватность совокупности определений информации, бросается в глаза их неконструктивность и вместе, и по отдельности, и после вставки в определение информатики. Неконструктивное определение, определение, не ведущее к уточнению, классификации, процессу организации практической работы с предметом определения, вряд ли полезно для информатики, если она является наукой. Но везде и постоянно мы натыкаемся именно на такую организацию постановочной терминологии и информации, и информатики. Почему же так происходит? Куда ведут современные тенденции поиска определения информации, можно ли получить положительный ответ при развитии количественной теории?

Классическая количественная теория информации состояла и ныне состоит из двух частей: теории преобразования сообщений и сигналов, основную долю в которой составляют вопросы кодирования и декодирования, и собственно теории передачи сообщений и сигналов без шумов и с шумами (с помехами) в канале связи. Ее основным утверждением, влияющим на понимание смысла термина “информация”, как мы уже знаем, является утверждение: носителем сообщения или информации является сигнал.

Этой “информации” придаются количественная и качественная мера. Иными словами, вводится количество информации и, по возможности, количество семантики (вопрос о возможности существования собственного смысла сообщения без его интерпретации в передатчике и приемнике обычно не задается) в информационной посылке. Тем самым сохраняются “сигнальные” предпосылки: характеристики сигнала, на котором отражается (переносится) сообщение, и есть предмет изучения информации.

В этом-то случае и получается, что собственно информацию определять не надо никак. Информация – просто “универсальное свойство” всего существующего в материальном мире, представимое через сигнал. После этого, конечно, можно утверждать, что, в зависимости от конкретного вида сигналов и их сочетаний, количество информации в них может быть больше или меньше.

В литературе обычно приводится следующий пример. По теории информации если сообщение не снимает неопределенности, то оно не содержит информации, если же сообщение позволяет более определенно задать предмет, то в сообщении содержится информация. Так утверждается, что сообщение типа “Волга впадает в Каспийское море” для человека, знающего географию, не содержит информацию, так как не несет ничего нового, но для школьника младших классов может обладать элементом новизны и тогда является информативным.

Строго говоря, при этом допускается масса априорных допущений, типа того, что школьник знает о существовании морей вообще и Каспийского в частности, что совсем не обязательно, а если узнает из указанной фразы и это, то явно получает больше информации, чем просто о впадении Волги.

Степень неопределенности сообщения стали измерять величиной, получившей название энтропия и являющейся функцией вероятности. Если вероятность равна 1, то энтропия равна нулю, а если вероятность равна 0, то энтропия равна бесконечности. Количество информации, полученное как разность между начальной энтропией (до получения сообщения) и конечной энтропией (после получения сообщения), называется негэнтропией (отрицательной энтропией). Поэтому информацию иногда называют отрицательной энтропией. Соответственно у информации и у энтропии одна единица измерения – бит.

Такое понимание информации не только не конструктивно, не полезно в каком-либо практическом смысле, но и ведет к серьезным заблуждениям. Так, для школьного инспектора сообщение школьника о Волге не менее, а может быть и более (попробуйте подсчитать!) информативно, чем для самого школьника, ибо школьник, как и инспектор, уже информирован, но последнему это позволяет оценить не только знания отдельного ученика, но и уровень преподавания географии.

Примитивный же энтропийный подход позволяет строить теории, где физической энтропии сопоставляется негэнтропия информационная, что позволяет изобретать различные “уравнения баланса энтропии и негэнтропии в едином информационно-физическом мире”, так сказать “возмещать потерю физической энергии выработкой информации”. На современном уровне развития науки такие утверждения ничем серьезным не обоснованы, более того, есть доводы для совершенно других выводов.

После энтропийно-негэнтропийного подхода к информации некоторое распространение получил подход комбинаторный, когда количество информации определяется как функция числа элементов конечного множества в их комбинаторных отношениях. В литературе можно встретить пример, когда мерой количества информации, содержащейся в некотором объекте А, относительно объекта В, берется минимальная “длина программы”, на основе которой можно однозначно преобразовать объект А в объект В – отголосок Колмогоровского предложения определения сложности системы по ее “программному” описанию.

К реальной жизни привязать такие экзерциции довольно трудно, поэтому в другом варианте информация – это отражение разнообразия, то есть воспроизведение разнообразия одного объекта в другом объекте в результате их взаимодействия. В такой концепции бит также является единицей измерения информации, которую получает приемник информации, осуществляя выбор из двух равновероятных возможностей разнообразия. Если же объекты не различаются, то их совокупность не содержит информации.

Так если в урне обнаружено два шара, из которых один белый, а второй черный, то оба вместе они несут в себе разнообразие – информацию – в один бит. Совокупность двух шаров одного цвета предлагается считать не содержащей информации. Основоположником концепции разнообразия является английский нейрофизиолог У.Р.Эшби. По его утверждению “информация не может передаваться в большем количестве, чем позволяет количество разнообразия”.

Конечно, такой подход не очень сильно отличается от приведенного выше примера с утверждениями о Волге. Информацию нельзя отождествлять с различием. Считается, что различие, разнообразие суть объективная основа существования информации, если уж считать ее свойством всех материальных объектов, хотя кто возьмется утверждать, что однообразие не является свойством материи, сигналом или сообщением?

Можно привести еще много вариантов и подходов к пониманию информации, но сказанного довольно, чтобы понять: если информация свойство материи и передается физическим сигналом, распространяющимся в физическом носителе, то ее количество может быть определено множеством подходов, в зависимости от текущего желания исследователя или каждой конкретной задачи, которую он должен решить.

Качественная же сторона вообще не раскрыта в теории информации, здесь нет никакой ясности ситуации. Последнее достаточно понятно, ибо все в том же “модельно-математическом ключе” ставится задача, вряд ли имеющая решение: задача нахождения “количества смысла”, “количества семантики”. Обратим внимание на то, что далеко не каждое свойство имеет осмысленное количественное выражение. Известные в математике “качественные шкалы” совсем не обязательно имеют метрику, т.е. некоторый способ сравнения “количеств” этого качества.

Возможно, что под информацией все-таки надо понимать что-то другое, что-то, дающее более определенные ее характеристики, вообще не воспринимать ее как свойство или как “информационный сигнал”? Ограничить ее количественное понимание “количественной теорией”?

Ниже мы попробуем изложить другое видение понятия информации. А пока, учитывая, что чисто сигнальный вариант количественного понимания информации никого уже не устраивает, а восприятие информации как свойства прочно вошло в сознание ученых, дадим более или менее общепринятое “сигнально-свойственное” определение информации, заимствованное из [10], которое подводит итоги приведенного выше обсуждения.

Информация – это одно из основных универсальных свойств предметов, явлений, процессов объективной действительности, человека и созданных им управляющих компьютеров, заключающееся в способности воспринимать внутреннее состояние и воздействия окружающей среды и сохранять определенное время результаты его, преобразовывать полученные сведения и передавать результаты обработки другим предметам, явлениям, процессам, машинам, людям.

Конечно, из этого определения понять, что такое информация, также как и из выше приведенных, более чем затруднительно. Для обоснованного введения понятия “информатика” нужно найти более убедительные аргументы, чем дает нам такое определение информации. Теория же информации является самодостаточной, для того, чтобы мы вполне могли обходиться без “информатики”, а “собственные теории”, принадлежащие информатике как науке пока еще только зарождаются [6].

Поэтому важным этапом развития теории информации считается попытка ряда ученых обратиться к “человеческому аспекту” информационного процесса, к его разъяснительному смыслу, к понятию “информатизации”.

В конечном итоге сегодня во всех литературных источниках обычно указываются три общепринятые, почти “классические”, направления развития исследований, связанных со “свойственно-количественным” подходом к понятию информации:

Общим во всех перечисленных направлениях них является все то же отсутствие необходимости определения понятия информация, да и что такое “информационный метод” с его “человеческим аспектом” тоже никто вразумительно не определяет.


Site of Information Technologies
Designed by  inftech@webservis.ru.