Что такое информация?

                                 

                                                  «Информация — это информация,
                                                  а не материя или энергия». 

                                                                                             Н. Винер      

Предложенная автором формула информации, зафиксированная как открытие в Международной регистрационной палате информационно-интеллектуальной новизны и представленная выше  на английском языке, на русский язык переводится следующим образом:

«Информация представляет собой всеобщее свойство взаимодействия материального мира, определяющее направленность движения энергии и вещества. Эта всеобщее нематериальное свойство взаимодействия материального мира включает в себя первичную и вторичную информацию, при этом под первичной информацией подразумевается направленность движения вещества, при котором возникает не только направленность его движения в пространстве, но и форма (структура, морфология) как результат направленности движения составляющих вещество элементов, а вторичная информация есть отражение первичной информации в поле в виде формы (структуры, модуляции) пространственных сил, сопровождающих всякое движение вещества.  

        Открытие может быть использовано для изучения процессов и явлений, не имеющих в настоящее время научного обоснования, в физике, химии, биологии, медицине, экономике и других областях человеческих знаний».

 

Такое довольно сложное определение информации, безусловно, вызовет много вопросов, а у определенной части читателей, воспитанной в духе «воинствующего материализма», и даже отторжение подобных взглядов на свойства материи.

В короткой, популярной публикации ответить на все возникающие вопросы новой теории, достаточно обширной по охвату решаемых проблем, не удастся, но из опыта автора следует, что наиболее важно ответить на три вопроса:

1. В чем заключается сущность единства и различия трех видов информации?

               2. Что означает нематериальность информации?

               3. Каковы место и роль информации в Мироздании?

Итак, из формулы открытия следует, что информация объединяет в себе три принципиально отличные вида – направленность движения, форму (структуру) вещества и форму (структуру, модуляцию) окружающих вещество полей, которую мы наблюдаем в результате действия пространственных сил, сопровождающих движение вещества.

Каждое из трех упомянутых явлений природы достаточно давно известно в человеческом обществе, однако, усмотреть их взаимосвязь, установить закономерности их взаимодействия и роль в бесконечном, непрерывном движении материи до конца XX столетия никому не удавалось.

Начало пониманию сущности информации как всеобщего свойства материи было положено Н. Винером в его знаменитой монографии «Кибернетика», изданной в 1948 году. «Кибернетика, или управления и связь в животном и машине» (таково полное название монографии Н. Винера) по замыслу автора должна была стать наукой об управлении, объединяющей все виды управления в живой и неживой природе. Недаром Н. Винер использовал для названия новой науки термин, предложенный еще Ампером в его классификации наук. Ампер, как известно, предлагал назвать кибернетикой науку об управлении государством. Объединяющим началом для всех видов управления Н. Винер имел ввиду именно информацию, ибо понятия кибернетика и информация для Н. Винера были практически синонимами. Понимал Н. Винер и существование двух видов информации, но он не смог объяснить их взаимосвязь, сущность механизма информационного взаимодействия как механизма управления.

Огромное значение для понимания сущности информации имели выдающиеся работы английского биолога У. Эшби, однако, и они не смогли сдержать превращения кибернетики как науке об управлении в науку об обработке информации с помощью вычислительной техники. Мешала математика: предложенная Н. Винером и К. Шенноном формула для «измерения информации» заслонила от ученых физику информации, о которой говорили Н. Винер и У. Эшби. Более того, вмешательство в выяснение сущности информации таких известных физиков, как Э. Шредингер и Л. Бриллюэн, только усугубило проблему: информацию стали противопоставлять энтропии энергии, т.к. математическое выражение для измерения количества информации Винера-Шеннона по форме совпадало с математическим выражением энтропии энергии Больцмана-Планка.

Заявление Н. Винера о том, что «настоящую информацию» измерить нельзя, осталось без внимания, т.к. основоположник кибернетики не пояснил, что же такое настоящая информация.

Чтобы разобраться в этом вопросе, надо понять, что же измерял К. Шеннон, используя свою знаменитую формулу, которую он по аналогии с формулой Больцмана-Планка назвал энтропией. 

К. Шеннон изучал вопросы передачи информации в телеграфии, телефонии или радиовещании в виде сигналов электромагнитных колебаний. В терминологии общей теории информации это означает, что он изучал вопросы передачи вторичной информации.

В теории связи информация выступает в виде различных сообщений: например, букв или цифр, как в телеграфии, или непрерывной функция времени, как при телефонии или радиовещании, но в любом из указанных примеров в конечном итоге задача состоит в передаче смыслового содержания человеческой речи. В свою очередь человеческая речь может быть представлена в звуковых колебаниях или в письменном изложении. На это удивительное свойство этого вида информации – представлять одно и то же смысловое содержание в самом различном физическом виде – обратил особое внимание исследователей У. Эшби. Это свойство вторичной информации называется кодированием. Для того чтобы общаться с другими людьми, человеку приходится постоянно заниматься кодированием, перекодированием и декодированием. Понятно, что по каналам связи вторичная информация может передаваться в самых различных системах кодирования. Одной из задач, которую ставил перед собой К. Шеннон, заключалась в том, чтобы определить систему кодирования, позволяющую оптимизировать скорость и достоверность передачи вторичной информации.

Для решения этой задачи К. Шеннон использовал математический аппарат, созданный еще в 1928 году, другим американским ученым Р. Хартли в его работе «Передача информации». Именно Р. Хартли ввел в теорию передачи информации методологию "измерения количества информации". При этом Р. Хартли четко обозначил, что он имеет ввиду под информацией, которую собирался измерять: «… группа физических символов – слов, точек, тире и т. п., имеющих по общему соглашению известный смысл для корреспондирующих сторон». Таким образом, Р. Хартли ставил перед собой задачу ввести какую-то меру для измерения кодированной информации, а точнее последовательности символов, используемых для кодирования вторичной информации.  

Рассматривая  передаваемую информацию в виде определенной последовательности символов, например алфавита, а передачу и прием этой информации в виде последовательных выборов из этого алфавита, Р. Хартли ввел понятие количества информации в виде логарифма числа, общего количества возможной последовательности символов (алфавита), а единицей измерения этой информации определил – основание этого логарифма. Тогда, например, в телеграфии, где длина алфавита ровна двум (точка, тире), при основании логарифма 2, количество информации, приходящееся на один символ равно:

       H =log2 2 = 1 бит (1 двоичная единица).

Аналогично при длине алфавита 32 буквы:

       H = log2 32 = 5 бит (5 двоичных единиц).

     К. Шеннон, используя методологию Р. Хартли, обратил внимание на то, что при передаче словесных сообщений частота использования различных букв алфавита не одинакова: некоторые буквы используются очень часто, другие - редко. Существует и определенная корреляция в буквенных последовательностях, когда за появлением одной из букв с большой вероятностью следует конкретная другая.      Введя в формулу Р. Хартли указанные вероятностные значения (p), К. Шеннон получил новые выражения для определения количества информации. Для одного символа это выражение приобретает вид:

           ;                                 H= -p log2 p,

а сообщения, состоящего из "n" символов

                                                       n  
                                               H= - S pilog2 pi
 
                                                       i=1

       Это выражение, повторяющее по форме выражение для энтропии в статистической механике, К. Шеннон по аналогии назвал энтропией.

     Такой подход принципиально изменил понятие информации. Под информацией теперь стали понимать не любые сообщения, передаваемые в системе связи, а лишь те, которые уменьшают неопределенность у получателя информации, и чем больше уменьшается эта неопределенность, т.е. чем больше снижается энтропия сообщения, тем выше информативность поступившего сообщения. Энтропия - это тот минимум информации, который необходимо получить, чтобы ликвидировать неопределенность алфавита, используемого источником информации.

            Однако и количественная мера информации Р. Хартли и энтропия К. Шеннона не измеряют саму вторичную информацию в ее смысловом или физическом виде, а лишь характеризуют используемую для передачи по каналам связи систему кодирования этой информации, алфавит, примененный для ее передачи.

            Физическая сущность вторичной информации – это форма (структура, модуляция) физических полей, которая и несет смысловое содержание этой информации, реализуя его через информационное взаимодействие материи. В этом взаимодействии и проявляется связь вторичной и первичной информации.

            Легко понять, что смысловое содержание вторичной информации в человеческом обществе – это знание об окружающем нас мире, определяющее поведение человека, т.к. опираясь на эти знания, человек взаимодействует с остальной Природой. Сама эта Природа в виде формы (структуры) окружающих нас вещественных тел и их движения представляет собой первичную информацию.

Специалисты считают, что более 90% всей информации об окружающем нас мире человек получает с помощью зрительного анализатора, т.е. зрения. В свою очередь, мы сегодня понимаем, что эту информацию несет нам солнечный (или искусственный) свет, хотя бы потому, что в темноте мы ничего не видим.

            Но свет - это не что иное, как электромагнитные волны, а они переносят информацию путем кодирования, известного в радиотехнике под названием модуляции (амплитудной, частотной или фазовой). Не вдаваясь в технические подробности, мы можем с уверенностью сказать, что в качестве кодирующего устройства выступает источник света (естественного или искусственного), т.е. электромагнитные колебания светового диапазона волн, которые, отражаясь (переизлучаясь) от объекта, модулируются (кодируются) по вполне определенным физическим законам, зависящим от структуры и формы объекта и расположения источника света. А это означает, что световые электромагнитные волны, свет, постоянно, независимо от нас, несут на всем пути своего распространения образную информацию об окружающем нас мире в закодированном виде. Наши глаза совместно с мозгом являются тем декодирующим устройством, которое преобразует кодированные электромагнитные сигналы в образы, запечатленные в нашей памяти. Природа естественно совершает то, что человек совершает с помощью создаваемых им искусственных средств.

Главный вывод, который мы должны сделать из всего, что мы рассказали о вторичной информации, - это постоянное наличие вторичной информации в окружающем нас мире в составе электромагнитных колебаний светового диапазона волн в виде различных видов модуляции (кодирования) этих электромагнитных колебаний. Эта информация существует объективно, независимо от воли и сознания людей. Вторичная информация не является изобретением человека, человек только научился ее дополнительно кодировать и декодировать в своих практических интересах, используя это ее удивительное свойство.

Правда, электромагнитное поле не единственный носитель вторичной информации - вторичную информацию несут и другие физические поля, например гравитационное поле.

              Нам стало понятным и приведенное выше выражение Н. Винера: « настоящую информацию измерить нельзя». Прежде всего, оно касается первичной информации, т.к. принципиально невозможно измерить форму или структуру вещества. Всякое измерение есть сравнение с каким-то эталоном, а создать эталон формы или структуры вещественных тел нельзя. То же самое, как мы понимаем, можно сказать и о «настоящей вторичной информации» как форме (структуре, модуляции) поля.

            Человек воспринимает мир через образы, но анализирует увиденное, мыслит словами. Это означает, что в нашей памяти одновременно хранится образная вторичная информация об окружающем нас мире в своем естественном голографическом виде и перекодированная вторичная информация в символике нашего языка. Каждый человек постоянно занимается кодированием и перекодированием, наблюдая окружающий мир. При этом символьную информацию, хранящуюся в нашей памяти, мы можем анализировать количественно по Хартли или Шеннону, используя одинаковый алфавит и двоичную систему счисления, но образная информация – основа нашего мироощущения сравнительному анализу не подлежит. Настоящая информация действительно не измеряется.

            Третий вид информации - направленность движения.

            Материя, как известно, находится в вечном и бесконечном движении, а всякое движение характеризуется скоростью и направленностью. Так вот направленность движения и есть информация особого вида, которую в общей теории информации называют простой, или примитивной, информацией. Простая информация является прародительницей всех других видов информации. Действительно, любая форма (структура) вещества является результатом прошлого направленного движения составляющих эту форму (структуру) элементов. Но в отличии от первичной и вторичной информации простая информация существует только в движении и «исчезает» после прекращения движения или изменения направленности этого движения. И мы после ее «исчезновения» никогда и нечего о ней не можем узнать. Примитивная информация – это тот «таинственный созидатель», который, создавая все сущее в мироздании, ни в чем себя не проявляет после своего порою «титанического труда». Рожденная из небытия, простая информация опять «исчезает» в небытие, оставляя нам «таинственно возникшие» формы и структуры вещественных тел.

            Вот почему человек так долго не мог уловить это триединство информации, подобное тому, о котором сказано в Священном писании: бог отец – простая информация, создающая мир, бог сын – вещественные тела мироздания, бог дух святой – вторичная информация, несущая нам знания об окружающем мире.

                Содержание                            Далее