ЧТО ТАКОЕ ИНФОРМАЦИЯ?

Баяндин А.В.

Аннотация
Становление постнеклассической науки сопровождается как введением новых терминов и понятий, так и изменением их внутреннего содержания. В настоящей работе предпринимается попытка упорядочивания использования понятия информации, как одного из основных терминов современной кибернетики, информационной индустрии и технологии.

Рубрика: Общая рубрика

Библиографическая ссылка на статью:
Баяндин А.В. Что такое информация? // Исследования в области естественных наук. 2012. № 4 [Электронный ресурс]. URL: http://science.snauka.ru/2012/04/234 (дата обращения: 30.06.2017).

“Развитие Знания и обогащение тезауруса путем активного управления на основе

обратной связи Разума с Информацией - средством взаимодействия в социуме”.

bajandin@philosophy.nsc.ru, 630129, Novosibirsk, 3-108 Rodniki Str.

t/f:+7(383)270-8344

Введение

Постнеклассическая наука на современном уровне развития естествознания характеризуется не только бурным ростом экспериментальных фактов и теоретического знания, но и т.н. информационным всплеском (бумом, взрывом) в различных областях научного познания мироустройства.

Действительно, благодаря кибернетике, информационным технологиям, всеобщей компьютеризации развитых стран, информация из различных источников знания стала доступна большинству населения этих государств; объем и качество информации, например в Интернете, растет постоянно в реальном времени, превращая сам Интернет в самоорганизующуюся устойчивую Систему взаимосвязи и взаимодействий.

Вместе с тем, использование понятия информации в различных областях знания носит порой неадекватный, многозначный характер, доходящий до размытости понятия и даже его неопределенности. Ставится, даже довольно известными учеными вопрос о неопределяемости данного понятия, об использовании в каждой отрасли знаний своего «приемлемого» определения. В частности, по мнению академика Н.Н. Моисеева, “… строгого и достаточно универсального определения информации не только нет, но оно вряд ли возможно” [1].

В соответствии со сказанным, вопрос об определении понятия «Информация» является актуальным и необходимым для выявления существенных подобных связей и взаимодействий в различных научных направлениях исследования природы с целью их интеграции в единое Знание и построения адекватной физической картины Мира.

1.     Генезис понятия информации.

Действительно, термин «Информация», как говорят – «на слуху». В отличие от таких понятий, как масса, гравитация, гены, ион, спин и прочие термины науки, слово «Информация» широко используется и в быту: на радио, в телевидении, в общении людей. Такую значимость и распространенность «Информация» приобрела примерно с 50-ых годов прошлого столетия – начала разработки и внедрения ЭВМ. Из методологии науки известно, что название терминов науки часто происходит от понятий, используемых в быту, в повседневной жизни людей. Так, например: 1) заряд -  порох в оружейных патронах, (быт.), - свойство электронов и протонов, порождающее электрическое поле, (физ.); 2) ядро – внутренняя, серединная часть растительного ореха, зерна, (быт.), - внутренняя, центральная часть атома, (физ.) и др.  И в этом нет ничего негативного, т.к. наука чаще всего заимствует известные вербальные понятия, вкладывает в них новый смысл и конвенционально вводит их в новую теорию, методологию. При этом, как правило, старые и новые смысловые значения терминов относятся к понятиям, характеризующим объекты, процессы и явления материального мира, как известные исстари на бытовом уровне, так и – изучаемые и познаваемые  наукой.

С понятием «Информация» дело обстоит несколько иначе из-за противоречивой особенности смысловой нагрузки на данный термин. С одной стороны, изначально, в это понятие вкладывались чисто человеческие суждения  в процессе познания: разъяснение, изложение, осведомленность. С другой стороны, а именно с подачи Клода Шеннона, этот термин не просто расширил границы своего применения, а кардинально изменил свое предназначение. Из категории познавательных понятий Разума человека он моментально перешел в категорию технических терминов науки - описательных характеристик окружающей действительности и параметров техники, создаваемой человеком. Детерминированным  продолжением «Театра абсурда» стало использование этого понятия в формулах энтропии и всевозможных построениях и выводах, связей информации с упорядоченностью и хаосом в природе.

Слово Информация происходит из латинского языка (information) и означает  - разъяснение, изложение, осведомленность. Словарь Русского Языка (сост. С.И. Ожегов, М., 1952г., стр.220): Информация – Сообщения, осведомляющие о положении дел, о состоянии чего – либо. Словарь иностранных слов (под ред. д. фил. наук В.В. Иванова, М., 1983г., стр.70): Информация – 1)Сообщение, освещающее какие-либо события, положение и ход каких-либо событий; 2)Сведения об окружающем мире и происходящих в нем процессах, получаемые человеком визуально или с помощью специальных устройств. Логика, как одна из теоретических основ информатики, представляет термин «Информация» следующим образом: Информация – сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми. [2]. Как видно из смысла определений Информации – все они схожи друг с другом и характеризуют чисто познавательную сторону мышления человека.

Термин информация стал использоваться в русском языке в Петровскую эпоху; от лат. informatio через польское informacja (возможно также посредством  фр. и нем.). Впервые фиксируется в «Духовном регламенте» 1721 г. в значении «представление, понятие о чем-л.». (В европейских языках оно закрепилось раньше – около XIV в.) [3].

Понятие информации используется в философии с давних времен и только  в последнее время получило новое, более широкое значение благодаря развитию кибернетики, где оно выступает как одна из центральных категорий наряду с понятиями связи и управления.

Первоначальное понимание информации как передачу сведений  от одного человека к другому человеку или группе людей с помощью устной или письменной речи, передачу условных знаков (символов) посредством специальных передающих и принимающих устройств сохранялось вплоть до сер. XX в.  В 1948 американский математик Норберт Винер, “отец” современной кибернетики, в работе «Кибернетика, или Управление и связь в животном и машине» предложил «информационное видение» кибернетики как науки об управлении и связи в живых организмах, обществе и машинах.

В 1949г.  в статье К.Шеннона и У. Уивера «Математическая теория связи» была сформулирована математическая теория Информации, опирающаяся на понятие вероятности. Под Информацией здесь понимаются не произвольные сообщения, которыми обмениваются люди, а лишь такие, которые уменьшают неопределенность у получателя информации. За единицу измерения количества информации приняли такую информацию, которая позволяет осуществить выбор из двух равновеликих возможностей, и назвали ее бит. Английским кибернетиком и биологом У.Р. Эшби предложено определение Информации на основании категории разнообразия: «Информация существует там, где есть разнообразие». За простейшую единицу измерения количества информации принимается различие двух объектов или элементарное различие: два различных объекта несут 1 бит информации.

Стремительное возрастание роли информационной сферы, способов ее автоматизации привело к созданию компьютеров и в целом – компьютеризации науки и общества, что привело к появлению философско-социологических и футурологических концепций будущего «информационного общества».

     Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации); кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах); семиотика (наука о знаках и знаковых системах); прагматика (теория исследования аксиологии информации, ее ценности); теория массовой коммуникации (исследование средств массовой информации и их влияния на общество); информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки); соционика (теория информационного метаболизма индивидуальной и социальной психики);  информодинамика (наука об открытых информационных системах) и т.д.

Развитие понятия информации в современной науке привело к появлению ее различных мировоззренческих, в особенности философских, интерпретаций (трансцендентальная, т.е. сверхъестественная, природа информации в неотомизме; информация как субъективный феномен в неопозитивизме и экзистенциализме и т.д.).

К сожалению, до сих пор не решен вопрос, ведет ли рост количества информации к уменьшению или к увеличению энтропии (теория информации и кибернетика отвечают на этот вопрос противоположным образом). Возникает множество до конца не решенных философских вопросов, в частности, например, о предметной области понятия «информация»: является ли она свойством всех материальных объектов, или только живых и самоуправляющихся, или только сознательных существ и т.д.

Автоматизация вычислений на базе новых технологий в электронике явилась базой для создания компьютеров и в целом компьютеризации науки и общества. Новое научное направление – Информатика, объединила  разделы математики, физики, техники, кибернетики и разработала новые машинные и логические языки для ЭВМ. В информатике гармонично интегрировались производство, переработка, хранение и распространение всех видов информации в обществе, природе и технических устройствах.

 

2. Онтологический статус понятия «Информация».

 

Как и расширение границ понимания нового научного направления «Информатики», включающей в себя не только научную информацию и методы работы с ней, но и теорию связи, прикладную математику и математическую логику, программирование, так и сам термин «Информация» претерпел трансформацию и вобрал в себя некоторые технические стороны новой науки.

Уже в 1955 году в статье академика С.Л.Соболева, А.И.Китова и А.А.Ляпунова «Основные черты кибернетики» понятие информации приобретает явно технический оттенок, изменяя первоначальный смысл этого понятия. Понятию информации придается очень широкий смысл, включая в него как всевозможные внешние данные, которые могут восприниматься, или передаваться какой-либо определенной системой, так и данные, которые могут вырабатываться внутри системы. В последнем случае система будет служить источником сообщений. В [4] говорится, что информацией могут являться, например, воздействия внешней среды на организм человека и животного; знания  и сведения, получаемые человеком в процессе обучения; сообщения, предназначаемые для передачи с помощью какой-либо линии связи; исходные, промежуточные и окончательные данные в вычислительных машинах и т.п. Новая точка зрения возникла на основании изучения процессов в автоматических устройствах.

Общим для всех видов информации является то, что сведения или сообщения всегда задаются в виде какой-либо временной последовательности, то есть в виде функции времени.

Количество переданной информации и тем более эффект воздействия информации на получателя не определяется количеством энергии, затраченной на передачу информации. Например, при помощи телефонного разговора можно остановить завод, вызвать пожарную команду, поздравить с праздником. Нервные импульсы, идущие от органов чувств к головному мозгу, могут нести с собой ощущения тепла или холода, удовольствия или опасности.

Сущность принципа управления заключается в том, что движение и действие больших масс или передача и преобразование больших количеств энергии направляются, контролируются при помощи небольших масс и небольших количеств энергии, несущих информацию. Этот принцип управления лежит в основе организации и действия любых управляемых систем: автоматических машин и живых организмов.

Любая автоматически управляемая система состоит из двух основных частей: управляемого объекта и системы управления (регулятора) – и характеризуется наличием замкнутой цепи передачи информации.

 Регулятор преобразует информацию, характеризующую действительное состояние объекта, в информацию управления, то есть информацию, которая должна определять будущее состояние объекта. Таким образом, регулятор представляет собой устройство преобразования информации.

Реакция управляемой системы на воздействие всецело зависит от ценности информации. Ценность информации определяется самим объектом, его внутренним устройством, тезаурусом вложенной в память информацией.

Для сложных систем управления, как, например, нервная система животных и человека, решающее значение имеет принцип обратной связи. При выполнении какого-либо действия управляющие сигналы в виде нервных импульсов передаются от головного мозга к исполнительным органам и вызывают, в конечном счете, мышечное движение. Линию обратной связи представляют сигналы от органов чувств, а также кинестетические мышечные сигналы положений, передаваемые в головной мозг и характеризующие фактическое положение исполнительных органов.

Многие авторы, как указывается в [5], даже спустя 40 лет после становления кибернетики, продолжают игнорировать (или не понимать) значения и определяющей роли обратных связей. Так, обратные связи, по утверждению А.А. Крушанова, «не являются самым существенным признаком управления» [6]. Более того, и «Философский словарь» (1991г.) трактует управление без привлечений понятия обратной связи, адаптации и самоорганизации.

В современной постнеклассической науке самоорганизация, нелинейность, законы управления на основе обратных связей выявляются и изучаются и используются не только в живых организмах, искусственной механической и электронной технике, но – и в структуре и организации Вселенной [7,8]. И что действительно удивительно, даже в математике, ее основе  - теории чисел – выявляются закономерности самоорганизации на основе принципа обратной связи [9,10].

И там, где наше сознание, наш Разум фиксирует взаимодействие – основу движения материи, там он своим мышлением выявляет то, что является агентом этого взаимодействия. Фиксация мысли в виде художественных образов, абстрактных символов, жестов и пр. для передачи их другим мыслящим существам, и есть информация. По Ф. Энгельсу, взаимодействие – вот первое, что выступает перед нами, когда мы рассматриваем движущуюся материю в целом… Так естествознанием подтверждается то, что говорит Гегель, - что взаимодействие является истинной causafinalis(конечной причиной) вещей. Мы не можем пойти дальше познания этого взаимодействия именно потому, что позади его уже нечего познавать[11]. Вместе с тем, мы не можем определить, «ощутить» саму информацию, как не можем увидеть и пощупать собственно мысль человека. В естествознании аналогичные примеры можно привести для понятий времени, пространства, материи, движения, энергии... Как точно отметил Ф.Энгельс [12]: «Сперва создают абстракции, отвлекая их от чувственных вещей, а затем желают познавать эти абстракции чувственно, желают видеть время и обонять пространство».  Такие слова, как «материя», «движение», «время», «пространство», «энергия», «информация» являются  на самом деле сокращениями, обобщенными понятиями, в которых отражаются наиболее общие свойства множества различных чувственно воспринимаемых явлений, процессов и объектов окружающей действительности.

 

3. Причины поризма[i] понятия “Информация”.

 

Не следует говорить о том, о чем нечего сказать.

Людвиг Витгенштейн[32]

 

     Информация - сведения, передаваемые одними людьми другим людям устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т. д.), а также сам процесс передачи или получения этих сведений. Информация всегда играла в жизни человечества очень важную роль. Однако в середины XX в. в результате социального прогресса и бурного развития науки и техники роль информации неизмеримо возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной информации, получившее название "информационного взрыва". В связи с этим возникла потребность в научном подходе к информации, выявлении её наиболее характерных свойств, что привело к двум принципиальным изменениям в трактовке этого понятия. Во-первых, оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу информации. Во-вторых, была предложена количественная мера информации (работы К. Шеннона, А. Н. Колмогорова http://slovari.yandex.ru/dict/bse/article/00035/93500.htm и др.), что привело к созданию теории информации.

Более общий, чем прежде, подход к понятию информации, расширяющий сферу применения этого понятия, а также появление точной количественной меры информации пробудили огромный интерес к изучению информации. Такой поризм для понятия информации побудил к ней интерес не только со стороны гуманитарных, но и – технических наук. С начала 1950-х гг. предпринимаются попытки использовать понятие информации (не имеющее пока единого определения) для объяснения и описания самых разнообразных явлений и процессов.

Исследование проблем, связанных с научным понятием информации, идёт в трёх основных направлениях. Первое из них состоит в разработке математического аппарата, отражающего основные свойства информации в кибернетике.

Второе направление заключается в теоретической разработке различных аспектов информации на базе уже имеющихся математических средств, в исследовании различных свойств информации. Например, уже с момента создания теории информации возникла сложная проблема измерения ценности, полезности информации с точки зрения её использования. В большинстве работ по теории информации это свойство не учитывается. Однако важность его несомненна. В количественной теории, выдвинутой в 1960 А. А. Харкевичем, ценность информации определяется как приращение вероятности достижения данной цели в результате использования данной информации. Близкие по смыслу работы связаны с попытками дать строгое математическое определение количества семантической (т. е. смысловой) информации (Р. Карнап и др.).

Третье направление связано с использованием информационных методов в лингвистике, биологии, психологии, социологии, педагогике и др. В лингвистике, например, проводилось измерение информативной ёмкости языков. После статистической обработки большого числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов одного и того же текста на разные языки и многочисленных экспериментов по угадыванию букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией тексты могли бы укоротиться в 4—5 раз. Так был с этой точки зрения установлен факт избыточности естественных языков и довольно точно измерена её величина, находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные методы помогли лучше понять механизм действия основного закона психофизики - закона Вебера - Фехнера, который утверждает, что ощущение пропорционально логарифму возбуждения. Именно такая зависимость должна иметь место в случае, если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают свойствами, присущими идеализированному каналу связи, фигурирующему в теории информации. Значительную роль информационный подход сыграл в генетике и молекулярной биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков информации. Ведутся также исследования по применению информационных методов в искусствоведении.

Такое разнообразное использование понятия информации побудило некоторых учёных придать ему общенаучное значение. Основоположниками такого общего подхода к понятию информации были английский нейрофизиолог У. Р. Эшби и французский физик Л. Бриллюэн. Они исследовали вопросы общности понятия энтропии в теории информации и термодинамике, трактуя информацию как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения IIначала термодинамики, рассматривая передачу информации некоторой системе как усовершенствование этой системы, ведущее к уменьшению её энтропии. В некоторых философских работах был выдвинут тезис о том, что информация является одним из основных универсальных свойств материи. Положительная сторона этого подхода состоит в том, что он связывает понятие информации с понятием отражения.

Естественнонаучное понимание информации основано на двух определениях этого понятия, предназначенных для различных целей (для теории информации, иначе называемой статистической теорией связи, и теории статистических оценок). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.

Центральное положение понятия информации в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об информации) изучает машины и живые организмы с точки зрения их способности воспринимать определённую информацию, сохранять её в "памяти", передавать по "каналам связи" и перерабатывать её в "сигналы", направляющие их деятельность в соответствующую сторону.

В некоторых случаях возможность сравнения различных групп данных, по содержащейся в них информации, столь же естественна, как возможность сравнения плоских фигур по их "площади" [13]. Независимо от способа измерения площадей можно сказать, что фигура A имеет не большую площадь, чем B, если A может быть целиком помещена в В (сравни примеры 1—3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы — является результатом развитой математической теории. Подобно этому, фундаментальным результатом теории информации является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями информации и выразить её количество числом. Только этим числом определяются возможности передачи информации по каналам связи и её хранения в запоминающих устройствах.

Теория информации изучает два основных вопроса:

а) вопрос об измерении количества информации.

б) вопрос о качестве информации, или ее достоверности;

Соответственно, направления исследования по первому вопросу связаны с пропускной способностью и емкостью различных систем (устройств накопления, каналов передачи), перерабатывающих информацию; по второму – надежность и помехоустойчивость этих систем. Для измерения количества информации, переданной по какому-либо каналу передачи, принята логарифмическая мера: логарифм от общего числа (n) различных возможных равновероятных вариантов информации, которые могли быть представлены данным источником за данное время.

 

I= logan                             (1)

 

Основание  а определяется выбором единицы измерения количества информации. Например, а = 2 – для двоичной системы (две равновероятные возможности «да» и «нет»).

Становление кибернетики имело большое методологическое значение для объединения в широком плане результатов и достижений различных областей науки: физиология и автоматика, теория связи и статистическая механика. Уже в начале 50-х годов прошлого столетия определился ряд понятий, имеющих общетеоретическое значение: принцип обратной связи, играющий основную роль в теории автоматического регулирования и колебаний и имеющий большое значение для физиологии. Например, понятие энтропии в теории вероятностей имеет общетеоретическое значение, а его частные приложения относятся как к области статистической термодинамике, так и к области теории связи, а возможно, и к другим областям. Эти общие закономерности имеют объективный характер.

Эйфория обобщений и внедрения новых терминов в различные области науки принесла, несомненно, как пользу, так и определенный перекос в понимании терминологии. Так случилось и с информацией. Особенный интерес к представлению об информации как о некотором всеобщем свойстве материи, связанном с уровнем ее организации, т.е. свойстве, противоположном энтропии, в 50 – 70 годы прошлого столетия, сменился разочарованием и пессимистическим отношением к эвристичности информационного подхода. Даже в популярной, научно-технической литературе, авторы меняют свою точку зрения со временем. Например, А.Шилейко и Т.Шилейко в книге «Информация или интуиция» 1983 года приводят несколько взглядов, определений информации: «…существует два сорта информации. Первый из них – это информация техническая, та самая, которая передается по телеграфным линиям или отображается на экранах локаторов. Количество такой информации может быть в точности вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам. Другой сорт информации – информация семантическая, то есть смысловая. Это та самая информация, которая содержится к, к примеру, в литературном произведении. Для такой информации тоже предлагаются различные количественные оценки и даже строятся математические теории. Но общее мнение скорее сводится к тому, что оценки здесь весьма условны и приблизительны и алгеброй гармонию всё-таки не проверишь.

Второй взгляд, которого мы и будем придерживаться в этой книге, состоит в том, что информация – физическая величина, такая же, как, например, энергия или скорость. … информация универсальна. Это подтверждается тем, что, скажем, космогоническая информация ничем не отличается от информации биологической или физической. Все эти виды информации могут быть измерены в одних и тех же единицах. Рост энтропии всякий раз сопровождается уменьшением количества информации и, наоборот, увеличение степени информированности системы сопровождается повышением качества энергии этой системы»[14].

 В книге «Беседы об информатике» 1989 года выпуска, тех же авторов, при анализе Шенноновской общей теории связи констатируют: «…Однако объектом приложения этой теории является отнюдь не информация, а каналы связи. Множество сигналов, распространяющихся в любом канале связи, будь то трансатлантический телеграфный кабель, телефонная или радиолиния, составляет статистический ансамбль, к которому применимы понятия статистической физики…. В заключение этой беседы мы вынуждены констатировать, что до сих пор мы не только не знаем, в каких единицах мерить количество информации, но и не знаем вообще, что такое информация[15].

От полного недоумения, “существует ли информация?”[31], до провозглашения нового научного направления – ИНФОРМАЦИОЛОГИИ, представляющей концепцию информационной модели Вселенной и информатизации мирового сообщества (??!, А.Б.)[32] – таков далеко неполный перечень взглядов на понятие информации.

В нашей философской науке почти 60 лет идет вялый, временами затухающий спор о двух различных подходах к феномену информации. Соперничают друг с другом  атрибутивная и функциональная концепции информации. Первые квалифицируют информацию как свойство, присущее всем материальным объектам, как атрибут материи. Примыкающие к функциональной концепции, напротив, связывают информацию с функционированием самоорганизующихся систем, считая, что информация появилась лишь с возникновением жизни.

Указанное противоречие по одному из фундаментальных общенаучных понятий, до сих пор не разрешенное, существенно тормозит развитие как философии науки, так и естественнонаучных дисциплин.

Р.Ф. Абдеевым в книге «Философия информационной цивилизации» [16] предпринимается попытка анализа данного конфликта на основе эволюции представлений об информации и энтропии, концепции о двух классах информации (структурной и оперативной) и обосновывается вывод о том, что информация является полноправной философской категорией.

Отстаивая в своей монографии атрибутивный подход к пониманию информации, Р.Ф. Абдеев вводит новые понятия структурной и оперативной информации, не приводя определения информации как таковой. Критикуя так называемых «функционалистов», он опирается, якобы,  на общие философские категории отражения, принципа историзма и др. Критикуя «приверженца» функциональной концепции академика Н.Н. Моисеева, он пытается обосновать правильность атрибутивного подхода логическими противоречиями в книге упомянутого автора «Человек, наука и общество» [17]. Уместно привести доводы Р.Ф. Абдеева из его указанной выше книги по этому поводу:

«В связи с экстенсивным развитием кибернетики, затронувшей большинство областей современной науки, особенно усилилось внимание к феномену информации. Это не только одно из самых распространенных, но и наиболее дискуссионных понятий. Споры о сущности информации продолжаются до сих пор. Показательно в этом отношении, что в нашей философской науке более трех десятилетий сосуществуют два различных подхода, две противостоящие друг другу концепции информации - атрибутивная и функциональная.

"Атрибутисты" квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи (Б.В. Ахлибининский, Л.Б. Баженов, Б.В. Бирюков, К.Е. Морозов, И.Б. Новик, Л.А. Петрушенко, А.Д. Урсул и др.).

"Функционалисты", напротив, связывают информацию лишь с функционированием самоорганизующихся систем (В.В. Вержбицкий, Г.Г. Вдовиченко, И.И. Гришкин, Д.И. Дубровский, Н.И. Жуков, А.М. Коршунов, М.И. Сетров, Г.И. Царегородцев и др.). "По нашему мнению, - пишет Г.И.Царегородцев, - информация принадлежит лишь управляемым системам (живым и кибернетическим)". Дубровский Д.И., утверждая, что "атрибутивная концепция теоретически неправомерна", рассматривает самоорганизующиеся системы в отрыве от предшествовавшей эволюции, в нарушение принципа историзма. Он лишь констатирует, что самоорганизующиеся системы "возникают исторически в период становления жизни на Земле" [18]. Как они возникли, благодаря чему произошло становление жизни - этого функционалисты предпочитают не объяснять. …

Новый импульс функциональной концепции информации дала опубликованная в 1982 г. книга Н.Н. Моисеева "Человек, наука, общество" [19]. В противоборстве двух концепций функционалисты по существу стремятся вновь вернуться (при современном уровне научного познания) к ограниченному пониманию информации - лишь как передачи сигналов в управляющих системах, возникших с появлением жизни. Но в этом случае ставится под сомнение преемственность материальных образований в процессе развития материи от простого к сложному, от неживого к живому. Кроме того, возникает ряд трудных вопросов, на которые функционалисты не дают ответ. Так, Н.Н. Моисеев, утверждая, что понятия информации и обратной связи "совершенно излишни на уровне организации неживой материи" [19], фактически отвергает понятие структурной информации, не признает факты передачи элементарных сигналов в неживой природе. В противовес этому приведем следующие высказывания: "Хранилищем информации объектов неживой природы является их собственная упорядоченная структура" (Е.А. Седов), "Нейтрино несет информацию о глубинном строении материи, процессах в современных галактиках и звездах" (В. Ермолаев). Другие примеры: годичные кольца на срезе древесины содержат объективную информацию о жизни данного растения независимо от того, воспринял субъект эту информацию или нет; Л.А. Петрушенко писал, что "кроме энергии, заключенной в куске угля, там содержится и информация о событиях, происшедших в далекие времена". [20].

Что касается Н.Н. Моисеева, то он рассуждает с точки зрения математика-программиста, занятого моделированием различных процессов. Но с более широкой, философской точки зрения - развития в соответствии с диалектическими законами и принципами историзма - отрицательная обратная связь в живых системах возникла не просто так. Ее предпосылкой в неживой природе явился принцип отрицательного обратного действия. В живых организмах принцип отрицательного обратного действия реализуется в информационных процессах управления. Для таких процессов он получил название принципа отрицательной обратной связи" [21].

Связь энтропии и информации была (в неявной форме) отмечена Л. Сциллардом в 1929 г. Он указал, что энтропия, теряемая газом благодаря разделению частиц с высоким и низким уровнем энтропии, равна информации, получаемой "демоном Максвелла" и передающейся наблюдателю "эксперимента".

Позже К. Шенноном было замечено совпадение математического выражения количества информации с формулой Л. Больцмана и дано определение информации, основанное на энтропии сообщений. Теория информации получила начало с работ К. Шеннона (1948), в которых под информацией понималось сообщение, уменьшающее неопределенность (энтропию) у получателя сообщений [22].

     Учитывая вышесказанное и в интересах более полного выявления возможностей атрибутивной концепции, мы в данной работе при исследовании поставленных проблем придерживаемся атрибутивной концепции информации (см. также [23]) и считаем это методологически целесообразным и оправданным.

Понятие информации настолько всеобъемлюще, что ряд авторов вводит его в свои определения понятия жизни. Так, А. А. Ляпунов утверждает: "Жизнь - это высокоустойчивое состояние вещества, использующее для выработки сохраняющих реакций информацию, кодируемую состояниями отдельных молекул" [24].

"Жизнь, - считает Н.С. Кардашев, - возникает благодаря возможности синтеза особого вида молекул, способных запоминать и использовать вначале самую простую информацию об окружающей среде и собственной структуре, которую они используют для самосохранения, для восприятия и, что для нас особенно важно, получения еще большего количества информации" [25].

Что касается философского статуса информации, то в отечественной литературе информация до сих пор считается лишь общенаучным понятием, хотя ряд авторов уже высказались за признание информации философской категорией. Вопрос этот дискуссионный, поэтому уместно высказать и нашу точку зрения.

К философским категориям относятся, как утверждал П.В. Копнин, те понятия, которые способствуют решению проблем, составляющих предмет философии. Из изложенного нами материала видно, что в решении проблем развития именно информации принадлежит определяющее значение. Все философские категории - гносеологические (в широком смысле). Информация - узловой пункт познания и, как философская категория, позволяет выявить не только всеобщее, но и частное - конкретные, многогранные связи с действительностью, как отражение этой действительность. Поэтому информация, как философская категория, является ступенькой развития не только познания, но и общественной практики людей, их отношений между собой и природой.

Один из наиболее общих критериев статуса философских категорий - успешное использование в философии (на том или ином этапе ее развития) вновь вводимых понятий, их содействие приращению философского знания в целом. Информация, удовлетворяя всем требованиям философской категории, не только отражает всеобщие формы бытия, их связи и взаимообусловленность, но и является фактором развития от низшего к высшему в природе, обществе и в познании. Материал данного учебника свидетельствуют о всеобщности информации как философской категории. Непризнание информации философской категорией можно объяснить лишь данью догматическим тенденциям, которые уже преодолеваются сегодняшним развитием естествознания.

Атрибутивная концепция информации, все разнообразие объектов и процессов как двух разновидностей информации также позволяют обосновать информацию как философскую категорию. Остановимся на этом подобнее.

Как следует из содержания первых глав, мы разделяем информацию на:

1.       структурную (или связанную), присущую объектам неживой и живой природы естественного и искусственного происхождения.

2.       оперативную (или рабочую), циркулирующую между объектами материального мира, используемую в процессах управления в живой природе, в человеческом обществе.

Таким образом, две разновидности (или два класса) информации тесно связаны взаимными переходами и обусловленностью. При этом сигналы могут быть даны одной и приняты другой системой благодаря структурной неоднородности самих систем и среды, через которую они передаются. На этой основе акад. В. М. Глушков сформулировал следующее определение: "Информация в самом общем ее понимании представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все протекающие в мире процессы" [26].

Эволюция живой природы и становление наиболее высокоорганизованной биологической (и социальной) структуры - человека с его качественно новым уровнем отражения - сознанием, в свою очередь, способствовали резкому повышению интенсивности оперативной информации и взаимообщению людей в процессе их трудовой деятельности. Появилось множество новых взаимосвязей, взаимодействий, что в конечном итоге привело к образованию новой метаструктуры - человеческого общества. Последнее обусловило резкое возрастание социальной, научно-технической, технологической, статистической и прочей оперативной информации, используемой в целенаправленной деятельности людей по созданию множества новых искусственных структур (орудий труда, машин, предметов быта, наук, произведений искусства и т.п.), т.е. ноосферы[27]».

К сожалению, мне претит «развешивание ярлыков», деление ученого сообщества на «черных» и «белых». Это, скорее, похоже на Ленинский стиль отстаивания своей точки зрения. В том же сообществе «атрибутистов» достаточно специалистов, придерживающихся разномастных взглядов и на отражение и на энтропию и на теорию информации К.Шеннона.

 Иногда даже мнение одного уважаемого ученого в области точных наук, высказанное, казалось бы, в шутку, достаточно, чтобы вызвать страстную и длительную полемику.

Так, в 1948 году К. Шеннон вновь поднял проблему определения информационного содержания сообщения. Он обсуждал ее с фон Нейманом, который предложил:

«Вы должны назвать информационное содержание энтропией по двум причинам. Во-первых, потому, что ваша функция неопределенности уже связана в статической механике с этим понятием и, таким образом, оно уже имеет название. Во-вторых, (что, вероятно, более важно)  потому что никто в действительности не знает, что такое энтропия, и любое обсуждение этого вопроса – уже шаг вперед»[28].

По поводу возможной корреляции между энтропией и информацией в литературе можно встретить различные точки зрения, начиная от глубоко укоренившегося скептицизма [29]:

«С моей точки зрения, эти аналогии интересны и заслуживают изучения, но они не идут достаточно далеко, чтобы открыть новые возможности для взаимного обогащения двух дисциплин»

до консенсуса:

«Информация и энтропия, по-видимому, связаны друг с другом: информация измеряет вероятность определенного выбора элементов кода, на котором зашифровано сообщение. Энтропия измеряет вероятность определенного термодинамического состояния и, следовательно, его тенденцию к эволюции – (спонтанному) переходу к более вероятному состоянию (например, переходу сжатого газа в разреженное состояние при уменьшении давления)»[30].

Интересные исследования информационных процессов в свете новых направлений постнеклассической науки: нелинейной динамики (синергетики), представлены И.В. Мелик-Гайказян [31]. Отдавая должное становлению многостадийного информационного процесса в неравновесных диссипативных структурах, автор, аргументируя многочисленными примерами и обзором литературы, предлагает рассматривать феномен информации как информационный процесс, состоящий из ряда элементарных актов. Перечень возможных стадий информационного процесса представляет собой, собственно говоря, абстрактный процесс от генерации информации, до ее – считывания другой рецепторной системой [32]. Настоящая парадигма, с точки зрения автора,  представляет наиболее содержательное определение информации, позволяющее понять роль информации в самоорганизующихся системах, а также подойти к оценке количества информации и ее единице измерения. Так, по Генри Кастлеру: «Информация есть случайный запоминаемый выбор варианта из многих возможных и равноправных»[33].

Анализируя подход К. Шеннона к измерению количества информации Iпо формуле:

 

I =                               (2)

                                         (3)

знак минус отвечает условию I>0, ибо   log2Pi0, так как Pi1, И.В. Мелик-Гайказян справедливо замечает, что эта формула служит всего - лишь основанием для определения пропускной способности каналов связи и энтропии источников сообщений. Основные черты математической теории информации К. Шеннона можно резюмировать следующим образом:

1. В ней отсутствует определение понятия «информация», что не является преградой для ее создателей, развивающих не теорию информации, а теории. связи.

2. Термин «количество информации» используется как синоним статистических характеристик букв, составляющих сообщение. Буквы, сигналы, передаваемые по каналам связи, сами по себе не несут информации, для обмена которой существуют системы связи. Передаваемая информация связана с осмысленным сочетанием букв. Эта осмысленность никак не учитывается формулой для «количества информации». Математическая теория информации полностью игнорирует содержание информации. Рассчитывая пропускную способность канала связи, бессмысленно принимать во внимание содержание телеграмм [34]. Информация может быть более или менее ценной в зависимости, от преследуемой цели, происхождение которой в теории информации Шеннона не обсуждалось. Ценной информация считается та, которая помогает достижению цели. В отличие от шенноновского определения количества информации, передаваемой по каналам связи, ценность проявляется в результатах рецепции и непосредственно с ней связана. Не менее убедительно в книге развенчивается миф энтропийного и негэнтропийного исследования информации. Так как энтропия присуща всем термодинамическим системам, то и негэнтропия (информация) как дополняющая характеристика должна быть приписана всей материи. Отсюда следуют такие некорректные, но до сих пор еще довольно популярные философско-методологические положения.

- Информация содержится в каждом материальном объекте, она вездесуща и, следовательно, является одним из свойств материи.

- Существуют две степени порядка материальных объектов:

 неупорядоченность (энтропия) и упорядоченность (негэнтропия, равная информации).

Первое утверждение противоречит представлению об информации как о процессе, ибо процесс, да еще связанные со случайным выбором, может протекать, а может и отсутствовать. Генерация информации – это событие, которое не является детерминированным и уж конечно не представляет собой характеристику любого материального объекта.

Второе следствие является методологическим абсурдом, что иллюстрирует неблагополучие с породившим его негэнтропийным принципом. Получается, что одна и та же сущность – степень упорядоченности – потребовала для своего описания двух характеристик: энтропии (степень беспорядка) и негэнтропии (степень порядка). Это такой же методологический нонсенс, как утверждения: «тело теплое, потому что содержит тепло», «тело холодное, потому что содержит холод» [35]. В отношении связи энтропии с информацией, автор приходит к следующему. Только изменение энтропии может быть сравнимо с информацией. Так как рецепция информации – процесс необратимый, то есть информация не может самопроизвольно обращаться вспять, то и сама рецепция – процесс неуравновешенный, ибо потоки информации между источником и рецептором неуравновешенны. Рецепторная система есть система диссипативная, переходящая под влиянием информационного потока в состояние с уменьшенной энтропией. Сказанное позволяет заключить, что:

- количество информации – это величина, характеризующая процесс ее рецепции, не являющаяся функцией состояния;

- количество информации, изменяя энтропию рецептирующей системы, связано не с функцией состояния системы, не с энтропией, а с величиной ее изменения:

 

I~S                  (4)

 

где:  S - убыль энтропии.                

В философской литературе часто встречается определение информации посредством термина «отражение». Исходя из установок материалистической теории познания, что всеобщим свойством материи является отражение, информации стали приписывать такое же всеобщее свойство материи, как, например, движение. Так «информация – это философская категория, рассматриваемая наряду с такими понятиями, как пространство, время, материя» [36]. Что это обстоит иначе сформулировано П.Копниным: «Превращение понятия информация в ранг философской категории и замена им категории отражение будет шагом назад, а не вперед. Задача философов была бы слишком простой, если бы она состояла в том, чтобы отобрать из современной науки понятия, обладающие большей степенью общности, и включить их в систему философских категорий» [37].  А.Д.Урсул приводит следующее определение информации: «Информация есть отраженное разнообразие» [38]. Позже он дает иное определение: «Информация не тождественна отображению, а есть лишь инвариантная часть, поддающаяся опредмечиванию, объективированию, передаче» [39]. В подобных определениях смешиваются понятия «отражение» и «разнообразие», «генерация» и «рецепция». В самом деле, «разнообразие» входит в определение генерации информации (случайный выбор из «разнообразных», нетождественных элементов), а «отражение» - это элемент рецепции информации.

Таким образом, становится очевидным, что корни трудностей определения информации заключаются в попытках рассмотреть постнеклассический объект – феномен информации – с позиций и методами традиционной науки. Всякий раз выход из таких неудач был в отказе от моделей, неадекватных реальности, в переходе к новой парадигме [40].

     На основании проведенного анализа, автор приводит следующее определение информации:

Феномен информации есть многостадийный, необратимый процесс становления структуры в открытой неравновесной системе, начинающийся со случайного запоминаемого выбора, который эта система делает, переходя от хаоса к порядку, и завершающийся целенаправленным действием согласно алгоритму или программе, отвечающим семантике выбора[31].

Такой подход к пониманию информации можно назвать процессуальным, в отличие от атрибутивного и функционального подходов. К сожалению, в монографии так и нет определения информации, а информационный процесс выдается за феномен информации. Экспликацией этому являются, по-видимому,  сложность рассмотрения постнеклассического объекта – феномена информации – с позиций и методами традиционной науки.

 

 

4. Определение понятия «Информация» методом морфологического анализа.

 

Вопрос с феноменом «Информация» может быть разрешен только при рассмотрении его с такими понятиями, как материя, дух (идеальное) или что-то третье, граничащее между ними.

Как и в психологии, основной вопрос философии актуален и в естествознании. Особенно это заметно при анализе понятий, относящихся к характеристике высокоорганизованной материи, а также – при неадекватном переносе этих понятий на более низкие уровни организации материи.

Рассмотрим феномен информации посредством морфологического метода, то есть сравним свойства информации, как феномена, со свойствами понятий, так или иначе, связанных с понятием информации. В отличие от Г. Клауса [40], включим в перечень сравнений Разум (Сознание), Тезаурус, а также свойства – непрерывность, дискретность, время и пространство. 

     Иллюзорный мир фантазий человека путем овеществления мысли – реализуется в виртуальном мире современных компьютеров.

Под информацией можно понимать меру осмысления (понимания) внешних (из физической реальности) и внутренних (психологических переживаний) взаимодействий Разума человека, до уровня возможности трансляции через объяснение.

В виртуальном, искусственном (радио, телевидение, компьютер…) мире Информация овеществляется.

Информация -  сугубо человеческая категория восприятия окружающей действительности.

Информация субъекта – мысль субъекта, возникшая посредством взаимодействия:

а) с внешней средой;

б) в процессе мышления.

Информация объекта – реакция на взаимодействие.

Субъективная Информация есть осознанная или неосознанная мысль.

Мысль – вне времени и пространства. Овеществление информации вербально или в символах носит статический характер, как характер вневременных мыслей человека.

И если информация – вне времени, то и существует она неограниченно долго, вечно и является первичной субстанцией всего Мироздания.

Мысль структурирует пространство, поляризует его двумерные составляющие элементы.

Живая мысль при переносе ее на материальный носитель становится статичной и абстрактной.

Математика – это абстрактное отражение статической мысли человека на материальном носителе. Математика отражает виртуальную природу Разума человека, нежели физическую реальность. Придавая абстракциям определенные свойства (координаты…): время и пространство, Разум моделирует физическую реальность.

Разуму трудно, невозможно воспроизвести физическую реальность, бренную по своей природе. Только через Себя, постигая тонкости своего мышления, ориентируясь на искусственные модели природных явлений, человек познает окружающую его действительность.

Почему Разум стремится к постулированию, аксиоматике, поиску констант?

Только лишь для согласования внутреннего Я – статического Сознания с динамическим материальным и бренным миром!

*См. P.S.1.

Итак, термин Информация является овеществленной, материализованной мыслью Человека. Посредством рефлексии человек переносит абстрактное (смысловое) содержание мысли и чувств – в слова и символы. Таким образом, и математика есть не абстрактное отражение действительности, а всего лишь ментальная ее модель. Посредством рефлексии мысль фиксируется на носителе информации, т.е. становится той информацией, которую можно транслировать, кодировать, размножать и передавать.

 Вербализованная мысль является актом творчества личности.

Самосознание – Эго – Я, осознает себя и фильтрует мысли как мыслеформы, выделяя те из них, которые наиболее логичны и ближе всего отражают реальность.

Информация или  - Вербализованная мысль, есть остановленное мышление, сохраняющее в себе внутреннее содержание мысли. Аналогом определению информации является вещество, как одна из форм существования материи: Вещество есть остановленное движение света (потока фотонов) как целого с сохранением движения внутреннего.

Созерцая окружающую действительность Разум «строит» свой собственный мир. Разум как часть окружающей действительности является Целым для своего искусственного, создаваемого им  Мира. И в Разуме – как часть, отражается его мир, поэтому там нет человека с его сознанием.

Бог создал этот Мир, но его (Бога) в нем нет, т.к. этот мир является его Сознанием, его Частью.

*См. P.S.2.

Окружающий мир человека дискретен по своей природе, материален. Материя – мыслится только в движении, пространственно оформленная, изменяющаяся во времени. Разум человека – вне времени и пространства.

Мысль – непрерывна и перманентна в смысле целостности  (не делима). Для мысли нет времени, это не физическая система.

*См. P.S.3.

Информация – осознанная Разумом (индивидуальным или общественным) мысль, как реакция на внутренний (мышление), либо внешний (восприятие) раздражитель (воздействие). Информация, как и мысль – не стареет, изменяется только ее материальный носитель. Информация не зависит от пространства. Например: Маленькие или большие буквы алфавита; нахождение и транспортировка книги из одного региона в другой.

В косной Природе – материи присуще отражение, как ответная реакция на воздействие. Т.е. происходит взаимодействие материальных объектов.

Биоматерия, живые организмы – обладают т.н. сигнальными системами анализа, обработки соответствующей реакции на раздражитель – внешнее или внутреннее воздействие на организм в реальном времени. И только Разум способен на переработку внешних и внутренних сигналов в виртуальном времени, т.е. даже не во времени, а вне него, без него. Т.е., Разум обладает возможностью обработки внешних и внутренних воздействий, как в реальном времени, так и вне него, за счет многократного обращения к собственной памяти, генерирования новой информации, извлечения информации из т.н. «остановленного» мышления – книг, видео, компьютерной информации (вербальной, визуальной и символьной информации). Человек не может представить в своем воображении движение объектов, он представляет только статику объектов, т.е. – вне времени. И только во сне, когда память на материальном носителе – нейронах коры головного мозга активизируется и воспроизводит смену образов – появляется виртуальное движение.

*См. P.S.4. 

Через перцепцию (восприятие) -  Разум мыслит. То, что осознанно озвучено, вербально отождествлено, выражено в искусстве, в творениях человеческих рук – всё есть остановленное мышление – Информация.

Восприятие же самой Информации зависит во многом от понимания, т.е. насколько подготовлен Разум (каков его тезаурус) к её переработке. Например, если человек не знает иностранного языка, либо язык математики, музыки, то для него такая вербальная, символьная информация не дает понимания. Т.е. овеществленная мысль не всегда есть информация, а только когда другой (воспринимающий) Разум на основе своего тезауруса может её понять и извлечь для себя определенные знания.

Природа устроена целесообразно: «Каждый сверчок знает свой шесток». Каждому виду соответствует своя ниша. Разум – это проявление высокоорганизованной материи в идеальном плане, то есть не в материальном. Это позволяет создавать, генерировать идеи, мыслить независимо от «течения времени» материи, изменении в конкретном месте нахождения в пространстве. Но, в свою очередь, это является и определенным ограничением: мышление статично, а материя – динамична. Поэтому Разум постоянно ищет ориентиры: постулаты, аксиомы, константы, законы сохранения в Природе, дабы «привязать» свой статический неизменный мир идей к динамическому материальному миру вещей.

 

5. Определение понятия «Информация».

 

Мысльсвойство Разума познавать вне времени и пространства внешний и внутренний мир человека. Внешние восприятия и внутренние воспоминания формируют мысль, как представление (воображение) какого-либо объекта или субъекта и логически связанное с ними вербальное описание:

a) Мысль Разума, выраженная символически: вербально (устно или письменно), музыкальными нотами, художественным произведением искусства, символическим кодом и пр., понятая другим Разумом, есть Информация Разума;

 b)Логически связанные мысли Разума, синтезированные в ходе размышлений человека, основанные на анализе теоретического и практического знания, выраженные символами, принятыми конвенционально сообществом людей: вербально (устно или письменно), музыкальными нотами, художественным произведением искусства, чертежами конструкций, символическим кодом и пр., понимаемые другим Разумом, есть Информация Разума.

Следовательно, как мысль, так и Информация Разума (ИнфРа) есть «сущности» вне времени и пространства. Только к материи (конкретно для определенного ее вида), с неотделимым свойством движения и протяженности, применимы меры времени и объема. ИнфРа – есть идеальная сущность, к которой подходят только идеальные меры: качество и количество. Природа материальна, открыта и динамична во множестве качественно и количественно отличных друг от друга движений. Информационный Мир человека статичен: человек, его Разум, не способны в Информации отображать движение. Так, в математике, абстрактной изначально с принятыми конвенционально правилами оперирования числами и символами, отсутствует понятие времени. Оно вводится как параметр в функциональный анализ и остается там в статическом виде, не действуя без дополнительных процедур ввода данных и расчета результатов. Физическая картина Мира, создаваемая статическим мышлением, является статической моделью реального материального динамичного Мира. В силу такой особенности мышления человека он ищет в абстрактных построениях моделей окружающей Природы сохраняющиеся (не зависящие от времени) постоянные величины, характеризующие его статические представления о Мире, т.н. фундаментальные физические постоянные. Математика должна быть динамичной! Там, где речь идет о малых (микрокосм) и очень больших (макрокосм) величинах  - числа должны зависеть от времени, т.к. отображают они как короткоживущие, так и долгоживущие материальные частицы.

В общем случае – Информация может быть двух видов: естественная и искусственная. К искусственной информации целесообразно отнести Информацию Разума, обусловленную мышлением Разума на основе теоретических и практических знаний; к естественной – Информация Разума, основанная на синтезе мыслей человека при анализе впечатлений от восприятия ощущений, эмоций от созерцания объектов, субъектов и явлений Природы.

*См. P.S.5.

P.S.1. Разуму трудно принять положение, что его носитель – организованная материя, также бренна как и вся материя и имеет очень короткое время жизни. Поэтому Разум – организованное мышление, ищет пути продления жизни своего материального носителя – тела Человека. Познавая себя на микро-уровне: генетический код, геном человека, Разум перенесет этот код на новый материальный носитель – неорганическую материю со значительно большим временем жизни. В перспективе будут созданы машины – разумные роботы на основе символьного кодирования генетического кода человека, знаний, информационного опыта и информации о жизни индивидуума в определенный промежуток времени и записи этой Информации на неорганический материальный носитель. Используя управление, основанное на обратной связи взаимодействий (рефлексия у Человека), робот разумный сможет генерировать информацию на основе заложенных знаний и синтаксисе употребляемого языка. Но, это уже другая тема.

 

P.S.2. Человек, являясь элементом (клеткой) общественного организма, не эволюционирует. Эволюционирует только сам общественный организм. Например, клетки любого организма – не эволюционируют, изменяется только сам организм. Но, в силу того, что любое объединение элементов в единую целостную структуру имеет меньшую энтропию, более экономично – это свойство систем наиболее выгодно и является преобладающей тенденцией среди прочих.

P.S.3. С точки зрения естественнонаучного математического мышления – континуум связи всего происходящего, духовного и материального – реально существует. С точки зрения философии, прежде всего у Кьёркегора, подобный континуум постижим как чистая абстракция. Только абстрактное мышление создает непрерывность (континуитивность); жизнь, конкретный мир переходит из одного состояния в другое внезапно, вдруг, через «скачок».

Разум, иначе – Ум; способность, деятельность человеческого духа, направленная не только на причинное, дискурсивное познание (как рассудок), но и на познание ценностей, на универсальную связь вещей и всех явлений и на целесообразную деятельность внутри этой связи.

P.S.4. В естествознании для описания явлений природы, свойств материальных объектов – вводят понятия, термины,  которые реальны только для Разума, но сами не  существуют в Природе. К ним можно отнести понятие энергии, энтропии, вероятности, температуры, давления и др. В Природе существует материя с присущими ей свойствами движения, структурности, дискретности, различными видами агрегатного состояния, взаимодействиями как внешними, так и внутренними, изменениями состояния движения от начала «рождения» и до смерти. Исследуя динамичную материальную Природу  статичным Разумом, человек постоянно вводит понятия и термины, различные соответствующие меры, чтобы ориентироваться в пространстве и времени, чтобы понять грандиозную динамичную картину мира. К сожалению, всё Понимание Природы сводится к созданию Человеком своего искусственного Мира, в чем-то похожего на мир Природы, но отличным от него кардинально в силу статичности мышления.

P.S. 5. Разум – это не физическая система, он не может взаимодействовать с произвольной физической системой. Мышление, мысль – непрерывны и статичны, то есть – не имеют составных частей и не зависят от течения времени. Материя – дискретна и изменяется со временем (делима на частицы и имеет изменчивое движение). Время – мера длительности движения, либо изменения агрегатного состояния материи. Длительность – наблюдение процесса какого-либо движения в произвольной его фазе. Пространство – нефизическая континуитивная среда, не имеющая ни формы, ни измерений. Основное свойство пространства – индуцировать электромагнитные волны под воздействием переменного электрического тока и передавать их на большие расстояния посредством взаимоиндукции; это свойство основано на физическом проявлении нефизической идеальной среды (Вакуума) под воздействием периодического движения заряженных частиц материи (металлического вибратора, антенны, находящихся  под переменным электрическим потенциалом).

Примечания


[i] Поризмом в античной литературе называли утверждение, которое получается в ходе решения какой-либо задачи, охватывающее по своему содержанию более широкий круг явлений, чем тот, к которому относилась задача.

http://www.inventech.ru/lib/glossary/morphan/

Морфологический анализ (морфологический ящик) – метод систематизации перебора вариантов всех теоретически возможных решений, основанный на анализе структуры объекта.

Метод создан в 30-е гг. XX в. швейцарским астрофизиком Ф. Цвикки. Получил известность с 1942 г. (США).

Применяется при поиске решений в различных областях человеческой деятельности. Применяется при исследовании проблемных ситуаций и выборе направлений решений.

Морфологический анализ может быть использован для создания условий, облегчающих поиск новых идей и решений при формирования портфеля ценных бумаг. С помощью комбинаторики можно получить все теоретически возможные варианты исполнения.

Цель - создать условия, расширяющие область поиска новых идей и решений проблемы, исходя из особенности строения (морфологии) совершенствуемого объекта. Суть метода - с помощью комбинаторики путем построения морфологической матрицы постараться получить все теоретически возможные варианты реализации объекта с требуемой главной функцией.

Реальная информация – понимание на основе памяти, тезауруса и Разума через восприятие органами чувств материальных сигналов окружающей действительности и потенциальной информации.

Потенциальная информация – семантическое средство взаимосвязи (общения, взаимодействия) людей; (нематериальная) мысль человека, перенесенная на материальный носитель в виде знакового кода*, потенциально семантически  понятного для людей, использующих данный код конвенционально.

* -используемого людьми конвенционально.

Потенциальная информация - мысль человека, перенесенная на материальный носитель в виде знакового кода, используемого людьми конвенционально. Потенциальная информация  является семантическим средством взаимосвязи (общения, взаимодействия) людей.

Кинетическая Информация – мысль, возникшая в процессе восприятия знакового кода.

Под знаковым кодом подразумевается алфавит к.-л. языка, семантика образования слов и предложений, речь, жесты, музыкальные ноты и музыка, скульптуры,  рукотворные  и машинные изделия, программы  для ЭВМ и конечные результаты их работы, выводимые на дисплей и т.п.

Информация м. б. устаревшей, актуальной и преждевременной, востребованной и – бесполезной, истинной и ложной, понимаемой и не воспринимаемой в силу интеллекта человека – реципиента.


Библиографический список
  1. Копнин В.П. Гносеологические и логические основы науки. – М.: Мысль, 1974. – 568с., с.160.
  2. Краткий словарь по логике. Под ред. Д.П. Горского, М.: «ПРОСВЕЩЕНИЕ» 1991, с.72
  3. Е.Горный. Русский журнал /Net-культура/,  http://www.rus.ru/netkult/20010830/_gorny.html
  4. С.Л.Соболев, А.И.Китов, А.А.Ляпунов. Основные черты кибернетики.//Вопросы философии//, 1955, №4, с.136-148.
  5. Р.Ф.Абдеев. Философия информационной цивилизации.М.: ВЛАДОС, 1994. – 336с.:56 ил., с.35.
  6. А.А.Крушанов. К вопросу о природе управления //Информация и управление// М.: Наука, 1986. с.247.
  7. A.V.Bajandin . The feedback principle in the conception of determinism and the problem of the Universe structure // XIIth International Congress  on Cosmic Space and Philosophy. Aigina. 2001. Greece.
  8. А.В.Баяндин . Принцип обратной связи в концепции детерминизма структуры Вселенной. //Философия науки//. № 1(9), 2001г. СО РАН, ИфиПр, стр. 68 –75.
  9. А.В.Баяндин. К распределению простых чисел в натуральном ряду чисел. Издательство «НАУКА»., СИФ РАН. 1999. ISBN 5-002-031549-4.
  10. А.В.Баяндин. Методологический принцип обратной связи в естествознании.,МАТЕМАТИКА: Простые числа в структуре натурального ряда чисел,  Институт теплофизики СО РАН, Новосибирск, 2003г., - 100с.
  11. Ф.Энгельс. Диалектика природы. М.: Издательство политической литературы., 1987г., с.199.
  12. Издание 1969-1978 г.г. © 2001 «Большая Российская энциклопедия». Изложено В. Н. Тростниковым  по литературе:Эшби У. Р., Введение в кибернетику, пер. с англ., М., 1959; Харкевич А. А., О ценности информации, в сборнике: Проблемы кибернетики, в. 4, М.:1 960;  Шеннон К. Э., Работы по теории информации и кибернетике, пер. с англ., М.: 1963; Колмогоров А. Н., Три подхода к определению понятия «количество информации», «Проблемы передачи информации», 1965, т. 1, в. 1; Бриллюэн Л., Научная неопределённость и информация, пер. с англ., М: 1966; Урсул А. Д., Информация, М.: 1971.
  13. А.Шилейко, Т.Шилейко. Информация или интуиция? – М.: Мол. гвардия, 1983., с.6, с.203.
  14. А.Шилейко, Т.Шилейко. Беседы об информатике. М.: - М.: Мол. гвардия, 1989., с70 – 71.
  15. Р.Ф.Абдеев. Философия информационной цивилизации.М.: ВЛАДОС, 1994. – 336с.:56 ил.,
  16. Н.Н. Моисеев. Человек, наука и общество. М.: Наука,1982. с.74
  17. Д.И.Дубровский. Информация, сознание, мозг. М.: Высш. шк., 1980. с.97
  18. В.С. Тюхтин. Теория отражения в свете современной науки. М.: Наука, 1971.
  19. К. Шеннон. Работы по теории информации. М.: Изд-во иностр. лит., 1966.
  20. А.А. Ляпунов. Проблемы кибернетики. М.: Наука, 1968. с.184.
  21. Р.Ф. Абдеев. В защиту атрибутивной концепции информации. //Научные труды, вып. 158. М.: МЛТИ, 1984.
  22. И.И. Шмальгаузен. Факторы эволюции. М.: Л.: АН СССР, 1946, с.147.
  23. Н.С. Кардашев. О стратегии поиска внеземных цивилизаций. //Вопросы философии. 1977. № 2, с. 45.
  24. В.М. Глушков. О кибернетике как науке. //Кибернетика, мышление, жизнь. М., 1964. с. 53.
  25. Р.Ф. Абдеев. Философия информационной цивилизации. М.: ВЛАДОС, 1994. – 336с.:56 ил., с. 160-171.
  26. Л. Витгенштейн. Логико-философский словарь. – М.: ИЛ, 1958.
  27. Дж. Кальоти. От восприятия к мысли. Перевод с немецкого д. ф-м. наук В.А. Копцика.,с.96.
  28. A.H.W. Beck. Statistical mechanics, fluctuations and noise. – London: Edward Arnold, 1976, p.76.
  29. E. Caianiello, E. Di Giulio. Introduzione alla cibernetica. – Firenze: Le Monnier, 1980.
  30. И.В. Мелик-Гайказян. Информационные процессы и реальность. – М.: Наука, Физматлит, 1998. -192с.
  31. Г. Кастлер. Возникновение биологической организации: Пер. с англ./Под ред. Л.А. Блюменфельда. – М.: Мир, 1967. – 90с.
  32. И.В. Мелик-Гайказян. Информационные процессы и реальность. – М.: Наука, Физматлит, 1998. с.22.
  33. Г.Г. Воробьев. Информационная культура управленческого труда. – М., 1979.
  34. В.П. Копнин. Логические основы науки. – Киев: Наук. думка, 1968. – с.191.
  35. А.Д. Урсул. Отражение, информация, управление //Ленинская теория отражения и современная наука: теория отражения и естествознание. – София, 1973. – с.295 -298.
  36. А.Д. Урсул. , Т.А. Урсул. Эволюция. Космос. Человек. (Общие законы развития и концепции антропокосмизма). – Кишинев: Штиница, 1986с.72.
  37. И.В. Мелик-Гайказян. Информационные процессы и реальность. – М.: Наука, Физматлит, 1998. с.43.
  38. Ю.П. Петров. О различных формах и видах информации: Информационные проблемы изучения биосферы. – М.: Наука, 1988. – с.232.
  39. Г. Клаус. Кибернетика и философия. М.: Издательство иностранной литературы., 1963г., с.59 -64.
  40. Н.Н. Моисеев. Судьба цивилизации. Путь Разума. М.: Издательство «Языки русской культуры». 2000г., с.210-211.


Все статьи автора «Bajandin»


© Если вы обнаружили нарушение авторских или смежных прав, пожалуйста, незамедлительно сообщите нам об этом по электронной почте или через форму обратной связи.

Связь с автором (комментарии/рецензии к статье)

Оставить комментарий

Вы должны авторизоваться, чтобы оставить комментарий.

Если Вы еще не зарегистрированы на сайте, то Вам необходимо зарегистрироваться: