"Информация как основа жизни" - читать интересную книгу автора (Корогодин В. И., Корогодина В. Л.)Глава третья ИНФОРМАЦИОННЫЕ СИСТЕМЫВыше неоднократно упоминалось о связи информации с операторами и информационными системами. Рассмотрим эту проблему более внимательно. Начнем с утверждения, что хотя информация – объект не материальный, операторы всегда и обязательно – объекты материальные, т. е. реальные физические тела, которые могут, и весьма существенно, влиять на ход событий в окружающем их реальном физическом мире. Этот факт позволяет нам выделить три вопроса и сосредоточить на них внимание: как происходит реализация информации в операторы? какими показателями можно характеризовать операторы? и как связаны особенности информации с характеристиками кодируемых ею операторов? Вопрос о реализации какой-либо информации в оператор предполагает, прежде всего, однозначное отображение оператора в этой информации, а также существование механизмов, реализующих это отображение. При рассмотрении этого вопроса мы будем опираться на работы А. Н. Колмогорова [1], посвященные определению понятия "информация" и проблеме отображения одного множества другими. Действительно, любую информацию можно представить себе как некоторое множество знаков или символов, однозначно отображающее другое множество, в нашем случае – компоненты будущего оператора. Существует теорема, согласно которой отображающее множество всегда менее сложно, нежели отображаемое (т. е. содержит меньшее число компонентов), но этот разрыв уменьшается по мере увеличения сложности отображаемого множества, так что в конце концов "отобразить" суперсложное множество можно лишь одним путем – полностью его воспроизведя. Можно предположить, что с информацией и операторами дело обстоит иначе. Во-первых, сама информация, по-видимому, относится к классу таких объектов, которые невозможно отобразить более простыми объектами; во всяком случае, когда информация представлена в максимально-компактной форме, ее невозможно "записать" еще более компактно. Отсюда, кстати, следует, что информацию, независимо от ее количества и семантики, невозможно отобразить иначе, как точно ее скопировав. Во-вторых, можно думать, что пары объектов "информация и кодируемый ею оператор" относятся к такому классу, где степень сложности отображаемого объекта возрастает тем быстрее, чем больше сложность объекта отображающего. Иными словами, сложность оператора возрастает значительно быстрее количества отображающей его информации, и с ростом количества кодирующей информации разность между сложностью этой информации и соответствующих операторов не уменьшается, а все более возрастает. На примере живых организмов в этом легко убедиться, сопоставив зависимость массы организмов от количества ДНК в гаплоидных наборах их хромосом. Не исключено, что этот феномен имеет прямое отношение к замечанию А. Н. Колмогорова, что даже при достаточно простой структуре отображающего множества программа его реализации может быть столь сложной, что полное ее осуществление практически невозможно. Вероятно, многие из отмеченных выше трудностей и противоречий легко разрешаются, если учитывать предельную ситуацию, когда отображение оператора в информации представляет собой не что иное, как программу его построения, заданную максимально компактным образом. Условность записи такой программы (т. е. ее запись знаками или символами) исключает непосредственное воспроизведение по ней оператора, – это становится возможным только благодаря специальной разверстке такой программы во времени, осуществляемой специальным устройством той информационной системы, к которой информация относится. Поэтому и точность реализации здесь может варьировать, – или, правильнее сказать, точность реализации будет определяться нормой реакции реализующего устройства на сопутствующие факторы. Именно в этом смысле информацию можно рассматривать как алгоритм для построения оператора. Мы уже неоднократно подчеркивали, что никакая информация неспособна самостоятельно индуцировать построение оператора, что, впрочем, непосредственно следует из нематериальности ее природы. Информация может быть реализована в оператор только в своей информационной системе благодаря существованию считывающих и реализующих устройств. Именно считывающее устройство ставит в однозначное соответствие знаки или символы, "заполненные" информацией, с теми или иными элементарными действиями, производимыми реализующим устройством над ресурсами, содержащимися в окружающей среде, что и приводит к созданию оператора. Это обстоятельство, между прочим, очень хорошо иллюстрирует принципиальное значение последовательности считывания информации в ходе ее реализации. Основные типы операторов мы уже упоминали. Это – соматические компоненты живых организмов, поведенческие реакции животных с развитой нервной системой, а в случае человеческих сообществ – присущие им технологические комплексы. Помимо таких "завершенных" операторов, составляющих вместе с относящейся к ним информацией завершенные информационные системы, существует множество информации и операторов промежуточных, или, точнее, соподчиненных, типов, иерархии которых и представляют собой завершенные операторы. Такие субоператоры призваны выполнять целенаправленные действия, являющиеся фрагментами или отдельными элементарными этапами завершенных целенаправленных действий, осуществляемых завершенными операторами. Степень соподчиненности операторов можно проследить в разных конкретных случаях только при рассмотрении всей системы в целом или хотя бы системы следующего после данного оператора более высокого ранга, но не рассматривая разные операторы изолированно от других, с ними сопряженных. Таким образом, мы подошли к возможности дополнить наши представления об информационных системах, изложенные выше (см. главу 2), в двух важных аспектах: такие системы должны включать в себя как считывающие и реализующие устройства, так и продукты их деятельности операторы. Собственно, мы могли бы называть "завершенным оператором" всю совокупность неинформационных компонентов информационной системы, но это будет неверно, ибо она всегда содержит (хотя бы временно) считывающие и реализующие устройства, предшествующие по отношению к вновь создаваемым на основе некоторой данной информации его компонентам; даже если некоторые новые компоненты и будут просто повторять старые, это повторение окажется "молчащим", предназначенным только для следующего информационного цикла. Иерархическое разделение информационных систем на информационные, считывающее-реализующие и операторные субсистемы прекрасно иллюстрируется следующим обстоятельством. Информационные системы можно разбить на два больших класса. Один из них – это информационные системы 1-го рода, все три компонента которых настолько тесно соединены друг с другом, что представляют собой единое целое. Это – живые организмы, от клеток до человека. Второй тип – информационные системы 2-го рода, где информация, считывающе-реализующие устройства и операторы могут существовать и существуют пространственно разобщенно друг от друга, хотя функционировать и развиваться способны лишь совокупно. В наиболее завершенной форме – это человеческие сообщества, где информация представлена в виде книг или других систем записи, в роли считывающих и реализующих устройств нередко выступают сами люди, а в качестве супероператоров – технологии. Б. Б. Кадомцев [2] в своей книге "Динамика и информация" (1997) указывает на иерархию в физических информационных системах. Он проводит следующие рассуждения. Каждая открытая система имеет приток энергии Р и вещества М. Энергия должна поступать в систему в организованной форме, так что вместе с энергией и веществом в систему вводится негэнтропия (-Si). Из системы выводятся во внешнюю среду отходы в виде вещества М и возрастания энтропии внешних систем (-Se). Если система не имеет внутренней структуры, то она ведет себя как однородная система, например горная река. В более сложных системах возможно расслоение на две тесно связанные подсистемы: динамическую и информационную (управляющую). Структурные элементы, которые могут влиять на динамику системы сравнительно малыми возмущениями, выделяются в структуру управления. Таким образом, сложные динамические системы расслаиваются на два уровня иерархии. Подсистема управления может откликаться на смысловую часть приходящих сигналов и вырабатывать управляющие сигналы в динамическую подсистему. Управляющий блок может иметь связь с несколькими динамическими подсистемами. Управляющий, или информационный, блок может использовать негэнтропию, передаваемую из динамических подсистем, либо иметь свой источник, связанный с внешней средой. В случае живых организмов негэнтропией является пища, а для получения информации используется, например, свет. Б. Б. Кадомцев отмечает, что "для информационного поведения сложных физических систем более важной является структурная сложность и структурная иерархия, а не иерархия элементарных уровней (частицы, атомы, молекулы, тела). Элементы информационного поведения появляются даже у микрочастиц в виде коллапсов волновых функций, а по мере укрупнения и усложнения структур к ним добавляются неравновесные коллективные параметры порядка, играющие роль динамических переменных" (стр. 331). Обратимся к живой клетке. Здесь впервые встречается обособленный генетический "управляющий" аппарат (геном клетки). Он реагирует на сигналы из внешней и внутриклеточной среды, связан через трансляцию (см. возникновение генетической информации) с аппаратом гетерокатализа, который обеспечивает построение динамического оператора. В "динамическом блоке" используются вещество и энергия внешней среды. В схеме самовоспроизводящегося автомата фон Неймана, являющегося аналогом живых организмов, присутствуют управляющий информационный блок и динамический, для построения оператора использующий ресурсы внешней среды. Все социальные структуры и сельское хозяйство построены на тех же иерархических принципах. Информация, заключенная в своем носителе, сама по себе пассивна: она неспособна ни участвовать в целенаправленном действии, ни перейти на другой носитель, ни осуществить собственное копирование. Чтобы эти события, обеспечивающие само существование информации, стали возможны, требуется наличие специальных материальных объектов – устройств или "машин", которые "умеют" воспринимать или создавать информацию, считывать ее, обеспечивать ее трансляцию с одного носителя на другой, ее копирование, создание кодируемого ею оператора, а также осуществление других действий, необходимых как для выявления присущих информации свойств, так и для обеспечения ее дальнейшего существования. Отдельные операции, совершаемые посредством этих устройств с информацией или при ее участии, можно назвать элементарными информационными актами, их совокупность – информационным процессом, а совокупность устройств, обеспечивающих осуществление такого процесса – информационной системой. Очевидно, что вне информационной системы информация не в состоянии выявить ни одного своего свойства, кроме бренности, – но даже бренность информации здесь выступит не явно, а лишь как следствие разрушения ее носителей. Другими словами, вне информационной системы не только информация обречена на диссипацию, но и само понятие "информация" утрачивает всякий смысл. Очевидно, что все устройства, способные обеспечивать осуществление элементарных информационных актов, так же как и слагаемая ими информационная система, есть не что иное, как операторы, создаваемые на основе некоторой информации, – спонтанно они образовываться не могут. Возникает известный парадокс яйца и курицы: что первично, информация или ее операторы? Попробуем выяснить, каким минимумом свойств (или особенностей) должна обладать простейшая информационная система, способная обеспечить осуществление полного информационного цикла, от считывания информации до ее воспроизведения. Сделать это нам будет нетрудно ввиду прекрасной разработанности этого вопроса – следует лишь обратиться к идеям Дж. фон Неймана, относящимся к самовоспроизводящимся автоматам [3]. В сентябре 1948 г. на симпозиуме "Механизмы мозга в поведении", состоявшемся в Калифорнийском технологическом институте, Дж. фон Нейман прочитал лекцию, которая называлась "Общая и логическая теория автоматов". Основной темой этой лекции был общий анализ структуры такого автомата, или, точнее, автомата такого уровня сложности, который позволял бы ему осуществлять самовоспроизведение. Фон Нейман показал, что такой автомат должен состоять из четырех блоков со следующими функциями (рис. 3). Рис. 3. Блок-схема самовоспроизводящегося автомата фон Неймана. R - ресурсы, черпаемые из окружающей среды. Пояснения в тексте. Блок А – автоматическая фабрика по сбору сырья (R) и его переработке в продукт, соответствующий задаваемым извне инструкциям (Г). Блок Б – аппарат, снимающий копии с таких инструкций. Блок В – контролирующий аппарат, подключенный одновременно к блокам А и Б: когда в блок В поступают инструкции, они сначала направляются в блок Б для снятия с них копий, а затем – в блок А, где уже осуществляются соответствующие операции по изготовлению конечного продукта из исходного сырья. В случае, если таким "конечным продуктом" является дочерний автомат, он снабжается копией первоначальных инструкций, тогда как их оригинал остается в блоке В исходного автомата. Наконец, имеется еще блок Г, который представляет собой "запоминающее устройство", содержащее полную запись инструкций, обеспечивающих производство блоком А конечного продукта, в том числе дочернего автомата (А+Б+В+Г). Фон Нейман показал, что для создания самовоспроизводящегося автомата структура такого типа является необходимым минимумом. Он предположил также, что такая структура присуща и живым организмам. Заметим, – и это хочется особенно подчеркнуть, – что автомат фон Неймана можно рассматривать с двух точек зрения. Во-первых, так же, как делал сам Дж. фон Нейман, анализируя принцип устройства самовоспроизводящейся технической системы. В этом аспекте инструкции или информация, содержащаяся в блоке В и используемая блоком А для изготовлении копии такого автомата, играет как бы служебную роль, подчиненную цели создания новых блоков А, Б, В и Г. Но можно весь автомат рассматривать и с другой позиции, когда все неинформационные компоненты его, т. е. блоки А, Б, В и Г, выступают в роли операторов по отношению к кодирующей их информации, а совокупность этих блоков, т. е. сам автомат, есть не что иное, как супероператор, обеспечивающий воспроизведение этой информации. Дж. фон Нейман, по-видимому, не был знаком с работой Г. Меллера [4], опубликованной за четверть века до его выступления, в которой живой организм рассматривался как устройство, обеспечивающее воспроизведение кодирующих его генетических структур. Если посмотреть на автомат фон Неймана с этой точки зрения, то его с полным правом можно интерпретировать как подобное же устройство, осуществляющее воспроизведение кодирующей его информации. Поэтому-то автоматы фон Неймана и можно рассматривать как простейшие информационные системы. Термин "простейший" здесь используется в смысле "элементарный", чтобы подчеркнуть дальнейшую неделимость системы, способной обеспечивать воспроизведение информации. Очевидно, что анализ строения и функционирования такой информационной системы следует проводить, постоянно имея в виду функциональную специфику отдельных блоков автомата фон Неймана и характер их взаимодействия друг с другом. Однако это еще не все выводы, которые можно сделать из упомянутой работы Дж. фон Неймана. Используя идеи А. Тьюринга [5], Дж. фон Нейман показал, что теоретически возможен универсальный автомат, т. е. механизм такой степени сложности, которой при наличии правильно заданных инструкций может выполнять операцию любого другого механизма. Иными словами, на определенном этапе эволюции самовоспроизводящихся автоматов для выполнения все более сложных операций уже исчезает необходимость дальнейшего усложнения структуры самих автоматов. Для этого оказывается достаточным задавать все более подробные и сложные инструкции I. Эволюция автоматов уступает место эволюции информации. Универсальный автомат фон Неймана может, конечно, и самовоспроизводиться. Для этого достаточно включить его в качестве блока А в описанную выше систему. Дж. фон Нейман считал, что именно потому, что логически возможен универсальный автомат, возможна и бесконечная биологическая эволюция. Отпадает необходимость переделывать основные механизмы биосинтеза по мере перехода от простых организмов к более сложным. Необходимо только модифицировать и расширять генетические инструкции. Все, что было открыто нового об эволюции биологических систем после 1948 г., подтверждает правоту Дж. фон Неймана. Очевидно, что эволюцию информационных систем от простейших к универсальным можно вполне трактовать как эволюцию природных автоматов фон Неймана. Выше мы коротко рассматривали те особенности физических объектов, которые позволяют им быть носителями информации (см. главу 2). Один из выводов, полученных нами, был тот, что в качестве носителя информации может выступать любое физическое тело. Из сказанного в предыдущем разделе следует, однако, что реальный носитель информации должен отвечать еще двум, в дополнение к рассмотренным выше, требованиям: допускать возможность записи информации некоторым данным способом и допускать возможность считывания информации также заранее заданным способом. Иными словами, реальный носитель информации должен строго соответствовать своей информационной системе. Носители информации и информационные системы должны быть комплементарны друг другу. Рассмотрим четыре типа информационных систем, в соответствии с которыми можно выделить четыре комплементарные им группы носителей информации. Первая группа – это носители генетической информации. К ним относятся молекулы РНК, односпиральной ДНК и двуспиральной ДНК. "Вписывание" генетической информации в эти носители происходит в процессе трансляции, осуществляемой по матричному принципу, и лишь в качестве исключения (как реликт? или прообраз будущего?) существует система "РНК – обратная ревертаза – ДНК" – пока единственный пример перевода информации с одной системы записи на другую в генетических информационных системах. Вторая группа – это носители поведенческой информации. Здесь уже следует различать носители, используемые для реализации (и хранения) такой информации, и носители, используемые для ее передачи. Носители, используемые для хранения и реализации поведенческой информации, – это неизвестные пока структуры нервных клеток или нервной системы в целом, с соответствующими считывающими устройствами. Для передачи поведенческой информации используются другие носители: в случае генетически-детерминированных поведенческих реакций – носители первой группы, а в случае поведенческих реакций, приобретаемых в ходе индивидуальной жизни, – электромагнитные (световые лучи) и воздушные (звуки) колебания, а также ряд химических соединений, имеющих специфические запахи. Существуют специальные приспособления – рецепторы –воспринимающие такую информацию и переводящие ее в ту форму записи, которая может сохраняться и быть использована нервной системой. При рассмотрении носителей второй группы, предназначенных для передачи индивидуальной поведенческой информации, возникает интересный вопрос: в каких ситуациях их можно рассматривать как действительно носители информации, а в каких – как простые "сигналы", т. е. воздействия внешней среды, лишь запускающие реализацию тех или иных предсуществующих информационных программ? Вопрос этот не тривиальный и относится к одной из важнейших особенностей развивающихся информационных систем – к способам обмена информацией. Можно думать, что в эволюции способов обмена поведенческой информацией решающее значение принадлежало использованию рецепторов, первоначально предназначавшихся для совершенно другой цели, а именно для восприятия различного рода внешних воздействий, таких, как световые, звуковые, химические и температурные, которые иногда и называют двусмысленным термином "сигналы". Такие воздействия, или сигналы, могли последовательно играть три разные роли: непреднамеренного свидетельства (следы), преднамеренного свидетельства ("Это моя территория!") и примера для подражания. Во всех трех случаях это то, на основании чего у реципиента может создаваться новая информация. Но лишь в третьем случае сигнал превращается в средство (или способ) передачи уже существовавшей информации от донора к реципиенту, приобретая тем самым функцию носителя информации. Разнообразие физических объектов, служащих таковыми во второй группе носителей, как мы знаем, ограничено. Третья группа – это носители информации, специфически используемые для передачи человеческого знания, за исключением технических систем связи. Помимо носителей информации второй группы сюда относятся все те физические тела, на которых (и с помощью которых) можно записывать сообщения. При огромном разнообразии потенциальных носителей такого рода использование их, во-первых, стереотипно, а во-вторых, всегда играет промежуточную роль, с последующим переводом на носители второй группы. Возникновение языка, однако, в отличие от сигнального типа общения, было прорывом информации за пределы собственных информационных систем как в пространство, так и во время. К четвертой группе носителей могут быть отнесены те атрибуты технических систем связи, которые не воспринимаются непосредственно органами чувств (как носители второй и третьей групп) и практически не генерируются живыми организмами. Информация, содержащаяся в таких носителях, чтобы быть в такие носители включенной или, чтобы быть воспринятой живыми организмами, требует обязательного трансформирования с помощью технических же систем приема или передачи. Это, прежде всего, электромагнитные колебания диапазона радиоволн, магнитозаписи и т. д. Вовлечение их в информационные циклы не принесло (по крайней мере до сих пор) ничего принципиального нового по сравнению с использованием носителей третьей группы, но чрезвычайно усилило потенции, в них заключавшиеся. Это относится, прежде всего, к скорости и расстоянию передачи информации, к возможностям ее хранения, а также к расширению круга возможных адресатов. Таким образом, использование тех или иных потенциальных носителей информации в качестве ее реальных носителей целиком и полностью обусловливается особенностями соответствующих информационных систем. Информационными, как договорились, будем и впредь называть системы, способные самостоятельно осуществлять полный информационный цикл, т. е. воспроизведение кодирующей их информации, а поэтому выступающие по отношению к такой информации как системы, обеспечивающие ее существование. Мы уже говорили, что воспроизведение информации обычно происходит путем самовоспроизведения всей системы. Каждое новое поколение информационной системы призвано воспринимать информацию, для этого подготовленную, сохранять ее до следующего акта воспроизведения, а затем передавать дальше. Эти три элементарных информационных акта являются необходимыми условиями существования любой информационной системы. Мы помним, что информация сама по себе пассивна. Следовательно, каждый из этих информационных актов нуждается в физическом устройстве, обеспечивающем его осуществление. Помимо этого, каждая информационная система обладает устройством, осуществляющим реализацию информации – построение кодируемых ею таких же систем или их компонентов. Принцип работы реализующего устройства мы рассмотрим ниже, сейчас же отметим, что информация, предназначенная для реализации, может быть записана либо на таком же носителе, что и принимаемая, хранящаяся и передающаяся, либо на носителе какой-либо иной природы. Первый случай достаточно прост и в специальном рассмотрении не нуждается. Второй же случай предполагает существование устройств, осуществляющих перевод информации с одних носителей (систем записи) на другие, а именно на те, которые допускают ее реализацию. Осуществление такого перевода будем называть пониманием информации. При обсуждении процесса передачи и понимания информации необходимо учесть следующие обстоятельства. Первое: принимающее устройство "поймет" только ту часть сообщения, которая будет адекватна его собственной семантике. Второе – передача информации всегда сопряжена с потерями информации за счет естественных необратимых помех во внешней среде. Для того, чтобы сохранить передаваемую информацию, необходимо увеличить запас информации принимающего устройства. Тогда в процессе записи новой информации часть запаса приемника может быть потеряна из-за диссипативных взаимодействий с внешней средой. Эти замечания накладывают ограничения на принимающие устройства: они должны обладать той же семантикой и большим запасом информации или быть на более высокой иерархической ступени эволюции. Только существование устройств, осуществляющих перевод информации с одних систем записи на другие, позволяет использовать для передачи, хранения и реализации информации разные носители. Возникновение таких устройств в ходе развития информационных систем было настоящей революцией. Одним из следствий этого было появление носителей с чрезвычайно большой продолжительностью жизни, а затем использование подобных носителей для хранения информации, вне зависимости от особенностей создающих ее и использующих информационных систем. Так возникли "блоки памяти", или "банки данных", предназначенные для хранения информации, запасенной впрок. Другим следствием появления долгоживущих носителей было резкое расширение возможностей обмена информацией между информационными системами с разными способами ее фиксации. На базе того и другого и образовались технические системы связи, положившие начало "великому объединению" многочисленных разрозненных информационных систем в единую суперсистему, свидетелями чего мы и являемся. Закономерности передачи информации по различным каналам связи достаточно подробно рассматривает классическая или шенноновская математическая теория связи [6], и мы здесь этого касаться не будем. Отметим лишь универсальность этих закономерностей для любых информационных систем. В основе таких закономерностей, помимо рассмотренных выше свойств информации, лежит также принцип линейной последовательности передачи и приема, а также записи информации. Если прибавить к этому еще и линейный принцип считывания информации в ходе ее реализации, то станет ясно, что принцип этот лежит в основе всех трансформаций, которым может подвергаться информация в ходе осуществления информационных процессов. Таким образом, по особенностям приема, хранения и передачи информации все информационные системы можно подразделить на два класса. Информационными системами 1-го рода будем называть те, где для всех трех основных информационных актов, а также для реализации информации используются одни и те же системы записи или идентичные физические носители. Информационными системами 2-го рода будем называть те, где для осуществления разных информационных актов могут быть использованы и действительно используются разные носители. Переход от первых ко вторым был обусловлен возникновением устройств, обеспечивающих перевод информации с одних физических носителей на носители другой физической природы. Нетрудно видеть, что подразделение информационных систем по этому признаку полностью совпадает со сделанным выше подразделением по признаку "прочности связи" отдельных блоков автомата фон Неймана. Это совпадение, конечно, совершенно естественно. Будем различать считывание информации и ее понимание, восприятие или рецепцию некоторой информационной системой. "Считыванием" будем называть первый этап процессов, завершающихся либо переводом информации с носителей одной физической природы на носители другой физической природы, либо реализацией информации в оператор. "Пониманием", как мы уже говорили, будем называть перевод информации с какой-либо группы носителей на тот носитель (или систему записи), который делает ее пригодной для реализации. Таким образом, понимание информации предполагает возможность ее считывания, хотя само считывание далеко не всегда может сопровождаться ее пониманием. Очевидно, что понимание информации возможно только для информационных устройств 2-го рода, которые способны понимать информацию не только друг друга, но и ту, которая присуща информационным системам 1-го рода. Последние из-за отсутствия у них соответствующих устройств к пониманию чужеродной информации не способны. Считывание информации может осуществляться двумя способами: когда считываемая информация сохраняется и, следовательно, может считываться неоднократно и когда информация в процессе ее считывания исчезает, разрушаясь буква за буквой или фраза за фразой. Как тот способ, так и другой могут быть использованы и при переводах, и при реализации информации. Очевидно, что реализация информации по второму способу предполагает наличие в этой же информационной системе одной или нескольких интактных копий этой информации, пригодных для введения в систему следующего поколения. Очевидно, что возникновение устройства, пригодного для считывания информации в ходе ее реализации и являющегося необходимым компонентом любой информационной системы, должно было предшествовать возникновению устройства, пригодного для перевода информации с носителей одной природы на носители другой природы. Вероятнее всего, первое устройство явилось прототипом второго или даже прямым его предшественником, так как перевод любой информации можно, вообще говоря, трактовать как вырожденную ее реализацию. Матричный принцип репликации информации, впервые описанный Н. К. Кольцовым [7], играет столь большую роль в размножении и динамике как самой информации, так и информационных систем, что на нем следует остановиться подробнее. Суть матричного принципа состоит в том, что сначала с носителя информации изготавливается как бы слепок или негатив, а затем по нему воспроизводится точная копия исходного носителя. Антитезой матричному принципу может служить только принцип гомологичной аттракции, который в природе, кажется, реализации не получил. Матричный принцип и принцип гомологичной аттракции, по-видимому, исчерпывают логические возможности точного воспроизведения объектов, максимально компактным описанием которых могут служить они сами. Точность такого воспроизведения, однако, не может быть абсолютной – тривиальные термодинамические соображения показывают неизбежность ошибок, и речь может идти лишь об их количестве или частоте. Как и при любых других способах воспроизведения "чего угодно", здесь возможны ошибки двух типов: ошибки, не влияющие на успешность воспроизведения, и ошибки, препятствующие ему. Первые можно назвать "наследуемыми", а вторые "летальными", ибо они прерывают цикл воспроизведения испытывающих их информации и тем самым обрекают эти информации на гибель. Если считать, что вероятность возникновения одной ошибки постоянна на одну букву сообщения, то, следовательно, вероятность ошибки на сообщение в целом будет возрастать с его длиной, т. е. с величиной емкости информационной тары, это сообщение содержащей. Если частота таких ошибок приближается к критическому значению, все большие преимущества будут получать наследуемые изменения, снижающие частоту этих ошибок или помогающие компенсировать их в случае возникновения, – способ репликации будет совершенствоваться в направлении повышения его точности при параллельном (или независимом) развитии систем, обеспечивающих исправление или репарацию информации от возникающих ошибок или повреждений. В этом процессе интересная роль должна принадлежать недозагруженной емкости информационной тары. Изменения, в ней происходящие, могут иметь либо летальный характер, и тогда они неотличимы по последствиям от подобных изменений самой информации, либо могут приводить к возникновению новой информации, т. е. к увеличению количества информации, содержащейся в данном носителе. Таким образом, разность "Н-В" может оказаться не балластной, а сыграть роль источника сырья при "построении" новой информации. Как уже отмечалось, уменьшение выхода ошибок при матричном воспроизведении информации возможно не только путем их предотвращения в результате совершенствования механизмов копирования, но также путем следующего за копированием исправления уже возникающих ошибок. Для этого, очевидно, требуется такие ошибки выявлять, что может быть осуществлено путем сопоставления новых копий либо с некоторым эталоном, либо нескольких копий между собой. Эталоном может служить либо образец, подлежащий копированию, либо "шаблон", непосредственно не относящейся к носителям самой информации. Шаблонный способ может служить лишь для отбраковки любых изменений, – и где он возникает, прекращается вообще изменчивость информации, а следовательно, и ее эволюция. Остается сопоставление копии с исходным образцом или с другими копиями. То и другое может помочь выявить изменение, а точнее – различие между несколькими экземплярами носителей одной и той же информации, но решить, какое из них – исходное, а тем более – "правильное", а какое – новое или "ошибочное", невозможно без специальных устройств или шаблонов. Поэтому коррекция ошибок может осуществляться двумя путями – путем исправления нового образца, если его можно отличить от старого, и путем "исправления" в любом из двух образцов, т. е. путем делания их одинаковыми либо возвращая к исходному варианту, либо внося вновь появившееся изменение и в исходный, старый образец. Можно полагать, что меры по стандартизации реплик будут обходиться тем "дороже", чем большая точность к ним предъявляется, и в реальной ситуации дело должно ограничиваться "сходной ценой": снижением частоты летальных изменений до некоторого "удовлетворительно переносимого" уровня. Автоматизм этого механизма очевиден и в детальном рассмотрении не нуждается. Результатом будет элиминация грозящих "вымиранием" информации летальных изменений и закрепление в новых поколениях информации изменений нелетальных. Все это будет приводить к некоторому постоянно идущему процессу спонтанной изменчивости информации. Механизмы такой изменчивости для информационных систем разных типов могут различаться. Для анализа способов репликации информации и устройств, это осуществляющих, большое значение имеет та особенность информации, на которую выше уже обращалось внимание. Особенность эта состоит в том, что при достаточно компактной записи информации ее невозможно задать более коротким текстом. Иными словами, информация представляет собой класс таких объектов, которые нельзя закодировать более короткими последовательностями символов, нежели те, которые их задают, независимо от их числа. Хотя это утверждение абсолютно справедливо только для максимально компактных текстов, оно определяет основной принцип репликации или воспроизводства информации: принцип прямого копирования. Вследствие пассивности самой информации для ее репликации требуется наличие реплицирующего устройства, встроенного в соответствующую информационную систему. Мы уже отмечали, что репликация информации может осуществляться только одним способом – путем точного воспроизведения ее носителей. Логически возможны и в действительности существуют четыре варианта этого способа: последовательное и одномоментное копирование, которые могут осуществляться непосредственно, а могут быть опосредованы "негативом". При этом используемый в том или ином случае вариант определяется как особенностями носителя данной информации, так и особенностями реплицирующего устройства. Запись информации может быть одномерная, двумерная и трехмерная, – но, согласно свойству инвариантности, каждую из них можно трансформировать в одномерную форму. Справедливо, конечно, и обратное утверждение. Поэтому способы репликации информации безразличны по отношению к размерности ее записи и могут быть рассмотрены на примере линейной последовательности символов. Но вот что существенно и что нельзя забывать: так как реплицирующее устройство никогда не "знает", сколь компактен текст, который ему предстоит реплицировать, то как сама репликация, так и процедуры, с ней связанные, всегда осуществляются так, как будто бы они имеют дело с максимально компактной записью. Выражается это в том, что собственно репликации всегда и без исключения подвергается не сама информация как таковая, а содержащие ее носители. Поэтому задача репликации информации в действительности сводится к репликации ее носителей, воспроизведение же самой информации является лишь неизбежным следствием этой процедуры. Репликация информации, следовательно, может осуществляться без соответствующего ее понимания и реализации информационной системой. Соответственно четырем названным выше вариантам репликации информации может существовать четыре типа устройств, для этого предназначенных. Принципиальные схемы их конструкций тривиальны и специально рассматриваться не будут. Важно лишь отметить, что в природных (а не технических) информационных системах доминирует последовательный негативный способ, который обычно и называют матричным. В искусственных или технических системах используются все четыре способа, развившиеся из доминирующего в природных системах. Реализацию любой информации можно разделить на два этапа: построение оператора (собственно реализация или материализация информации) и работа оператора по осуществлению целенаправленного действия. Рассмотрение реализации информации начнем с первого этапа. Материализация информации предполагает, прежде всего, наличие устройства, ее осуществляющего. Любую информацию, согласно нашему определению, можно представить себе как программу для построения некоторого объекта – оператора. Это не что иное, как алгоритмическое определение информации по А. Н. Колмогорову [1], подчеркивающее ее действенность. Но информация сама по себе пассивна – это лишь программа, вводимая в "реализующее устройство". Такое устройство, само являющееся оператором, выполняющим определенное целенаправленное действие, не может возникнуть само по себе, а может быть создано лишь на основе какой-то информации. Как и другие объекты материального мира, реализующее устройство не вечно и, конечно, изнашивается и нуждается в замене. Для построения нового реализующего устройства опять требуется соответствующий оператор и т. д. Возникает порочный круг. Выходом здесь может быть лишь предшествующее каждому новому циклу реализации информации построение новых реализующих устройств с помощью старых, оставшихся от предыдущего цикла, а затем с их помощью уже построение самого оператора. Так мы опять возвратились к схеме работы автомата фон Неймана (см. рис. 3). Таким образом, полная реализация информации может представлять собой лишь ряд последовательных шагов, т. е. построение ряда промежуточных операторов, так, чтобы лишь последний окончательно выявил ее семантику, совершив, наконец, заключительное действие, целью которого, как мы помним, является воспроизведение информации, относящейся к данной информационной системе (см. главу 2). А. Н. Колмогоров в своих эссе об алгоритмическом определении информации [1] разделяет собственно информацию о некотором объекте и программу построения этого объекта по данной информации. По-видимому, информацию, и притом любую, всегда достаточно рассматривать как некоторую программу или как руководство к действию, которые, однако, никогда не могут быть исчерпывающе полными. Реализация таких программ всегда предполагает нечто, предопределяемое особенностями самого реализующего устройства, и вопрос о том, насколько по такой программе можно априори воссоздать оператор в его окончательном виде, всегда остается открытым. Не это ли имел в виду А. Н. Колмогоров, говоря о недискурсивности функций, представляющих собой такие программы? Тогда максимально-компактной записью информации можно называть минимальную длину программы (из всех возможных), допускающей построение оператора. Здесь возникает интересный вопрос о соотношении сложности и специфики самого оператора, его описания и программы для его построения. Подробнее эти вопросы будут рассматриваться ниже. Мы должны здесь подчеркнуть две стороны процесса построения оператора на основании данной информации, завершающегося возникновением оператора для осуществления целенаправленного действия. Первое – этот процесс требует притока вещества и энергии. Второе – ошибки копирования, о которых мы говорили выше, будут отражаться в построении промежуточных операторов в качестве "мутаций" или "флуктуации". Эффективность или жизнеспособность конечного продукта будет зависеть от этих промежуточных операторов, которые являются, таким образом, материалом для дарвиновского отбора. Ощущение порочного круга – реализация информации через реализующее устройство, построение которого также требует информации, – отражает не тавтологичность наших рассуждений, а тот объективный факт, что никакой информации вне связи с информационными системами не существует и существовать не может. Любая же реальная информационная система возникла в ходе преемственности, развилась из ранее существовавших, а не спонтанно. Это приводит к простому выводу, что возникнуть информация могла лишь в единстве с ее информационной системой, в максимально простом из возможных ее вариантов. Только дальнейшее развитие такой системы, с вычленением отдельных блоков (или устройств), представляло собой реализацию потенций, заложенных (или, точнее, скрытых) в этой прародительской информационной системе. Мы уже говорили, что любой оператор, от считывающего и реализующего устройства до всей информационной системы в целом, можно рассматривать как машину, призванную осуществлять то или иное целенаправленное действие. Теория таких машин кратко изложена Л. А. Блюменфельдом [8], и повторять ее нет надобности. Здесь же нас интересуют лишь самые общие характеристики операторов и особенности их связи со свойствами кодирующей их информации. Чтобы в дальнейшем не возникало недоразумений, следует, пожалуй, еще раз подчеркнуть, что оператор – это любой объект, возникновение которого возможно только на основе предшествующей информации. Таким образом, к классу операторов мы должны относить и молекулы белка, и рибосомы, и всю совокупность негенетических компонентов клеток, и всех живых организмов, и все, что изготавливают эти организмы для поддержания своего воспроизведения, а также любой объект человеческих технологий и весь технологический комплекс в целом. Построение любого оператора всегда и неизбежно, как мы видели, предшествует воспроизведению кодирующей его информации и необходимо для осуществления этого воспроизведения, хотя обратное заключение не обязательно верно (действительно, информация IА может кодировать оператор, обеспечивающий воспроизведение информации IА + IВ + IС + ...). Поэтому любой оператор может быть отнесен к системам обеспечения воспроизведения информации. Таким образом, любой оператор всегда выполняет две функции: осуществление целенаправленного действия, для чего он непосредственно предназначен, и обеспечение воспроизведения кодирующей его информации, что может либо полностью совпадать с первой функцией, либо быть весьма опосредованной, отдаленной, но все равно строго обязательной целью его деятельности. Однако, каким бы ни был оператор и сколь бы опосредованной ни была его связь с достижением конечной цели, его всегда можно охарактеризовать в трех аспектах: сложностью его организации, спецификой строения и коэффициентом его полезного действия. Рассмотрим последовательно эти три характеристики. Сложность организации операторов, как и любых других объектов, можно задавать несколькими способами, в соответствии с чем и меры сложности могут быть разными. Действительно, сложность организации любого объекта можно, по-видимому, выразить числом знаков (напр., бинарного кода), требующихся для описания этого объекта; числом и разнообразием составляющих данный объект элементов; числом "шагов" (операций), требующихся для построения этого объекта из исходного сырья, и т. п. И хотя каждый из таких подходов к выражению сложности объекта требует своего ограничения (т. е. до какого уровня следует доводить детализацию), причем условность здесь неизбежна, очевидно, что все эти способы связаны друг с другом так, что при возрастании любой избранной меры сложности будут возрастать значения и других. Если в качестве меры сложности объекта использовать число знаков бинарного кода (т. е. биты), требующихся для его описания (на избранном уровне организации), а в качестве меры количества кодирующей его информации – число знаков бинарного кода, задающих программу его построения (на этом же уровне организации), то мы получим возможность сравнивать их друг с другом. У А. Н. Колмогорова [1] существует высказывание, что с увеличением сложности объекта и, следовательно, числа битов, требующихся для полного его описания, количество информации, кодирующей построение этого объекта, будет так возрастать, что в конце концов, при достаточно большой сложности объекта, полностью совпадет с его описанием. Так ли это? Если программу построения объекта задавать, следуя дихотомическому принципу, то количество информации, кодирующей объект, будет возрастать как логарифм его сложности, т. е. будет все более отставать от степени его сложности. Можно, по-видимому, доказать утверждение, сформулированное выше, что сложность объектов возрастает быстрее, чем количество кодирующей их информации, например, как его степенная функция. Тогда разрыв между числом битов, описывающих объект, и числом битов, задающих программу его построения, с увеличением сложности объекта будет только возрастать. Увеличение сложности объекта с увеличением количества кодирующей его информации означает, что в общем случае при этом увеличивается число составляющих его деталей, усложняется их взаиморасположение, возрастают энергозатраты как на построение такого объекта, так и на обеспечение его функционирования. В случае операторов – а мы уже условились, что все без исключения объекты, возникающие при участии информации, можно считать операторами, - это утверждение справедливо, конечно, лишь по отношению к тем ситуациям и целям, для которых эффективность соответствуюей информации больше нуля. Таким образом, мы приходим к выводу, что сложность строения операторов всегда увеличивается так же или быстрее, как и количество кодирующей их информации. Это означает одновременное увеличение энергозатрат как на изготовление, так и на обеспечение функционирования этих операторов. Семантику информации мы определили выше как ту ее особенность, которая обусловливает специфику кодируемого ею оператора. Из-за условности любой информации очевидно, что понятие "семантика" имеет смысл лишь по отношению к данной информационной системе, или, точнее, данному реализующему устройству этой системы. Под "спецификой" оператора имеютя в виду особенности слагающих его компонентов и характер связей между ними, что, в конечном счете, и определяет успешность участия оператора в осуществлении того или иного целенаправленного действия. Следовательно, именно семантика информации определяет ту специфику оператора, благодаря которой вероятность успешного достижения цели, а следовательно, и ценность данной информации, имеет то или иное распределение на множестве пар "ситуация-цель" (см. глава 2). Способы выражения как специфики оператора, так и ценности информации оказываются идентичными. Первым этапом реализации информации является, как мы помним, создание оператора. Второй этап – деятельность, или работа этого оператора, результатом чего и будет осуществление события цели Z и возникновение побочных продуктов w, этому сопутствующее. Очевидно, что оба этапа реализации информации могут быть существенно разделены во времени, вплоть до такого крайнего случая, когда первый может произойти, а второй – нет. Очевидно также, что лишь завершение второго этапа является полной реализацией информации, и только от этого зависит ее дальнейшая судьба – как в том случае, когда успешность работы операторов побуждает "расширять их производство" и, следовательно, будет приводить к мультипликации кодирующей их информации, так и в том случае, когда итогом их работы является непосредственное воспроизведение информации. Работа операторов, как и любых машин, требует, прежде всего, затрат определенного количества энергии. Это обстоятельство сразу же вводит нас в круг привычного царства законов механики и термодинамики. Мы можем здесь, следовательно, говорить о затратах энергии на работу операторов, о расходовании энергии на "полезное действие" (достижение Z) и на производство "побочных продуктов" (w). Особенности информации определяют специфику оператора, а эта последняя – его термодинамические характеристики в данном информационном поле. Эти характеристики, в свою очередь, влияют на динамику самой информации, определяя скорость ее воспризведения и степень мультипликативности. Поэтому динамику информации невозможно понять, не уяснив себе предварительно характер связей между ее свойствами и термодинамическими особенностями оператора. КПД оператора, как и любой другой машины, можно выразить отношением полезно затрачиваемой энергии к общему ее расходованию оператором при осуществлении целенаправленного действия. Согласно определению, полезной будем называть ту энергию Ez, которая расходуется только на осуществление "полезного действия", т. е. на достижение цели Z. Следовательно, разность между общей и полезной энергией идет на "производство" побочного продукта w данного целенаправленного действия (17): Какие же характеристики информации и в какой мере обусловливают КПД ее оператора? К сожалению, строгих подходов к ответу на этот вопрос пока не существует. Лишь интуитивно можно полагать, что в самом общем случае расходы энергии на работу оператора должны возрастать с увеличением его сложности, а чем больше относительное количество "полезно" затрачиваемой энергии Ez, тем больше вероятность достижения цели в данном пространстве режимов при использовании данного оператора. Но, как мы видели выше, сложность оператора отражает количество Bz кодирующей его информации, а вероятность достижения цели определяет ее ценность Cz. Поэтому на основании чисто интуитивных соображений можно высказать предположение, что КПД Q увеличивается с ростом С/В =А1, т. е. что КПД оператора возрастает пропорционально ценности С и обратно пропорционально количеству В кодирующей его информации, или, что то же самое, пропорционально эффективности А, этой информации. Конечно, это справедливо только для пар "информация-оператор" данного типа и может проявляться лишь в последовательном ряду преемственных пар "информация-оператор". Таким образом, можно высказать предположение, что коэффициент полезного действия оператора возрастает с увеличением эффективности кодирующей его информации. Это предположение, если его удастся строго доказать, может вполне претендовать на роль основной теоремы будущей теории информации. Предположение это столь фундаментально, что его следует рассмотреть более внимательно. Роль этого предположения состоит в том (как будет показано в главе 5), что только на его основе можно строить учение о динамике информации. Поэтому приведенное выше предположение можно рассматривать как "центральную догму" общей теории информации, без доказательства или принятия которой невозможно последовательное ее построение. Будем надеяться, что в недалеком будущем удастся не только доказать справедливость этого предположения, но и выяснить (хотя бы в общем виде) форму зависимости КПДQ от А1. Какова же может оказаться форма этой зависимости? Вряд ли она будет линейной. Скорее всего, зависимость эта будет иметь более сложный характер, и в нее будут входить коэффициенты, отражающие другие свойства и особенности информации, помимо ее количества и ценности. Но при константных значениях таких коэффициентов с увеличением А1 значение КПДQ будет, скорее всего, монотонно увеличиваться, и пока для нас этого вполне достаточно. Ведь вряд ли можно сомневаться, что значения этих коэффициентов будут отражать, главным образом, специфику пространства режимов и информационных полей. Из соотношения (15) можно вывести ряд следствий. Первое следствие. КПДQ не есть постоянная величина, но зависит от особенностей пространства режимов и информационного поля (т. е. от ситуации, при которой "работает" оператор, и той цели, для достижения которой он служит). Но распределение КПДQ по множеству информационных полей должно если не совпадать, то "однонаправленно отображать" распределение эффективности А, соответствующей информации. Второе следствие. КПДQ отображает "эффективность" достижения цели, мерой которой в информационном аспекте служит эффективность А1 самой информации. Это очень важное следствие. Оно наполняет реальным физическим содержанием понятие "эффективность информации", введенное выше чисто формально (см. главу 2). Нетривиальность ситуации состоит в том, что максимум КПДQ далеко не всегда и далеко не обязательно должен соответствовать максимуму вероятности достижения цели: лишь в начале, при значениях С ›› 1, КПДQ будет возрастать с увеличением С, а затем может либо стабилизироваться, либо начнет уменьшаться, изменяясь в разных ситуациях с разными скоростями. Но во всех случаях максимумы кривых КПДQ(В) и А1(В) должны совпадать, точнее, должны совпадать их положения по оси абсцисс, т. е. оба максимума должны приходиться на одни и те же значения В = Ворt. Третье следствие. Хотя величина КПДQ может изменяться в интервале от 0 до 1, т. е. пробегать те же значения, что и Р – вероятность достижения цели в данном целенаправленном действии, а также С - ценность информации, это еще не означает, что КПДQ однозначно, хотя бы по направлению, отражает значение Р и С. Можно лишь думать, что при достаточно больших значениях КПДQ величины Р и С не должны быть очень малыми, хотя обратное заключение может быть неверным, ибо высоким значениям Р и С могут соответствовать очень низкие значение КПДQ. Примеров этому, пожалуй, можно привести множество. Это следствие очень богато содержанием и, можно думать, имеет огромное значение для анализа конкретных путей динамики информации. Четвертое следствие. Очевидно, что на производство "побочных продуктов" w расходуется лишь некоторая доля от всей энергии, требующейся оператору для осуществления целенаправленного действия: EW = Е (1 –КПДQ). Это, однако, не означает, что с увеличением КПДQ выход побочного продукта будет уменьшаться, а "безотходность производства" – возрастать. Можно думать, что выход побочного продукта будет примерно пропорционален абсолютному значению "бесполезного" расходования энергии в данном объеме пространства – именно пространства, а не "пространства режимов"! Поэтому выход побочного продукта и должен быть пропорционален ЕW = ( EQ - Ez) = Eq (1 – КПДQ). В общем случае форма зависимости выхода побочного продукта w от КПДQ и, следовательно, от характеристик информации может иметь весьма сложный характер, но мы этот вопрос рассматривать не будем. Подведём теперь некоторые итоги Важнейшим аспектом связи КПДQ и А1 является, таким образом, выявление и рассмотрение абсолютных соотношений между В, С и А информации, с одной стороны, и EQ, Ez и КПДQ, с другой. Решаема ли задача в общем виде, трудно сказать. Не исключено, что связь между А, и КПДQ установить удастся, но нахождение абсолютных значений соответствующих характеристик информации и операторов в каждом конкретном случае потребует, конечно, специальных расчетов. Нетрудно видеть, что все сказанное выше относится в равной мере к любым операторам, а главное, к любым информационным системам, обеспечивающим воспроизведение информации. Характеристики таких схем, как мы постарались показать выше, зависят от особенностей пространства режимов, в пределах которого эти системы призваны функционировать, т. е. совершать целенаправленные действия, сопровождающиеся появлением побочных продуктов. Поэтому "деятельность" информационных систем невозможно себе ясно представить, не рассматривая ее в теснейшей связи с характеристиками соответствующих ситуаций и теми изменениями, которые в них могут индуцироваться. Пусть дана некоторая информация I, кодируемый ею оператор Q, и определено событие, являющееся целью Z. Каждый из факторов, необходимых и достаточных для осуществления с той или иной вероятностью р или Р этого события, можно представить себе как одну из осей координат некоторого многомерного пространства, число измерений которого равно числу этих факторов. Построенное таким образом пространство назовем "пространством режимов" данной информационной системы. За начало координат этого пространства можно принять точку, где значения всех факторов равны нулю; по мере нарастания степени выраженности каждого фактора оси пространства режимов будут расходиться. В любом пространстве режимов можно выделить две области: область спонтанного осуществления Z( p gt; 0) и область целенаправленного действия (Р gt; р). Первая из этих областей задается многомерной поверхностью, описывающей распределение по пространству режимов величины р, а вторая – распределением величины Р; очевидно, что вторая область включает в себя первую. В области спонтанного осуществления Z можно выделить "зону комфорта", где р≈1. Отрезок времени, в течение которого в зоне комфорта осуществляется Z, можно назвать "собственным временем" данной системы и использовать его для калибровки времени, в данной системе протекающего. Тогда значение 0lt;р≤1, а также все значения Р gt; 0 можно трактовать как "вероятности в единицу времени", подразумевая под последним собственное время системы. Функционирование оператора в области целенаправленного действия можно описывать как миграцию любой заданной точки этой области в зону комфорта и обратно. Получаемые при этом циклы можно характеризовать продолжительностью, длиной пути и вероятностью завершения и, таким образом, сопоставлять друг с другом. Очевидно, что пространство режимов любой информационной системы можно также характеризовать распределением на нем значения ценности С информации, эту систему определяющей. Отсюда легко перейти к распределению на пространстве режимов величины КПДQ, что приобретает особый интерес в качестве меры соответствия. Очевидно, что в действительности пространства режимов s "в чистом виде" не существуют и существовать не могут. В любой реальной ситуации помимо факторов, необходимых для осуществления целенаправленного действия и составляющих пространство режимов, обязательно присутствуют еще и факторы, безразличные по отношению к деятельности данной информационной системы, а также факторы, препятствующие ее деятельности, т. е. выступающие в роли помех. Безразличные факторы не влияют ни на р, ни на Р, а помехи могут уменьшать как р, так и Р и, следовательно, существенно влиять на величину С. Наличие таких факторов является очень важным обстоятельством, сказывающимся на работе информационных систем, а следовательно, и на динамике информации в данных конкретных условиях, т. е. в среде ее обитания. К этому нужно еще добавить, что по мере функционирования оператора любая реальная среда не остается постоянной, а постепенно изменяется в результате потребления имеющихся в ней ресурсов R, необходимых для осуществления целенаправленного действия, и накопления побочных продуктов w. Поэтому термин "пространство режимов" можно использовать лишь для формального описания работы той или иной информационной системы, а при описании реальной ситуации лучше пользоваться термином "зона обитания" (или каким-либо его синонимом), которую можно характеризовать исходным состоянием и последующей трансформацией. Для того, чтобы данный оператор в данной зоне обитания мог осуществлять данное целенаправленное действие, этот оператор должен соответствовать этой зоне. С равным правом можно говорить о соответствии друг другу зоны обитания и кодирующей данный оператор информации. Иными словами, чтобы данный оператор был работоспособным, информация, его кодирующая, должна "предусмотреть" не только пути миграции данной точки пространства режимов в зону комфорта, но и достаточную помехоустойчивость оператора. Требуемую помехоустойчивость можно обеспечивать по меньшей мере тремя способами: уходом от помех, защитой от них и репарацией (починкой) вызываемых помехами нарушений. Реальные формы распределения р и Р на зоне обитания (размерность которой может существенно превышать размерность включенного в нее пространства режимов) позволяют для каждой данной информационной системы построить распределение на этой зоне как эффективности А информации, так и КПД оператора. Второе из этих распределений можно использовать в качестве "критерия соответствия" друг другу информации и оператора, с одной стороны, и информации и зоны обитания, с другой. Мерой такого соответствия для каждой точки зоны обитания будет, естественно, служить соответствующая ей величина КПДQ. Теперь мы можем сформулировать принцип соответствия – один из основных принципов общей теории информации [9]: Мерой соответствия оператора и кодирующей его информации служит соответствие между зоной обитания и действием оператора, его КПДQ. Здесь, естественно, может встать вопрос о достаточности такого критерия соответствия, как величина КПДQ. Если рассматривать относительную конкурентоспособность нескольких информационных систем в данной зоне обитания, этого критерия, по-видимому, вполне достаточно. Можно показать, однако, что этот критерий соответствия будет "работать" и в случае конкуренции нескольких информационных систем: ведь каждую из них, а также вызываемые ими изменения зоны обитания можно выразить в форме одной или нескольких дополнительных осей координат данной зоны обитания или в форме вектора, отражающего скорость и направление трансформации этой зоны во времени. Хотя реальный аппарат, пригодный для такой интерпретации проблемы конкурентоспособности разных информационных систем, может быть достаточно сложным, принципиальных трудностей здесь не просматривается. Итак, зоной (или средой) обитания некоторой информационной системы будем называть внешнюю по отношению к ней среду s, содержащую ресурсы R, необходимые для функционирования этой системы, а также отвечающую другим требованиям, необходимым для обеспечения успешности этого функционирования. Попадая в такую подходящую для нее зону, информационная система начинает "работать", поглощая ресурсы и создавая собственные копии, а также засоряя среду побочными продуктами своей деятельности. В ходе такой работы информационные системы, следовательно, не только воссоздают себя, но и трансформируют среду их обитания. Такие изменения среды обитания информационных систем всегда и неизбежно слагаются из трех составляющих. Во-первых, это изъятие из среды ресурсов R, необходимых для работы операторов информационных систем. Во-вторых, это поступление в среду побочных продуктов w работы операторов. В-третьих, это накопление в среде все новых экземпляров вновь создаваемых информационных систем, т. е. "заселение" ими среды обитания. Все это из множества возможных характеристик среды обитания позволяет выделить следующие, для нас наиболее существенные. Первая характеристика – это положение среды обитания по отношению к пространству режимов, что отражает степень оптимальности данной среды для заселяющих ее информационных систем. Вторая – это наличие в данной среде факторов типа помех, негативно действующих на информационные системы и предъявляющих к ним требования той или иной помехоустойчивости. Третья – это ресурсоемкость среды обитания, которую можно выразить отношением имеющихся в ней ресурсов R к тому количеству ресурсов r, которое требуется для осуществления одного цикла целенаправленного действия: Rr-1 = p. Очевидно, что в случае р lt; 1 целенаправленное действие, начавшись, не сможет завершиться. В случае р = 1 оно может осуществиться лишь один раз. Только в случае р›› 1 среда обитания будет успешно "разрабатываться" информационными системами, все более "засоряющими" ее при этом побочными продуктами своей деятельности. В какой мере среда обитания сможет "справляться" с этим засорением, будет определяться четвертой ее характеристикой – ее кондиционирующей мощностью. Наконец, пятая характеристика – объем среды обитания – будет определять, какое предельное количество информационных систем она сможет "вместить в себя" без ущерба для их дееспособности. Очевидно, что объем среды обитания определяется как ее собственными параметрами, так и параметрами "жизненного пространства", требующегося для нормальной работы одной информационной системы. К этим характеристикам надо добавить еще одну, интегральную характеристику среды обитания, которую можно назвать ее надежностью. Это – способность сохранять значения своих параметров при постоянном давлении различных деформирующих факторов, в нашем случае – продолжающемся потреблении ресурсов и поступлении побочных продуктов w. Ввиду особой важности этого параметра, т. е. надежности, рассмотрим его более внимательно. Независимо от того, циклической или непрерывной, постоянной или изменяющейся во времени будет деятельность оператора Q1, попавшего в данную среду обитания, эта деятельность неизбежно будет сопровождаться потреблением ресурсов R - источников энергии и субстрата окружающей среды 5 и поступлением в нее w побочных продуктов или "отходов производства" в виде тепла, различных химических соединений и пр. Для упрощения ситуации положим, что осуществление события цели Z само по себе никак не влияет на среду обитания. Тогда можно записать (18): где i = 0, 1, ... п есть номер очередного цикла работы оператора или время, прошедшее от начала его функционирования. Из этого следует, что для того, чтобы среда обитания оставалась пригодной для существования в ней данного оператора (или его копий), она должна постоянно поставлять ресурсы R и справляться с побочным продуктом w независимо от величины i, так чтобы Si ≈ S0 Заметим, что R и w не являются независимыми переменными. Ведь как Z, так и w образуются из исходных ресурсов R, так что можно ввести параметр (19) где rz + rw = r, а величина а может быть названа "коэффициентом полезного использования ресурсов". Так как w всегда сопутствуют Z, то а всегда и неизменно меньше единицы (0 lt; аlt; 1). Нетрудно видеть, что а – очень важная, фундаментальнейшая характеристика любого целенаправленного действия: чем меньше а, тем большая доля ресурсов R "идет в отход", засоряя среду обитания: w = fR (1 - а). Ресурсы R, по отношению к содержащей их среде, могут быть, вообще говоря, двух типов – невозобновляемыми и возобновляемыми. Мы будем рассматривать возобновляемые ресурсы, как наиболее общий случай. Тогда способность среды обитания производить тот субстрат и те источники энергии, которые слагают ресурсы R, будем называть продуктивностью этой среды. В случае, когда продуктивность (реальная или потенциальная) полностью компенсирует расход ресурсов в ходе функционирования информационных систем, такие ресурсы можно условно считать неисчерпаемыми. Если же продуктивность существенно ниже скорости потребления ресурсов, то практически мы будем иметь дело с невозобновляемыми ресурсами. В обоих случаях, однако, характер ресурсов не будет влиять на скорость поступления в среду обитания побочных продуктов w, определяемую лишь "ресурсоемкостью" целенаправленного действия, величиной w и собственным временем данной информационной системы. Накоплению в среде побочного продукта или загрязнений противостоит кондиционирующая мощность этой среды, или ее способность разбавлять, захоранивать, разрушать, нейтрализовывать или утилизировать компоненты побочного продукта. Поэтому реальное загрязнение среды побочными продуктами определяется разностью между скоростью их поступления и скоростью кондиционирования (или самоочистки) среды обитания. Очевидно, что только в том случае, когда кондиционирующая мощность превышает скорость накопления побочных продуктов, среда практически не подвергается их действию. Надежностью среды обитания будем называть ее способность сохранять характеристические значения продуктивности θ и кондиционирующей мощности ø при приближении скорости расходования ресурсов и скорости поступления побочных продуктов к ø (т. е. при dR/ dt®θ и dw/dt ® ø). Действительно, можно представить себе, что значения θ и ø по мере возрастания dR/ dt и dw/dt могут: не изменяться, возрастать или уменьшаться. Во всех трех случаях, однако, должны существовать такие предельные значения θ0 и ø0, определяемые соотношениями (20) и которые мы и будем называть характеристическими. Заметим, что θ0 и ø0, вообще говоря, могут зависеть от разных случайных ситуаций, не связанных непосредственно с работой информационных систем, но чем надежнее среда обитания s, тем меньше будет выражена такая зависимость. Очевидно, что надежность среды обитания обусловливается особенностями функционирования ее компонентов. Проблема эта будет еще рассматриваться ниже. Сейчас лишь заметим, что в самом общем случае надежность тем выше, чем из большего числа компонентов эта среда слагается. Чем больше размерность среды обитания, тем стабильнее она должна функционировать и в качестве продуцента, и в качестве кондиционера, в том числе и при увеличении нагрузок на эти функции. Заметим, что хотя продуктивность и кондиционирующая мощность обеспечиваются в среде обитания как бы независимо друг от друга, обе эти функции связаны между собой через ее (среды) надежность. Подавление кондиционирующей мощности, уменьшая надежность среды обитания, будет, как правило, приводить к уменьшению ее продуктивности. Поэтому все три фундаментальных параметра среды обитания – ее продуктивность, кондиционирующая мощность и надежность тесно связаны между собой и имеют тем большие значения, чем больше многокомпонентность (или размерность) этой среды. Величина же надежности среды обитания определяет, в конечном счете, ту максимально-допустимую нагрузку на ее продуктивность и кондиционирующую мощность, которую эта среда может выдержать, не претерпевая необратимых трансформаций. Из сказанного выше как будто следует вывод, что на "производство" побочного продукта w расходуется ( I - rz) доля ресурсов, требующихся для осуществления целенаправленного действия, и (I - КПДQ) энергии, для этого используемой. Однако это лишь нижняя оценка затрат, идущих на выработку w. Если учесть, что конечной целью деятельности любой информационной системы является воспроизводство кодирующей ее информации, то окажется, что "полезно используемые" ресурсы, в том числе источники энергии, почти целиком расходуются на производство неинформационных компонентов таких систем, т. е. слагающих их операторов и физических носителей информации, а не на информацию как таковую, – ведь информация нематериальна, и для ее воспроизводства никаких вещественных или энергетических затрат не требуется. Но любой материальный объект обречен на гибель; эта судьба ожидает и все операторы, и включающие их информационные системы. Погибая и разрушаясь, они также "загрязняют" среду, в которой ранее функционировали, чужеродными для нее компонентами. Таким образом, воспроизводство, тем более расширенное, информации, осуществляемое информационными системами (реальными воплощениями универсального автомата фон Неймана) в среде их обитания сопровождается накоплением в этой среде чужеродных ей элементов двух типов – побочных продуктов w целенаправленного действия и "отработанных" операторов Q. Если на выработку w расходуется (1 - a) R, а на выработку Q - aR, то очевидно, что в ходе осуществления информационных циклов все ресурсы R, черпаемые информационными системами из внешней среды, возвращаются в нее же в трансформированном виде, и кондиционирующая мощность среды должна быть направлена на "дезактивацию" не только w, но и Q. Итак, по отношению к среде обитания целенаправленная деятельность разрабатывающих ее информационных систем выражается в переработке некоторых исходных ее компонентов (названных нами ресурсами R) в новые, чуждые ей продукты – физические тела и химические соединения, поступающие в нее во все возрастающих количествах. На это идут все черпаемые из внешней среды ресурсы. Коэффициент полезного использования ресурсов а и коэффициент полезного действия операторов КПДQ определяют лишь соотношение разных компонентов в продуктах трансформации R, но не валовое их количество. Процесс этот предъявляет к среде обитания два требования: усиление функции продуктивности для компенсации убыли R и усиление кондиционирующей функции для элиминации или трансформации чужеродных ей компонентов. По мере деятельности информационных систем напряженность этих функций должна все более возрастать, а так как ни один процесс в природе не может осуществляться с абсолютной точностью, то трансформация среды обитания (под влиянием деятельности информационных систем) в направлении обеднения ресурсами R и накопления новых компонентов (за счет поступающих в нее w и Q) столь же неизбежна, сколь неизбежно само течение времени. Кондиционирующая и продуктивная "деятельность" этой среды может лишь затормозить, но не полностью предотвратить этот процесс. Если допустить, что скорость переработки ресурсов R каждым данным оператором Q, постоянна, то отсюда следует, что коэффициент его полезного действия определяет не только соотношение "неопределенных" и "определенных" компонентов в загрязняемости внешней среды, но и скорость завершения каждого цикла целенаправленного действия, т. е. скорость достижения цели. Чем выше КПДQ, тем четче работает оператор, меньше загрязняя среду обитания "неопределенными" отходами и быстрее завершая каждый цикл целенаправленного действия, т. е. воспроизводя свою копию и кодирующую ее информацию. Таким образом, величина КПДQ оказывается тесно связанной с величиной собственного времени Q. Если же учесть, что среди неконтролируемых отходов вполне могут быть и такие, которые, накапливаясь в среде обитания, могут выступать как помехи по отношению к оператору, то связь между величиной КПДQ со скоростью и эффективностью (т. е. величиной Р) достижения цели становится еще более явственной. Таковы основные объективные аспекты КПД целенаправленного действия. Но величина КПДQ, как мы помним, отражает особенности структуры оператора, так сказать, степень его "нацеленности" на выполнение именно данного целенаправленного действия в данной среде обитания. Чем жестче подчинена его структура (а следовательно, и характер деятельности) задаче достижения данной цели, тем слаженнее работают его составные части, тем меньше совершает он ненужных или неэффективных операций, тем экономнее использует источники сырья и энергии. Уменьшение КПДQ, как правило, отражает меньшую "целеустремленность" в его работе, меньшую скоординированность в деятельности отдельных компонентов, возрастание числа сбоев, непродуктивных затрат и т. п., а также рост частоты различных поломок, что, в конечном счете, увеличивает скорость изнашиваемости и гибели самого оператора. Не правда ли, эта картина очень напоминает симптомо-комплекс ускоренной деградации человека, утратившего "цель жизни", например, преждевременно "выставленного на пенсию" или убедившегося в бессмысленности ранее увлекавшей его деятельности? Этот феномен хорошо известен в физиологии еще со времени И. М. Сеченова [10] и А. А. Ухтомского [11]. Общность субъективных аспектов КПД целенаправленного действия для самых разных объектов, способных такие действия совершать, далеко не случайна. Сказанное выше позволяет сформулировать два фундаментальных принципа функционирования любой информационной системы в любых подходящих для этого обстоятельствах. Эти принципы можно задать в форме неравенств (21): Иными словами, для того, чтобы какой-либо оператор (или информационная система в целом) мог успешно функционировать в некоторой среде обитания, ни его потребность в ресурсах, ни скорость наработки побочных продуктов не должны достигать продуктивности и кондиционирующей мощности этой среды. Справедливость этих принципов явствует из рассуждений "от противного". В случае dR/dt ≥ θ ресурсы среды обитания будут иссякать, а в случае dw/ dt ≥ ø все растущее загрязнение среды обитания сделает ее в конце концов непригодной для функционирования в ней данной информационной системы. Сказанное остается в силе и в тех случаях, когда данная среда обитания разрабатывается разными информационными системами, – точнее, информационными системами или операторами разных типов. Все другие операторы по отношению к оператору некоторого данного типа можно рассматривать как дополнительные размерности соответствующей среды обитания, как присущие ей "экологические факторы". Это позволяет формально описывать любые виды взаимодействия операторов разных типов, зависящие от их численности, их влияния на среду обитания и друг на друга. При этом, сколько бы ни было типов информационных систем, их воздействие на среду обитания может со временем только возрастать, ограничиваясь условиями dR/dt lt; θ и dw/ dt lt; ø. Но воздействие это может быть двух видов – неупорядоченное и упорядоченное. Из сказанного выше следует, что долго продолжающееся неупорядоченное воздействие, сводящееся к накоплению в среде побочных продуктов, всегда и неизбежно будет приводить к уменьшению КПД разрабатывающих эту среду информационных систем. Все большее количество ресурсов, потребляемых операторами этих систем, будет идти на разрушение окружающей их среды, что справедливо для информационных систем любых видов сложности. Уменьшение КПДQ всегда и неизбежно будет приводить к нарастанию неупорядоченности в среде обитания и сопутствующему ему разладу, дисгармонии между операторами и этой средой, а также между операторами разных типов. Упорядоченное, или, точнее, упорядующее воздействие на среду обитания можно обеспечить лишь одним путем – путем постоянного повышения КПД операторов, независимо от того, какие изменения это вносит в сами операторы. Только в этом случае "отходы производства" информации будут принимать все более определенную форму, где доминировать будут "отработанные" операторы наиболее быстро размножающихся информационных систем, а выход случайных побочных продуктов будет минимизироваться. Но в таком случае "отходы производства" информации будут уже не столько разрушать среду обитания, сколько стабилизировать ее на новом уровне, добавляя к ней одно или несколько новых измерений. Размерность среды обитания будет возрастать. Таким образом, повышение КПДQ, при сохранении неравенств dR/dt lt; θ и dw/dt lt; ø, – обязательное требование, или, точнее, условие существования и развития любых информационных систем. Термины "существование" и "развитие" здесь можно рассматривать как синонимы, ибо любая совокупность стабильных операторов неизбежно обречена на гибель, а возрастающая их популяция может существовать, лишь постоянно изменяясь в направлении повышения КПДQ. Итак, раз возникнув и создав кодируемый ею оператор, любая информация обречена либо на гибель, либо на эволюцию в направлениях, удовлетворяющих сформулированным выше принципам. Это, по существу, автогенез информации, неизбежность которого строго следует из ее природы. Любую информацию, как мы знаем, можно охарактеризовать количеством и семантикой. Изменчивости подвергается и то, и другое. Требование повышения КПДQ означает, по существу, минимизацию количества информации при сохранении ее семантики, а необходимость адаптироваться к возрастанию среды обитания, происходящему в результате деятельности операторов, выдвигает новые требования уже по отношению к ее семантике. Если информация такова, что она способна изменяться в этих двух направлениях, она будет продолжать развиваться, а следовательно, и существовать. Если же, в силу своей специфики, какая-либо информация оказывается неспособной удовлетворять этим двум условиям, она будет обречена на деградацию (уменьшение КПДQ) и вымирание. При продолжительном функционировании каких-либо операторов QI в среде их обитания s и тем более, при их "расширенном воспроизводстве" (когда Z = Q, I) может наступить ситуация, когда dR/dt постепенно начнет приближаться к θ, а dw/ dt − к ø. Мы уже отмечали, что загрязнение среды обитания сверх некоторого предела (при dw/dt gt; ø) должно влечь за собой уменьшение ее продуктивности, что, в свою очередь, скажется на снижении кондиционирующей мощности, и т. д. С того момента, когда начнет действовать такая "прямая связь" и оба важнейших показателя состояния среды, т. е. θ и ø, резко пойдут вниз, ситуацию можно называть критической. Критические ситуации, как правило, еще обратимы. Таким образом, критические ситуации могут провоцироваться двумя "пусковыми событиями": излишним потреблением ресурсов R и/или избыточным поступлением в среду обитания побочного продукта w. To и другое может быть следствием как "перенаселения" среды обитания из-за избыточного роста заселяющих ее операторов, так и появления "мутантной" субпопуляции операторов с гипертрофированной потребностью в ресурсах или избыточным образованием побочного продукта. Итогом всегда окажется уменьшение продуктивности и/или кондиционирующей мощности среды обитания, а следовательно, и торможение, вплоть до полного подавления, целенаправленной деятельности заселяющей ее популяции операторов. Все стратегии выхода из критических ситуаций функционирующих информационных систем, периодически возникающие в результате их деятельности в этой или иной среде обитания, должны быть, в конечном счете, направлены на усиление неравенств dR/dt lt; θ и dw/dt lt; ø. Осуществляться это может несколькими способами, а именно: уменьшением количества ресурсов, используемых на один цикл целенаправленного действия; уменьшением количества побочного продукта, приходящегося на один такой цикл; увеличением продуктивности среды обитания; увеличением кондиционирующей мощности этой среды; возрастанием ее надежности. Возможны, конечно, и различные комбинации этих пяти способов. Выйти из критической ситуации можно лишь одним путем: путем такого изменения информации I, кодирующей очередное поколение операторов QI чтобы осуществилось хотя бы одно из пяти перечисленных выше условий. При этом изменение информации должно приводить в итоге либо к увеличению КПД новых операторов, либо к увеличению размерности их пространства режимов. Рассмотрим коротко возможные последствия того и другого. Повышение КПДQ при сохранении количества ресурсов, требующихся для осуществления только одного события Z, означает, по существу, уменьшение как dR/dt, так и dw/ dt, приходящихся на один цикл целенаправленного действия; при этом реализуется первый и второй из перечисленных выше пяти способов. Это – стратегия увеличения эффективности использования субстрата данной среды обитания. Увеличение размерности пространства режимов, комплементарного данной информации, есть не что иное, как появление у операторов, кодируемых этой информацией, способности использовать в качестве ресурсов все большее число компонентов, слагающих среду их обитания. Выше уже было сказано, что увеличение размерности пространства режимов неизбежно сопровождается повышением как продуктивности, так и кондиционирующей мощности соответствующей среды обитания, а значит, и ее надежности. Здесь, следовательно, реализуются три из перечисленных выше способов выхода из критических ситуаций. Такую стратегию можно назвать стратегией расширения среды обитания. Так мы выделили две основные стратегии выхода информационных систем из критических ситуаций – стратегию повышения эффективности использования субстрата данной среды обитания и стратегию расширения самой среды обитания. Возможны, конечно, и комбинации этих стратегий. Обе стратегии могут реализоваться только благодаря изменчивости информации, кодирующей свои информационные системы, а процесс выхода из критических ситуаций может растягиваться на периоды времени, требующиеся для смены по меньшей мере одного поколения информационных систем. Если же критическая ситуация развивается с большей скоростью и ни одна из названных стратегий не успевает с ней справиться, то наступает катастрофа. В отличие от критических ситуаций, когда dR/ dt ® θ и/или dw/dt ® ø, ситуацию можно назвать катастрофической, когда dR/ dt gt; θ и dw/dt gt; ø. Быстрое превышение количества потребляемых ресурсов над продуктивностью среды обитания, т. е. над скоростью их пополнения, а также превышение скорости накопления побочных продуктов над возможностью их кондиционирования, будут неизбежно приводить к разрушению (или, что то же самое, резкому изменению) самой среды обитания s. Совершенно ясно, что разрушение или резкая трансформация среды обитания, наступающие в течение одного цикла целенаправленного действия, неизбежно повлечет за собой прекращение деятельности, а затем и гибель заселяющих ее информационных систем. Катастрофы, в отличие от критических ситуаций, имеют необратимый характер. Можно представить себе две причины, порождающие катастрофы: продолжающееся активное функционирование операторов в уже наступившей критической ситуации (а) и внезапное резкое увеличение dR/ dt и/или dw/dt в ситуации, далекой от критической (b). В обоих случаях последствия будут сходными и в равной мере губительными для спровоцировавших катастрофу информационных систем. Можно утверждать, что для нормально функционирующих информационных систем конечным итогом успешного осуществления целенаправленного действия любым из составляющих их операторов будет повышение вероятности воспроизведения кодирующей этот оператор информации. Достигается это, как правило, путем множества соподчиненных целенаправленных действий, выполняемых разными операторами, так что конечная цель деятельности каждого оператора далеко не всегда очевидна. Кроме того, соподчиненность информации разных уровней организации также не всегда однонаправлена, и не всегда простейший анализ здесь поможет вскрыть истинную иерархию. Так, например, "поведенческие реакции" или "таксисы" одноклеточных организмов подчинены цели воспроизведения генетической информации, их кодирующей, а у социальных многоклеточных животных функция размножения подчинена цели воспроизведения информации, кодирующей их сложные поведенческие реакции. Однако независимо от уровня иерархии, занимаемого каждой данной информацией и ее оператором, вышеприведенное утверждение сохраняет свою универсальность. Если из-за изменений R или w величина КПДQ в чреде повторяющихся целенаправленных действий начнет уменьшаться, это рано или поздно, но неизбежно, приведет к изменению, исчезновению или консервации информации, кодирующей данную информационную систему. Отсюда – неизбежность оптимизации по R и w деятельности жизнеспособных в данных условиях информационных систем и развития специальных, соподчиненных, информационных программ и операторов, "отслеживающих" и контролирующих эти параметры. Сказанное выше чрезвычайно важно, ибо связывает воедино судьбу информации I, эффективность работы кодируемого ею оператора Q, и специфику пространства режимов s. Связь эта реализуется через соотношения между количеством В и ценностью С информации, с одной стороны, ее эффективностью А и КПДQ, с другой, а также через соотношения между характеристиками оператора, в первую очередь R и w, и продуктивностью θ, кондиционирующей мощностью ø и надежностью среды обитания, включающей в себя пространство режимов данной информационной системы. Выше мы постарались показать, что информация есть то, на основании чего может возникнуть оператор, выполняющий при определенных внешних условиях определенные целенаправленные действия. Для того, чтобы осуществлять эти действия, оператор должен иметь более или менее выраженные рецепторные и аффекторные компоненты. Если эти компоненты структурно обособлены и соединены между собой так, что они составляют единый функциональный комплекс, такой оператор обычно называют кибернетическим устройством. Сигналы или воздействия, поступающие извне и "воспринимаемые" этим устройством или посылаемые изнутри и "включающие" его аффекторные компоненты, конечно, сами по себе не являются информацией и никакой информации не несут (хотя и могут быть использованы для создания дополнительной информации, если устройство на это способно). Этим такие воздействия принципиально отличаются от физических событий или объектов, служащих или используемых для передачи или хранения информации, по которым такая информация может быть реконструирована. Мы видели также, что сама по себе информация пассивна. Она не может ни осуществлять целенаправленные действия, ни создавать кодируемые ею операторы, ни воспроизводить саму себя. Чтобы создать оператор или воспроизвести кодирующую его информацию, требуются специальные устройства ("машины"), материал и энергия. Мы видели, что целью деятельности, кодируемой любой информацией, является в конечном счете ее воспроизведение. Поэтому дискретной информационной системой можно называть только такую совокупность информации, реализующих устройств и операторов, которая может обеспечивать воспроизведение этой информации. Естественно, что воспроизведение информации может осуществляться лишь при подходящих для этого условиях "среды обитания" данного информационного устройства. То же относится, конечно, и к построению операторов, – реализующие устройства могут их "создавать", считывая соответствующую информацию, только при соответствующих внешних условиях. На первый взгляд может сложиться впечатление, что реализующее устройство и оператор – это одно и то же. На самом деле между ними есть две большие разницы. Во-первых, реализующее устройство может строить только оператор и ничего более. Во-вторых, реализующее устройство не в состоянии осуществлять свою функцию без постоянного контакта с информацией, а оператор – может или, точнее говоря, именно так и функционирует. В этом и заключается потенциальная возможность от общения оператора от информации (когда он уже построен) и независимого его функционирования, что исключено для реализующего устройства. Так мы построили схему обобщенной информационной системы. Она всегда и неизбежно должна состоять из четырех блоков: блока хранения информации, реализующего устройства, оператора (одного или нескольких) и управляющего блока. Для того, чтобы такая система возникла, достаточно двух первых блоков. Для того, чтобы совершилось конечное действие (т. е. воспроизведение информации), достаточно первого и третьего блоков. Но ни один из этих блоков не может сам по себе обеспечивать полное осуществление целенаправленного действия, хотя каждый из них, в том числе и управляющий (или координирующий), может сохраняться в бездеятельном состоянии сколь угодно долго, точнее столь долго, сколько позволит слагающий его материал и окружающие условия. Очевидно, что наша информационная система полностью соответствует блок-схеме универсального автомата фон Неймана (см. главу 3). Теперь представим себе несколько мыслимых вариантов организации информационных систем. Информационной системой 1-го рода будем назвать ту, в которой блок хранения информации, – а в простейшем случае просто ее носитель – выполняет одновременно функции управляющего и реализующего устройства, а также функцию оператора. Развитой формой этой системы будет та, в которой эти блоки структурно и функционально разделены, но пространственно составляют единое целое. Отсюда естественно совершается переход к информационной системе 2-го рода, когда указанные четыре блока могут существовать раздельно в пространстве и времени, но связаны в единое целое функционально. Ниже мы покажем, что в своем развитии реальные информационные устройства, действительно, проходят все эти стадии. Возможность существования простейшего варианта информационной системы 1-го рода снимает основную логическую трудность анализа проблем возникновения информации. Действительно, можно утверждать, что возникнуть информация могла лишь в форме фиксации на таком носителе, который по природе своей мог исполнять также роли реализующего устройства и оператора. Можно также утверждать, что иных типов информационных систем, помимо перечисленных выше, быть не может. Тем самым определяется генеральное направление динамики информации: от простейших информационных систем 1-го рода к развитым информационным системам 2-го рода. Из последующего изложения будет ясно, что динамика информационных систем 1-го рода представляет собой не что иное, как биологическую эволюцию, а динамика информационных систем 2-го рода – эволюцию человеческих сообществ. |
|
|