Глава третья ИНФОРМАЦИОННЫЕ СИСТЕМЫ
Глава третья
ИНФОРМАЦИОННЫЕ СИСТЕМЫ
Реализация информации. Операторы и информационные системы.
Выше неоднократно упоминалось о связи информации с операторами и информационными системами. Рассмотрим эту проблему более внимательно.
Начнем с утверждения, что хотя информация – объект не материальный, операторы всегда и обязательно – объекты материальные, т. е. реальные физические тела, которые могут, и весьма существенно, влиять на ход событий в окружающем их реальном физическом мире. Этот факт позволяет нам выделить три вопроса и сосредоточить на них внимание: как происходит реализация информации в операторы? какими показателями можно характеризовать операторы? и как связаны особенности информации с характеристиками кодируемых ею операторов?
Вопрос о реализации какой-либо информации в оператор предполагает, прежде всего, однозначное отображение оператора в этой информации, а также существование механизмов, реализующих это отображение. При рассмотрении этого вопроса мы будем опираться на работы А. Н. Колмогорова [1], посвященные определению понятия "информация" и проблеме отображения одного множества другими.
Действительно, любую информацию можно представить себе как некоторое множество знаков или символов, однозначно отображающее другое множество, в нашем случае – компоненты будущего оператора. Существует теорема, согласно которой отображающее множество всегда менее сложно, нежели отображаемое (т. е. содержит меньшее число компонентов), но этот разрыв уменьшается по мере увеличения сложности отображаемого множества, так что в конце концов "отобразить" суперсложное множество можно лишь одним путем – полностью его воспроизведя. Можно предположить, что с информацией и операторами дело обстоит иначе. Во-первых, сама информация, по-видимому, относится к классу таких объектов, которые невозможно отобразить более простыми объектами; во всяком случае, когда информация представлена в максимально-компактной форме, ее невозможно "записать" еще более компактно. Отсюда, кстати, следует, что информацию, независимо от ее количества и семантики, невозможно отобразить иначе, как точно ее скопировав. Во-вторых, можно думать, что пары объектов "информация и кодируемый ею оператор" относятся к такому классу, где степень сложности отображаемого объекта возрастает тем быстрее, чем больше сложность объекта отображающего. Иными словами, сложность оператора возрастает значительно быстрее количества отображающей его информации, и с ростом количества кодирующей информации разность между сложностью этой информации и соответствующих операторов не уменьшается, а все более возрастает. На примере живых организмов в этом легко убедиться, сопоставив зависимость массы организмов от количества ДНК в гаплоидных наборах их хромосом. Не исключено, что этот феномен имеет прямое отношение к замечанию А. Н. Колмогорова, что даже при достаточно простой структуре отображающего множества программа его реализации может быть столь сложной, что полное ее осуществление практически невозможно.
Вероятно, многие из отмеченных выше трудностей и противоречий легко разрешаются, если учитывать предельную ситуацию, когда отображение оператора в информации представляет собой не что иное, как программу его построения, заданную максимально компактным образом. Условность записи такой программы (т. е. ее запись знаками или символами) исключает непосредственное воспроизведение по ней оператора, – это становится возможным только благодаря специальной разверстке такой программы во времени, осуществляемой специальным устройством той информационной системы, к которой информация относится. Поэтому и точность реализации здесь может варьировать, – или, правильнее сказать, точность реализации будет определяться нормой реакции реализующего устройства на сопутствующие факторы. Именно в этом смысле информацию можно рассматривать как алгоритм для построения оператора.
Мы уже неоднократно подчеркивали, что никакая информация неспособна самостоятельно индуцировать построение оператора, что, впрочем, непосредственно следует из нематериальности ее природы. Информация может быть реализована в оператор только в своей информационной системе благодаря существованию считывающих и реализующих устройств. Именно считывающее устройство ставит в однозначное соответствие знаки или символы, "заполненные" информацией, с теми или иными элементарными действиями, производимыми реализующим устройством над ресурсами, содержащимися в окружающей среде, что и приводит к созданию оператора. Это обстоятельство, между прочим, очень хорошо иллюстрирует принципиальное значение последовательности считывания информации в ходе ее реализации.
Основные типы операторов мы уже упоминали. Это – соматические компоненты живых организмов, поведенческие реакции животных с развитой нервной системой, а в случае человеческих сообществ – присущие им технологические комплексы. Помимо таких "завершенных" операторов, составляющих вместе с относящейся к ним информацией завершенные информационные системы, существует множество информации и операторов промежуточных, или, точнее, соподчиненных, типов, иерархии которых и представляют собой завершенные операторы. Такие субоператоры призваны выполнять целенаправленные действия, являющиеся фрагментами или отдельными элементарными этапами завершенных целенаправленных действий, осуществляемых завершенными операторами. Степень соподчиненности операторов можно проследить в разных конкретных случаях только при рассмотрении всей системы в целом или хотя бы системы следующего после данного оператора более высокого ранга, но не рассматривая разные операторы изолированно от других, с ними сопряженных.
Таким образом, мы подошли к возможности дополнить наши представления об информационных системах, изложенные выше (см. главу 2), в двух важных аспектах: такие системы должны включать в себя как считывающие и реализующие устройства, так и продукты их деятельности операторы. Собственно, мы могли бы называть "завершенным оператором" всю совокупность неинформационных компонентов информационной системы, но это будет неверно, ибо она всегда содержит (хотя бы временно) считывающие и реализующие устройства, предшествующие по отношению к вновь создаваемым на основе некоторой данной информации его компонентам; даже если некоторые новые компоненты и будут просто повторять старые, это повторение окажется "молчащим", предназначенным только для следующего информационного цикла.
Иерархическое разделение информационных систем на информационные, считывающее-реализующие и операторные субсистемы прекрасно иллюстрируется следующим обстоятельством. Информационные системы можно разбить на два больших класса. Один из них – это информационные системы 1-го рода, все три компонента которых настолько тесно соединены друг с другом, что представляют собой единое целое. Это – живые организмы, от клеток до человека. Второй тип – информационные системы 2-го рода, где информация, считывающе-реализующие устройства и операторы могут существовать и существуют пространственно разобщенно друг от друга, хотя функционировать и развиваться способны лишь совокупно. В наиболее завершенной форме – это человеческие сообщества, где информация представлена в виде книг или других систем записи, в роли считывающих и реализующих устройств нередко выступают сами люди, а в качестве супероператоров – технологии.
Об иерархии в информационных системах
Б. Б. Кадомцев [2] в своей книге "Динамика и информация" (1997) указывает на иерархию в физических информационных системах. Он проводит следующие рассуждения.
Каждая открытая система имеет приток энергии Р и вещества М. Энергия должна поступать в систему в организованной форме, так что вместе с энергией и веществом в систему вводится негэнтропия (-Si). Из системы выводятся во внешнюю среду отходы в виде вещества М и возрастания энтропии внешних систем (-Se). Если система не имеет внутренней структуры, то она ведет себя как однородная система, например горная река.
В более сложных системах возможно расслоение на две тесно связанные подсистемы: динамическую и информационную (управляющую). Структурные элементы, которые могут влиять на динамику системы сравнительно малыми возмущениями, выделяются в структуру управления. Таким образом, сложные динамические системы расслаиваются на два уровня иерархии. Подсистема управления может откликаться на смысловую часть приходящих сигналов и вырабатывать управляющие сигналы в динамическую подсистему. Управляющий блок может иметь связь с несколькими динамическими подсистемами. Управляющий, или информационный, блок может использовать негэнтропию, передаваемую из динамических подсистем, либо иметь свой источник, связанный с внешней средой. В случае живых организмов негэнтропией является пища, а для получения информации используется, например, свет.
Б. Б. Кадомцев отмечает, что "для информационного поведения сложных физических систем более важной является структурная сложность и структурная иерархия, а не иерархия элементарных уровней (частицы, атомы, молекулы, тела). Элементы информационного поведения появляются даже у микрочастиц в виде коллапсов волновых функций, а по мере укрупнения и усложнения структур к ним добавляются неравновесные коллективные параметры порядка, играющие роль динамических переменных" (стр. 331).
Обратимся к живой клетке. Здесь впервые встречается обособленный генетический "управляющий" аппарат (геном клетки). Он реагирует на сигналы из внешней и внутриклеточной среды, связан через трансляцию (см. возникновение генетической информации) с аппаратом гетерокатализа, который обеспечивает построение динамического оператора. В "динамическом блоке" используются вещество и энергия внешней среды. В схеме самовоспроизводящегося автомата фон Неймана, являющегося аналогом живых организмов, присутствуют управляющий информационный блок и динамический, для построения оператора использующий ресурсы внешней среды. Все социальные структуры и сельское хозяйство построены на тех же иерархических принципах.
Универсальный автомат фон Неймана
Информация, заключенная в своем носителе, сама по себе пассивна: она неспособна ни участвовать в целенаправленном действии, ни перейти на другой носитель, ни осуществить собственное копирование. Чтобы эти события, обеспечивающие само существование информации, стали возможны, требуется наличие специальных материальных объектов – устройств или "машин", которые "умеют" воспринимать или создавать информацию, считывать ее, обеспечивать ее трансляцию с одного носителя на другой, ее копирование, создание кодируемого ею оператора, а также осуществление других действий, необходимых как для выявления присущих информации свойств, так и для обеспечения ее дальнейшего существования. Отдельные операции, совершаемые посредством этих устройств с информацией или при ее участии, можно назвать элементарными информационными актами, их совокупность – информационным процессом, а совокупность устройств, обеспечивающих осуществление такого процесса – информационной системой. Очевидно, что вне информационной системы информация не в состоянии выявить ни одного своего свойства, кроме бренности, – но даже бренность информации здесь выступит не явно, а лишь как следствие разрушения ее носителей. Другими словами, вне информационной системы не только информация обречена на диссипацию, но и само понятие "информация" утрачивает всякий смысл.
Очевидно, что все устройства, способные обеспечивать осуществление элементарных информационных актов, так же как и слагаемая ими информационная система, есть не что иное, как операторы, создаваемые на основе некоторой информации, – спонтанно они образовываться не могут. Возникает известный парадокс яйца и курицы: что первично, информация или ее операторы? Попробуем выяснить, каким минимумом свойств (или особенностей) должна обладать простейшая информационная система, способная обеспечить осуществление полного информационного цикла, от считывания информации до ее воспроизведения. Сделать это нам будет нетрудно ввиду прекрасной разработанности этого вопроса – следует лишь обратиться к идеям Дж. фон Неймана, относящимся к самовоспроизводящимся автоматам [3].
В сентябре 1948 г. на симпозиуме "Механизмы мозга в поведении", состоявшемся в Калифорнийском технологическом институте, Дж. фон Нейман прочитал лекцию, которая называлась "Общая и логическая теория автоматов". Основной темой этой лекции был общий анализ структуры такого автомата, или, точнее, автомата такого уровня сложности, который позволял бы ему осуществлять самовоспроизведение. Фон Нейман показал, что такой автомат должен состоять из четырех блоков со следующими функциями (рис. 3).
Рис. 3. Блок-схема самовоспроизводящегося автомата фон Неймана. R - ресурсы, черпаемые из окружающей среды. Пояснения в тексте.
Блок А – автоматическая фабрика по сбору сырья (R) и его переработке в продукт, соответствующий задаваемым извне инструкциям (Г). Блок Б – аппарат, снимающий копии с таких инструкций. Блок В – контролирующий аппарат, подключенный одновременно к блокам А и Б: когда в блок В поступают инструкции, они сначала направляются в блок Б для снятия с них копий, а затем – в блок А, где уже осуществляются соответствующие операции по изготовлению конечного продукта из исходного сырья. В случае, если таким "конечным продуктом" является дочерний автомат, он снабжается копией первоначальных инструкций, тогда как их оригинал остается в блоке В исходного автомата. Наконец, имеется еще блок Г, который представляет собой "запоминающее устройство", содержащее полную запись инструкций, обеспечивающих производство блоком А конечного продукта, в том числе дочернего автомата (А+Б+В+Г). Фон Нейман показал, что для создания самовоспроизводящегося автомата структура такого типа является необходимым минимумом. Он предположил также, что такая структура присуща и живым организмам.
Заметим, – и это хочется особенно подчеркнуть, – что автомат фон Неймана можно рассматривать с двух точек зрения. Во-первых, так же, как делал сам Дж. фон Нейман, анализируя принцип устройства самовоспроизводящейся технической системы. В этом аспекте инструкции или информация, содержащаяся в блоке В и используемая блоком А для изготовлении копии такого автомата, играет как бы служебную роль, подчиненную цели создания новых блоков А, Б, В и Г. Но можно весь автомат рассматривать и с другой позиции, когда все неинформационные компоненты его, т. е. блоки А, Б, В и Г, выступают в роли операторов по отношению к кодирующей их информации, а совокупность этих блоков, т. е. сам автомат, есть не что иное, как супероператор, обеспечивающий воспроизведение этой информации.
Дж. фон Нейман, по-видимому, не был знаком с работой Г. Меллера [4], опубликованной за четверть века до его выступления, в которой живой организм рассматривался как устройство, обеспечивающее воспроизведение кодирующих его генетических структур. Если посмотреть на автомат фон Неймана с этой точки зрения, то его с полным правом можно интерпретировать как подобное же устройство, осуществляющее воспроизведение кодирующей его информации. Поэтому-то автоматы фон Неймана и можно рассматривать как простейшие информационные системы. Термин "простейший" здесь используется в смысле "элементарный", чтобы подчеркнуть дальнейшую неделимость системы, способной обеспечивать воспроизведение информации. Очевидно, что анализ строения и функционирования такой информационной системы следует проводить, постоянно имея в виду функциональную специфику отдельных блоков автомата фон Неймана и характер их взаимодействия друг с другом.
Однако это еще не все выводы, которые можно сделать из упомянутой работы Дж. фон Неймана. Используя идеи А. Тьюринга [5], Дж. фон Нейман показал, что теоретически возможен универсальный автомат, т. е. механизм такой степени сложности, которой при наличии правильно заданных инструкций может выполнять операцию любого другого механизма. Иными словами, на определенном этапе эволюции самовоспроизводящихся автоматов для выполнения все более сложных операций уже исчезает необходимость дальнейшего усложнения структуры самих автоматов. Для этого оказывается достаточным задавать все более подробные и сложные инструкции I. Эволюция автоматов уступает место эволюции информации.
Универсальный автомат фон Неймана может, конечно, и самовоспроизводиться. Для этого достаточно включить его в качестве блока А в описанную выше систему. Дж. фон Нейман считал, что именно потому, что логически возможен универсальный автомат, возможна и бесконечная биологическая эволюция. Отпадает необходимость переделывать основные механизмы биосинтеза по мере перехода от простых организмов к более сложным. Необходимо только модифицировать и расширять генетические инструкции. Все, что было открыто нового об эволюции биологических систем после 1948 г., подтверждает правоту Дж. фон Неймана. Очевидно, что эволюцию информационных систем от простейших к универсальным можно вполне трактовать как эволюцию природных автоматов фон Неймана.
Потенциальные и реальные носители информации
Выше мы коротко рассматривали те особенности физических объектов, которые позволяют им быть носителями информации (см. главу 2). Один из выводов, полученных нами, был тот, что в качестве носителя информации может выступать любое физическое тело. Из сказанного в предыдущем разделе следует, однако, что реальный носитель информации должен отвечать еще двум, в дополнение к рассмотренным выше, требованиям: допускать возможность записи информации некоторым данным способом и допускать возможность считывания информации также заранее заданным способом. Иными словами, реальный носитель информации должен строго соответствовать своей информационной системе. Носители информации и информационные системы должны быть комплементарны друг другу.
Рассмотрим четыре типа информационных систем, в соответствии с которыми можно выделить четыре комплементарные им группы носителей информации.
Первая группа – это носители генетической информации. К ним относятся молекулы РНК, односпиральной ДНК и двуспиральной ДНК. "Вписывание" генетической информации в эти носители происходит в процессе трансляции, осуществляемой по матричному принципу, и лишь в качестве исключения (как реликт? или прообраз будущего?) существует система "РНК – обратная ревертаза – ДНК" – пока единственный пример перевода информации с одной системы записи на другую в генетических информационных системах.
Вторая группа – это носители поведенческой информации. Здесь уже следует различать носители, используемые для реализации (и хранения) такой информации, и носители, используемые для ее передачи. Носители, используемые для хранения и реализации поведенческой информации, – это неизвестные пока структуры нервных клеток или нервной системы в целом, с соответствующими считывающими устройствами. Для передачи поведенческой информации используются другие носители: в случае генетически-детерминированных поведенческих реакций – носители первой группы, а в случае поведенческих реакций, приобретаемых в ходе индивидуальной жизни, – электромагнитные (световые лучи) и воздушные (звуки) колебания, а также ряд химических соединений, имеющих специфические запахи. Существуют специальные приспособления – рецепторы –воспринимающие такую информацию и переводящие ее в ту форму записи, которая может сохраняться и быть использована нервной системой.
При рассмотрении носителей второй группы, предназначенных для передачи индивидуальной поведенческой информации, возникает интересный вопрос: в каких ситуациях их можно рассматривать как действительно носители информации, а в каких – как простые "сигналы", т. е. воздействия внешней среды, лишь запускающие реализацию тех или иных предсуществующих информационных программ? Вопрос этот не тривиальный и относится к одной из важнейших особенностей развивающихся информационных систем – к способам обмена информацией. Можно думать, что в эволюции способов обмена поведенческой информацией решающее значение принадлежало использованию рецепторов, первоначально предназначавшихся для совершенно другой цели, а именно для восприятия различного рода внешних воздействий, таких, как световые, звуковые, химические и температурные, которые иногда и называют двусмысленным термином "сигналы". Такие воздействия, или сигналы, могли последовательно играть три разные роли: непреднамеренного свидетельства (следы), преднамеренного свидетельства ("Это моя территория!") и примера для подражания. Во всех трех случаях это то, на основании чего у реципиента может создаваться новая информация. Но лишь в третьем случае сигнал превращается в средство (или способ) передачи уже существовавшей информации от донора к реципиенту, приобретая тем самым функцию носителя информации. Разнообразие физических объектов, служащих таковыми во второй группе носителей, как мы знаем, ограничено.
Третья группа – это носители информации, специфически используемые для передачи человеческого знания, за исключением технических систем связи. Помимо носителей информации второй группы сюда относятся все те физические тела, на которых (и с помощью которых) можно записывать сообщения. При огромном разнообразии потенциальных носителей такого рода использование их, во-первых, стереотипно, а во-вторых, всегда играет промежуточную роль, с последующим переводом на носители второй группы. Возникновение языка, однако, в отличие от сигнального типа общения, было прорывом информации за пределы собственных информационных систем как в пространство, так и во время.
К четвертой группе носителей могут быть отнесены те атрибуты технических систем связи, которые не воспринимаются непосредственно органами чувств (как носители второй и третьей групп) и практически не генерируются живыми организмами. Информация, содержащаяся в таких носителях, чтобы быть в такие носители включенной или, чтобы быть воспринятой живыми организмами, требует обязательного трансформирования с помощью технических же систем приема или передачи. Это, прежде всего, электромагнитные колебания диапазона радиоволн, магнитозаписи и т. д. Вовлечение их в информационные циклы не принесло (по крайней мере до сих пор) ничего принципиального нового по сравнению с использованием носителей третьей группы, но чрезвычайно усилило потенции, в них заключавшиеся. Это относится, прежде всего, к скорости и расстоянию передачи информации, к возможностям ее хранения, а также к расширению круга возможных адресатов.
Прием, хранение и передача информации. Память.
Таким образом, использование тех или иных потенциальных носителей информации в качестве ее реальных носителей целиком и полностью обусловливается особенностями соответствующих информационных систем. Информационными, как договорились, будем и впредь называть системы, способные самостоятельно осуществлять полный информационный цикл, т. е. воспроизведение кодирующей их информации, а поэтому выступающие по отношению к такой информации как системы, обеспечивающие ее существование. Мы уже говорили, что воспроизведение информации обычно происходит путем самовоспроизведения всей системы. Каждое новое поколение информационной системы призвано воспринимать информацию, для этого подготовленную, сохранять ее до следующего акта воспроизведения, а затем передавать дальше. Эти три элементарных информационных акта являются необходимыми условиями существования любой информационной системы.
Мы помним, что информация сама по себе пассивна. Следовательно, каждый из этих информационных актов нуждается в физическом устройстве, обеспечивающем его осуществление. Помимо этого, каждая информационная система обладает устройством, осуществляющим реализацию информации – построение кодируемых ею таких же систем или их компонентов. Принцип работы реализующего устройства мы рассмотрим ниже, сейчас же отметим, что информация, предназначенная для реализации, может быть записана либо на таком же носителе, что и принимаемая, хранящаяся и передающаяся, либо на носителе какой-либо иной природы. Первый случай достаточно прост и в специальном рассмотрении не нуждается. Второй же случай предполагает существование устройств, осуществляющих перевод информации с одних носителей (систем записи) на другие, а именно на те, которые допускают ее реализацию. Осуществление такого перевода будем называть пониманием информации.
При обсуждении процесса передачи и понимания информации необходимо учесть следующие обстоятельства. Первое: принимающее устройство "поймет" только ту часть сообщения, которая будет адекватна его собственной семантике. Второе – передача информации всегда сопряжена с потерями информации за счет естественных необратимых помех во внешней среде. Для того, чтобы сохранить передаваемую информацию, необходимо увеличить запас информации принимающего устройства. Тогда в процессе записи новой информации часть запаса приемника может быть потеряна из-за диссипативных взаимодействий с внешней средой. Эти замечания накладывают ограничения на принимающие устройства: они должны обладать той же семантикой и большим запасом информации или быть на более высокой иерархической ступени эволюции.
Только существование устройств, осуществляющих перевод информации с одних систем записи на другие, позволяет использовать для передачи, хранения и реализации информации разные носители. Возникновение таких устройств в ходе развития информационных систем было настоящей революцией. Одним из следствий этого было появление носителей с чрезвычайно большой продолжительностью жизни, а затем использование подобных носителей для хранения информации, вне зависимости от особенностей создающих ее и использующих информационных систем. Так возникли "блоки памяти", или "банки данных", предназначенные для хранения информации, запасенной впрок. Другим следствием появления долгоживущих носителей было резкое расширение возможностей обмена информацией между информационными системами с разными способами ее фиксации. На базе того и другого и образовались технические системы связи, положившие начало "великому объединению" многочисленных разрозненных информационных систем в единую суперсистему, свидетелями чего мы и являемся.
Закономерности передачи информации по различным каналам связи достаточно подробно рассматривает классическая или шенноновская математическая теория связи [6], и мы здесь этого касаться не будем. Отметим лишь универсальность этих закономерностей для любых информационных систем. В основе таких закономерностей, помимо рассмотренных выше свойств информации, лежит также принцип линейной последовательности передачи и приема, а также записи информации. Если прибавить к этому еще и линейный принцип считывания информации в ходе ее реализации, то станет ясно, что принцип этот лежит в основе всех трансформаций, которым может подвергаться информация в ходе осуществления информационных процессов.
Таким образом, по особенностям приема, хранения и передачи информации все информационные системы можно подразделить на два класса. Информационными системами 1-го рода будем называть те, где для всех трех основных информационных актов, а также для реализации информации используются одни и те же системы записи или идентичные физические носители. Информационными системами 2-го рода будем называть те, где для осуществления разных информационных актов могут быть использованы и действительно используются разные носители. Переход от первых ко вторым был обусловлен возникновением устройств, обеспечивающих перевод информации с одних физических носителей на носители другой физической природы. Нетрудно видеть, что подразделение информационных систем по этому признаку полностью совпадает со сделанным выше подразделением по признаку "прочности связи" отдельных блоков автомата фон Неймана. Это совпадение, конечно, совершенно естественно.
Считывание и понимание информации
Будем различать считывание информации и ее понимание, восприятие или рецепцию некоторой информационной системой. "Считыванием" будем называть первый этап процессов, завершающихся либо переводом информации с носителей одной физической природы на носители другой физической природы, либо реализацией информации в оператор. "Пониманием", как мы уже говорили, будем называть перевод информации с какой-либо группы носителей на тот носитель (или систему записи), который делает ее пригодной для реализации. Таким образом, понимание информации предполагает возможность ее считывания, хотя само считывание далеко не всегда может сопровождаться ее пониманием. Очевидно, что понимание информации возможно только для информационных устройств 2-го рода, которые способны понимать информацию не только друг друга, но и ту, которая присуща информационным системам 1-го рода. Последние из-за отсутствия у них соответствующих устройств к пониманию чужеродной информации не способны.
Считывание информации может осуществляться двумя способами: когда считываемая информация сохраняется и, следовательно, может считываться неоднократно и когда информация в процессе ее считывания исчезает, разрушаясь буква за буквой или фраза за фразой. Как тот способ, так и другой могут быть использованы и при переводах, и при реализации информации. Очевидно, что реализация информации по второму способу предполагает наличие в этой же информационной системе одной или нескольких интактных копий этой информации, пригодных для введения в систему следующего поколения.
Очевидно, что возникновение устройства, пригодного для считывания информации в ходе ее реализации и являющегося необходимым компонентом любой информационной системы, должно было предшествовать возникновению устройства, пригодного для перевода информации с носителей одной природы на носители другой природы. Вероятнее всего, первое устройство явилось прототипом второго или даже прямым его предшественником, так как перевод любой информации можно, вообще говоря, трактовать как вырожденную ее реализацию.
Репликация информации: матричный принцип
Матричный принцип репликации информации, впервые описанный Н. К. Кольцовым [7], играет столь большую роль в размножении и динамике как самой информации, так и информационных систем, что на нем следует остановиться подробнее. Суть матричного принципа состоит в том, что сначала с носителя информации изготавливается как бы слепок или негатив, а затем по нему воспроизводится точная копия исходного носителя. Антитезой матричному принципу может служить только принцип гомологичной аттракции, который в природе, кажется, реализации не получил.
Матричный принцип и принцип гомологичной аттракции, по-видимому, исчерпывают логические возможности точного воспроизведения объектов, максимально компактным описанием которых могут служить они сами. Точность такого воспроизведения, однако, не может быть абсолютной – тривиальные термодинамические соображения показывают неизбежность ошибок, и речь может идти лишь об их количестве или частоте.
Как и при любых других способах воспроизведения "чего угодно", здесь возможны ошибки двух типов: ошибки, не влияющие на успешность воспроизведения, и ошибки, препятствующие ему. Первые можно назвать "наследуемыми", а вторые "летальными", ибо они прерывают цикл воспроизведения испытывающих их информации и тем самым обрекают эти информации на гибель. Если считать, что вероятность возникновения одной ошибки постоянна на одну букву сообщения, то, следовательно, вероятность ошибки на сообщение в целом будет возрастать с его длиной, т. е. с величиной емкости информационной тары, это сообщение содержащей. Если частота таких ошибок приближается к критическому значению, все большие преимущества будут получать наследуемые изменения, снижающие частоту этих ошибок или помогающие компенсировать их в случае возникновения, – способ репликации будет совершенствоваться в направлении повышения его точности при параллельном (или независимом) развитии систем, обеспечивающих исправление или репарацию информации от возникающих ошибок или повреждений.
В этом процессе интересная роль должна принадлежать недозагруженной емкости информационной тары. Изменения, в ней происходящие, могут иметь либо летальный характер, и тогда они неотличимы по последствиям от подобных изменений самой информации, либо могут приводить к возникновению новой информации, т. е. к увеличению количества информации, содержащейся в данном носителе. Таким образом, разность "Н-В" может оказаться не балластной, а сыграть роль источника сырья при "построении" новой информации.
Как уже отмечалось, уменьшение выхода ошибок при матричном воспроизведении информации возможно не только путем их предотвращения в результате совершенствования механизмов копирования, но также путем следующего за копированием исправления уже возникающих ошибок. Для этого, очевидно, требуется такие ошибки выявлять, что может быть осуществлено путем сопоставления новых копий либо с некоторым эталоном, либо нескольких копий между собой. Эталоном может служить либо образец, подлежащий копированию, либо "шаблон", непосредственно не относящейся к носителям самой информации. Шаблонный способ может служить лишь для отбраковки любых изменений, – и где он возникает, прекращается вообще изменчивость информации, а следовательно, и ее эволюция. Остается сопоставление копии с исходным образцом или с другими копиями. То и другое может помочь выявить изменение, а точнее – различие между несколькими экземплярами носителей одной и той же информации, но решить, какое из них – исходное, а тем более – "правильное", а какое – новое или "ошибочное", невозможно без специальных устройств или шаблонов. Поэтому коррекция ошибок может осуществляться двумя путями – путем исправления нового образца, если его можно отличить от старого, и путем "исправления" в любом из двух образцов, т. е. путем делания их одинаковыми либо возвращая к исходному варианту, либо внося вновь появившееся изменение и в исходный, старый образец.
Можно полагать, что меры по стандартизации реплик будут обходиться тем "дороже", чем большая точность к ним предъявляется, и в реальной ситуации дело должно ограничиваться "сходной ценой": снижением частоты летальных изменений до некоторого "удовлетворительно переносимого" уровня. Автоматизм этого механизма очевиден и в детальном рассмотрении не нуждается. Результатом будет элиминация грозящих "вымиранием" информации летальных изменений и закрепление в новых поколениях информации изменений нелетальных. Все это будет приводить к некоторому постоянно идущему процессу спонтанной изменчивости информации. Механизмы такой изменчивости для информационных систем разных типов могут различаться.
Репликация информации: способы и устройства
Для анализа способов репликации информации и устройств, это осуществляющих, большое значение имеет та особенность информации, на которую выше уже обращалось внимание. Особенность эта состоит в том, что при достаточно компактной записи информации ее невозможно задать более коротким текстом. Иными словами, информация представляет собой класс таких объектов, которые нельзя закодировать более короткими последовательностями символов, нежели те, которые их задают, независимо от их числа.
Хотя это утверждение абсолютно справедливо только для максимально компактных текстов, оно определяет основной принцип репликации или воспроизводства информации: принцип прямого копирования.
Вследствие пассивности самой информации для ее репликации требуется наличие реплицирующего устройства, встроенного в соответствующую информационную систему. Мы уже отмечали, что репликация информации может осуществляться только одним способом – путем точного воспроизведения ее носителей. Логически возможны и в действительности существуют четыре варианта этого способа: последовательное и одномоментное копирование, которые могут осуществляться непосредственно, а могут быть опосредованы "негативом". При этом используемый в том или ином случае вариант определяется как особенностями носителя данной информации, так и особенностями реплицирующего устройства.
Запись информации может быть одномерная, двумерная и трехмерная, – но, согласно свойству инвариантности, каждую из них можно трансформировать в одномерную форму. Справедливо, конечно, и обратное утверждение. Поэтому способы репликации информации безразличны по отношению к размерности ее записи и могут быть рассмотрены на примере линейной последовательности символов. Но вот что существенно и что нельзя забывать: так как реплицирующее устройство никогда не "знает", сколь компактен текст, который ему предстоит реплицировать, то как сама репликация, так и процедуры, с ней связанные, всегда осуществляются так, как будто бы они имеют дело с максимально компактной записью. Выражается это в том, что собственно репликации всегда и без исключения подвергается не сама информация как таковая, а содержащие ее носители. Поэтому задача репликации информации в действительности сводится к репликации ее носителей, воспроизведение же самой информации является лишь неизбежным следствием этой процедуры. Репликация информации, следовательно, может осуществляться без соответствующего ее понимания и реализации информационной системой.
Соответственно четырем названным выше вариантам репликации информации может существовать четыре типа устройств, для этого предназначенных. Принципиальные схемы их конструкций тривиальны и специально рассматриваться не будут. Важно лишь отметить, что в природных (а не технических) информационных системах доминирует последовательный негативный способ, который обычно и называют матричным. В искусственных или технических системах используются все четыре способа, развившиеся из доминирующего в природных системах.
Реализация информации: построение оператора
Реализацию любой информации можно разделить на два этапа: построение оператора (собственно реализация или материализация информации) и работа оператора по осуществлению целенаправленного действия. Рассмотрение реализации информации начнем с первого этапа.
Материализация информации предполагает, прежде всего, наличие устройства, ее осуществляющего. Любую информацию, согласно нашему определению, можно представить себе как программу для построения некоторого объекта – оператора. Это не что иное, как алгоритмическое определение информации по А. Н. Колмогорову [1], подчеркивающее ее действенность. Но информация сама по себе пассивна – это лишь программа, вводимая в "реализующее устройство". Такое устройство, само являющееся оператором, выполняющим определенное целенаправленное действие, не может возникнуть само по себе, а может быть создано лишь на основе какой-то информации. Как и другие объекты материального мира, реализующее устройство не вечно и, конечно, изнашивается и нуждается в замене. Для построения нового реализующего устройства опять требуется соответствующий оператор и т. д. Возникает порочный круг. Выходом здесь может быть лишь предшествующее каждому новому циклу реализации информации построение новых реализующих устройств с помощью старых, оставшихся от предыдущего цикла, а затем с их помощью уже построение самого оператора. Так мы опять возвратились к схеме работы автомата фон Неймана (см. рис. 3).
Таким образом, полная реализация информации может представлять собой лишь ряд последовательных шагов, т. е. построение ряда промежуточных операторов, так, чтобы лишь последний окончательно выявил ее семантику, совершив, наконец, заключительное действие, целью которого, как мы помним, является воспроизведение информации, относящейся к данной информационной системе (см. главу 2).
А. Н. Колмогоров в своих эссе об алгоритмическом определении информации [1] разделяет собственно информацию о некотором объекте и программу построения этого объекта по данной информации. По-видимому, информацию, и притом любую, всегда достаточно рассматривать как некоторую программу или как руководство к действию, которые, однако, никогда не могут быть исчерпывающе полными. Реализация таких программ всегда предполагает нечто, предопределяемое особенностями самого реализующего устройства, и вопрос о том, насколько по такой программе можно априори воссоздать оператор в его окончательном виде, всегда остается открытым. Не это ли имел в виду А. Н. Колмогоров, говоря о недискурсивности функций, представляющих собой такие программы? Тогда максимально-компактной записью информации можно называть минимальную длину программы (из всех возможных), допускающей построение оператора.
Здесь возникает интересный вопрос о соотношении сложности и специфики самого оператора, его описания и программы для его построения. Подробнее эти вопросы будут рассматриваться ниже.
Мы должны здесь подчеркнуть две стороны процесса построения оператора на основании данной информации, завершающегося возникновением оператора для осуществления целенаправленного действия. Первое – этот процесс требует притока вещества и энергии. Второе – ошибки копирования, о которых мы говорили выше, будут отражаться в построении промежуточных операторов в качестве "мутаций" или "флуктуации". Эффективность или жизнеспособность конечного продукта будет зависеть от этих промежуточных операторов, которые являются, таким образом, материалом для дарвиновского отбора.
Ощущение порочного круга – реализация информации через реализующее устройство, построение которого также требует информации, – отражает не тавтологичность наших рассуждений, а тот объективный факт, что никакой информации вне связи с информационными системами не существует и существовать не может. Любая же реальная информационная система возникла в ходе преемственности, развилась из ранее существовавших, а не спонтанно. Это приводит к простому выводу, что возникнуть информация могла лишь в единстве с ее информационной системой, в максимально простом из возможных ее вариантов. Только дальнейшее развитие такой системы, с вычленением отдельных блоков (или устройств), представляло собой реализацию потенций, заложенных (или, точнее, скрытых) в этой прародительской информационной системе.
Операторы и их характеристики
Мы уже говорили, что любой оператор, от считывающего и реализующего устройства до всей информационной системы в целом, можно рассматривать как машину, призванную осуществлять то или иное целенаправленное действие. Теория таких машин кратко изложена Л. А. Блюменфельдом [8], и повторять ее нет надобности. Здесь же нас интересуют лишь самые общие характеристики операторов и особенности их связи со свойствами кодирующей их информации.
Чтобы в дальнейшем не возникало недоразумений, следует, пожалуй, еще раз подчеркнуть, что оператор – это любой объект, возникновение которого возможно только на основе предшествующей информации. Таким образом, к классу операторов мы должны относить и молекулы белка, и рибосомы, и всю совокупность негенетических компонентов клеток, и всех живых организмов, и все, что изготавливают эти организмы для поддержания своего воспроизведения, а также любой объект человеческих технологий и весь технологический комплекс в целом. Построение любого оператора всегда и неизбежно, как мы видели, предшествует воспроизведению кодирующей его информации и необходимо для осуществления этого воспроизведения, хотя обратное заключение не обязательно верно (действительно, информация IА может кодировать оператор, обеспечивающий воспроизведение информации IА + IВ + IС + ...). Поэтому любой оператор может быть отнесен к системам обеспечения воспроизведения информации. Таким образом, любой оператор всегда выполняет две функции: осуществление целенаправленного действия, для чего он непосредственно предназначен, и обеспечение воспроизведения кодирующей его информации, что может либо полностью совпадать с первой функцией, либо быть весьма опосредованной, отдаленной, но все равно строго обязательной целью его деятельности.
Однако, каким бы ни был оператор и сколь бы опосредованной ни была его связь с достижением конечной цели, его всегда можно охарактеризовать в трех аспектах: сложностью его организации, спецификой строения и коэффициентом его полезного действия. Рассмотрим последовательно эти три характеристики.
Сложность оператора и количество информации
Сложность организации операторов, как и любых других объектов, можно задавать несколькими способами, в соответствии с чем и меры сложности могут быть разными.
Действительно, сложность организации любого объекта можно, по-видимому, выразить числом знаков (напр., бинарного кода), требующихся для описания этого объекта; числом и разнообразием составляющих данный объект элементов; числом "шагов" (операций), требующихся для построения этого объекта из исходного сырья, и т. п. И хотя каждый из таких подходов к выражению сложности объекта требует своего ограничения (т. е. до какого уровня следует доводить детализацию), причем условность здесь неизбежна, очевидно, что все эти способы связаны друг с другом так, что при возрастании любой избранной меры сложности будут возрастать значения и других.
Если в качестве меры сложности объекта использовать число знаков бинарного кода (т. е. биты), требующихся для его описания (на избранном уровне организации), а в качестве меры количества кодирующей его информации – число знаков бинарного кода, задающих программу его построения (на этом же уровне организации), то мы получим возможность сравнивать их друг с другом.