Энергия и материя считаются основными универсальными величинами. Тем не менее, понятие информации стало фундаментальным и широко распространенным, подтверждая ее категоризацию как третей фундаментальной величины. Одной из присущих характеристик жизни является информация. Точный анализ характеристик информации показывает, что живые существа в действительности отражают как разум, так и волю их Творца.
Информация контролирует нас повсюду, как в технологических, так и в естественных системах: в обработке данных, в технической связи, в технике регулирования, в естественных языках, в биологических коммуникационных системах, и в информационных процессах живых клеток. Итак, информация по праву стала известной как третья фундаментальная, универсальная величина. Наряду с быстрыми развитиями в компьютерной технологии, новое направление исследования – информационная наука – достигло такой важности, которую вряд ли можно было бы предвидеть два или три десятилетия назад. Вдобавок, информация стала междисциплинарным понятием бесспорной центральной важности к таким отраслям как технология, биология и лингвистика. Концепция информации, следовательно, требует основательного обсуждения, в особенности ее определения, с пониманием ее основных характерных особенностей, и введение эмпирических принципов. Эта статья намерена сделать свой вклад в данную дискуссию.
Со своей статьей (1948) под названием «Математическая теория коммуникации» Клод E. Шеннон был первым, кто разработал математическое определение понятия информации. Его измерение информации, которое приведено в битах (двоичная единица информации), обладало преимуществом, позволяя делать количественные утверждения о взаимоотношениях, которые раньше не поддавались точному математическому описанию. У этого метода есть очевидный недостаток, тем не менее: информация, по словам Шеннона, не имеет отношения к качественной природе данных, но сводится к одному особенному аспекту, который является особенно важным для технологической передаче и сбережении информации. Шеннон полностью игнорирует то, является ли текст значимым, постижимым, правильным, неправильным или незначимым. Также исключаются важные вопросы о том, откуда выходит информация (отправитель) и кому она направлена (получатель). Что касается концепции информации Шеннона, то вообще неважно, представляют ли ряды букв исключительно важный и значимый текст, или же он возник вследствие бросания костей.
Да, хотя это может звучать парадоксально, с точки зрения теории информации, беспорядочная последовательность букв обладает максимальным информационным содержанием, в то время как тексту такой же длины, но лингвистически значимому, приписывается меньшее значение. Определение информации, согласно Шеннону, ограничивается только одним аспектом информации, а именно ее свойством выражать что-то новое: информационное содержание определяется в терминах новизны. Это не означает новую идею, новую мысль или новую порцию информации – это вовлекало бы семантический аспект – но относится только к эффекту большего удивления, обусловленного менее распространенным символом. Информация становится мерой невероятности события. Маловероятному символу, поэтому, приписывается, соответственно, высокое информационное содержание.
Перед тем как источник символов (не источник информации) генерирует символ, существует неопределенность по поводу того, какой конкретно символ появится из доступного запаса символов (например, алфавит). Только после появления символа неопределенность устраняется. По словам Шеннона, применяется следующее: информация – это неопределенность, которая устраняется появлением конкретного символа. Так как Шеннона интересует только вероятность возникновения символов, он обращается только к статистическому измерению информации. Его концепция информации сводится к несемантическому аспекту. Согласно Шеннону, информационное содержание определяется таким образом, что должны быть выполнены три условия:
Условие суммирования: должна быть возможность суммировать информационное содержание взаимозависимых символов (или цепочек символов).
Условие вероятности: Информационное содержание, приписываемое символу (или цепочке символов) должно возрастать по мере увеличения уровня неожиданности. Эффект неожиданности малораспространенного символа «z» (маленькая вероятность) больше, чем чаще встречающегося «е» (более вероятный). Отсюда следует, что информационное содержание символа должно увеличиваться по мере того, как его вероятность уменьшается. Этот принцип рассматривает информацию как что-то количественное.
Бит как единица информации: в наиболее простом случае, когда набор символов состоит только из двух символов, которые, более того, встречаются с одинаковой частотой, то информационное содержание одного из этих символов должно определяться единицей в 1 бит. Следующий эмпирический принцип можно вывести из этого:
Теорема 1: Статистическое информационное содержание цепи символов является количественным понятием. Оно предоставляется в битах (двоичная единица информации).
Согласно определению Шеннона, информационное содержание одной единицы информации (единица информации в этом контексте означает только символ, знак, слог или слово) является измерением неопределенности, существовавшей до получения информации. Так как вероятность ее возникновения может только принимать значения между 0 и 1, то цифровое значение информационного содержания является всегда позитивной. Информационное содержание множественности единиц информации (например, знаков) вытекает (согласно условию суммирования) из прибавления содержания индивидуальных единиц информации. Это порождает важную характеристику информации:
Теорема 2: Cогласно теории Шеннона, нарушенный сигнал, в основном, содержит больше информации, чем ненарушенный, потому что по сравнению с ненарушенной передачей, он происходит от большего количества возможных альтернатив.
Теория Шеннона также утверждает, что информационное содержание увеличивается непосредственно с количеством символов. Как нецелесообразно такая связь описывает информационное содержание, становится очевидным из следующей ситуации: Если кто-то использует большое количество слов для того, чтобы, в принципе, ничего не сказать, тогда, согласно Шеннону, в связи с большим количеством букв, этому высказыванию предписывается большое информационное содержание, в то время как высказыванию другого человека, который умеет выражаться вкратце, предписывается очень маленькое количество информационного содержания.
Более того, в уравнении информационного содержания теория Шеннона использует фактор энтропии, чтобы учитывать разную частоту распределения букв. Энтропия представляет обобщенную, но специфическую характеристику использованного языка. Язык с одним и тем же количеством символов (напр., языки, которые используют латинский алфавит) будет иметь большую энтропию, чем другой язык, если частота распределения ближе к равномерному распределению. Энтропия достигает максимума при крайне равномерном распределении.
Если отдельные символы длинной последовательности символов имеют не одинаковую вероятность (напр., текст), особенный интерес представляет среднее информационное содержание для каждого символа в его последовательности, а также среднее значение всего языка. Когда эта теория применяется к разным кодовым системам, то среднее информационное содержание для одного символа будет следующим:
В германском языке: I = 4.113 бит/буква
В английском языке: I = 4.046 бит/буква
В двоичной системе: I = 1 бит/цифра
В десятичной системе: I = 3.32 бит/цифра
В молекуле ДНК: I = 2 бит/нуклеотид
Наиболее высокая известная плотность информации - та, что находится в ДНК (дезоксирибонуклеиновая кислота) молекулах живых клеток. Этот химический носитель данных всего 2 нм в диаметре и с шагом спирали 3.4 нм (смотрите рис. 1). Это обеспечивает объем 10.68 x 10-21 cm3 на виток. Каждый виток содержит 10 химических букв (нуклеотидов), что обеспечивает объемную плотность информации 0.94 x 1021 букв/см3. В генетическом алфавите молекулы ДНК содержат только 4 нуклеотидные основы, т.е. аденин, тимин, гуанин и цитозин. Информационное содержание такой буквы составляет 2 бит/нуклеотид. Итак, статистическая информационная плотность - 1.88 x 1021 бит/см3.
Рисунок 1. Молекула ДНК – это универсальный носитель информации в естественных системах. Короткий сегмент нити двойной спирали с сахаро-фосфатной цепочкой проявляет свою химическую структуру (слева). Схематическая репрезентация двойной спирали (справа) показывает основные пары, соединенные водородными связями (в плоскости, перпендикулярной к спиральной оси).
Протеины являются основными веществами, которые составляют живые организмы. К ним принадлежат такие важные вещества как ферменты, иммуноглобулины, гемоглобины и гормоны. Они одинаково органичные и видоспецифические. Только в человеческом теле имеется более 50 000 различных протеинов, выполняющих важные функции. Их структуры должны быть закодированы также эффективно, как и химические процессы в клетках, в которых должен проходить процесс синтеза в требуемом количестве и в соответствии с оптимизированной технологией. Известно, что все протеины, которые существуют в живых организмах, составляются из 20 разных элементов (аминокислот).
Точная последовательность этих составных элементов является исключительно важной для жизни и, следовательно, должны быть тщательно определяемы. Это достигается с помощью генетического кода. Теория информации Шеннона делает возможным определение наименьшего количества букв, которые должны объединиться, чтобы сформирования слова для однозначной идентификации аминокислот. С 20 аминокислотами среднее информационное содержание составляет 4.32 бит/аминокислоту. Если слова составлены из двух букв (дублеты), с 4 бит/слово, то они содержат очень мало информации. Квартеты имели бы 8 бит/слово и были бы очень сложными. Согласно информационной теории, слова из трех букв (триплеты), имея 6 бит/слово, являются достаточными и, следовательно, наиболее экономичным методом кодирования. Бинарное кодирование двумя химическими буквами также, в принципе, возможно. Это, тем не менее, потребовало бы квинтета для представления каждой аминокислоты, и было бы на 60% менее экономным, чем использование триплетов.
Рисунки 1, 2, 3 показывают три разные технологии хранения информации: молекула ДНК, оперативная память и микрочип. Давайте рассмотрим все это.
Оперативная память: раньше оперативная память могла хранить 4,096 битов в области 6,400 мм2(см. рисунок 2). Это соответствует области хранения памяти 0.64 бит/мм2
С оперативной памятью диаметром 1.24 мм (объем хранения 7,936 мм3), получается плостность объемного хранения 0.52 бит/мм3
Рисунок 2. Деталь матрицы запоминающего устройства TR440 (производитель Computer Gesellschaft Konstanz).
1-Mbit DRAM (динамическое ОЗУ): прогрессивный прыжок от запоминающего устройства на магнитных сердечниках к полупродниковой памяти выражается в удивительных цифрах плотности хранения, современный 1-Mbit DRAMs (см. Рис. 3) позволяет хранить 1 048 576 бит в области примерно 50 мм2 , что соответствует плотности площади хранения памяти в 21 000 бит/мм2. С толщиной примерно 0.5 мм мы получаем плотность объемного хранения 42000 бит/мм3. В плотности площади хранения информации мега чип превзошел ЗУ на магнитных сердечниках в 32800 раз, а в показатели объемной плотности - в 81 000 раз.
Рисунок 3. 1-Mbit DRAM – динамическая память с произвольной выборкой – для 1,048,576 бит.
Молекула ДНК: носителями генетической информации, которые осуществляют свои биологические функции на протяжении всей своей жизни, являются нуклеиновые кислоты. Все клеточные организмы и многие вирусы используют ДНК, одинаково свернутые для образования двойных спиралей; оставшиеся вирусы используют однонитевые рибонуклеиновые кислоты РНК. Рисунки, полученные от сравнения с устройствами хранения, созданные человеком, являются как раз астрономическими, если включить молекулу ДНК (см. Рис.1). В этом супер сберегательном устройстве плостность хранения используется до физико-химического предела: ее величина для молекулы ДНК составляет в 45 x 1012 раз больше, чем плотность хранения в мега чипе. Что объясняет таукую огромную разницу в 45 триллионов между технологией СБИС и естественными системами? Существует три бесспорных причины:
Концепция информации Шеннона является адекватной для того, чтобы сохранять и передавать данные, но она не годится для понимания качественной природы информации.
Теорема 3: Так как определение информации Шенноном относится исключительно к статистической связи цепочек символов и полностью игнорирует их семантический аспект, то эта концепция никак не подходит к анализу цепочек символов, передающих значение.
Для того чтобы иметь возможность адекватно оценивать информацию и ее обработку в разных системах, живых и неживых, нам нужно расширить концепцию информации за рамки теории Шеннона.
Рис.4 показывает, как может быть представлена информация и пять уровней, необходимые для понимания ее качественной природы.
Рисунок 4. Пять необходимых уровней информации (середина) начинаются со статистики (на самом нижнем уровне). На высшем уровне находятся апобетики (цель).
Теория информации Шеннона отлично подходит для понимания статистического аспекта информации. Эта теория позволяет делать количественное описание тех характеристик языков, основанных по своей природе на частотности. Однако не принимается во внимание то, имеет ли цепочка символов значение. Также, вопрос грамматической корректности полностью исключен на этой стадии.
В цепочках символов, передающих информацию, связывание между собой символов для образования слов, также как и объединение слов для образования предложений подчиняются особенным правилам, которые для каждого языка основаны на сознательно установленных конвенциях. На синтаксическом уровне нам необходимы символы (кодовая система) для представления информации. Большинство письменных языков используют буквы; тем не менее, широкий диапазон конвенций используется для различных целей: азбука Морзе, иероглифы, семафор, музыкальные ноты, компьютерные коды, генетические коды, танцы полевых пчел, символы запахов в феромоных языках насекомых и движениях рук в языке жестов.
Синтаксис языка, тем не менее, охватывает все правила, согласно которым могут или должны соединяться индивидуальные элементы языка. Синтаксис естественных языков намного сложнее по своей структуре, чем формализированные или машинные языки. Синтаксические правила в формализированных языках должны быть полными и четкими, потому как, например, составитель не имеет возможности обратиться к семантическим размышления программиста. На синтаксическом уровне информации мы можем сформулировать несколько теорем для выражения эмпирических принципов:
Теорема 4: Код является абсолютно необходимым условием для представления информации.
Теорема 5: Задание набора символов основывается на конвенции и представляет собой ментальный процесс.
Область синтаксиса вовлекает следующие вопросы:
Теорема 6: Как только код полностью определен конвенцией, то такое определение должны строго соблюдать.
Теорема 7: Использованный код должен быть известным как передатчику, так и получателю информации.
Теорема 8: Только те структуры, которые основываются на коде, могут представлять информацию (вследствие Теоремы 4). Это необходимое, но недостаточное, условие для существования информации.
Эти теоремы уже позволяют делать фундаментальные утверждения на уровне кода. Если, например, в любой системе обнаружен основной код, то можно сделать выводы, что система происходит от ментальной концепции.
Цепочки символов и синтаксические правила создают необходимые предварительные условия для представления информации. Решающим аспектом передаваемой части информации, тем не менее, не является выбранный код, размер, количество или форма букв, или метод передачи (письменные, оптические, акустические, электрические, осязательные сигналы), но сообщение, которое оно содержит, что оно сообщает и что обозначает (семантика).
Центральный аспект информации не принимает участия в ее накоплении или передаче. Цена телеграммы не зависит от важности контекста, а только от количества слов. Что является главным, как для отправителя, так и для получателя – это значение. Действительно, именно значение превращает цепочку символов в информационное сообщение. Это природа каждой информации, которая исходит от кого-то или направлена для кого-то. Каждый раз, когда имеет место информационное сообщение, всегда присутствует тот, кто ее передает, и ее получатель. В связи с тем, что информация не может существовать без семантики, мы можем утверждать:
Теорема 9: только то, что содержит семантику, является информацией.
Согласно постоянно цитируемого утверждения Норберта Вьенера, основателя кибернетики и теории информации, информация не может быть физической природы: «Информация – это информация, не материя и не энергия. Никакой материализм, который не в состоянии принять это во внимание, не может выжить на сегодняшний день».
Исследователь информации в Дортмунде, Вернер Стромбах, подчеркивает нематериалистическую природу информации, когда он определяет ее как «появление порядка на уровне мыслящего сознания». Семантическая информация, соответственно не поддается механистическому подходу. Соответственно, компьютер – это только «синтаксическое устройство» (Земанек), которое не знает никаких семантических категорий. Следовательно, мы должны учитывать различия между данными и знаниями, между обусловленными алгоритмами отраслями в программе и намеренными решениями, между сравнительными выборками и ассоциациями, определением значений и пониманием значений, между последствиями действий в компьютере и творческим мысленным процессом, накоплением данных и процессом обучения. Компьютер может осуществить первое; в этом его сила, его область применения, но вместе с тем и его пределы. Значение всегда представляет собой интеллектуальные концепции. Поэтому мы можем далее утверждать:
Теорема 10: каждая информация требует, если проследить ее к началу, ментальный источник (отправитель).
Теоремы 9 и 10 в основном соединяют информацию с отправителем (интеллектуальный информационный источник). Понял ли получатель информацию или нет, не изменяет ее наличия. Еще до того, как надписи на египетских обелисках были расшифрованы, они четко рассматривались как информация, так как вполне очевидно, что они не возникли случайно. До открытия Розеттского камня (1799), семантика иероглифов была за пределами понимания современников (получателей), тем не менее, эти символы представляли информацию. Все подходящие формантные устройства (лингвистические конфигурации), которые могут выражать значения (интеллектуальные основы, мысли, емкость понимания) называются языками выражения. Только с помощью языка информация может сохраняться и передаваться посредством носителей информации. Информация сама по себе полностью неизменна, как по отношению к системам передачи (акустические, оптические, электрические), так и по отношении к накопительным системам (интеллект, книга, компьютерная система, магнитная лента). Причина такой постоянности находится в ее нематериалистической природе. Мы различаем разные типы языков:
Общим для всех языков является то, что формантные устройства используют определенную систему символов, индивидуальные элементы которых оперируют с установленными, совместно согласованными правилами семантического соответствия.
У каждого языка есть знаки (напр., морфемы, лексемы, фразы и целые предложения в естественных языках). Значения – это соотношение между производным словом в пределах языка, которое подразумевает совместное семантическое распределение между отправителем и получателем.
Любой коммуникационный процесс между отправителем и получателем состоит из формулирования и понимания семем (сема=знак) в одном и том же языке. В процессе формулирования мысли отправителя генерируют информацию, которая отправляется с помощью формантного устройства (язык). В процессе понимания, анализируется комбинация символов и рассматривается как соответствующие мысли отправителя.
До уровня семантики, вопрос преследования отправителем цели при рассылке информации, является неважным. Каждая передача информации, тем не менее, выполняется с намерением образовать особенный результат в получателе. Для достижения желаемого результата, отправитель размышляет, каким образом должен быть извещен получатель для удовлетворения заданной цели. Этот намеренный аспект выражается термином прагматика. В языке предложения не просто связаны друг с другом; скорее они представляют формулирование просьб, жалоб, вопросов, расспрашиваний, инструкций, предупреждений, угроз и указаний, которые намерены вызвать специфическое действие в получателе. Стромбах определяет информацию, как структуру, которая образует изменения в системе получения. Этим самым он подчеркивает важность аспекта действия. С целью покрытия широкого выбора типов действия, мы можем различать:
Все эти образы действий со стороны получателя, неизменно основанные на информации, которая раньше была смоделирована отправителем для преднамеренной цели.
Конечным и самым высоким уровнем информации есть цель. Понятие апобетики было представлено по этой причине с помощью лингвистической аналогии с предыдущими определениями. Результат в конце получение основан на завершающем этапе цели, стремлении, плане и моделировании. Апобетический аспект информации является наиболее важным, так как он исследует цели, преследуемые отправителем. Можно задать следующие вопросы по поводу всех частей информации: Зачем вообще отправитель передает эту информацию? Какой результат он ожидает получить от получателя? Следующие примеры намерены глубже рассмотреть этот аспект:
Теперь мы можем сформулировать следующие теоремы:
Теорема 11: апобетический аспект информации является наиболее важным, так как он охватывает намерения отправителя. Полное усилие, вовлеченное в четыре нижних уровня, необходимо только как способ завершения для достижения этого намерения.
Теорема 12: пять аспектов информации применяются как к сторонам отправителя и передатчика. Они всегда влекут за собой взаимодействие отправителя и получателя (см. рис.4).
Теорема 13: Индивидуальные аспекты информации соединенные друг с другом таким образом, что нижние уровни всегда необходимы для реализации высших уровней.
Теорема 14: апобетический аспект иногда может полностью совпадать с прагматическим аспектом. Однако в принципе могут разделяться.
Завершив это рассмотрение, мы можем сформулировать условия, которые разрешают различать понятия информации и неинформации. Два необходимых условия (НУ: выполняется сразу же) должны быть удовлетворены, чтобы информация существовала.
НУ 1: должна существовать кодовая система.
НУ2: цепочка символов должна содержать семантику.
Достаточными условиями (ДУ) для существования информации являются:
ДУ 1: должна быть возможность различать скрытые намерения на уровнях семантики, прагматики и апобетики (напр., Карл фон Фриш сделал анализ танца полевых пчел и в соответствии с нашей моделью, установлены уровни семантики, прагматики и апобетики. В этом случае информация определенно присутствует).
ДУ 2: последовательность символов не представляет информации, если она основывается на хаотичности. Согласно Дж. Дж. Чайтину, американскому специалисту по информатике, хаотичность, в принципе, нельзя доказать; следовательно, в этом случае необходимо обсуждение причины происхождения. Изложенные теоремы не только играют роль в технологическом применении, но они также охватывают всю информацию, которая возникает (напр., компьютерная технология, лингвистика, живые организмы).
Жизнь существует в исключительном многообразии форм. Несмотря на свою кажущуюся простоту, даже одноклеточные организмы являются более сложными и целеустремленными в своем дизайне, чем любой другой продукт человеческого изобретения. Несмотря на то, что материя и энергия - необходимые, фундаментальные особенности жизни, они не подразумевают в себе основное различие между воодушевленными и невоодушевленными системами. Одной из главных характеристик всех живых организмов является информация, которую они содержат для всех операционных процессов (исполнение всех функций жизни, генетическая информация для размножения). Брайтенберг, немецкий кибернетик предоставил свидетельство того, что «информация является неотъемлемой важной частью сущности жизни». Передача информации играет значительную роль во всем, что живет. Когда насекомые переносят пыльцу из созревших цветов, передается (генетическая) информация. Материя, вовлеченная в этот процесс, не является такой важной.
Нет сомнения, что наиболее сложная информационная система, которая существует, это человеческое тело. Если мы соберем все человеческие информационные процессы вместе, а именно, сознательные (язык, информационно-контролируемые функции в органах, гормональная система), то каждый день это влечет за собой процессы объемом 1024 бита. Такая астрономически высокая цифра еще в 1 00 ,000 раз больше, чем общие человеческие знания размеров 1018 бит, хранимые во всех мировых библиотеках.
На основе информационной теории Шеннона, которая сейчас рассматривается как математически завершенная, мы расширили понятие информации до пяти уровней. Наиболее важные эмпирические принципы, относящиеся к понятию информации, были определены в форме теорем. Здесь их краткое содержание:
Библия давно ясно учит, что сотворение основных групп полностью действующих живых существ, запрограммированных для передачи информации свом наследникам, было намеренным действием разума и желания Создателя, великого Слова Иисуса Христа. Мы уже показали, что жизнь полностью нагружена информацией; должно быть ясно, что строгое применение науки об информации является разрушительным для материалистической философии под маской эволюции и сильно поддерживает сотворение книги Бытия. 2
Профессор Вернер Гитт окончил в 1968 году в Ганновере, Германия, Технический Университет с дипломом инженера, затем закончил необходимое исследование в работе над Докторской диссертацией по инженерии в Техническом Университете Аахена, закончив с отличием и с престижной наградой «Borchers Medal». С 1971 года работал в Немецком федеративном институте физики и технологии, Брансуик, в качестве Директора по обработке данных, а с 1978 директором и профессором института.
Источник: www.answersingenesis.org