I. ТЕОРИЯ ИНФОРМАЦИИ

Создавая такие художественные структуры, которые требуют от воспринимающего личного деятельного отношения, часто перекомпоновки, всегда различной, предлагаемого материала, современная поэтика отражает общую устремленность нашей культуры к таким процессам, в которых вместо однозначной и необходимой последовательности событий в качестве вероятностного поля утверждается определенная «неоднозначность» ситуации, стимулируя оперативный или интерпретативный выбор, всякий раз другой.

Эта необычная эстетическая ситуация, а также трудности, с которыми мы сталкиваемся, пытаясь дать точное определение той «открытости», к которой стремятся различные современные поэтики, заставляют нас теперь приступить к рассмотрению особого вида научной методологии, а именно теории информации, в которой, как нам кажется, мы можем найти указания, представляющие интерес для нашего исследования. Указания в двух ас—101

пектах: с одной стороны, мы полагаем, что некоторые поэтики на свой лад отражают ту же культурную ситуацию, которая обусловила исследования в области информации, с другой стороны, нам кажется, что некоторые методологические приемы, появившиеся в результате этих исследований, при соответствующей корректировке можно использовать в сфере эстетики (и мы увидим, что другие это уже делали). Мы, однако, понимаем, что нам сразу же могут возразить, сказав, что между научными исследованиями и художественным творчеством не может существовать эффективных связей и что любая параллель является совершенно неосновательной. Следовательно, для того, чтобы избежать прямых и поверхностных перенесений, прежде всего будет полезно рассмотреть общие принципы теории информации, не соотнося их с эстетикой, и только потом выяснить, существуют ли какие — либо связи, а если существуют, то какие именно, и при каких условиях методологические приемы, используемые в одной области, можно использовать в другой.

Теория информации стремится к тому, чтобы подсчитать количество информации, содержащейся в том или ином сообщении. Если, например, в метеорологической сводке от 4 августа сообщается о том, что «завтра снегопада не ожидается», информация, которую я получаю, оказывается довольно скудной, потому что речь идет о факте, настолько само собой разумеющемся, что количество известных мне вещей и возможность предугадывать завтрашние события нисколько не увеличиваются. Если же 4 августа сводка погоды сообщает, что «завтра, 5 августа, ожидается снегопад», я получаю значительное количество информации, если учесть невероятность события, о котором мне сообщили. Количество информации, содержащееся в каком — либо сообщении, определяется и осведомленностью, которой я могу располагать относительно достоверности ее источника. Если, покупая дом у агента по недвижимости, я спрашиваю его, не слишком ли этот дом сырой, и он отвечает мне «нет», я получаю мало информации и продолжаю сомневаться в достоверности его слов, но если тот же агент, совершенно неожиданно для меня и в ущерб своим собственным интересам, говорит «да», тогда я получаю изрядное количество информации и действительно узнаю что — то по интересующему меня вопросу.

Таким образом, информация представляет собой некое дополнение, является чем — то таким, что добавляется к уже известному и что я воспринимаю как новое. Однако в приведенных нами примерах речь шла о достаточно обширной и сложной информации, в которой доля новизны зависит от ожиданий получателя. В действительности информацию предварительно следует определить в гораздо более простых ситуациях, в которых ее количество можно измерить математически и выразить в числах, не обращаясь к познаниям, которыми может располагать ее возможный получатель; в этом, собственно, и заключается задача теории информации. Ее расчеты подходят к сообщениям любого вида, к числовым и лингвистическим символам, к последовательности тех или иных звуков и т. д.

Чтобы подсчитать количество информации, необходимо исходить из того, что максимальная вероятность совершения какого — то события равна 1, а минимальная 0. Следовательно, математическая вероятность совершения события колеблется между единицей и нулем. Когда мы подбрасываем монету, у нас одинаковая вероятность того, что выпадет «орел» или «решка», и, следовательно, вероятность «орла» равна 1/2. Если же мы берем игральную кость, то вероятность выпадения тройки равна 1/6. Вероятность того, что два независимых друг от друга события совершатся одновременно, зависит от вероятности совершения каждого из них, и, таким образом, вероятность того, например, что одна игральная кость выбросит единицу, а вторая шестерку, равна 1/36.

Отношение между рядом событий, которые могут осуществиться, и рядом вероятностей, связанных с этими событиями, выглядит как связь между арифметической и геометрической прогрессиями, та связь, которая выражается логарифмом, поскольку второй ряд будет заключаться в логарифме первого. Более понятным образом количество информации можно выразить так:

   вероятность, которую получатель имеет после

принятия сообщения l og —

      вероятность, которую получатель имел

   до получения сообщения



В случае с монетой (если мне говорят о том, что выпадет «орел») равенство будет таким:

1

log — = log 2

1/2

Следовательно, данное равенство (поскольку при полученном сообщении вероятность всегда будет равна единице, если допустить, что отсутствует фоновый шум, о котором мы еще поговорим) можно представить так:

Информ. = — log (вероятность, имеющаяся для получателя до получения сообщения).

В случае с монетой:

— log (1/2) = log 2.

Осуществляя бинарный выбор, теория информации использует двоичные основные логарифмы и называет единицу информации термином bit (или binit), представляющим собой сокращение двух слов binary digit (двоичный знак). Использование двоичного логарифма имеет следующее преимущество: поскольку log22 = 1, один bit информации говорит нам о том, какая из двух возможностей события осуществляется.

В качестве еще одного примера возьмем доску из 64 клеток, в одной из которых должна располагаться пешка. Если информатор сообщает мне, что она находится в клетке 48, тогда получаемую мною информацию можно измерить следующим образом: поскольку изначально мои возможности угадать эту клетку составляли 1/64, формула выглядит так: — log2 (1/64) = log264 = 6. Таким образом, я получил информацию, которую можно сосчитать в 6 битах1.

Таким образом, можно сказать, что количество информации, переданной в сообщении, является двоичным логарифмом определенного числа альтернатив, позволяющих недвусмысленно определить это сообщение2.

Для того, чтобы измерить уменьшение или увеличение количества информации, специалисты обращаются к понятию, заимствованному из термодинамики и теперь уже вполне обоснованно вошедшему в терминологический багаж теории информации. Речь идет о понятии энтропии. Это понятие достаточно широко известно, потому что все о нем слышали, но в силу этого оно достаточно размыто, так как каждый понимает его по — своему и использует весьма свободно; поэтому будет неплохо, если мы вкратце его рассмотрим, ибо его происхождение из термодинамики оставило наслоения, не всегда обоснованные.

Согласно второму началу термодинамики, изложенному Р. Клаузиусом, если определенное количество работы может полностью трансформироваться в теплоту (о чем говорит первое начало термодинамики), то каждый раз, когда теплота трансформируется в работу, это происходит не столь полно и завершенно, как в первом случае. Для того, чтобы совершился переход определенного количества теплоты в работу, двигатель должен обеспечивать обмен теплотой между двумя телами различной температуры: источником теплоты и охладителем. Двигатель поглощает определенное количество теплоты от ее источника, но не всю ее преобразует в работу, потому что часть отдает охладителю. Таким образом, часть теплоты Q1 преобразуется в работу, кроме того имеется теплота Q — Q1, которая передается охладителю.

Таким образом, если после преобразования работы в теплоту (первый закон термодинамики) я преобразую эту теплоту в работу, мне не удается вернуться к исходному количеству этой работы. Наблюдается уменьшение или, как обычно говорят, «расход» энергии, которую уже не удастся восстановить. Энергия «расходуется». Таким образом, некоторые природные процессы не являются полностью обратимыми: «эти процессы однонаправленны, и с каждым из них мир делает шаг, след которого никоим образом нельзя стереть»3. Если мы хотим найти общую меру этой необратимости, надо предположить, что природа, так сказать, отдает предпочтение одним состояниям перед другими (то есть тем, к которым устремляются необратимые процессы) и кроме того, нам придется отыскать физическую величину, которая количественно измеряет предпочтение, отдаваемое природой определенному состоянию. Такая величина имела бы свойство расти во всех необратимых процессах. Это и есть энтропия.

Таким образом, второе начало термодинамики, утверждая «расход» энергии, стало законом энтропии, причем настолько, что обычно идею энтропии связывают с идеей этого «расхода» и тем выводом, согласно которому, наблюдая за развитием любого естественного процесса в направлении увеличивающегося расхода и поступательного уменьшения энергии, можно якобы говорить о «тепловой смерти» вселенной. Однако надо раз и навсегда отметить, что если понятие энтропии и используется в термодинамике для того, чтобы определить расход энергии (и, следовательно, здесь неизбежно начинают звучать пессимистические нотки, коль скоро нам позволено облекать в чувства научные размышления), в действительности представляет собой статистическую величину и потому является математически нейтральным инструментом. Иными словами, энтропия представляет собой измерение состояния наибольшей равновероятности, к которому стремятся естественные процессы. В этом смысле и принято говорить, что природа имеет предпочтения: она предпочитает более единообразное состояние менее единообразному, и теплота переходит от более нагретого тела к менее нагретому потому, что состояние равномерного распределения температуры более вероятно, чем состояние неравномерного распределения. Иными словами, взаимонаправленная скорость молекул в большей степени тяготеет к состоянию единообразия, а не к состоянию различия, в котором, при их различной скорости, совершаются различные тепловые реакции. Исследования, проведенные Больцманом в области кинетики газов, показали, что природа прежде всего тяготеет к элементарной неупорядоченности, мерой которой является энтропия4.

Тем не менее необходимо еще раз подчеркнуть, что понятие энтропии является чисто статистическим, так же, как, в конечном счете, чисто статистическим является тот же принцип необратимости: как уже показал Больцман, в замкнутой системе обратимость не невозможна, а только невероятна. Столкновение молекул газа происходит согласно статистическим законам, которые сводят различие скоростей к среднему равенству. Когда более быстрая молекула сталкивается с более медленной, может случиться так, что последняя передаст часть своей скорости первой молекуле, но статистически более вероятно, что произойдет обратное, то есть быстрая молекула замедлит свой бег и сообразует свою скорость со скоростью более медленной молекулы, порождая состояние большего единообразия и, следовательно, способствуя росту элементарной неупорядоченности. «Таким образом, закон увеличения энтропии обусловлен законом больших чисел, известным любому виду статистики, однако он не относится к строгим физическим законам, которые, как, например, законы механики, не допускают исключений»5. То, каким образом от теории «расхода» энергии можно перейти к использованию понятия энтропии в теории информации, нам довольно ясно показывают рассуждения Ганса Рейхенбаха. Общая тенденция к возрастанию энтропии, свойственная физическим процессам, не препятствует тому, чтобы (как мы это ощущаем каждый день) происходили такие физические процессы, в которых совершается определенная организация, то есть упорядочение событий в соответствии с определенной невероятностью (все органические процессы таковы) и, следовательно, в соответствии с уменьшением энтропии. По отношению к общей графической кривой роста энтропии эти моменты ее уменьшения Рейхенбах называет branch systems (боковыми системами) (как отклонения, ответвления от этой кривой), в которых взаимодействие некоторых событий приводит к упорядочению соответствующих элементов. Приведем пример. Ветры, дующие на пляже, порождают в тысячах песчинок общую тенденцию к беспорядку и, следовательно, к единообразию их расположения, но вот неожиданно по пляжу проходит человек, и взаимодействие его ног с поверхностью песка представляет собой взаимодействие событий, приводящих к появлению определенной конфигурации (статистически совершенно невероятной) следа от его ноги. Эта конфигурация, являющаяся формой, фактом определенной организации, очевидно, будет стремиться к исчезновению под воздействием ветров, иными словами, если она и представляла собой ответвление от общей кривой энтропии (там, где сама энтропия уменьшалась, уступая место невероятному порядку), сама боковая система, тем не менее, будет стремиться к тому, чтобы снова слиться с общей кривой увеличивающейся энтропии. В то же время в этой системе, как раз благодаря уменьшению элементарной неупорядоченности и осуществлению порядка, сложились причинно — следственные отношения: причина представляла собой совокупность фактов взаимодействия с песчинками пляжа (читай «человеческая нога»), а следствие — возникшую затем их организацию («след»).

Существование причинно — следственных отношений в системах, организованных при уменьшении энтропии, приводит к возникновению «воспоминания»; с физической точки зрения воспоминание представляет собой запись, «упорядочение, структура которого остается неизменной, так сказать, замороженной»6. Это помогает нам установить цепь причин, чтобы воссоздать событие, однако поскольку второе начало термодинамики ведет к признанию и утверждению существования воспоминаний о прошлом, постольку воспоминание представляет собой не что иное, как накопление информации, из этого рождается тесная связь между энтропией и информацией1.

Поэтому нас не удивит, если в теоретических работах по информации мы обнаружим широко используемый термин «энтропия»: это, напротив, поможет нам понять, что измерение количества информации означает измерение того порядка или беспорядка, в соответствии с которым организовано то или иное сообщение.

Понятие информации в теории Винера

Для Норберта Винера, который широко использует теорию информации в своих кибернетических исследованиях, то есть использует для того, чтобы оценить возможность контроля над коммуникацией среди людей и машин, информативное содержание того или иного сообщения зависит от степени его организации; информация является мерой упорядоченности и, следовательно, мера беспорядка, то есть энтропия, будет противоположностью информации. Иначе говоря, информация, заключенная в каком — либо сообщении, зависит от его способности организоваться в соответствии с конкретным порядком, благодаря невероятной систематизации избегая той равновероятности, того единообразия, той элементарной неупорядоченности, к которой преимущественно стремились бы естественные события. Приведем пример. Если я подбрасываю в воздух большое количество кубиков, на гранях которых написаны буквы алфавита, они в любом случае выпадут так, что их последовательность будет лишена всякого смысла, например, AAASQMFLLNSUHOI и т. д. Эта последовательность ничего мне не говорит: она сказала бы мне что — нибудь, если бы была организована по правилам орфографии какого — нибудь языка, несла на себе печать определенных орфографических и грамматических критериев, если бы, одним словом, основывалась на предугадываемой и организованной системе сочетаний, то есть на коде. Язык — это человеческое порождение, типичная branch system, при его создании многочисленные факты взаимодействовали между собой для того, чтобы возникло состояние упорядоченности, точных отношений. Поскольку он является организованной системой (избегающей равной вероятности, характерной для неупорядоченности), язык представляет собой невероятное событие по отношению к общей кривой энтропии. Однако эта организованность, естественным образом невероятная, теперь, внутри системы, утверждает свою цепь вероятностей, совокупность вероятностей, которые как раз и управляют организацией языка, благодаря чему, например, я могу почти наверняка предсказать, что если в середине незнакомого мне итальянского слова встречаются две согласные буквы, то следующая будет гласной. В музыке примером, аналогичным языку, branch system, коду, будет тональная система, которая совершенно невероятна по отношению к природным акустическим явлениям (располагающимся как пустые звуки), однако внутри организованной системы, каковой она является, устанавливаются критерии вероятности, появляется возможность, пользуясь этими критериями, с некоторой уверенностью, по крайней мере, в общих чертах, предсказать мелодическую кривую последовательности, но, предвидя, например, в определенный момент появление основного тона.

Изучая передачу сообщений, теория информации понимает их именно как организованные системы, управляемые установленными законами вероятности, системы, в которых в виде помехи, исходящей извне, или ослабления самого сообщения (все эти элементы понимаются как «шум») может заявить о себе некая неупорядоченность, то есть оскудение сообщения, увеличение энтропии. Если значение представляет собой организацию сообщения по определенным правилам вероятности (именно по правилам, а не по статистической равновероятности, которая позитивно измеряется энтропией), тогда неупорядоченность — это опасность, грозящая уничтожить само сообщение, а энтропия — ее измерение. Таким образом, энтропия будет негативным измерением смысла сообщения8.

Для того, чтобы защитить сообщение от такого оскудения, чтобы, несмотря на проникновение шума, мешающего его принятию, смысл содержания (его порядок) в основном оставался без изменения, мне придется как бы окутать это сообщение условными повторениями, окружить его избытком четко определенных вероятностей, чтобы, каким бы упомянутый шум ни был, доля информации все равно сохранилась бы. Этот излишек вероятностей и является избыточностью. Предположим, нам надо сообщить: «Я тебя слышу» («Ti odo»). Допустим, что кто — то кричит эти слова с одной горной вершины на другую, что, передавая эту фразу, неопытная телеграфистка неправильно расставляет на своем передатчике необходимые точки и тире или что, наконец, она написана на листке бумаги, оказавшемся в классической бутылке, где бумагу подмочила вода. В контексте передачи информации все эти помехи и ситуации являются шумом. Чтобы быть уверенным, что сообщение будет принято в надлежащем виде, что, например, ошибка телеграфистки не изменит фразу на «Я тебя ненавижу» («Ti odio»), a порывы ветра не превратят ее в нечто непонятное, я могу сказать так: «Я тебя слышу, то есть улавливаю твои слова». Говоря в общих чертах, можно сказать, что, как бы плохо ни обстояли дела, для того, кто принимает сообщение, все — таки сохраняется возможность, основываясь на скудных и неполных его компонентах, воссоздать его лучшим образом.

Если же говорить точнее, то в языковой системе смысловая избыточность определяется всей совокупностью синтаксических, орфографических и грамматических правил, которые как бы устанавливают необходимые лингвистические вехи. В этом смысле можно сказать, что, будучи системой заранее определенных вероятностей, с которыми и устанавливается связь, язык представляет собой коммуникативный код. Использование местоимений, частиц, флексий в определенных языках способствует тому, что в структурном плане сообщение усложняется и в большей степени соотносится со вполне определенными (а не какими — либо другими) вероятностями. Впав в крайность, можно даже сказать, что гласные в словах являются элементами избыточности будто бы для того, чтобы сделать более вероятным и понятным расположение согласных (которые определяют то или иное слово). Глядя на совокупность согласных «лшд», я могу догадаться, что речь идет о «лошади», даже если и не вижу гласных «о» и «а». Однако эти последние появляются между согласными для того, чтобы я увидел совершенно полное и понятное слово, появляются почти как некий преизбыток понятности. Когда специалисты по теории информации утверждают, что избыточность в английском языке составляет пятьдесят процентов, это значит, что, когда говорят по — английски, пятьдесят процентов сказанного несут в себе какое — то сообщение, а остальные пятьдесят определяются структурой языка и являются пояснительным излишком. Телеграмма, написанная именно в «телеграфном» стиле, по существу, представляет собой сообщение, из которого устранена малая часть избыточности (местоимения, артикли, наречия), настолько, насколько это возможно, чтобы не утратился смысл. С другой стороны, в такой телеграмме утраченная избыточность компенсируется введением условных оборотов речи, стереотипных выражений, которые облегчают понимание и создают новую форму вероятности и упорядоченности.

Законы вероятности настолько сильно управляют повторяемостью элементов языка, что, применяя статистические исследования к морфологической структуре слов, можно выбрать определенное количество букв, которые, согласно статистическим критериям, повторяются чаще других, и из них составить некие произвольные последовательности, которые, тем не менее, будут

иметь много общего со словами языка, в котором проводится этот эксперимент9.

Все это, однако, приводит нас к тому выводу, что порядок, регулирующий понятность сообщения, утверждает также его абсолютную предсказуемость или, иными словами, его банальность. Чем больше сообщение упорядочено и понятно, тем больше оно предсказуемо: поздравления с днем рождения или выражения соболезнования, следующие предельно строгим критериям вероятности, вполне ясны, но почти не говорят нам ничего нового.

Различие между значением и информацией

Все это заставляет нас признать недостаточной расхожую точку зрения, вошедшую в обиход благодаря Винеру, для которого значение какого — либо сообщения и информация, содержащаяся в нем, являются синонимами, связанными с понятиями порядка и системы вероятности и противопоставленными понятиям энтропии и неупорядоченности.

Тем не менее мы уже отмечали, что информация зависит также от ее источника, то есть вполне понятно, что, если, например, поздравление с днем рождения исходит от председателя Совета министров СССР, непредсказуемость этого поздравления станет для нас неожиданным увеличением информации. Это, однако, подтверждает как раз тот факт, что, как мы говорили вначале, информация, будучи дополнением, связана с оригинальностью, не — вероятностью. Но как это согласовать с тем, что чем вероятнее сообщение, чем оно предсказуемее в любой своей части, тем больше в нем смысла? Ясно, что фраза «каждой весной распускаются цветы» имеет вполне ясное, совершенно недвусмысленное значение; она наделена максимальным смыслом и всевозможной доступностью, однако не добавляет ничего к тому, что нам уже известно.

Говоря языком нашего прежнего разговора об информации, можно сказать, что она не

сообщает нам ничего особенного. Быть может, информация и смысл (значение) — не одно и то же?

Читая Винера, мы не можем прийти к такому заключению: для него информация означает порядок, а ее противоположность измеряется энтропией. Верно, однако, и то, что теорией информации Винер пользуется для изучения коммуникативных возможностей электронного мозга, и ему надо определить средства, с помощью которых то или иное сообщение становится понятным. Таким образом, он не проводит никакого различия между информацией и смыслом. Тем не менее в каком — то месте он делает чрезвычайно важное утверждение: «Для того, чтобы способствовать накоплению общего объема информации, которым располагает сообщество, какой — либо отрывок этой информации должен сообщать что — то принципиально отличное от совокупной информации, которой это сообщество уже располагает»; в этой связи в качестве примера он вспоминает о великих деятелях искусства, заслуга которых состояла в том, что определенным оборотам речи и приемам они придавали своеобразие, а причину смыслового оскудения их произведений усматривает в том, что со временем все, что когда — то было ими сделано и сказано впервые и воспринималось как совершенно самобытное, публика привыкла воспринимать как нечто общезначимое и банальное10.

Размышляя на эту тему, мы замечаем, что повседневная коммуникация полна выражений, которые не согласуются с грамматическими или синтаксическими обыкновениями и именно по этой причине привлекают наше внимание и сообщают нам нечто новое, даже если отклоняются от правил, в соответствии с которыми обычно осуществляется передача смысла. Получается так, что (если рассматривать язык как систему вероятности) некоторые конкретные элементы неупорядоченности увеличивают объем информации, содержащейся в сообщении.

Смысл и информация в поэтическом сообщении

В искусстве это происходит по преимуществу, и поэтическая речь обычно рассматривается как некая система, которая, совершенно по — новому связывая звук и понятие, звуки и слова необычным образом соединяя фразы, вместе с тем или иным смыслом сообщает и некое необычное чувство, причем в такой степени, что это чувство возникает даже тогда, когда смысл схватывается не сразу. Представим влюбленного, который захотел раскрыть волнующий его образ по всем правилам вероятности, которыми его связывает такой разговор. «Порой, — говорит он, — когда я пытаюсь вспомнить некоторые события, произошедшие со мной давным — давно, мне кажется, что я снова вижу, как течет вода, холодная и чистая. Воспоминание об этой текущей воде мне особенно дорого, потому что к потоку приходила сидеть женщина, в которую я тогда был влюблен и которую люблю до сих пор. Я так в нее влюблен, что, как это часто бывает у влюбленных, не могу думать ни о каких женщинах в мире, кроме нее. Если можно, хотел бы добавить, что, соединившись в моей памяти с женщиной, которую я продолжаю любить (и должен сказать, что она очень красива), эта текущая вода рождает в моей душе ощущение какой — то сладости, и теперь я, опять — таки как это свойственно влюбленным, переношу сладость, которую испытываю, на воду, благодаря которой ее испытываю: таким образом, я приписываю сладость потоку воды, как если бы это было его свойством. Вот что я хотел сказать и надеюсь, что сумел объясниться». Так говорил бы наш влюбленный, если бы, решив донести до нас бесспорный и вполне понятный смысл придерживался бы всех законов избыточности. Мы поймем все, что он говорит, но, быть может через какое — то время забудем сказанное. Но если этого влюбленного зовут Франческо Петрарка то, не слишком соблюдая правила обычного построения фразы, прибегая к смелым фигуральным выражениям, упраздняя логические переходы, даже забывая предупредить, что он говорит нам о своем воспоминании (о чем мы можем догадаться только благодаря употреблению прошедшего времени), он скажет: «Воды светлые, свежие, сладостные // Где свои прекрасные члены // Омывала та, кто одна // Мне кажется женщиной». Таким образом, всего в шестнадцати словах ему удается сказать, что, с одной стороны, он просто вспоминает, но, с другой, продолжает любить, и, кроме того, этим преисполненным жизни воспоминанием, которое он выражает в едином возгласе, как будто сейчас видит все воочию, он говорит нам, сколь сильна его любовь. Только здесь мы буквально осязаем все неистовство и сладость любви, ощущаем сокрушающую силу воспоминания. Приняв такое сообщение, мы получили огромную информацию о любви Петрарки и о сущности любви вообще. Между первым и вторым случаем нет никакой разницы в значении, следовательно, во втором единственным элементом, который определил увеличение информации, является неповторимость структурной организации сообщения, непредсказуемость по отношению к системе вероятности и определенная дезорганизация, которая была в нее введена.

Нам легко могут возразить, сказав, что не только рост непредсказуемости придает очарование поэтической речи. Если бы это было так, тогда гораздо более поэтичными были бы стихи Буркиелло, которые гласят:

«Жареные телячьи ножки // и румяна в пресном бульоне // гневно спорили в куче переваренной еды // где речь заходила о поверженных кочешках брокколи». Нет, мы просто хотели сказать, что способ11 необычного использования языка — вот что определило поэтический результат, и чтс использование вероятностей, предусмотренных системой языка, ничего бы нам не дало. Если. конечно, новизна не содержалась в самом сообщении, а не в использованных выражениях и не в способе оживлять ставшие привычными чувства: в таком смысле составленное по всем правилам смысловой избыточности радиосообщение о том, что на Рим сбрасывают атомную бомбу, было бы весьма информативно. Однако этот разговор выводит нас за пределы изучения структур языковой системы (а также за пределы эстетики, что лишний раз доказывает: эстетика должна интересоваться не столько тем, что говорится, сколько тем, как это сказано). И потом, если стихи Петрарки сообщают информацию любому, кто способен постичь их смысл, даже и самому Петрарке, сообщение об атомной бомбардировке, напротив, ничего нового не сказало бы пилоту бомбардировавшему город, и уже тем более — тому, кто слушал бы его во второй раз. Таким образом, мы исследуем возможность передавать информацию, не являющуюся привычным «смыслом», через использование традиционных структур языка, которое противоречит законам вероятности, управляющим им изнутри.

Следовательно, в таком случае информация связывается не с порядком, а с неупорядоченностью, по крайней мере, с определенным непорядком, который непривычен и которого нельзя предугадать. Мы говорили о том, что положительным измерением такой информации (поскольку она отличается от смысла (significato) является энтропия. Но если энтропия оказывается максимальной неупорядоченностью и внутри нее наблюдается сосуществование всяческих вероятностей и никакой именно, тогда информация, содержащаяся в намеренно организованном сообщении (поэтическом или обычном) предстанет лишь как весьма своеобразная форма неупорядоченности — неупорядоченности, которая кажется таковой поскольку берет начало в предшествовавшем ей порядке. Можно ли в этой связи по — прежнему говорить об энтропии?

Передача информации

Вернемся ненадолго к классическому примеру из кинетической теории газов: представим сосуд, наполненный молекулами газа, которые движутся с одинаковой скоростью. Если движение регулируется чисто статистическими законами, энтропия системы очень высока, и — даже если мы можем предсказать общее поведение системы — нам нелегко предугадать, каким будет следующее положение той или иной молекулы; иными словами, молекула может двигаться самыми разными способами, она, так сказать, открыта всем возможностям, мы знаем, что она может занять самые разные положения, но не знаем, какие именно. Для того, чтобы лучше определить поведение отдельных молекул, нам потребовалось бы дифференцировать их скорость, одним словом, придать системе порядок и уменьшить в ней энтропию: поступив таким образом, мы увеличим возможность того, что молекула будет вести себя так, а не иначе, но ограничим число ее изначальных разнообразных возможностей (подчинив их определенному коду).

Итак, если я хочу что — либо знать о поведении отдельной частицы, информация, которой я ищу, противостоит энтропии, но если я хочу знать все возможные варианты поведения любой частицы, тогда информация, которую я ищу, будет прямо пропорциональна энтропии; привнося в систему порядок и уменьшая в ней энтропию, я узнаю много в каком — то одном смысле, но много меньше в другом.

То же самое происходит и с передачей информации.

Постараемся это пояснить ссылкой на формулу, с помощью которой обычно выражается величина какой — либо информации:

I = N log h

где «h» представляет собой число элементов, из которых делается выбор, а N — количество вариантов выбора, которые можно сделать (в случае с двумя игральными костями h = 6, а N = 2; если же мы имеем шахматную доску, то h = 64, а N = все ходы, которые допускаются правилами шахматной игры).

Если же речь идет о системе с высокой энтропией (где могут осуществиться все комбинации), значения величин N и h оказываются очень большими и, следовательно, самой высокой оказывается и величина той информации о поведении одного или нескольких элементов системы, которую можно было бы передать. Однако очень трудно сообщить столько бинарных вариантов выбора, сколько необходимо для того, чтобы обособить выбранный элемент и определить его сочетания с другими элементами.

Каким образом можно легко сообщить ту или иную информацию? Это можно сделать, сокращая число задействованных элементов и вариантов выбора, вводя какой — либо код, систему правил, которая предусматривает наличие строго определенного числа элементов, исключает некоторые комбинации и допускает лишь оговоренные. В этом случае можно будет сообщить информацию через умеренное число бинарных вариантов выбора. Однако значения величин N и h в таком случае уменьшаются и, следовательно, уменьшается величина полученной информации.

Таким образом, чем больше информация, тем труднее как — то ее сообщить, и чем яснее какое — либо сообщение, тем меньше в нем информации.

Вот почему в своем классическом труде по теории информации12 Шеннон и Уивер осмысляют информацию как величину, прямо пропорциональную энтропии. Другие исследователи тоже признают, что Шеннон, один из основателей этой теории, обращает внимание как раз на этот аспект информации13, но все они напоминают о том, что, если мы понимаем информацию именно в таком узко статистическом смысле, она не имеет никакого отношения к тому, истинно или ложно содержание сообщения (не имеет отношения к его «значению»). Мы лучше все это усвоим, если обратимся к некоторым высказываниям Уоррена Уивера, которые содержатся в его очерке, посвященном популяризации математического аспекта информации14: «В этой новой теории слово «информация» относится не столько к тому, что говорится, сколько к тому, что могло бы быть сказанным, то есть информация выступает как мера нашей свободы в выборе сообщения… Необходимо помнить, что в математической теории коммуникации наш интерес обращен не к значению отдельных сообщений, а к общей статистической природе источника информации…

Понятие «информации», изложенное в этой теории, на первый взгляд кажется странным и неудовлетворительным: неудовлетворительным потому, что не имеет никакого отношения к понятию «значения», а странным потому, что оно не только относится к какому — то отдельному сообщению, но, в первую очередь, учитывает статистический характер всей совокупности сообщений; оно странно еще и потому, что в таком статистическом контексте слова «информация» и «неопределенность» тесно связаны между собой».

Этим мы вернули наш долгий разговор о теории информации к основной для нас проблеме и тем не менее мы должны задаться вопросом, законно ли все — таки применять такие понятия как орудия исследования к вопросам эстетики, хотя бы потому, что, как теперь ясно, статистический смысл информации гораздо шире коммуникативного.

Статистически я имею информацию тогда, когда (оставаясь по эту сторону всякого порядка) вдобавок располагаю всем перечнем вероятного развития на уровне источника информации.

В коммуникативном же плане я имею информацию тогда, когда:

1) находясь в изначальной неупорядоченности очерчиваю и утверждаю некий порядок как систему вероятности, то есть устанавливаю определенный код;

2) находясь в этой системе и не возвращаясь к тому, что ей предшествовало, я (излагая сообщение, которое является двусмысленным по отношению к установленным правилам кода) ввожу элементы неупорядоченности, которые вступают в напряженную диалектическую связь с

основным порядком (сообщение приводит код к кризису).

Итак, нам придется выяснить, как сказывается использование этой намеренной неупорядоченности на сообщении, содержащемся в поэтической речи, причем здесь надо помнить о том, что эту неупорядоченность если и можно отождествить со статистическим понятием энтропии, то только в переносном смысле: неупорядоченность, несущая сообщение, является таковой лишь по отношению к предшествовавшему ей порядку.

Оглавление

Обращение к пользователям