Вечность. В поисках окончательной теории времени - Кэрролл Шон - Страница 63
- Предыдущая
- 63/128
- Следующая
Шэннон нашел способ, как формализовать эту интуитивную идею об эффективном информационном наполнении сообщения. Предположим, что мы рассматриваем набор из всех возможных сообщений определенного типа, которые мы могли бы получить (правда же, это навевает воспоминания о «пространстве состояний», с которым мы работали при обсуждении физических систем, а не сообщений?). Например, если речь идет о результатах подбрасывания монеты, то возможных сообщений только два: «орел» или «решка». До того как мы получаем сообщение, оба варианта одинаково вероятны; тот факт, что мы получаем сообщение, означает, что мы узнаем ровно один бит информации.
Если же, с другой стороны, нам рассказывают о максимальной температуре завтра днем, то набор возможных сообщений становится куда больше: скажем, это может быть любое целое число от –273 и до плюс бесконечности, представляющее собой температуру, выраженную в градусах Цельсия (температура –273 °С соответствует абсолютному нулю). Однако не все эти варианты одинаково вероятны. Летом в Лос-Анджелесе наиболее вероятна температура 27–28 °C, тогда как зафиксировать температуру –13 или +4324 °C относительно сложно. Узнав, что завтрашняя температура лежит в области этих «невероятных» значений, мы действительно получаем огромный объем информации (по всей видимости, связанной с какой-то глобальной катастрофой).
Грубо говоря, информационное наполнение сообщения возрастает по мере того, как вероятность получения данного сообщения уменьшается. Однако Шэннону хотелось большей конкретики в формулировках. В частности, он хотел показать, что если мы получим два сообщения, совершенно независимых друг от друга, то общая полученная информация будет равна сумме информации, извлеченной из каждого индивидуального сообщения. (Вспомните, что, когда Больцман разрабатывал свою формулу энтропии, одно из свойств, которые он стремился воспроизвести, заключалось в следующем: энтропия полной системы равна сумме энтропий подсистем.) Попробовав то и это, Шэннон выяснил, что самым правильным будет взять логарифм вероятности получения конкретного сообщения. В конечном итоге он пришел к такому результату: количество информации, содержащееся в сообщении, равно логарифму вероятности того, что сообщение примет данный вид, со знаком минус.
Многое из этого наверняка кажется вам удивительно знакомым, и это не случайность Больцман связывал энтропию с логарифмом числа микросостояний в определенном макросостоянии. Однако с учетом принципа безразличия число микросостояний в макросостоянии очевидно пропорционально вероятности того, что одно из них будет случайным образом выбрано из всего пространства состояний. Низкоэнтропийное состояние аналогично удивительному, наполненному информацией сообщению, в то время как знание о том, что вы находитесь в высокоэнтропийном состоянии, не дает вам никакой особой информации. С учетом всего вышесказанного, если мы поставим в соответствие «сообщение» и макросостояние, в котором пребывает сейчас система, связь между энтропией и информацией будет очевидной: информация — это разность максимально возможной энтропии и фактической энтропии макросостояния.[159]
Есть ли у жизни смысл?
Неудивительно, что идеи о связи между энтропией и информацией приходят на ум сразу же, стоит нам начать рассуждать о взаимоотношениях между термодинамикой и жизнью. Нельзя сказать, что эти взаимоотношения так уж просты и очевидны; хотя в их наличии никто не сомневается, ученые все еще не пришли к общему мнению относительно того, что же такое «жизнь», не говоря уж о том, как все это работает. Эта область исследований находится сейчас в фазе активного развития, объединяя такие направления, как биология, физика, химия, математика, вычислительная техника и изучение сложных систем.[160]
Не пытаясь пока давать точное определение понятию «жизнь», мы можем обсудить вопрос, который логично было бы сформулировать следующим образом: имеет ли смысл такое понятие, как «жизнь», с термодинамической точки зрения? Сразу скажу, что ответ: «да». Но в истории науки можно было услышать и противоположные заявления, хотя, конечно, звучали они из уст не признанных и уважаемых ученых, а креационистов, целью которых было сбросить дарвиновскую теорию естественного отбора с пьедестала единственно верного объяснения эволюции жизни на Земле. Один из их аргументов основывается на неправильном толковании второго начала термодинамики, который они читают как «энтропия всегда увеличивается», делая вывод об универсальной тенденции к увеличению беспорядка и общему угасанию всех естественных процессов. Чем бы ни была жизнь, совершенно очевидно, что это сложная и хорошо организованная штука. Как же в таком случае ее можно увязать с естественной тенденцией к росту беспорядка?
Разумеется, никакого противоречия здесь нет. Из доводов креационистов совершенно четко следует, что и существование холодильников невозможно; следовательно, эти доводы попросту неверны. Второе начало термодинамики не говорит нам, что энтропия всегда увеличивается. Согласно этому закону, энтропия всегда увеличивается (или остается постоянной) в замкнутой системе — системе, которая никак заметно не взаимодействует с внешним миром. Совершенно очевидно, что жизнь не может быть замкнутой системой; живые организмы находятся в непрерывном взаимодействии с внешним миром. Это эталоны открытых систем! Вот, собственно, и всё — на этом вопрос можно закрыть и продолжать жить своей жизнью.
Однако существует и другая, более замысловатая версия этого креационистского аргумента, которая звучит уже совсем не так глупо. Несмотря на то что она также абсолютно неверна, полезно рассмотреть ее, для того чтобы понять, где именно кроется ошибка. Этот изощренный довод базируется на количественных оценках: разумеется, живые существа представляют собой открытые системы, поэтому теоретически они могут где-то уменьшать свою энтропию при условии, что в другом месте она будет увеличиваться. Однако как узнать, что увеличения энтропии во внешнем мире достаточно, чтобы отчитаться за низкую энтропию живых существ?
Рис. 9.3. Мы получаем энергию от Солнца в концентрированной низкоэнтропийной форме, а излучаем обратно во Вселенную в рассеянном, высокоэнтропийном виде. На каждый получаемый Землей высокоэнергетичный фотон приходится 20 излучаемых обратно низкоэнергетичных фотонов.
Как я уже упоминал во второй главе, Земля и ее биосфера — это системы, которые находятся очень далеко от термического равновесия. Условие термического равновесия означает, что температура одинакова повсюду, но если мы посмотрим вверх, то увидим очень горячее Солнце на, в целом, весьма холодном небе. Возможностей для увеличения энтропии предостаточно, и это очевидно. Но для наглядности давайте все же проверим реальные цифры.[161]
Энергетический баланс Земли, если рассматривать ее как единую систему, очень прост. Мы получаем энергию излучения Солнца, а затем теряем тот же самый объем энергии. Точно так же, посредством излучения, он уходит в открытый космос. (В действительности эти две величины не совсем равны; такие процессы, как ядерные распады, тоже нагревают Землю и приводят к утечке энергии в космос, а скорость излучения, строго говоря, не постоянна. И все же это весьма точное приближение.) Однако, несмотря на то что энергия остается постоянной, получаемый и отдаваемый потоки энергии кардинальным образом различаются по своим качественным характеристикам. Вспомните, что в добольцмановские времена энтропию понимали как меру полезности определенного объема энергии; низкоэнтропийные формы энергии можно использовать для совершения полезной работы, такой как приведение в действие двигателя или перемалывание зерна в муку, тогда как с высокоэнтропийными формами ничего особенного сделать не получится.
- Предыдущая
- 63/128
- Следующая