Как информация управляет миром (Сезар Идальго) читать книгу онлайн полностью на iPad, iPhone, android | 7books.ru

Как информация управляет миром (Сезар Идальго)

Сезар Идальго

Как информация управляет миром

 

civiliзация

 

Посвящается Айрис, Анне и Мриду

 

 

Пролог

Вечная война

 

Вселенная состоит из энергии, материи и информации, однако именно информация делает Вселенную интересной. Без информации Вселенная представляла бы собой аморфный суп. В ней отсутствовали бы формы, структуры, апериодические порядки и фрактальные закономерности, которые делают Вселенную такой красивой и сложной.

Тем не менее информация встречается редко. Она скрывается, пытаясь сопротивляться извечному стремлению Вселенной к беспорядку – к увеличению энтропии. Эта книга посвящена росту объема информации и механизмам, которые позволяют информации бороться со случайностью и расти. К этим механизмам относятся как естественные процессы, способствующие возникновению информации, так и социальные и экономические механизмы, которые ускоряют темп увеличения объема информации в обществе. В этой книге говорится о росте объема информации, то есть об усилении физического порядка, что делает нашу планету уникальной, богатой и неравномерной, начиная от атомов и заканчивая экономиками.

Большая часть этой книги посвящена нашей планете и живущим на ней видам. Это связано с тем, что с космической точки зрения наша планета представляет собой особенное место. Мы знаем о многих местах нашей Вселенной, в которых сконцентрировано больше материи и энергии, чем на Земле, но нам неизвестны места, в которых было бы сконцентрировано больше информации. Нейтронные звезды являются настолько плотными, что чайная ложка их вещества весит больше, чем Эмпайр?стейт?билдинг. Черные дыры настолько массивны, что они искажают геометрию пространства. Энергия также присутствует в огромном количестве в миллиардах звезд нашей галактики, однако ее не так много на нашей планете. Таким образом, особенностью нашей планеты является не материя или энергия, а физический порядок, или информация. Для информации наша планета представляет то же, что черная дыра для материи или звезда для энергии. Наша планета – это место посреди бесплодной Вселенной, где информация живет, растет и прячется.

Однако откуда же берется информация? Почему информация сосредоточена на нашей планете и как жизнь способствует росту ее объема? Какие социальные и экономические механизмы обеспечивают постоянное увеличение объема информации в обществе? Как социальное накопление информации улучшает нашу способность накапливать еще больше информации? И как механизмы, способствующие росту объема информации, обусловливают социальную и экономическую неравномерность мировой экономики?

Далее мы узнаем о том, что собой представляет информация, откуда она берется и чем вызван рост ее объема. Мы узнаем о природных, социальных и экономических механизмах, которые помогают информации бунтовать против энтропии. Мы узнаем о механизмах, которые помогают информации выигрывать небольшие битвы, стоически сражаясь в единственной истинной войне нашей Вселенной – в войне между порядком и беспорядком, между энтропией и информацией.

 

Введение

От атомов до людей и экономик

 

Людвиг был несчастным человеком. Стала ли смерть его сына последней каплей? Или он страдал от критики со стороны своих коллег? Может быть, он слишком любил атомы?

Во время летних каникул Людвиг покончил с собой. Его младшая дочь Эльза обнаружила его повешенным. Она отказывалась говорить об этом эпизоде на протяжении всей своей жизни.

Конечно, я говорю о Людвиге Больцмане. Он был не только успешным ученым, но и неуверенным в себе человеком. Людвиг внес важный вклад в наше понимание природы. Тем не менее его научные выводы не избежали критики.

Людвиг верил в атомы в то время, когда многие из его коллег считали их не более чем удобной аналогией. Их скептицизм беспокоил его. С одной стороны, он знал, что находится на верном пути. Он показал, что эмпирическое поведение газов может быть обусловлено коллективным движением молекул или атомов. Это открытие предоставило ему косвенные доказательства существования атомов, но не дало способа их непосредственного наблюдения.

Отсутствие прямых доказательств сделало Людвига уязвимым к критике его коллег. Физик и философ Эрнст Мах утверждал, что наука должна сосредоточиваться только на отношениях между непосредственно наблюдаемыми величинами. Такие дополнительные теоретические конструкты, как атомы Больцмана, были недопустимы.

Однако у Людвига были неприятности не только с обществом. На протяжении десятилетий он пытался объяснить происхождение физического порядка. Его попытки, несмотря на научную плодотворность, также оказались безуспешными. Предсказания теории Людвига противоречили тому, что он хотел показать. Его повседневный опыт демонстрировал, что порядок вокруг него увеличивается: цветы цветут, деревья растут, а общество, в котором быстро развивается индустриализация, каждый день разрабатывает новые устройства. Тем не менее теория Людвига предсказывала, что порядок должен не расти, а исчезать. Это объясняло, почему горячее тело остывает, почему завитки молока рассеиваются в кофе и почему шепот исчезает в ветре. Людвиг показал, что микроструктуры Вселенной пожирают порядок, делая его эфемерным. Однако он понимал, что это было не все и что ему были неизвестны механизмы, которые помогают информации пересекать пределы.

Рост порядка беспокоил Людвига. Его тревога может быть понятна только ученому. Он знал, что в его теории чего?то не хватает, однако не мог определить, чего именно. К концу жизни Людвиг устал от сражений с людьми и природой. Он попытался решить проблему с помощью веревки, после чего осталась лишь оболочка из атомов, которая начала устойчивый, но однозначный распад, как и предсказывала его теория.

 

* * *

 

В 1906 году Людвиг покончил с собой, но не с философскими проблемами, которые его волновали. Чтобы объяснить происхождение физического порядка, Людвиг связал явления различных пространственных масштабов, в основном атомы и газы.[1] Несмотря на то, что сегодня это имеет смысл, во времена Людвига работа с разными пространственными масштабами являлась практикой, нарушающей негласный договор между учеными. Многим коллегам Людвига наука представлялась чем?то вроде иерархии русских матрешек с новыми структурами, возникающими на каждом уровне. Такое видение делало пересечение границ ненужным. Экономика не нуждалась в психологии, а психологии не нужна была биология. Биология не нуждалась в химии, а химия – в физике. Объяснение газов с точки зрения атомов, хотя и не было таким же нелепым, как объяснение поведения человека, исходя из биологических предпосылок, считалось предательством этой негласной договоренности. Больцман «согрешил», пытаясь объяснить макроскопические свойства газов движением атомов.

 

* * *

 

Двадцатый век подтвердил верность взгляда Людвига на атомы и, в меньшей степени, оправдал его страсть к пересечению академических границ. Квантовая механика помогла объединить атомы Людвига с химией и материаловедением. Молекулярная биология и биохимия позволили объединить биологию клетки с химическими свойствами населяющих ее белков. Параллельно этому биология подружилась с психологией, когда теория Дарвина легла в основу объяснения человеческого поведения.[2] Тем не менее не все взаимообогащение имело место у известных научных границ. В этих междисциплинарных танго существовала концепция, которая танцевала сразу со всеми партнерами. Это была идея информации.

Информация являлась объектом восхищения для Людвига. Это то, что ускользало от него и что он неустанно стремился объяснить: почему порядок во Вселенной стремится сойти на нет при его нарастании на Земле.

В ХХ веке продолжился не только рост объема информации, но и попытки ученых понять это явление. Однако на этот раз изучение информации было вдохновлено не красотой природы, а ужасами войны. Во время Второй мировой войны у конкурирующих армий возникла потребность в общении с использованием секретных кодов. Эти коды вызывали необходимость в расшифровке перехваченных сообщений, что стало причиной изучения информации с помощью математических методов.

Кодирование и декодирование сообщений являлось математической задачей, которая была слишком интересной, чтобы оставить ее после окончания войны. Математики продолжили формализацию идеи информации, однако встроили свои попытки в контекст коммуникационных технологий, превзойдя потребность в расшифровке перехваченных сообщений. Математики, которым удалось достичь успеха, стали известны в мире в качестве первых информационных теоретиков или кибернетиков. Среди этих пионеров были Клод Шеннон, Уоррен Уивер, Алан Тьюринг и Норберт Винер.

В 1950?х и 1960?х годах идея информации взяла науку штурмом. Информация была принята во всех академических областях в качестве мощной концепции, пересекающей границы разных наук. Информация не была ни микроскопической, ни макроскопической[3]. Ее можно было записать на глиняных табличках или плотно упаковать в цепочке ДНК. Для многих практических целей масштаб информации был не важен. Эта независимость от масштаба сделала идею информации привлекательной для ученых всех областей, которые приняли эту концепцию и наделили ее особенностями своей дисциплины.

Биологи восприняли эту идею в результате исследования того, как гены кодируют наследственную информацию. Инженеры, вдохновленные работами Шеннона, изобретали передатчики и приемники, оплетая мир аналоговыми и цифровыми сетями. Ученые, работавшие в сфере компьютерных технологий, психологи и лингвисты предприняли попытки смоделировать мозг с помощью электронных мыслящих машин. После того как ХХ век изжил атомный дух времени, новым тузом в руке у каждого стала информация.

Идея информации также нашла свое место в социальных науках, и в частности в экономике. Фридрих Хайек, австрийский экономист и современник Шеннона, утверждал, что цены передают информацию о предложении и спросе на товары. Это помогло выявить информацию, необходимую для работы «невидимой руки» Смита. Как писал Хайек, «в системе, в которой знание соответствующих фактов распределено среди многих людей, цены могут координировать их отдельные действия».[4]

Идея информации также помогла экономистам понять некоторые важные проблемы рынка. Джордж Акерлоф прославился, показав, что рынки могут не работать, если люди обладают асимметричной информацией о качестве товаров, которые они хотели бы обменять.[5] Параллельно с этим Герберт Саймон, эрудит, который внес вклад в экономику, организационную теорию и сферу искусственного интеллекта, выдвинул идею ограниченной рациональности, которая сосредоточивалась на поведении экономических субъектов, имеющих ограниченную информацию о мире.

На протяжении ХХ века идея информации постепенно приобрела глобальное значение. Однако по мере роста ее популярности мы стали забывать о телесности информации, которая тревожила Больцмана. Слово информация стало синонимом неземного, нефизического, цифрового, невесомого, нематериального. Однако информация имеет физическую природу, так же, как атомы Больцмана или энергия их движения. Информация не является твердым телом или жидкостью. У нее нет особых частиц, однако она обладает такой же физической природой, как движение и температура, которые также не имеют собственных частиц. Информация бестелесна, но она всегда физически воплощена. Информация – это не вещь, а, скорее, соотношение физических вещей. Это физический порядок, подобный различным комбинациям при перемешивании колоды карт. Однако удивительным для большинства людей является то, что информация не имеет смысла, хотя бессмысленный характер информации, равно как и ее телесность, часто понимается неправильно.

 

* * *

 

В 1949 году Клод Шеннон и Уоррен Уивер опубликовали небольшую книгу под названием «Математическая теория связи». В ее первом разделе Уивер описал концептуальные аспекты информации. Во втором разделе Шеннон описал математику того, что теперь нам известно как теория информации.

Для правильного понимания теории информации Шеннону и Уиверу нужно было отстраниться от слова «информация» в его разговорном смысле. Уивер описал это различие в начале своего эссе: «Слово “информация” в данной теории используется в особом смысле, и его не следует путать с обычным способом употребления. В частности, понятие “информация” нельзя путать с понятием “значение”».[6]

Шеннон также отметил это в начале своего раздела, используя аргументы из области инженерии вместо семантических различий: «Фундаментальная проблема связи заключается в точном или приблизительном воспроизведении в одной точке сообщения, взятого из другой точки. Часто эти сообщения имеют значение… Эти семантические аспекты коммуникации [относящиеся к смыслу сообщения] не имеют отношения к инженерной задаче».[7]

Однако почему Шеннон и Уивер так стремились отделить информацию от значения? На это были как технические, так и философские причины. С технической точки зрения Шеннон был заинтересован в строительстве машин, которые могли бы передавать информацию независимо от смысла сообщения. Смешение информации со значением сбивало с толку при решении инженерной задачи. С философской точки зрения Шеннон и Уивер понимали, что их слова «информация» и «значение» относятся к принципиально различным понятиям. Люди и некоторые машины способны интерпретировать сообщения и наделять их смыслом. Однако то, что передается по проводам или посредством электромагнитных волн, это не значение, а всего лишь информация.

Людям сложно отделить информацию от значения, поскольку мы склонны к интерпретации сообщений. Мы наделяем сообщения смыслом автоматически, ошибочно полагая, чтозначение сообщения заключается в самом сообщении. Однако это не так. Это только иллюзия. Значение выводится из контекста и уже имеющегося знания. Значение – это интерпретация, которую познающий субъект, например человек, дает сообщению, но которая отличается от физического порядка, передающего данное сообщение, а также от самого сообщения. Значение возникает тогда, когда сообщение достигает формы жизни или машины, способной обрабатывать информацию. Оно не заключено в чернильных пятнах, звуковых волнах, лучах света или электрических импульсах, передающих информацию.

Подумайте о фразе «11 сентября». Когда я произношу эту фразу, большинство американцев автоматически вспоминают об атаке на башни?близнецы в 2001 году. Чилийцы обычно думают о государственном перевороте в 1973 году. Однако, произнося фразу «11 сентября», я могу просто сказать своим студентам о том, что в этот день я планирую вернуться в Массачусетский технологический институт. Как видите, значение придаете вы. Оно не является частью сообщения, хотя так может показаться. Значение – это то, что мы бесшовно присоединяем при интерпретации сообщений, поскольку людям свойственно интерпретировать проявления физического порядка. Однако эта цельность не означает то, что значение и информация являются одним и тем же.

Чтобы создать машину, которая могла бы передавать информацию, независимо от значения сообщения, Шеннону требовалась формула для оценки минимального количества символов, необходимых для кодирования сообщения. Основываясь на работе Гарри Найквиста и Ральфа Хартли, Шеннон приблизительно определил объем информации, требуемый для передачи сообщения через чистый или подверженный помехам канал. Он также оценил экономичность коммуникации, обусловленную корреляциями в структуре сообщений, например тем фактом, что в английском языке буква t чаще предшествует букве h, чем букве q. Философские рассуждения Шеннона привели его на математический путь, подобный тому, который прошел Больцман. В конце пути Шеннон вывел основную формулу для максимально эффективного кодирования произвольного сообщения. Эта формула позволяла заключить информацию в магнитном диске, электромагнитных волнах или в чернилах на бумаге. Формула Шеннона была идентична той, которую Больцман предложил почти пятьдесят лет назад.[8] Это совпадение не было случайностью.

 

* * *

 

Совпадение формул Шеннона и Больцмана говорит о физической природе информации. Эта физическая реальность имеет решающее значение для понимания того, как изучение атомов может помочь нам разобраться в экономике. По большей части естественные науки сосредоточивались на описании нашей Вселенной, начиная с атомов и заканчивая людьми, соединяя простоту атома со сложностью жизни.[9] Социальные науки фокусировались на связях между людьми, обществом и экономикой, рассматривая человека в качестве основополагающего блока – социального и экономического атома, если можно так выразиться. Тем не менее это разделение не обошлось без потерь, поскольку механизмы, позволяющие информации накапливаться, преодолевают барьеры, отделяющие неживое от живого, живое от социального и социальное от экономического.

Поэтому я посвящу следующие страницы описанию механизмов, которые способствуют росту объема информации на всех уровнях, начиная с атомов и заканчивая экономиками. Не от атомов к людям или от людей к экономике, как это обычно делается. Это поможет нам навести мосты между физическими, биологическими, социальными и экономическими факторами, которые способствуют накоплению информации, а также ограничивают нашу способность ее обрабатывать. К способности обработки информации относится вычисление, и на уровне человека она требует «программного обеспечения», которое мы называем «знанием» и «ноу?хау». В результате получится книга об истории нашей Вселенной, основанной не на стреле времени, а на стреле сложности.

И это именно стрела сложности, то есть роста объема информации, определяет историю нашей Вселенной и живущих в ней видов. Миллиарды лет назад, вскоре после Большого Взрыва, наша Вселенная не могла создавать порядок, который восхищал Больцмана и который все мы воспринимаем как должное. С тех пор наша Вселенная двигалась к беспорядку, как предсказывал Больцман, однако параллельно с этим она создавала места, в которых концентрировались огромные объемы физического порядка или информации. Наша планета является явным примером такого места.

Волна звезд, предшествовавшая образованию нашей Солнечной системы, синтезировала атомные элементы, необходимые для появления форм жизни. К этим элементам относятся углерод, кислород, кальций, азот и железо. Из останков этих звездных предков сформировалось новое поколение звезд. На этот раз планеты, которые кружили вокруг них, были богаты химическими веществами, необходимыми для развития жизни. Наша планета, возраст которой составляет четыре или пять миллиардов лет, с тех пор использовала это химическое богатство для того, чтобы стать примером особенной сложности. На протяжении миллиардов лет объем информации на нашей планете продолжал расти: сначала в химическом составе, затем в простых формах жизни, а в последнее время – в нас. Во Вселенной, которая в основном представляет собой пустое пространство, наша планета является оазисом, где объем информации, знания и ноу?хау продолжает увеличиваться благодаря энергии солнца, а также самоусиливающимся механизмам, под которыми мы понимаем жизнь.

Тем не менее путь от физики звезд до форм жизни, которые населяют нашу планету, включает всего два пункта на временной шкале сложности и информации. Эволюция информации преодолевает все границы, распространяясь даже на информацию, порождаемую нашей экономикой и обществом. Информация, понимаемая в широком смысле как физический порядок, это то, что производит наша экономика. Это единственное, что мы производим, независимо от того, представляем ли мы собой биологические клетки или заводы. Это связано с тем, что информация не ограничивается сообщениями. Она присуща всем производимым физическим объектам: велосипеды, здания, фонари, блендеры, фены, обувь, люстры, комбайны и нижнее белье сделаны из информации. Дело не в том, что они состоят из идей, а в том, что в них воплощен физический порядок. Наш мир наполнен информацией. Это не аморфный суп из атомов, а аккуратно организованные коллекции структур, форм, цветов и корреляций. Эти упорядоченные структуры – проявление информации, даже если в этих фрагментах физического порядка отсутствует какой?либо смысл.

Однако произвести информацию нелегко. Вселенной с трудом удается это делать. Наша способность порождать информацию и производить предметы, инфраструктуры и институты, которые мы ассоциируем с процветанием, требует от нас борьбы с постоянным стремлением к беспорядку, характеризующему нашу Вселенную и беспокоившему Больцмана. Для борьбы с беспорядком и обеспечения роста объема информации наша Вселенная использует несколько приемов. К этим приемам относятся неравновесные системы, накопление информации в твердых телах и способность материи производить вычисления. Вместе три эти механизма способствуют росту объема информации на небольших островках или в пакетах, где информация может накапливаться и скрываться, например в нашем теле или нашей планете.

Таким образом, накопление информации и наша способность ее обрабатывать определяет стрелу роста, затрагивающую физическое, биологическое, социальное и экономическое и простирающуюся от момента возникновения Вселенной до современной экономики. Именно рост объема информации объединяет возникновение жизни с ростом экономики и появление сложности с истоками богатства.

Тем не менее рост объема информации происходит неравномерно не только во Вселенной, но и на нашей планете. Он происходит в своеобразных пакетах, способных порождать и хранить информацию. Города, фирмы и группы представляют собой пакеты, в которых наши виды накапливают потенциал для производства информации. Разумеется, способность этих городов, фирм и групп порождать информацию является крайне неравномерной. Некоторые способны производить информацию, которая воплощает научно фантастические концепции. Другим до этого еще далеко.

Таким образом, исследуя сущность информации и причины ее накопления, мы проследим эволюцию не только физического, но и экономического порядка. Мы объединим основные физические принципы с теорией информации, а также с теориями социального капитала, экономической социологии, теориями познания и практиками промышленной диверсификации и экономического развития. Разбираясь в причинах роста объема информации, мы проследим эволюцию процветания, поговорим о богатых и бедных странах, о продуктивных и непродуктивных командах, о роли институтов для нашей способности аккумулировать знания, а также о механизмах, которые ограничивают способность людей производить пакеты физически воплощенной информации. Мы отойдем на шаг назад от традиционных подходов к пониманию социальных и экономических явлений. Вместо этого мы попытаемся сгенерировать описание, которое стремится интегрировать физические, биологические, социальные и экономические механизмы для объяснения постоянного роста того, что не является вещью. То, что очаровывает вас, меня, как и Больцмана, представляет собой физический порядок, или информацию. Это высокая концентрация сложности, которую мы наблюдаем каждый раз, когда открываем глаза, не потому, что информация распространена во всей Вселенной, а потому, что мы рождены ею и сами ее порождаем.

 

Часть I

Биты в атомах

 

Глава 1

Секрет путешествия во времени

 

Стул, на котором я ожидал рождения своей дочери, был не очень удобным. Моя жена Анна и я приехали в Главный госпиталь Массачусетса в 6:30 вечера в ту субботу. Мы оставались дома, пока развивались ее схватки, и решили направиться в больницу, когда интервал между ними сократился до нескольких минут. Ее схватки усилились во время медицинской сортировки, но обезболивающий укол, который ей сделали пару часов спустя, дал необходимый отдых. На часах было 2:00. Ночь прошла спокойно. Слышался только периодический шум прибора, измеряющего ее давление. Комнату освещали несколько дисплеев и уличные фонари, отражающиеся в реке Чарльз. В этой полутьме я видел только Анну, мирно отдыхающую на кровати. Я держал ее за руку и ждал рождения нашей дочери, сидя в кресле, которое, как я уже говорил, не было особенно удобным.

В 3:00 утра медсестра сказала нам, что Анне пора тужиться. Анна была полностью готова, и наша дочь Айрис начала одно из важнейших путешествий в своей жизни. Жене потребовалось всего двадцать шесть минут, чтобы вытолкнуть Айрис в руки нервничающего, но сосредоточенного студента?медика, который принял ее. Двадцать шесть минут кажется коротким временем для родов, и это действительно так. Тем не менее я утверждаю, что путешествие, которое Айрис проделала в ту ночь, представляло собой не просто продвижение по нескольким сантиметрам родовых путей в течение двадцати шести минут, а 100?тысячелетнее путешествие из далекого прошлого в неизвестное будущее. За двадцать шесть минут Айрис проделала путь из древности чрева своей матери в современность общества XXI века. Рождение, в сущности, представляет собой путешествие во времени.

До той ночи, за исключением нескольких звуков, мир для Айрис представлял собой тот же мир, что и для младенцев сто тысяч лет назад. Она находилась в утробе матери и слышала в основном только голоса родителей, не представляя сложности окружающего ее современного мира. В ночь ее рождения все изменилось.

Айрис родилась в 3:26 утра в комнате, освещенной не солнечными лучами, а флуоресцентными светильниками и лампами накаливания. Ее бабушка и дедушка, которые с тревогой ожидали новостей, впервые увидели ее лицо во вложении в электронном письме. Музыка, наполнившая палату после рождения Айрис, была не пением птиц и не шелестом деревьев, а лилась из динамиков планшетного компьютера, который повиновался приказам алгоритма, выбравшего для нас песню.[10] В ту ночь Айрис за несколько минут проделала путь в несколько сантиметров, однако в более глубоком смысле она совершила намного более длительное путешествие. В ночь своего рождения она переместилась из далекого прошлого в поистине фантастическое настоящее.

Несмотря на то, что путешествие Айрис имеет для меня особое значение, ее способ путешествия во времени не является редкостью. Рождение в XXI веке представляет собой чуждый опыт для большинства детей. Мир XXI века значительно отличается от того, в котором эволюционировал наш вид. Это сюрреальный мир, наполненный материальными объектами, которые до своего появления представлялись в воображении. Палата, в которой родилась Айрис, была полна материальных объектов, однако современным этот мир делали не эти объекты. Различие между миром, в котором родилась Айрис, и миром ранних гоминид заключается не в телесности материи, а в способе ее организации. Этот физический порядок представляет собой информацию. Ночному рождению Айрис способствовали не объекты, а заключенная в них информация и практическое использование знания и ноу?хау, которые неявно присутствуют в этих объектах. Палата, в которой родилась Айрис, была освещена не только лампами, но и пониманием электричества, энергии и материалов, используемых в этих лампах. В ту ночь Айрис было тепло благодаря не случайному скоплению нитей, а одеялам, сотканным из материи, знаний и воображения. Как это ни парадоксально, но Айрис родилась в реальном мире, который, хотя и является материальным, имеет свое происхождение в воображении. Этот мир отличается от того, в котором эволюционировал наш вид, только способом организации материи.

Тот факт, что объекты являются воплощением информации и воображения, может показаться очевидным. Информация – это фундаментальный аспект природы, который старше самой жизни. Кроме того, по мере развития жизни накопление информации происходило с ускорением. Рассмотрим репликацию таких информационно насыщенных молекул, как ДНК и РНК. Репликация ДНК и РНК является процессом воспроизведения не материи, а заключенной в ней информации. Живые организмы представляют собой хорошо организованные структуры, которые обрабатывают и производят информацию. Тем не менее мы сосредоточим свое внимание не на способности генерировать информацию, заключенную в наших клетках, а на той способности, которая возникла с появлением людей и общества. Люди – это особые животные в плане информации, поскольку в отличие от других видов мы развили способность кодировать большие объемы информации вне нашего тела. Наивно полагать, что речь идет об информации, закодированной в книгах, нотах, аудио? и видеозаписях. Еще до освоения письма мы воплощали информацию в артефактах или предметах, начиная со стрел и каменных топоров и заканчивая микроволновыми печами и Интернетом. Таким образом, наша способность производить стулья, компьютеры, скатерти и бокалы является простым ответом на вечный вопрос: в чем разница между нами, людьми, и всеми другими видами? Ответ заключается в том, что мы умеем создавать физические инстанциации объектов, которые мы представляем в своем воображении, в то время как другие виды ограничены тем, что создает природа.[11]

На следующих страницах я опишу физические, социальные и экономические механизмы, которые объясняют рост объема информации в нашем мире и в нашей Вселенной. Эти механизмы отвечают за создание физического порядка, который сделал рождение Айрис как материальным, так и волшебным. С одной стороны, мы изучим физику информации. В результате мы поймем сущность информации и физические механизмы, способствующие ее появлению. Тем не менее физика информации способна объяснить лишь простейшие формы физического порядка. Чтобы объяснить порядок, пронизывающий наше современное общество, потребуется выйти за рамки физики и исследовать социальные и экономические процессы, которые позволяют группам людей производить информацию. К этим процессам относится образование социальных и профессиональных сетей, в которых заключена способность социальной обработки информации. Эта способность включает в себя накопление знаний и ноу?хау.

Знания и ноу?хау являются двумя основными способностями, которые относятся к вычислению и имеют решающее значение для накопления информации в экономике и обществе. Тем не менее знания и ноу?хау – это не одно и то же. Проще говоря, знание включает в себя отношения или связи между объектами. Эти отношения часто используются для того, чтобы спрогнозировать последствия действия, не совершая его.[12] Например, мы знаем, что употребление табака увеличивает вероятность развития рака легких, и мы можем использовать эту связь, чтобы предсказать последствия курения, не употребляя табак.

Ноу?хау отличается от знания тем, что оно включает в себя не выражаемую словами способность выполнять некоторые действия.[13] Например, большинство из нас знает, как ходить, хотя мы не знаем, как нам это удается. Большинство из нас знает, как определять и называть изображенные объекты, хотя нам неизвестно, каким образом мы выполняем эти задачи восприятия и вербализации. Большинство из нас умеет распознавать объекты с разных углов, узнавать лица, переваривать пищу и улавливать эмоции, хотя мы и не можем объяснить, как мы это делаем. Однако нам удается совершать эти действия благодаря тому, что у нас есть ноу?хау. Ноу?хау – это не выражаемая словами вычислительная способность совершать действия, которая накапливается как на уровне индивида, так и на уровне коллектива.

Невыражаемая словами природа ноу?хау кажется странной, поскольку из?за нее мы можем чувствовать себя автоматами, не осознающими своих действий. Тем не менее в этом нет ничего странного. Марвин Мински, один из отцов искусственного интеллекта, однажды сказал: «Ни один созданный компьютер не осознает того, что он делает, однако большую часть времени мы тоже этого не осознаем».[14]

Другое отличие, о котором мне следует упомянуть, заключается в разнице между информацией, являющейся чем?то, и информацией о чем?то, например информацией, передаваемой в сообщении. Возьмем в качестве примера машину. Я могу сказать вам, что у меня красная машина с шестиступенчатой механической коробкой передач и 1,6?литровым двигателем. Все это является информацией о моей машине, однако это не та информация, которая заключена в моем автомобиле. Как мы узнаем в следующих главах, моя машина состоит из информации, которая является не информацией о чем?то, а представляет собой физический порядок.

По большей части я буду использовать слово «информация», подразумевая физический порядок, воплощенный в объектах. Я подробно рассмотрю это определение в следующей главе. Я использую это определение, потому что оно помогает мне сформулировать более простую теорию роста объема информации, в которой физический порядок, независимо от того, являлась ли целью его создания необходимость в передаче значения, развивается вместе со способностью Вселенной производить вычисления. В социальном и экономическом контексте эта вычислительная способность включает в себя как знания, так и ноу?хау.

Таким образом, для объяснения роста объема информации в природе и обществе мы изучим совместную эволюцию физического порядка, знания и ноу?хау, которые позволяют нашей Вселенной порождать этот физический порядок. При этом мы перейдем от простейших физических систем, в которых информация возникает спонтанно, до сложного устройства нашего общества, где для дальнейшего накопления информации появляется необходимость в знании и ноу?хау.

Случай с обществом и экономикой является наиболее сложным, поскольку здесь накопление знаний и ноу?хау становится весьма ограниченным. Как и информация, заключенная в объектах, знания и ноу?хау всегда должны быть физически воплощены. Тем не менее, в отличие от информации, носителями знания и ноу?хау являются люди и сообщества людей, чей потенциал воплощения знания и ноу?хау является ограниченным. Конечность человека и формируемых им сообществ ограничивает нашу способность накапливать и передавать знания и ноу?хау, что приводит к скоплениям знаний и ноу?хау в определенных местах, обусловливающих глобальное неравенство. Таким образом, необходимость того, чтобы знания и ноу?хау были воплощены в людях и сообществах людей, может помочь объяснить неравномерность развития стран мира. Этим идеям посвящены части III и IV книги, и для их подтверждения я буду использовать данные о продуктах, создаваемых группами людей в разных местах, поскольку продукты, которые состоят из информации, являются выражением знания и ноу?хау, доступных в конкретном месте.

Таким образом, центральными понятиями, которые я буду использовать для описания процесса роста объема информации на нашей планете, являются физические объекты как физические воплощения информации и люди как основные носители знаний и ноу?хау. С этой фундаментальной точки зрения мы опишем экономику как систему, с помощью которой люди накапливают знания и ноу?хау для создания пакетов физического порядка или продуктов, подчеркивающих нашу способность накапливать еще больше знаний и ноу?хау, что в свою очередь способствует дальнейшему накоплению информации. В основном мы сосредоточимся на росте объема информации, знаний и ноу?хау в экономике, создав сначала теорию о продуктах в терминах физического порядка, а затем опишем социальные и экономические механизмы, которые позволяют нашему обществу накапливать знания и ноу?хау, необходимые для производства продуктов.

Однако сначала необходимо удостовериться в том, что мы одинаково понимаем физическую основу информации и ее неочевидные истоки. Я начну с объяснения того, что представляет собой информация с точки зрения математики и физики. Как мы увидим позднее, это поможет нам понять, почему Больцман и Шеннон пришли к одной и той же формуле. Кроме того, это познакомит нас с основополагающими физическими принципами, которые позволяют информации накапливаться.

 

Глава 2

Тело бессмысленного

 

Предположим, что нас попросили распределить по категориям следующие понятия: расстояние, масса, электрическая сила, энтропия, красота, мелодия. Я думаю, что существуют достаточные основания для того, чтобы поместить энтропию рядом с красотой и мелодией, а не с первыми тремя понятиями. Энтропия проявляется только там, где части рассматриваются в связи, и именно просмотр или прослушивание частей в их связи с другими частями позволяет различить красоту и мелодию.

Артур Эддингтон

 

Чтобы что?нибудь изобрести, необходимо хорошее воображение и куча мусора.

Томас Эдисон

 

Несколько месяцев назад мне на глаза попалась статья, помещенная на главной странице посвященного бизнесу раздела чилийской газеты. В этой статье говорилось о чилийце, купившем самый дорогой в мире автомобиль. Стоимость машины марки Bugatti Veyron составила более двух с половиной миллионов долларов США, и ее покупка стала одним из самых ярких примеров показного потребления, когда?либо виденных мной.

Поискав в Интернете, я оценил стоимость килограмма веса этого автомобиля, которая составила примерно одну тысячу триста долларов США (или около шестисот долларов США за фунт веса).[15] Для сравнения возьмем стоимость килограмма золота и серебра. В некоторые дни стоимость килограмма чистого серебра составляет около одной тысячи долларов США, а килограмма золота – около пятидесяти тысяч долларов США.[16] Стоимость килограмма веса обычного автомобиля колеблется от десяти (Hyundai Accent) до шестидесяти долларов США (BMW M6). Таким образом, хотя стоимость Bugatti Veyron не превышает стоимости ее весового эквивалента в золоте, она превышает стоимость ее весового эквивалента в серебре, тогда как стоимость автомобиля Hyundai Accent соответствует стоимости его весового эквивалента в бронзе.

Вы, конечно, можете сказать, что сравнивать килограмм веса автомобиля Bugatti и килограмм серебра бессмысленно, поскольку вы мало что можете сделать с килограммом Bugatti. Тем не менее эта бессмыслица может много рассказать нам о том, как физический порядок, или информация, может быть упакована в продукте.

Представьте на секунду, что вы только что выиграли автомобиль Bugatti Veyron в лотерею. В порыве радости вы решили прокатиться на своей новой машине. Из?за своего волнения вы врезаетесь в стену. Вы не получили повреждений, но расстроились, поскольку не успели застраховать свой автомобиль, который уже не подлежит восстановлению. Сколько стоит килограмм Bugatti теперь?

Ответ на этот вопрос совершенно очевиден. Долларовая стоимость автомобиля испарилась за секунды, которые потребовались на то, чтобы разбить его об стену, в то время как его вес остался прежним. Так куда же делась ценность? Долларовая стоимость автомобиля испарилась во время аварии не потому, что в ее результате были уничтожены атомы, из которых состоял автомобиль Bugatti, а из?за того, что авария изменила порядок их расположения. Когда части, из которых состояла машина, были разъединены и деформированы, информация, которая была воплощена в Bugatti, оказалась в значительной степени уничтожена. Другими словами, два с половиной миллиона долларов США стоили не атомы автомобиля, а то, как эти атомы были организованы.[17] Эта организация и представляет собой информацию.[18]

Таким образом, стоимость автомобиля Bugatti определяется физическим порядком, которым и является информация, несмотря на продолжающиеся споры о том, что она собой представляет.[19] Клод Шеннон, отец теории информации, говорил, что информация – это мера минимального объема данных, необходимого для передачи сообщения. То есть это количество битов, требуемое для передачи данных об организации, например о порядке атомов, составляющих автомобиль Bugatti.

Тем не менее для лучшего понимания определения «информация», сформулированного Шенноном, лучше начать с чего?нибудь более простого, чем автомобиль Bugatti. Я буду использовать в качестве примера твит. Твит – это сообщение, состоящее из 140 символов, которое используется на сервисе Twitter. Твит, как и Bugatti, представляет собой небольшой пакет информации, но, в отличие от Bugatti, он создается в качестве акта коммуникации. Тем не менее с точки зрения теории Шеннона это не имеет значения. Согласно Шеннону, информация – это минимальный объем данных для передачи любого сообщения. Будь то твит, состоящий из случайных символов, или самое остроумное сообщение, которое вы когда?либо видели, все это не имеет значения с точки зрения теории информации Шеннона.

Итак, сколько же информации содержится в твите? Чтобы представить содержимое твита в количественном выражении, рассмотрим гипотетическую игру для двух пользователей сервиса Twitter, Эбби и Брайана. В этой игре Эбби и Брайан должны угадать твиты друг друга, используя только вопросы типа «да/ нет». Для игры в эту игру у них есть книга, которая содержит все возможные твиты, которые могут быть написаны. Игра начинается тогда, когда Эбби случайным образом выбирает твит из своей книги. После этого она просит Брайана угадать ее твит, используя только вопросы типа «да/нет». Шеннон учит нас тому, что объем информации, заключенной в твите, равен минимальному количеству вопросов типа «да/нет», необходимых Брайану для того, чтобы угадать твит Эбби со стопроцентной точностью.[20] Однако каково количество этих вопросов?

Для простоты будем считать, что Эбби и Брайан используют «алфавит» из тридцати двух символов: строчных латинских букв и таких дополнительных символов, как пробел (), косая черта (/), запятая (,), точка (.), а также «собака» (@) и решетка (#). Кроме того, будем считать, что у Эбби и Брайана есть таблицы, в которых каждый символ соответствует числу (a = 1, b = 2, […], @ = 31, # = 32).

Лучшим способом угадывания твита Эбби является использование Брайаном каждого вопроса для разделения пространства поиска возможных твитов пополам. Брайан может сделать это, отгадывая сообщение Эбби символ за символом. Если Брайан решит использовать данную стратегию, то его первым вопросом типа «да/нет» будет: «Число, соответствующее первому символу, больше 16?» Если Эбби ответит отрицательно, то Брайан будет знать, что первый символ в твите Эбби расположен между буквами a и p. Имея это в виду, Брайан должен будет задать второй вопрос, который разделяет пополам оставшийся набор символов: «Число, соответствующее первому символу, больше 8?» Если Эбби ответит утвердительно, то Брайан будет знать, что первый символ сообщения Эбби расположен между числами 9 и 16 (то есть между буквами i и p). Теперь вы уже можете догадаться, что следующим вопросом Брайана будет: «Число, соответствующее первому символу, больше 12?»

Каждый заданный вопрос позволяет Брайану сократить количество возможных символов в два раза. Поскольку существует тридцать два возможных символа, Брайану потребуется задать только пять вопросов, чтобы угадать каждый символ (вам нужно разделить 32 на 2 пять раз, чтобы получить только один вариант). Наконец, поскольку твит состоит из 140 символов, Брайану потребуется 140 ? 5 = 700 вопросов типа «да/нет», или битов, чтобы угадать сообщение Эбби.[21]

Теория Шеннона говорит, что нам требуется 700 бит, или вопросов типа «да/нет», для передачи твита, написанного с использованием алфавита, включающего тридцать два символа. Кроме того, теория Шеннона является основой современных систем связи. Путем количественного определения числа битов, необходимых для кодирования сообщений, он помог разработать технологии цифровой связи. Тем не менее во время разработки своей формулы Шеннон не знал о том, что его формула была идентична той, которую вывел Больцман почти за полвека до него. Прислушавшись к предложению известного венгерского математика Джона фон Неймана, Шеннон решил назвать свою меру «энтропией», поскольку формула Шеннона была эквивалентна формуле энтропии, используемой в статистической физике. (Кроме того, согласно легенде, фон Нейман сказал Шеннону, что если тот назовет свою меру энтропией, то это гарантирует его победу в любом споре, поскольку никто точно не знает, что такое энтропия.)

Однако интерпретацию понятий «энтропия» и «информация», которые появились в результате работы Шеннона, было трудно примирить с традиционным толкованием слов «информация» и «энтропия», возникшим в работе Больцмана. Конфликт между определением слова «информация», используемым Шенноном, и его разговорным значением, которое широко распространено и сегодня, легко понять, используя в качестве примера компьютеры. Подумайте о своем персональном компьютере. Будь то настольный компьютер, ноутбук или смартфон, вы используете его для хранения фотографий, документов и программного обеспечения. Вы считаете эти фотографии и документы «информацией» и, конечно, хорошо понимаете то, что эта информация хранится на жестком диске вашего устройства. Тем не менее, согласно Шеннону, если бы мы случайным образом перемешали все биты на жестком диске, удалив таким образом все ваши фотографии и документы, мы бы увеличили количество информации на жестком диске. Как это может быть? Дело в том, что определение термина «информация», предложенное Шенноном, учитывает только количество битов, необходимое для передачи сообщения о состоянии системы (в данном случае речь идет о последовательности битов, которые хранятся на вашем жестком диске). Поскольку нам требуется больше битов для создания сообщения о состоянии жесткого диска, полного случайных данных, чем о состоянии жесткого диска с фотографиями и документами, содержащими корреляции, позволяющие сжимать последовательности, определение Шеннона подразумевает то, что после перемешивания битов в случайном порядке на вашем жестком диске станет больше информации. Технически Шеннон прав, говоря о том, что нам необходимо большее количество битов для передачи сообщения о содержимом жесткого диска, наполненного случайными данными, чем о содержимом жесткого диска с фотографиями и документами. Однако теорию информации Шеннона, которая, по сути, представляет собой теорию коммуникативного инжиниринга, следует расширить, чтобы примирить ее с разговорным смыслом слова «информация» и работой Больцмана. В дополнение к работе Шеннона мне сначала нужно будет объяснить определение энтропии, которое возникло из работы Больцмана, а затем вывести определение, которое мы могли бы использовать для описания информационно насыщенных состояний, ассоциирующихся с компьютером, наполненным фотографиями и документами.

Чтобы понять разницу между определениями энтропии, используемыми Больцманом и Шенноном, рассмотрим наполовину заполненный стадион.[22] Одной важной характеристикой такого стадиона является то, что существует множество способов наполнить его наполовину, и путем исследования этих способов мы можем объяснить понятие энтропии.

Сначала мы рассмотрим случай, в котором люди могут беспрепятственно передвигаться по стадиону. При этом один из способов наполовину наполнить стадион сводится к тому, чтобы рассадить людей как можно ближе к полю, оставив все верхние ряды свободными. Другой способ предполагает размещение людей на дальних рядах (при этом нижние ряды останутся незанятыми). Тем не менее люди также могут заполнить полстадиона, заняв места случайным образом.

Теперь чтобы использовать пример со стадионом для объяснения понятия энтропии, мне нужно ввести еще две идеи. Во?первых, я буду называть каждую комбинацию из сидящих на стадионе людей состоянием системы (или, выражаясь технически, микросостоянием). Во?вторых, я буду исходить из того, что мы можем определить эквивалентные конфигурации, используя некоторый критерий, который для целей данной иллюстрации может быть просто средним заполненным рядом.

В данном примере принятое в статистической физике определение энтропии соответствует просто доле всех эквивалентных состояний (на самом деле это логарифм доли, однако эта формальность не имеет отношения к тому, что я пытаюсь сказать). Таким образом, энтропия является наименьшей, когда люди сидят максимально близко или максимально далеко от поля, поскольку существует только один способ такого размещения людей.[23] Энтропия является наибольшей, когда средним из занятых рядов является центральный, поскольку существует много способов размещения людей на местах, при которых средним занятым рядом будет центральный. В предложенном Больцманом определении энтропия представляет собой множество эквивалентных состояний. В случае со стадионом наибольшее число эквивалентных состояний существует тогда, когда средним из заполненных рядов является центральный.

Следует отметить, что энтропия, которая обычно ассоциируется с беспорядком, не является мерой беспорядка. Энтропия – это мера множества состояний (количества эквивалентных состояний). Тем не менее неупорядоченных состояний, как правило, бывает больше, поэтому на практике состояния высокой энтропии, скорее всего, будут неупорядоченными. Именно поэтому приравнивание беспорядка к энтропии не является таким уж неудачным упрощением. Однако увеличение энтропии может не сопровождаться увеличением беспорядка. Рассмотрим случай с расширением газа в коробке, которая удваивается в размере (или распространение людей по стадиону, увеличивающемуся в два раза). Энтропия газа увеличивается с размером коробки, поскольку в коробке большего размера существует больше вариантов организации частиц газа. Тем не менее газ в большей коробке не является более неупорядоченным, чем газ в меньшей коробке.

Шеннон был заинтересован в передаче микросостояния системы, например отдельного твита или расположения сидящих на нашем гипотетическом стадионе людей, поэтому он приравнял понятие информации к понятию энтропии, часто используя эти слова как синонимы. Передача сообщения об одном микросостоянии, в котором средним из занятых рядов является центральный, требует больше бит, так как при этом условии существует множество эквивалентных микросостояний, поэтому для передачи данных о некотором микросостоянии требуется создать очень конкретное сообщение. Таким образом, на языке Шеннона понятия информации и энтропии функционально эквивалентны, поскольку количество битов, необходимых для создания сообщения (информация по Шеннону), представляет собой функцию от числа возможных сообщений, которые могут быть переданы (множество состояний, которое мы понимаем как энтропию). Но, это не делает энтропию и информацию одним и тем же. Лауреат Нобелевской премии по химии 1967 года Манфред Эйген заметил: «Энтропия относится к среднему (физическому) состоянию, а информация – к конкретному (физическому) состоянию».[24]

Однако тот факт, что нам требуется больше битов для передачи сообщения о состоянии, в котором каждый человек случайно выбрал место на стадионе или в котором биты на жестком диске были случайным образом перемешаны, не означает, что эти состояния заключают в себе больше порядка или информации. Информация подразумевает увеличение количества битов, но это еще не все. В примере со стадионом множество состояний, при которых люди выбрали места случайно, характеризуется наивысшим значением энтропии, но при этом самым низким значением упорядоченности (хотя некоторые из этих состояний могут быть весьма упорядоченными). В самом деле, в области естественных наук и среди широкой общественности давно существует традиция приравнивания понятия информации к чему?то большему, чем биты, к тому, что подразумевает порядок. Подумайте о генетиках, разговаривающих об информации, содержащейся в ДНК, или об информации, содержащейся в музыкальных партитурах, на катушке пленки или в книге. В данных примерах слово «информация» говорит о присутствии порядка, а не только о количестве битов, необходимых для передачи сообщения о генетической последовательности, книги или нот.

Однако упорядоченные состояния являются редкими и своеобразными. Сначала я объясню, что я имею в виду под словом «редкий» в данном контексте. Далее я объясню своеобразие информационно насыщенных состояний, которое подразумевает корреляции, придающие слову «информация» его широко распространенный разговорный смысл.

Чтобы объяснить редкость упорядоченных состояний, я расширю пример со стадионом до того, что описывал Больцман в контексте атомов. Предположим, что стадион наполовину полон, но люди не могут свободно передвигаться. Теперь разрешены только те состояния, в которых средним из занимаемых рядов является центральный. В случае с физической системой это равносильно фиксированию энергии системы. Тем не менее, поскольку существует много различных состояний, в которых средним из занятых рядов является центральный, система по?прежнему предоставляет на выбор множество вариантов. Большинство этих состояний являются достаточно случайными. Другие, однако, весьма своеобразны. Люди на стадионе могут действовать подобно пикселам на экране, поэтому в некоторых из этих состояний комбинации сидящих людей могут образовывать такие слова, как «информация», или изображения лица. Однако насколько часто встречаются такие своеобразные состояния?

Для определения часто встречающихся состояний нам нужно наметить множество всех возможных состояний. Один из способов заключается в том, чтобы посмотреть, как эти состояния связаны. Мы можем сказать, что два состояния связны между собой, если я могу перейти от одного к другому с помощью простого преобразования. Для простоты давайте рассмотрим все преобразования, при которых каждый зритель может пересесть на соседнее место, при условии, что новое состояние удовлетворяет ограничению, касающемуся среднего ряда. К числу этих преобразований относятся те, при которых каждый зритель пересаживается на одно место справа, а также преобразования, при которых человек на нижней половине стадиона пересаживается на одно место вверх, а человек на верхней половине стадиона пересаживается на одно место вниз.

В принципе мы можем использовать эти преобразования, чтобы прийти к любому состоянию. Однако на практике достижение какого?либо состояния не является таким уж простым делом. Если мы позволим людям на стадионе пересаживаться на соседние места, выбранные случайным образом (разумеется, допуская только те преобразования, которые удовлетворяют ограничению, касающемуся среднего ряда), мы никогда не получим комбинации, которые образуют слова или изображения. Эти состояния очень редки и труднодостижимы. Данное упражнение позволяет проиллюстрировать определение информации, подразумевающее наличие порядка. В физической системе информация представляет собой понятие, обратное энтропии, поскольку оно предполагает редкие и сильно коррелирующие конфигурации, которые трудно получить.

Необычные конфигурации атомов, как в автомобиле Bugatti или гитаре, несут больше информации, чем более распространенные конфигурации тех же атомов, хотя технически (и Шеннон в этом прав) передача сообщения об упорядоченной конфигурации и передача сообщения о неупорядоченной конфигурации требует одинакового количества битов, если мы проигнорируем корреляции, превалирующие в упорядоченном состоянии (которые мы можем использовать для сжатия последовательности, что позволит сократить количество битов, требующихся для передачи сообщения об упорядоченном состоянии). Тем не менее, несмотря на разницу в интерпретации, которая мешает примирить идеи Шеннона и Больцмана, мы по?прежнему можем сделать вывод о том, что из информации состоят не только сообщения, но и большинство вещей.

Итак, давайте вернемся к автомобилю Bugatti. Случай с Bugatti не так прост, как случай с твитом, поскольку он подразумевает позиционирование огромного числа атомов, а не просто 140 символов. Кроме того, как я только что сказал, в случае с Bugatti мы ищем не любую возможную конфигурацию атомов, а конфигурацию, соответствующую чему?то вроде автомобиля Bugatti (как и в примере с редкой комбинацией занятых на стадионе мест). Например, перестановка шин Bugatti приводит к изменению расположения атомов, но ни одно из основных интересующих нас свойств при этом не изменяется, поэтому мы будем рассматривать все автомобили Bugatti с перестановленными шинами одинаковыми. Тем не менее группа автомобилей, находящихся в идеальном состоянии, относительно мала, а это означает, что в совокупности всех возможных комбинаций атомов (как и перемещающихся по стадиону людей) лишь некоторые представляют собой Bugatti в идеальном состоянии. С другой стороны, группа разбитых Bugatti включает гораздо большее количество состояний (более высокое значение энтропии) и, следовательно, несет меньше информации (хотя для передачи сообщения о каждом из этих состояний требуется большее количество битов). Однако, к самой большой группе, которая включает случайные комбинации сидящих на стадионе зрителей, относятся автомобили Bugatti в их «естественном» состоянии. Это состояние, в котором железо представляет собой руду, а алюминий входит в состав боксита. Таким образом, разрушение автомобиля Bugatti приводит к уничтожению информации. С другой стороны, создание Bugatti – это процесс воплощения информации.

Пример со стадионом позволяет нам понять, что конфигурации материи, воплощающие информацию, например автомобиль Bugatti, являются редкими и труднодостижимыми. Пример со стадионом также подчеркивает динамическое происхождение порядка, поскольку для любой формы порядка атомы должны располагаться в определенном месте. Проблема состоит в том, что системы не могут свободно переходить из одного состояния в любое другое. Как показывает пример со стадионом, существующее состояние системы ограничивает число возможных вариантов ее преобразования, а для перехода системы от беспорядочного состояния к упорядоченному необходимо совершить множество последовательных шагов. К сожалению, количество путей, ведущих систему от беспорядка к порядку, гораздо меньше, чем количество путей, ведущих от порядка к беспорядку. В системе, эволюция которой является случайной (как в системе статистической физики), совершить серию последовательных шагов нелегко.

Подумайте о кубике Рубика, который прекрасно иллюстрирует связь между доступными путями и энтропией, поскольку вам никогда не удастся собрать кубик Рубика случайным образом (хотя вы и можете совершить такую отчаянную попытку). Кубик Рубика предусматривает более 43 квинтиллионов возможных состояний (то есть 43 252 003 274 489 856 000, или 4,3 ? 1019), только одно из которых является идеально упорядоченным. Кроме того, кубик Рубика представляет собой систему, в которой до достижения порядка не так уж далеко, поскольку эту головоломку всегда можно решить за двадцать или менее ходов.[25] Кажется, что это сравнительно небольшое число, однако найти нужную последовательность шагов непросто. Большинство людей собирают кубик Рубика гораздо более извилистыми путями. Основной метод решения данной головоломки (выстраивание верхнего креста, позиционирование углов, завершение среднего ряда и т. д.), как правило, подразумевает более пятидесяти ходов (и до недавнего времени люди считали, что для решения головоломки требуется более двадцати ходов).[26] Это говорит о том, что в случае с кубиком Рубика существует лишь несколько путей, ведущих к совершенному порядку, и эти пути, короткие они или длинные, редки, поскольку они скрываются среди огромного количества путей, которые уводят прочь от упорядоченного состояния. Таким образом, увеличение энтропии можно сравнить с кубиком Рубика, который находится в руках ребенка. В природе информация встречается нечасто не только потому, что информационно насыщенные состояния являются редкостью, но и потому, что они недоступны в свете того, как природа исследует возможные состояния.

Но каковы же свойства информационно насыщенных состояний? И как мы можем использовать знания об их свойствах для их идентификации? Одной из важных характеристик информационно насыщенных состояний является то, что они подразумевают наличие длинномасштабных и короткомасштабных корреляций. В случае с кубиком Рубика эти корреляции очевидны:[27] когда кубик находится в идеально упорядоченном состоянии, каждый квадратик того или иного цвета находится в окружении максимально возможного количества квадратиков того же цвета. Однако бросающиеся в глаза корреляции встречаются не только в таких созданных человеком объектах, как кубик Рубика, но и в природе. Рассмотрим цепь ДНК, содержащую длинную последовательность нуклеотидов (А, С, Т и G). Цепочки ДНК являются очень длинными и, несмотря на все крупные научные достижения, мы до сих пор не знаем, за что отвечает большая часть последовательностей ДНК. Тем не менее мы можем определить информационно насыщенные фрагменты ДНК. Простейший способ выявления информации заключается в сравнении цепи ДНК со случайной последовательностью нуклеотидов (с последовательностью, в которой A, С, Т и G выбираются путем бросания четырехгранной игральной кости). Сравнивая существующую последовательность ДНК со случайной последовательностью, мы можем выявить необычные фрагменты ДНК, подразумевая, что они не должны появиться, учитывая то, что мы могли бы ожидать от случайной последовательности. Эти необычные последовательности включают неожиданные корреляции между соседними нуклеотидами (они «произносят слова»), а также корреляции между нуклеотидами, расположенными далеко друг от друга (они «произносят абзацы и главы» и «ссылаются» на «слова», которые были использованы ранее). В итоге эти корреляции обнаруживают существование информации в ДНК, поскольку они говорят нам, что найденные в ДНК последовательности не являются такими комбинациями, к которым можно было бы прийти, исследуя пространство последовательностей случайным образом. Скорее они являются редкими последовательностями, которые были найдены, сохранены, отточены и расширены в процессе эволюции.[28] Кроме того, пример с ДНК говорит нам о том, что наличие информации не зависит от нашей способности ее декодировать. Порядок в ДНК не является повторным введением значения в определение информации. Мы можем обнаружить существование информации в ДНК, хотя и испытываем затруднения при попытке понять, что многие из этих последовательностей означают и за что отвечают. Таким образом, мы не путаем информацию со смыслом и не ищем информацию, которая находится в глазах смотрящего. Корреляции, характеризующие информацию, которая передается в процессе человеческого общения (например, на английском языке) или с помощью биологических форм связи (например, ДНК) присутствуют вне зависимости от того, можем мы их декодировать или нет. Они являются характеристикой информационно насыщенных состояний, а не того, кто их наблюдает. Это говорит нам о том, что, когда дело доходит до коммуникации, значение «едет верхом» на бессмыслице. Наша способность передавать осмысленные сообщения основывается на существующих бессмысленных формах физического порядка. Эти бессмысленные формы порядка и представляют собой информацию.[29]

Наконец, я свяжу определение энтропии, основанное на множественности состояний, с нашей способностью обрабатывать информацию (то есть производить вычисления). Как мы видели на примере кубика Рубика, информационно насыщенные состояния трудно найти не только потому, что они редки, но и потому, что существует очень мало путей, ведущих к ним. Вот почему мы приравниваем чье?либо умение решать эту головоломку к определенной степени развития интеллекта, поскольку те, кто знает, как собирать кубик Рубика, получают признание за умение находить эти редкие пути (или помнят правила их нахождения). Однако существуют более простые примеры, чем кубик Рубика, которые можно использовать для иллюстрации связи между множеством состояний системы и вычислением. Рассмотрим игру, в которой детям необходимо поместить такие формы, как цилиндр и куб, в соответствующие отверстия. В возрасте четырнадцати месяцев большинство детей довольно хорошо справляются с помещением шаров и цилиндров, однако испытывают трудности с кубами, квадратами, треугольниками и другими формами.[30] Почему? Поместить шар в отверстие легко, поскольку шар выглядит одинаково, независимо от того, как вы его повернете (все состояния эквивалентны). Помещение цилиндра в отверстие также не вызывает сложностей, поскольку цилиндр не изменится, если вы повернете его вокруг своей оси. Однако помещение куба в отверстие представляет собой более сложную задачу, так как его можно повернуть лишь несколькими способами. Случай с треугольником еще хуже, поскольку количество вариантов вращения еще меньше. Треугольник с неравными сторонами (для которого существует только одно правильное положение) является для ребенка эквивалентом кубика Рубика, поскольку лишь некоторые дети в состоянии решить эту задачу. Итак, как видите, в процессе развития способности помещать формы в соответствующие им отверстия дети научаются находить эти редкие состояния с низким значением энтропии. Нахождение редких, но полезных состояний в континууме возможных конфигураций – это хорошая упрощенная модель нашей способности обрабатывать информацию, то есть производить вычисления. Это относится и к детям, пытающимся поместить формы в отверстия, и к подросткам, собирающим кубик Рубика.

 

* * *

 

Мы начали эту главу с того, что разбили воображаемый автомобиль Bugatti, чтобы проиллюстрировать идею воплощения в продукте физического порядка, или информации. Тем не менее мы не приблизились к объяснению источника этого порядка, причин его накопления и экономической ценности. В следующей главе мы исследуем происхождение физического порядка с фундаментальной точки зрения, оставив для более поздних глав вопросы относительно того, какой порядок люди накапливают в экономике, в чем состоит его польза и как люди способствуют его росту. После описания продуктов с точки зрения информации мы опишем социальные и экономические механизмы, которые ограничивают нашу способность производить порядок, подобный тому, который воплощен в автомобиле Bugatti. Это поможет нам осознать эволюцию экономической неравномерности мира и расширить наше понимание процесса накопления информации до идей социального и экономического развития.

 

Глава 3

Вечная аномалия

 

Необратимость времени – это механизм, который создает порядок из хаоса.

Илья Пригожин

 

У всех нас были случаи, когда мы хотели повернуть время вспять. Иногда благодаря этому нам хочется избежать маленьких ошибок, а иногда – больших. Однако все мы знаем, что размер ошибки не имеет значения. Время течет в одном направлении: от прошлого к настоящему, от молодости к старости, от жизни к смерти.[31]

Необратимость времени, как и гравитация, является физической реальностью настолько очевидной, что кажется, будто она должна иметь очевидное объяснение. Но это не так. По сути, вплоть до ХХ века необратимый ход времени представлял собой загадку, которая вводила в замешательство некоторых из самых блестящих умов человечества. Исаак Ньютон и Альберт Эйнштейн создали работающие теории движения, которые технически предусматривали обратимость времени.[32] Они объясняют движение пушечных ядер, планет и спутников без четкого разграничения между тем, где объект находится и куда он движется. Эта симметрия, являющаяся справедливой для простых систем, не в состоянии объяснить, почему львы едят и переваривают газелей, вместо того чтобы отрыгивать целых и невредимых живых животных, и почему разбитый автомобиль Bugatti не собирается обратно в функционирующее транспортное средство.

В данном случае нас интересует необратимость времени не только потому, что она является увлекательной загадкой природы, но и потому, что она тесно связана с физическими истоками информации. И необратимость времени, и физическое происхождение информации являются характеристиками Вселенной, которые не закодированы в законах движения, регулирующих перемещение отдельных частиц, будь то законы Ньютона или Эйнштейна. Необратимость времени и происхождение информации – это свойства Вселенной, которые зависят от дополнительных физических законов, регулирующих поведение больших скоплений частиц. Это неисследованная теоретическая область, в которой основная идея траектории – пути, по которому движется некоторый предмет, теряет смысл. Удивительно то, что когда траектории становятся бессмысленными, возникает время.

Вместе необратимость времени и повсеместность информации создают еще большую загадку. Как мы увидим далее, необратимость времени связана с движением Вселенной от порядка к беспорядку. Тем не менее, как показывает история, на нашей планете происходит прямо противоположное. Количество информации на нашей планете, по?видимому, неуклонно растет, а не уменьшается.

Повсеместный рост объема информации на нашей планете был фактом, который отчетливо осознали физики XIX века. Хотя, выглянув из окна, они могли видеть ускоряющийся и усложняющийся мир, они понимали открытие Больц мана, согласно которому информация со временем теряется. Звук, производимый гитарой, исчезает по мере того, как звуковые волны проникают в воздух. Волны, создаваемые брошенным в пруд камешком, исчезают, когда пруд возвращается в свое спокойное состояние. Эта потеря информации была объяснена с помощью физических законов, открытых в XIX веке, однако рост объема информации, продолжающийся в некоторых местах Вселенной, остался без объяснения.

Внимание к этому парадоксу, связанному с порядком, возросло в XIX веке, когда Чарльз Лайель и Чарльз Дарвин подчеркнули, что возраст нашей планеты составляет миллиарды лет, а не шесть тысяч лет, как говорилось в Библии. Этот новый впечатляющий факт предполагал, что наблюдаемое всеми аномальное увеличение объема информации продолжается на протяжении миллиардов лет. Однако аномалии существуют недолго: они не должны быть вечными. Поэтому единственный вывод, который можно было сделать из этого очевидного противоречия, состоял в том, что в нашем понимании природы чего?то не хватает. Степень упорядоченности увеличивалась, но никто не знал почему.

Самым главным успехом Больцмана стала работа 1878 года, в которой он показал, что системы, состоящие из большого количества частиц, тяготели к состояниям, характеризующимся минимальным объемом информации. Это то, что известно как второй закон термодинамики, который несколькими десятилетиями ранее был предвосхищен Рудольфом Клаузиусом, хотя его формулировка и была более громоздкой. Второй закон термодинамики гласит, что энтропия закрытых физических систем всегда имеет тенденцию к увеличению, а это означает, что системы развиваются от порядка к беспорядку. Подумайте о капле чернил, попавшей в стакан с чистой водой. Начальное состояние, при котором капля чернил локализована в великолепном водовороте, является информационно насыщенным. Существует лишь несколько способов локализации чернил, но много способов их более или менее равномерного распределения в стакане. Конечное состояние, при котором чернила полностью растворены, является информационно бедным, поскольку у него много эквивалентных состояний. Таким образом, когда вы капаете чернила в стакан воды, вы наблюдаете движение стрелы времени, которое происходит от информационно насыщенного состояния к информационно бедному. По мере течения времени Вселенная переходит от редких конфигураций к распространенным, и теория Больцмана отлично это объяснила.

Тем не менее Вселенная полна примеров, не похожих на каплю чернил, примеров, в которых информация и сложность увеличиваются, как в случае с развитием человеческих младенцев или естественным восстановлением выгоревших лесов. Откуда же берется эта информация? Вселенные, предсказанные Больцманом и Максвеллом и позднее дополненные термодинамикой Гельмгольца, Гиббса и Эйнштейна, должны превращаться в однородный суп, в котором нет никакой информации и свободной энергии (то есть нет энергии для выполнения работы).[33]

В ХХ веке нам удалось примирить свое понимание стрелы времени и физического происхождения информации с физической природой реальности. Новые теории смогли показать, что информация представляла собой не аномалию, а то, появления чего следовало бы ожидать. Эти теории не противоречили динамике Эйнштейна и Ньютона или статистической механике Больцмана, поскольку они показали, что происхождение информации и стрела времени зависели от дополнительных физических принципов и допущений. Ключевым мыслителем в этой области был бельгийский физик российского происхождения Илья Пригожин. В 1977 году Пригожин был награжден Нобелевской премией по химии «за свой вклад в неравновесную термодинамику, особенно в теорию диссипативных структур».[34] Пригожин выдвинул много важных идей, однако нас в данном случае интересует та, согласно которой информация возникает естественным образом в устойчивых состояниях физических систем, которые находятся не в равновесии. Это выражение, в котором кратко описаны физические истоки происхождения информации, звучит ужасно сложно. Тем не менее если мы тщательно рассмотрим последовательность примеров, то поймем, что это не так. Поэтому в следующих абзацах я раскрою значение выражения Пригожина, чтобы его смысл стал очевидным.

Чтобы разобраться в физических истоках происхождения информации, сначала нам нужно понять некоторые вещи. Во?первых, следует разобраться с идеей устойчивого состояния. Во?вторых, нужно понять разницу между динамическим устойчивым состоянием и статическим устойчивым состоянием. Очень простым примером статического устойчивого состояния является брошенный в чашу стеклянный шарик. Все мы знаем, что при этом происходит. Вскоре после броска шарик остановится на дне чаши. Это и есть статическое устойчивое состояние.

Более интересным является случай с коробкой, наполненной газом. Если мы наполним коробку газом и немного подождем, количество газа в правой части коробки станет равно его количеству в левой части коробки. Тем не менее устойчивое состояние наполненной газом коробки не аналогично примеру с шариком на дне чаши. В коробке, наполненной газом, не все молекулы находятся в фиксированном положении. Они постоянно движутся, и устойчивое состояние достигается, когда количество молекул газа, передвигающихся слева направо, равно количеству молекул, передвигающихся справа налево. Коробка с газом (как и случай с каплей чернил, полностью растворенной в стакане воды) представляет собой пример динамического устойчивого состояния.

Теперь давайте рассмотрим устойчивое состояние неравновесной системы. Классическим примером в данном случае является водоворот, который возникает при сливе воды из ванны. Как только вы вынете пробку и вода потечет в трубу, вода над стоком начнет организовываться в водоворот. Этот водоворот представляет собой устойчивое состояние, поскольку он остается стабильным, пока в системе есть вода. Кроме того, это состояние является информационно насыщенным, так как водовороты – это редкие конфигурации молекул воды, которые не возникают спонтанно в стоячей воде.[35] В отличие от стоячей воды, водовороты представляют собой организованные структуры, в которых молекулы воды движутся не случайным образом, а обладают скоростью и траекторией, которая коррелирует с аналогичными параметрами молекул воды, находящихся рядом с ними. Информационно насыщенное состояние водоворота возникает естественным образом – это то, что получается само собой в неравновесной системе. Возвращаясь к нашему начальному утверждению, мы можем сказать, что водоворот является примером информации, которая возникает естественным образом в устойчивом состоянии физической системы, которая находится не в равновесии.

Тем не менее водоворот – это не единственный пример. Существуют многочисленные примеры порядка, который возникает спонтанно в неравновесных системах, например завитки сигаретного дыма, гипнотическое движение пламени костра и даже свечение экрана вашего компьютера, поскольку, будучи включенным, он точно находится не в равновесном состоянии. Вы и ваш мобильный телефон также являются примерами неравновесных физических систем. Вы едите, чтобы оставаться в неравновесном состоянии и подзаряжаете свой мобильный телефон каждый вечер.

Пригожин понял, что, хотя теория Больцмана была верной, она неприменима к тому, что мы наблюдаем на Земле, поскольку наша планета представляет собой неравновесный карман, находящийся внутри системы большего размера, то есть Вселенной, которая стремится к равновесию. На самом деле наша планета никогда не была близка к какой?либо форме равновесия. Энергия солнца и ядерный распад, происходящий в ядре Земли, выводят нашу планету из равновесия, обеспечивая ее энергией, необходимой для возникновения информации. Мы можем представить нашу планету в виде маленького водоворота информации в обширном и бесплодном космосе.

Пригожин осознал, что для понимания информационно насыщенной природы Вселенной ему нужно было разобраться со статистическими свойствами неравновесных систем. Эти статистические свойства отличаются от свойств систем, изучаемых Больцманом, и они включают случаи, в которых информация возникает естественным образом. Одним из прорывов Пригожина был вывод некоторых математических законов и принципов, управляющих поведением неравновесных систем. Его работа показала, что своеобразная манера организации Вселенной подразумевает то, что по другую сторону хаоса скрывается информация. Рассмотрим кипящую в кастрюле воду. Сначала представьте себе, что включаете газ ненадолго. При этом подогреется небольшое количество воды на дне кастрюли. Эти молекулы начнут двигаться немного быстрее, однако если вы быстро выключите газ, то вода в кастрюле сама по себе никогда не организуется в информационно насыщенное состояние. Теперь представьте, что оставляете газ включенным на более длительное время. По мере ускорения движения молекул воды жидкость становится турбулентной. Это движение хаотично. Такое состояние уже содержит информацию, как и в случае с завитками сигаретного дыма. Теперь оставьте газ включенным и подождите, пока кастрюля не достигнет динамического устойчивого состояния конвекции. В данном случае возникнет организованный поток. Таким образом, после хаоса система приходит в высокоорганизованное состояние, полное корреляций и информации. Пригожин показал, что устойчивые состояния, достигаемые материей в неравновесных системах, стремятся к организации. За хаосом следует информация.

Тот факт, что неравновесные системы характеризуются информационно насыщенными устойчивыми состояниями, помогает нам понять, откуда берется информация. В такой неравновесной системе, как Земля, появление информации является ожидаемым. Это уже не считается аномалией. Тем не менее плохая новость заключается в том, что энтропия всегда скрывается на границах информационно насыщенных аномалий, готовая поглотить эти аномалии при первой же возможности. Водоворот в ванне исчезнет, как только мы заткнем сток или как только кончится вода. Это может привести нас к мысли о том, что Вселенная стремится отобрать информационно насыщенные устойчивые состояния, предоставляемые нам неравновесными системами. Тем не менее информация нашла способы сохранить себя. В результате мы живем на планете, где информация является достаточно «прилипчивой», чтобы заново собираться и создаваться. Эта «липкость», которая имеет большое значение для возникновения жизни и экономики, также зависит от дополнительных фундаментальных физических свойств.

Первый механизм, который обеспечивает «липкость» информации, связан с идеей термодинамических потенциалов. Это звучит сложно, но на самом деле это не так. Здесь мы должны понимать, что устойчивые состояния физических систем можно описать как минимумы математических функций, которые известны под названием термодинамических потенциалов. Мы все знакомы с основной идеей потенциалов из школьных уроков физики, мы знаем, что стеклянные шарики в итоге окажутся на дне чаши, потому что это состояние соответствует минимуму потенциальной энергии. Однако дело в том, что не все устойчивые состояния физических систем соответствуют минимуму энергии. Во многих устойчивых состояниях минимизируются или максимизируются другие величины (например, при спокойном состоянии газа в коробке максимума достигает значение энтропии). Тем не менее нам нет необходимости описывать здесь все эти величины, поскольку нас в первую очередь интересуют потенциалы, которые управляют неравновесными системами. Так какой же потенциал минимизируется в такой неравновесной системе, как наша ванна? В 1947 году Пригожин показал, что в устойчивом состоянии неравновесных систем минимизируется производство энтропии.[36] Это означает, что неравновесные системы самоорганизуются в устойчивые состояния, в которых порядок возникает спонтанно, минимизируя степень уничтожения информации.

Пригожин вывел свой принцип, рассматривая систему, состояние которой было близко к равновесию. Эта система характеризовалась одним устойчивым и несколькими переходными состояниями. Это достаточно специфический случай, поэтому его принцип нельзя было сразу применить к системам, которые были далеки от равновесия, то есть к системам, которые могли «выбирать» между несколькими устойчивыми состояниями. На самом деле, несмотря на то что это по?прежнему вызывает споры, некоторые люди предполагали, что далекие от равновесия системы выбирают устойчивое состояние, в котором максимизируется производство энтропии.[37] Тем не менее этот принцип максимального производства энтропии не противоречит принципу Пригожина о минимальном производстве энтропии, поскольку устойчивое состояние максимального производства энтропии все равно производит меньше энтропии, чем переходные состояния. И все же, мы должны быть осторожны, чтобы не увлечься, поскольку нашей целью является не вдаваться в тонкости неравновесной статистической физики, а объяснить происхождение информации. Таким образом, я оставлю вопрос о потенциале, который управляет далекими от состояния равновесия системами, открытым и заключу, что этот потенциал, будь то минимизация производства энтропии, максимизация производства энтропии или степень необратимости статистического процесса, тем не менее, характеризуется самоорганизующимися состояниями, которые богаты корреляциями, менее диссипативны по сравнению с переходными состояниями и производят физический порядок, являющийся необходимым условием для жизни. Пригожин и Грегуар Николис в блестящей работе 1971 года, посвященной обсуждению связи между неравновесными системами и жизнью, отметили: «Вообще говоря, разрушение структур – это ситуация, которая преобладает вблизи положения термодинамического равновесия. Напротив… возникновение структур может иметь место со специфическими линейными кинетическими законами за пределами области стабильности состояний, характеризуемых обычным термодинамическим поведением».[38]

Системы статистической физики генерируют информацию и сохраняют ее, когда они находятся не в равновесии, однако их текучесть усложняет понимание того, как эти системы могут подолгу удерживать информацию. Водовороты внезапно исчезают, а сигаретный дым утрачивает свою богемную красоту, превращаясь в бесформенные облака. Статистические свойства неравновесных систем помогут нам понять нечеловеческое происхождение информации, но не ее долговечность. Однако, именно долговечность информации обусловливает возможность ее повторного комбинирования и возникновения жизни и экономики. Таким образом, долговечность информации так же важна, как и ее происхождение, поскольку без нее невозможно перекомбинирование, необходимое для порождения еще большего объема информации. Тем не менее долговечность информации не гарантируется законами, объясняющими ее происхождение. Здесь должно быть что?то еще.

Как Эрвин Шредингер, лауреат Нобелевской премии в области физики 1933 года, отметил в своей книге 1944 года «Что такое жизнь?», мы не можем понять долговечность физически воплощенной информации, рассматривая только жидкие системы, которые мы использовали в наших примерах. Сигаретный дым, водовороты, капли чернил и газы являются жидкими системами, и большая часть их эфемерности обусловлена текучестью. Таким образом, вторая причина «липкости» информации и ее способности к перекомбинированию связана с тем, что она воплощена в твердых телах. Давайте снова рассмотрим водоворот в ванне, только теперь предположим, что у вас есть волшебная палочка, которая позволяет заморозить или кристаллизовать этот водоворот одним движением руки.[39] Возьмите воображаемые щипцы для льда и извлеките водоворот из его ледяного заточения. То, что окажется у вас в руках, является небольшим квантом информации. Пока вы не разморозите водоворот, информация, которая присутствовала в соответствующем информационно насыщенном устойчивом состоянии, будет сохраняться.[40] Переведя водоворот в твердую форму, мы закрепили информацию, сгенерированную в жидком мире, и получили кристалл информации, который мы можем использовать для понимания сложности нашего мира.

Насколько мне известно, заморозить водоворот физически невозможно, однако эта мысленная картина позволяет нам понять важность твердых тел для постоянства и эволюции информации. В книге «Что такое жизнь?» Шредингер подчеркнул, что твердые тела имеют решающее значение для объяснения информационно насыщенной природы жизни. Шредингер, как и каждый современный ему биолог, понимал, что информация, необходимая для построения биологического организма, была скрыта где?то внутри клетки, либо в белках, либо в ДНК.[41] С физической точки зрения и белки, и ДНК технически представляют собой кристаллы. Точнее они являются апериодическими кристаллами (структуры, которые не повторяют друг друга, но содержат крупномасштабные корреляции). Представьте партитуру, в которой снова и снова повторяются одни и те же четыреноты. Содержащийся в ней объем информации будет минимальным по сравнению с партитурой, в которой превалируют вариации. Шредингер понял, что апериодичность была необходима для хранения информации, поскольку обычный кристалл не мог содержать большой объем информации: «Ген точно не является однородной каплей жидкости. Скорее всего, это большая белковая молекула, в которой каждый атом, каждый радикал, каждое гетероциклическое кольцо играет особую роль, более или менее отличную от той, которую играет какой?либо из других аналогичных атомов, радикалов или колец». Согласно Шредингеру, феномен жизни зависит как от апериодичности биологических молекул, так и от твердой кристаллической природы. Апериодичность необходима для того, чтобы молекула воплощала информацию, а твердая природа молекулы позволяет этой информации сохраняться.

Таким образом, объединив идеи Пригожина и Шредингера, мы можем понять, откуда берется информация (устойчивое состояние неравновесных систем) и почему она сохраняется (потому что хранится в твердых телах). Поэтическая причуда такой комбинации заключается в том, что согласно ей наша Вселенная является одновременно замороженной и динамичной. С точки зрения физики твердое тело является «замороженным», поскольку его структура устойчива к тепловым флуктуациям окружающей среды.[42] Наши города состоят из таких твердых тел, как автомобили, здания, автобусные остановки, метро и тротуары. Наши дома созданы из таких твердых тел, как кухонные раковины, холодильники, посуда, лампочки и стиральные машины. Наши клетки также состоят из твердых тел, которыми являются десятки тысяч белков, участвующие в клеточном шоу. Тем не менее автомобили и белки представляют собой подвижные твердые тела. Города и клетки являются динамическими системами, в которых твердые тела перемещаются относительно друг друга. Твердость этих объектов позволяет накапливать информацию с низкими издержками, поскольку твердое тело охраняет воплощенную в нем информацию от кровавых когтей энтропии, хотя бы на короткое по масштабам космоса время.

Тем не менее рост объемов информации подразумевает нечто большее, чем кристаллические твердые тела и динамические водовороты. Для того чтобы информация по?настоящему накапливалась, Вселенной требуется еще один трюк. Это способность материи к обработке информации, то есть способность материи производить вычисления.

Рассмотрим дерево. Дерево в своем «полузамороженном» состоянии представляет собой компьютер, питаемый солнечным светом. Дерево в Новой Англии реагирует на продолжительность светового дня и выполняет различные программы в зависимости от времени года. Оно определяет, когда следует сбрасывать листья, а когда выращивать новые. Дерево обрабатывает информацию, поступающую из окружающей среды. Белки, организованные в сигнальные пути, помогают дереву определить, как ему следует растить корни, чтобы добраться до воды, в которой оно нуждается, как активировать иммунный ответ, когда ему угрожают патогены, и как направить листья к солнцу, света которого оно жаждет. Дерево не обладает сознанием или языком, который есть у нас, однако оно, как и мы, способно обрабатывать информацию. У дерева есть ноу?хау, хотя его способ обработки информации отличается от нашего интеллекта и больше напоминает такие бессознательные процессы, происходящие в наших телах, как пищеварение, иммунитет, гормональная регуляция и так далее.

Хотя технически дерево представляет собой компьютер, его источником питания является не электрическая розетка, а солнце. Дерево – это компьютер, который, как и мы, не может использовать язык программирования MATLAB, но, в отличие от компьютеров и нас, имеет ноу?хау, позволяющее производить фотосинтез. Деревья могут обрабатывать информацию благодаря тому, что они представляют собой устойчивые состояния неравновесных систем. Деревья обладают ноу?хау, которые используются ими для выживания.

Однако поскольку дерево является живым, я не могу, используя его в качестве примера, утверждать, что вычисление предшествует жизни (хотя это представляет собой убедительный пример вычисления, которое предшествовало появлению людей). Чтобы проиллюстрировать пребиотическую природу способности материи обрабатывать информацию, нам следует рассмотреть более фундаментальную систему. Именно здесь пригодятся химические системы, которые завораживали Пригожина.

Рассмотрим набор химических реакций, которые превращают вещества[43] в набор выходов[44] через промежуточные соединения.[45] Теперь представим, что в эту систему постоянно поступают вещества.[46] Если поток веществ[47] небольшой, то система придет в устойчивое состояние, в котором промежуточные вещества[48] будут производиться и потребляться таким образом, что их количество не станет подвергаться сильным флуктуациям. Система достигнет состояния равновесия. Однако в большинстве химических систем, как только мы усилим поток,[49] это равновесие окажется неустойчивым, а это означает, что устойчивое состояние системы будет заменено двумя или несколькими устойчивыми состояниями, отличными от исходного состояния равновесия.[50] Когда возникнут эти новые устойчивые состояния, системе нужно будет «выбирать» между ними. Это значит, что ей придется перейти к одному или другому, нарушив симметрию системы, и развить историю, отмеченную этими выборами. Если мы еще больше усилим поток входных соединений{В}, то эти новые устойчивые состояния станут неустойчивыми и возникнут дополнительные новые устойчивые состояния. Это увеличение количества устойчивых состояний может привести химические реакции к таким высокоорганизованным состояниям, как те, которые присущи молекулярным часам, являющимся химическими осцилляторами, соединениями, периодически меняющими тип с одного на другой. Но разве такая простая химическая система способна обрабатывать информацию?

Теперь представим, что мы можем привести систему в одно из этих устойчивых состояний путем изменения концентрации поступающих веществ{В}. Такая система будет «выполнять вычисления», поскольку она станет генерировать выходы в зависимости от поступающих веществ. Это будет химический транзистор. В очень грубом приближении эта модель химической системы имитирует примитивный метаболизм. В еще более грубом приближении эта система представляет собой модель клетки, изменяющей тип с одного на другой. Типы клеток могут абстрактно рассматриваться в качестве динамических устойчивых состояний этих систем, как десятилетия назад предположил биолог и исследователь сложных систем Стюарт Кауффман.[51]

Высокоинтерактивные неравновесные системы, будь то деревья, реагирующие на смену сезонов, или химические системы, обрабатывающие информацию о поступающих веществах, показывают, что материя способна производить вычисления. Эти системы говорят нам, что процесс вычисления, как и информация, предшествует появлению жизни. Химические изменения, кодируемые этими системами, преобразуют информацию, закодированную в химических соединениях, и, следовательно, они представляют собой фундаментальную форму вычислений. Жизнь существует благодаря способности материи производить вычисления.

Наконец, нам следует объяснить, как все это соотносится с необратимостью времени. Ведь именно с этого началась данная глава. Для объяснения я снова буду использовать работу Пригожина, а в качестве примера предлагаю вам представить большую коробку, наполненную триллионами шариков для пинг?понга.[52]

Представьте, что шарики для пинг?понга сталкиваются друг с другом без потери энергии, поэтому эти взаимодействия никогда не прекращаются. Теперь предположим, что вы начали наблюдать за системой в тот момент, когда все шарики были собраны в одном квадранте коробки, но обладали достаточной кинетической энергией, или скоростью, чтобы со временем рассеяться по коробке. Этот пример похож на пример с каплей чернил, который мы рассматривали ранее.

В этой простой статистической системе вопрос обратимости времени является вопросом о том, можно ли в любой момент времени обратить движение шариков вспять, как если бы время текло в обратном направлении. То есть можно ли поместить шарики на траекторию, конечным состоянием которой является расположение, определенное нами в качестве начальной конфигурации?

Мы легко можем представить, что произойдет, если прокрутить это «кино» в обычном направлении. Шарики будут непрерывно двигаться, пока не заполнят коробку и в ней не установится то, что мы теперь подразумеваем под динамическим устойчивым состоянием. Однако давайте проведем эксперимент с обращением времени вспять. Для облегчения я предположу, что у нас есть две машины. Одна из машин может взять любое количество шариков и моментально изменить их скорости, если мы предоставим этой машине входящий файл, содержащий желаемые скорости для каждого шарика. Эта машина имеет бесконечную точность, но выполняет инструкции, исходя только из точности переданной ими информации. То есть если положения и скорости указаны с точностью до двух знаков (скорость задана в сантиметрах в секунду), то машина будет назначать скорости шариков только с такой точностью, причем все неуказанные десятичные значения (миллиметры в секунду и т. д.) будут случайными. Вторая из имеющихся у нас машин измеряет положение и скорость каждого шарика с конечной, но сколь угодно большой точностью. Таким образом, вопрос заключается в том, можем ли мы использовать эти две воображаемые машины для того, чтобы обратить движение системы вспять, как при обратном воспроизведении «фильма»?

Сначала давайте поэкспериментируем с обращением скорости каждого шарика, используя низкую степень точности. Например, если скорость конкретного шарика в направлении оси х vx = 0,2342562356237128… [м/с], мы просто обратим данное значение, взяв только первые два знака после запятой (то есть новым значением будет vx= –0,23). Будет ли этого простого обращения достаточно, чтобы воспроизвести фильм в обратном направлении? Конечно, нет. Описываемая здесь система с триллионами шариков, которые никогда не теряют энергию, по определению является хаотичной, а это означает, что небольшие различия в начальных условиях накапливаются в геометрической прогрессии с течением времени. Хаотичность системы предполагает, что точность до двух знаков после запятой недостаточна, чтобы поместить шарики на траекторию, которая естественным образом вернет в их исходное положение. Но только лишь в точности дело или существует какое?то фундаментальное ограничение? Могли бы мы обратить время вспять при достаточной точности наших измерений и действий?

Вооружившись нашими воображаемыми машинами, мы можем повторно провести этот мысленный эксперимент с большей точностью, однако пока точность является конечной, мы не сможем обратить время вспять. Вместо использования нескольких знаков мы могли бы указать скорость с точностью до десяти, двадцати или ста знаков после запятой. Однако обратить время вспять по?прежнему будет невозможно, поскольку в хаотической системе неточность наших измерений будет накапливаться. Пользуясь математическим языком, можно сказать, что в данном случае важность цифр инвертируется. Обычно при наличии длинного ряда цифр цифры, которые находятся левее, имеют большую важность, чем цифры, находящиеся правее (особенно если речь идет о вашем банковском счете). Однако в хаотической системе это не так, поскольку в такой системе не первая, а последняя цифра становится доминирующей. Тем не менее, независимо от точности измерений, справа от любого числа всегда существует цифра. Таким образом, даже не учитывая принцип неопределенности Гейзенберга (который ограничивает нашу точность до нескольких десятков знаков), мы можем заключить, что фильм всегда будет выглядеть так, как будто он воспроизводится в обычном направлении, за исключением того короткого периода времени, когда мы будем вбрасывать энергию в систему путем изменения скорости частиц с помощью наших машин.

Таким образом, время необратимо в статистической системе, потому что хаотичная природа систем, содержащих большое количество частиц, предполагает то, что для обращения эволюции системы потребовался бы бесконечный объем информации. Это также означает, что статистические системы не могут вернуться, поскольку существует бесконечное количество путей, совместимых с любым настоящим. По мере движения вперед статистические системы быстро «забывают», как возвращаться. Эту бесконечность Пригожин называет барьером энтропии, она обеспечивает точку зрения на время, которая не связана с пространством, как в теориях, выдвинутых Ньютоном и Эйнштейном. Для Пригожина прошлое не только недоступно, его просто не существует. Прошлого нет, хотя оно было. В нашей Вселенной нет ни прошлого, ни будущего, а только настоящее, которое вычисляется в каждый конкретный момент. Глубина этой мгновенной природы реальности помогает нам объединить статистическую физику с вычислением. Мгновенная Вселенная Пригожина предполагает, что прошлое недоступно, поскольку оно невычислимо на микроуровне. Барьер энтропии Пригожина запрещает настоящему эволюционировать в прошлое, за исключением случаев с идеализированными системами, вроде маятника или планетарных орбит, которые выглядят одинаково при движении вперед и назад (при отсутствии диссипаций).

 

* * *

 

Мы начали эту главу с вопроса о необратимости времени и происхождении информации. Мы узнали, что вместе взятые эти вопросы представляют собой загадку, поскольку время течет по направлению от порядка к беспорядку, несмотря на то, что сложность нашего мира увеличивается. Вселенский рост энтропии, как кажется, противоречит росту объема информации, однако это не так, поскольку у Вселенной есть определенные приемы, позволяющие информации возникать в четко определенных карманах. В этих карманах в изобилии присутствует энергия, но диапазон температур позволяет веществам существовать в твердом состоянии, поскольку в твердых телах информация сохраняется дольше.

Термодинамика Вселенной, которую я описал в данной главе, помогает нам понять обстоятельства, при которых может возникать информация. Тем не менее способность Вселенной порождать сложность, которую мы наблюдаем из окна, не является непосредственным следствием действия этих простых механизмов. Чтобы объем информации по?настоящему увеличивался, Вселенной необходим еще один прием, которым является способность материи производить вычисления.

Эта вычислительная способность материи, которая может быть реализована как в простых химических системах, так и в сложных формах жизни, например деревьях или людях, является ключевой способностью, которая позволяет информации накапливаться в том месте Вселенной, которое мы считаем своим домом. Этой вычислительной способности и тому, как она соотносится с людьми и человеческими сообществами, будет посвящена третья часть книги, в которой исследуется способность систем накапливать знания и ноу?хау. Эта вычислительная способность и ограничения, обусловленные ее воплощением в человеке, поможет нам объяснить причины роста объема информации в обществе.

Однако прежде чем продолжить, мы должны разобраться с физическим аспектом информации, который тесно соотносится с людьми, то есть с информацией, которую мы производим с помощью наших человеческих знаний и ноу?хау. Это не телесность ДНК или замороженных водоворотов, а телесность простых и сложных продуктов, которые мы производим и обмениваем, начиная от макарон и заканчивая авиалайнерами. Таким образом, далее мы подробно опишем составляющие нашу экономику объекты, ориентируясь на воплощенную в них информацию и их неочевидные способности, обусловленные ею. Это позволит нам рассматривать продукты не только в качестве физического воплощения информации, но и в качестве механизма передачи чего?то более важного, чем сообщения: способов практического применения знаний и ноу?хау.

 

 

Часть II

Кристаллизованное воображение

 

Этот мир – просто холст для нашего воображения.

Генри Дэвид Торо

 

Я часто устаю от обработки информации. Я двигаюсь так быстро, как только могу, однако мир невообразимо обширен и изменчив. Я отвечаю на электронные письма, забираю вещи, комментирую черновики, готовлю слайды, выступаю, обдумываю соглашения, придумываю аргументы, создаю дизайны для сайтов, оцениваю работы, пишу предложения, подготавливаю отчеты, думаю над алгоритмами, делаю снимки, летаю на самолетах, пакую багаж, даю советы, получаю консультации, делаю бутерброды, нажимаю кнопки в лифте, пытаюсь что?нибудь вспомнить и, конечно, работаю на клавиатуре, переставляя слова.

 

 

Конец ознакомительного фрагмента — скачать книгу легально

 

[1] В данном контексте слово атом используется для обозначения дискретной частицы, которая может быть либо атомом, либо молекулой.

 

[2] Две замечательные книги, описывающие взаимодействие между эволюцией и поведением: «Эгоистичный ген» Ричарда Докинза (АСТ, Corpus, 2013) и The Blank Slate: The Modern Denial of Human Nature (New York: Penguin, 2003) Стивена Пинкера.

 

[3] У теории информации также есть квантовый вариант, известный как квантовая теория информации. Тем не менее существование квантовой теории информации не отменяет то, что классическая информация является концепцией, работающей в диапазоне масштабов, несвойственном другим теориям.

 

[4] Фридрих Хайек, «The Use of Knowledge in Society», American Economic Review 35, no. 4 (1945): 519–530.

 

[5] Джордж А. Акерлоф, «Рынок лимонов: Неопределенность качества и рыночный механизм» («The Market for ‘Lemons’: Quality Uncertainty and the Market Mechanism», Quarterly Journal of Economics 84, no. 3 (1970): 488–500).

 

[6] Клод Шеннон и Уоррен Уивер «Математическая теория связи» (The Mathematical Theory of Communication (Urbana: University of Illinois Press, 1963), 8).

 

[7] Там же, 31.

 

[8] Формула энтропии Больцмана (SB): SB = kB ln(W), где kB – постоянная Больцмана, определяющая связь между температурой и энергией, а W – это количество микросостояний, соответствующих данному макросостоянию. Гиббс обобщил формулу для энтропии, определив ее в терминах вероятности того, что система будет находиться в микросостоянии (pi) вместо общего количества эквивалентных микросостояний (W). Энтропия Гиббса определяется как: SG = – ?i pi ln (pi). Обратите внимание на то, что энтропии Больцмана и Гиббса являются эквивалентными (SG = SB), когда pi = 1/N для всех i.

Это означает, что формула Гиббса сводится к формуле Больцмана для системы в состоянии теплового равновесия, поскольку в данном случае все микросостояния равновероятны. Формула Шеннона для энтропии информации: H = – ?i pi log2 (pi), где pi – это вероятность появления символа. Формула Шеннона функционально эквивалентна энтропии Гиббса за исключением мультипликативной константы. Мы можем использовать константу, чтобы абсорбировать изменение основания логарифма (с основания равного 2 на основание натурального логарифма е) и постоянную Больцмана.

 

[9] Очевидными исключениями из этого правила являются геология и астрономия.

 

[10] Это была песня Raindrops исполнителя Cillo. Я добавил эту композицию в список воспроизведения на сервисе Pandora той ночью.

 

[11] Еще одним важным свойством, отличающим людей от других видов, является наша способность использовать язык для придумывания историй. Интересно, что эволюция языка и сложных физических объектов имеет много общего.

Определить время возникновения человеческого языка сложно, поскольку устные выражения в значительной степени предшествовали развитию письма. Самые ранние записи были сделаны около восьми тысяч лет назад, поэтому археологам, желающим проследить истоки разговорного языка, необходимо обратиться к другим формам доказательств, например к сложности продуктов, найденных в процессе археологических исследований. Идея о том, что сложные продукты можно использовать для определения времени возникновения человеческого языка, основана на двух линиях аргументации. Во?первых, человек, способный произвести такой сложный инструмент, как копье с каменным наконечником, понимает, как сочетаются между собой разные части, точно так же, человеческие языки позволяют нам объединять различные слова в предложения, а предложения – в рассказы. Другими словами, люди, которые способны создавать сложные инструменты, вероятнее всего, обладают внутренним способом представления каждой из частей инструмента и могут размышлять о последовательности действий, требующихся для того, чтобы собрать эти части в единое целое. Психический процесс, необходимый для того, чтобы сформировать понятия и собрать сложный продукт, можно рассматривать как примитивную грамматику, и, как показали результаты исследования, он подразумевает аналогичные модели мозговой активности. Создание сложных продуктов возможно благодаря комбинаторной способности, подобной той, которая свойственна человеческим языкам. Таким образом, несмотря на то что комбинаторная способность, связанная с созданием продукта, не обязательно подразумевает использование человеческого языка, разумно предположить, что эти две комбинаторные когнитивные способности возникли одновременно. Вторая линия аргументации, поддерживающая идею использования сложных объектов для определения времени возникновения языка, относится к распространению знаний, требуемых для создания таких сложных объектов, как стрелы и копья. Распространение стрел и копий можно рассматривать в качестве доказательства существования ранних форм человеческого языка, поскольку процесс создания стрелы отличается от использования камня для разбивания ореха. Решать простые задачи можно легко научиться путем наблюдения и подражания, в то время как производство сложных объектов подразумевает нюансы, которые гораздо легче распространить среди людей, владеющих языком. Например, люди, использующие язык, могут более эффективно передать знания о безопасном обращении с ядом, используемым при создании стрел, или о том, как прикрепить каменный топор к деревянной ручке. Последние данные археологических исследований показывают, что представители вида Гомо Сапиенс создавали сложные инструменты подобные тем, которые используются некоторыми современными охотниками и собирателями, уже 100 000–70 000 лет назад. Это свидетельствует о том, что наша способность кристаллизовать воображение сформировалась задолго до способности писать об этом, и она показывает, что язык и сложные продукты появились до того, как ранние люди покинули Африку. Это говорит о том, что наших предков отличало от других видов не использование простых инструментов, а способность создавать объекты, превосходящие по сложности те, которые возникают в окружающей среде естественным способом. См. книгу «Хозяева Земли. Социальное завоевание планеты человечеством», автор Эдвард Уилсон (Питер, 2014) и Yuval Harari, Sapiens: A Brief History of Humankind (New York: Random House, 2014).

 

[12] Как писали Рэндалл Дэвис, Ховард Шроуб и Питер Сзоловиц в статье «Что такое представление знаний?» («What is a knowledge representation», AI Magazine 14, no. 1 (1993): 17–33): «Во?первых, представление знания – это, по сути, суррогат, заменитель самой вещи, который используется для того, чтобы сущность могла определить последствия путем обдумывания, а не действия, то есть путем рассуждения о мире, а не путем принятия в нем активных мер».

 

[13] Для тех, кто знаком с литературой: я буду основываться на отличии между явным и неявным знанием, идею о котором полвека назад продвигал Майкл Полани. Я буду использовать слово «ноу?хау» для описания неявного знания, так как предпочитаю использовать два разных существительных для обозначения двух различных понятий вместо использования одного и того же существительного с добавлением прилагательного (явное или неявное). Краткое изложение понятий явного и неявного знания можно найти в книге Гарри Коллинза Tacit and Explicit Knowledge (Chicago: University of Chicago Press, 2010). В ней Коллинз подразделяет неявное знание на относительное неявное знание, к которому относится то, что мы могли бы описать в принципе, но часто не способны описать; соматическое неявное знание, которое относится к тому, что мы можем делать с помощью наших тел, но не способны описать (например, езда на велосипеде); и коллективное неявное знание, к которому относится знание, значение которого обусловливается социальными взаимодействиями, к этим знаниям относятся, в частности, правила языка.

 

[14] Эту цитату можно найти в биографии Марвина Мински на веб?сайте Музея компьютерной истории: computerhistory.org/fellowawards/hall/bios/Marvin,Minsky.

 

[15] Мой друг и научный руководитель Франциско Кларо предложил мне этот расчет несколько лет назад. В его примере в то время использовался реактивный истребитель.

 

[16] Согласно данным, взятым с сайта goldprice.org 14 января 2013 года в 16:45 по Восточному стандартному времени, точная цена составляла 53586 долларов США за килограмм.

 

[17] Хорошее обсуждение этого вопроса можно найти в книге Эрика Бейнхокера The Origin of Wealth (Boston: Harvard Business School Press, 2005).

 

[18] Вы можете возразить, что стоимости Bugatti определяется далеко не только физическим порядком или информацией. Я согласен с вами и предлагаю вам продолжать чтение. Постепенно я опишу эти дополнительные аспекты.

 

[19] Поскольку у слова «порядок» много значений (например, расположение предметов одежды в вашем шкафу или порядок блюд, заказываемых в ресторане), я хотел бы уточнить значение данного слова, поскольку я собираюсь использовать его в дальнейшем. Когда я использую слово «порядок», я имею в виду физический порядок – способ расположения частей системы (например, способ расположения вещей в вашем шкафу). По определению, физический порядок является информацией. Именно физический порядок отличает автомобиль Bugatti до аварии от того, что от него осталось после нее.

 

[20] Это самый простой из возможных случаев, который можно использовать для иллюстрации теории Шеннона, поскольку он предполагает, что все твиты и символы равновероятны. В реальности все символы и строки символов не являются равновероятными. Сообщение с большой степенью вероятности будет содержать последовательность символов http://, чем последовательность символов qwzykq. Если Брайан знает об этих различиях, он может использовать их для того, чтобы уменьшить количество вопросов, необходимых для угадывания твита. Если вам неудобно использовать такие допущения, предположите, что Эбби и Брайан прибыли с разных планет, и что об алфавите Эбби Брайану известно только то, что он основан на тридцати двух разных символах.

 

[21] Обратите внимание на то, что число 700 также присутствует в выражении 2700, которое соответствует общему количеству возможных твитов. Общей формулой в данном случае является: N log2 (S), где N – это количество символов, а S – это размер алфавита. Это эквивалентно выражению log2 (SN), где SN – это общее количество возможных твитов. В целом следует обратить внимание на то, что информационное содержание сообщения соответствует логарифму по основанию 2 от количества возможных сообщений. Это объясняется тем, что наиболее эффективный способ для нахождения сообщения или его однозначной идентификации заключается в итеративном сокращении пространства поиска в два раза.

 

[22] Слишком дотошным математикам следует рассмотреть пример стадиона, в котором количество рядов не увеличивается по мере удаления от поля, а номер ряда определяет расстояние между местом в этом ряду и полем.

 

[23] Существует много критериев для принятия решений, которые в итоге помогают достичь этих состояний. Замечательное введение в тему разнообразия поведений, которые могут привести к тому, чтобы люди заняли верхнюю половину стадиона или зала, можно найти в первой главе книги Томаса Шеллинга Micromotives and Macrobehavior (New York: W. W. Norton, 2006).

 

[24] Манфред Эйген, From Strange Simplicity to Complex Familiarity: A Treatise on Matter, Information, Life and T ought (Oxford: Oxford University Press, 2013), 310.

 

[25] Томас Рокики и др., «The Diameter of the Rubik’s Cube Group Is Twenty», SIAM Journal on Discrete Mathematics 27, no. 2 (2013): 1082–1105.

 

[26] Впервые количество ходов для решения кубика Рубика было оценено в пятьдесят два в июле 1981 года. С тех пор это число постепенно уменьшалось: в 1990 году оно составило сорок два, в 2000?м – двадцать девять, в 2008?м – двадцать два и в конечном счете достигло двадцати. См. статью Mathematics of the Rubik’s Cube на сайте ruwix.com/the?rubiks?cube/mathematics?of?the?rubiks?cube?permutation?group.

 

[27] Идея о том, что информация подразумевает апериодичность и множество корреляций различного масштаба, также рассматривается, например, в шестой главе книги «Гедель, Эшер, Бах. Эта бесконечная гирлянда» Дугласа Хофштадтера. (Бахрах?М, 2001).

 

[28] В последние годы методы, навеянные идеями информации, использовались для идентификации новых генов в том, что считалось межгенным материалом. См. статью Anne?Ruxandra Carvunis et al., «Protogenes and De Novo Gene Birth», Nature 487, no. 7407 (2012): 370–374.

 

[29] Конечно, совершенно коррелированное изображение, например равномерно закрашенное одним цветом (гигантский красный квадрат), также несет мало информации, поскольку корреляции настолько сильны, что мы можем определить, как выглядит все изображение, исходя из одного пиксела. Это говорит нам о том, что информация содержится не в идеально упорядоченных или неупорядоченных структурах, а во фрактальных, апериодических, но в некотором роде регулярных структурах, содержащих корреляции на различных расстояниях друг от друга, как в случае с лицом, деревом, двигателем автомобиля или облаком.

 

[30] См. статью Дэйва Мангера «A Simple Toy, and What It Says About How We Learn to Mentally Rotate Objects», в блоге Cognitive Daily от 17 сентября, 2008 года, http://scienceblogs.com/cognitivedaily/2008/09/17/a?simple?toy?and?what?it?says, а также статью Helena ?rnkloo and Claes von Hofsten, «Fitting Objects into Holes: On the Development of Spatial Cognition Skills», Developmental Psychology 43, no. 2 (2007): 404.

 

[31] Размышлять о прошлом, настоящем и будущем сложно, хотя подобные размышления часто встречаются в фильмах, темой которых является путешествие во времени. Наше текущее понимание физики говорит нам о том, что будущего не существует. Оно создается каждый миг. На самом деле существует только настоящее, которое вычисляется в данный момент на основе ближайшего прошлого не вполне предсказуемым способом. Пожалуйста, обратите внимание на то, что, говоря о создании настоящего на основе недавнего прошлого, мы не отрицаем того, что информация из далекого прошлого оказывает влияние на этот процесс. Нам требуется только, чтобы информация была физически воплощена в самом ближайшем прошлом, чтобы повлиять на настоящее.

 

[32] В физике такая эквивалентность называется симметрией. Симметрия может быть понята как изменение переменных, которые не влияют на результат применения физической модели. Симметрия относительно обращения времени просто подразумевает то, что уравнения движения остаются в силе после замены времени t на – t. Это значит, что мир, в котором время течет в обратном направлении, не противоречит физическим принципам, использующимся для получения этих уравнений движения, и, следовательно, по отношению к ним является действительным.

 

[33] Свободная энергия – это техническая концепция, определяемая как энергия системы, которая может использоваться для производства работы. Сюда не входит тепловая энергия. Представьте себе шар для боулинга на высокой полке. Общая энергия системы включает тепловую энергию шара для боулинга (поскольку температура не равна абсолютному нулю) и потенциальную энергию шара для боулинга на полке. Свободная энергия представляет собой просто потенциальную энергию шара для боулинга, находящегося на полке.

 

[34] Nobel Media AB, «The Nobel Prize in Chemistry 1977», nobelprize.org/nobel_prizes/chemistry/laureates/1977.

 

[35] Водоворот – это информационно богатое устойчивое состояние, поскольку распределение скоростей молекул воды в водовороте является далеко не случайным. Тем не менее Пригожин отмечает, что «Долгое время турбулентность отождествлялась с хаосом или шумом. Сегодня мы знаем, что это не так. Хотя в макроскопическом масштабе турбулентное течение кажется совершенно беспорядочным, или хаотическим, в микроскопическом масштабе оно высокоорганизовано». Илья Пригожин, Изабелла Стенгерс, «Порядок из Хаоса»: (Прогресс, 1986).

 

[36] Илья Пригожин, «?tude thermodynamique des ph?nom?nes irr?versibles», PhD thesis, Universit? Libre de Bruxelles, 1947.

 

[37] Л. М. Мартюшев и В. Д. Селезнев, «Принцип максимальности производства энтропии в физике и смежных областях», Монография / Л. М. Мартюшев, В. Д. Селезнев./ – Екатеринбург: ГОУ ВПО УГТУ?УПИ, – 2006.

 

[38] Илья Пригожин и Грегуар Николис «Biological Order, Structure and Instabilities», Quarterly Reviews of Biophysics 4, nos. 2–3 (1971): 107–148. Более современное описание связи между статистической физикой, порядком и жизнью можно найти в статье Jeremy L. England, «Statistical Physics of Self?Replication», Journal of Chemical Physics 139, no. 12 (2013): 121923.

 

[39] Этот мысленный эксперимент не является точным с физической точки зрения – водоворот остановится, когда вы его заморозите, однако благодаря воображению вы можете провести этот эксперимент в своей голове. Целью ментального образа, прежде всего, является иллюстрация.

 

[40] Конечно, информация, закодированная в расположении молекул воды, сохранится, однако та, что содержится в их скорости или импульсе, исчезнет.

 

[41] Эксперимент Эвери, Маклеода и Маккарти, произведенный в 1944 году и показавший, что ДНК несет генетическую информацию, совпал с публикацией книги Шредингера, поэтому Шредингеру не было известно, что именно ДНК, а не белки, несут генетическую информацию.

 

[42] Это зависит от масштаба. Мы можем полагать, что твердое тело будет оставаться в замороженном состоянии в условиях, когда колебания температур слишком слабы, чтобы изменить его структуру. Это верно для здания и автомобиля при комнатной температуре. С другой стороны, белок живет в основном на границе между порядком и беспорядком, поскольку термальные флуктуации важны для сворачивания (фолдинга) белка, однако его структура остается устойчивой в условиях термальных флуктуаций, которые происходят при комнатной температуре.

 

[43] В

 

[44] Х

 

[45] С

 

[46] В

 

[47] В

 

[48] С

 

[49] В

 

[50] Технически это называется бифуркацией. Это явление имеет место в системах, в которых присутствуют нелинейности, обусловленные тем, что производство некоторых промежуточных соединений{С} или выходов{Х} требует, соответственно, комбинации входов{В} и промежуточных состояний{С}.

 

[51] Это одна из центральных идей, описанных Стюартом Куффманом в книге «Происхождение порядка: самоорганизация и отбор в эволюции» (The Origins of Order: Self?Organization and Selection in Evolution, 1993) (New York: Oxford University Press, 1993), а также то, что подразумевается под его моделью случайных булевых сетей.

 

[52] Более подробное объяснение вы можете найти в книгах Ильи Пригожина и Изабеллы Стенгерс, «Порядок из Хаоса»: (Прогресс, 1986) и «Конец определенности. Время, Хаос и Новые Законы Природы» (Регулярная и хаотическая динамика, 2001).

 

Яндекс.Метрика