Книжная полка

«Эпоха крайностей»

«Эпоха крайностей»

ХХ век был, пожалуй самым стремительным столетием в мировой истории. Беспрецедентный рывок научно-технического прогресса, победы над множеством болезней, первый полет человека в космос. Расцвет расистских теорий, две мировые войны, атомная бомба. В книге «Эпоха крайностей. Короткий двадцатый век (1914–1991)» (издательство «Corpus»), переведенной на русский язык Ольгой Лифановой и Александрой Никольской, британский историк-марксист Эрик Хобсбаум подробно разбирает, как XX век изменил цивилизацию и какие уроки человечеству удалось из него извлечь. N + 1 предлагает своим читателям ознакомиться с фрагментом, посвященной главенствующей роли теоретиков в науке XX века и отделению теоретических построений от данных чувственного опыта и здравого смысла.

II

Примерно в середине «века империи» происходит размежевание между теоретическими научными открытиями и реальностью, основанной на чувственном опыте. Точно так же прерывается связь между наукой и тем особым видом логики (своеобразным способом мышления), который основан на здравом смысле. Эти два разрыва преемственности взаимно обусловили друг друга. Теперь прогрессом естественных наук руководили скорее теоретики, пишущие уравнения (т. е. математические предложения) на бумаге, а не экспериментаторы в лабораториях. В двадцатом веке именно теоретики указывали практикам, что тем следует искать и находить в свете теоретических построений. И потому двадцатый век можно с полным правом назвать веком математики. Единственным исключением из этого правила являлась молекулярная биология, в которой, как сообщают специалисты, теории пока еще очень мало. Но наблюдение и опыт все же не отошли на второй план. Наоборот, благодаря появлению новых приборов и научных методов в двадцатом веке технологии претерпели наиболее революционные изменения после семнадцатого века. Многие изобретатели даже удостоились Нобелевской премии, что является доказательством высшего научного признания** .

**После Первой мировой войны более двадцати Нобелевских премий по физике и химии были полностью или частично присуждены за новые исследовательские методы, устройства и технические приемы.

Приведем только один пример. Электронный микроскоп (1937) и радиотелескоп (1957) позволили преодолеть ограниченность простого оптического увеличения. В результате стало возможным более глубокое изучение молекул, атомов и удаленных галактик. Автоматизация лабораторной рутины и появление все более сложных лабораторных расчетов, в частности при помощи компьютеров, значительно увеличили возможности экспериментаторов и создающих модели теоретиков. В результате в некоторых областях знания, в частности в астрономии, появились открытия, иногда даже случайные, которые в свою очередь породили инновационные теории. Вся современная космология зиждется на следствиях двух таких открытий: наблюдение Хаббла о расширении вселенной, основанное на спектральном анализе галактик (1929); и открытие в 1965 году микроволнового фонового излучения (радиошума) Пензиасом и Вильсоном. И хотя научные открытия — результат согласованной работы теоретиков и практиков, в «коротком двадцатом веке» ведущая роль принадлежала именно теоретикам.

Для самих ученых полный отрыв теоретических построений от данных чувственного опыта и здравого смысла означал прежде всего разрыв с привычной определенностью научного знания и его методологии. Последствия этого разрыва лучше всего проследить на примере физики — неоспоримой царицы наук первой половины двадцатого века. Объектом физических исследований являются как мельчайшие частицы материи (органические и неорганические), так и устройство и структура самых крупных материальных тел, например Вселенной. Поэтому физика оставалась столпом естественных наук даже в конце двадцатого века, несмотря на растущее соперничество наук о жизни, в которых начиная с 1950-х произошли коренные изменения благодаря революции в молекулярной биологии.

Не было науки более незыблемой, последовательной и методологически завершенной, чем классическая физика. Но и ее основания оказались подорванными теориями Планка и Эйнштейна, а также радикальным переосмыслением теории атома, последовавшим за открытием радиоактивности в 90-х годах девятнадцатого века. Классическая физика была объективной, т. е. описываемые ею явления поддавались наблюдению, пределом которого служили технические возможности приборов (например, оптического микроскопа или телескопа). Классическая физика не была двусмысленной: объект или феномен являлся либо чем то одним, либо другим, причем провести границу между двумя категориями было достаточно легко. Ее законы были универсальными: они одинаково работали на уровне космоса и на молекулярном уровне. Связывающие явления механизмы поддавались пониманию (иначе говоря, их можно было выразить через категории «причины» и «следствия»).

В результате созданная физикой картина мира являлась детерминистской, а задачей лабораторных экспериментов было подтвердить этот детерминизм, исключив, насколько возможно, сложную путаницу обыденных явлений, скрывавших эту стройную картину. Только невежда или ребенок мог заявить, что полет птиц или бабочек не подчиняется законам тяготения. Ученые прекрасно понимали «ненаучный» характер подобных утверждений, и их как ученых это не касалось.

Но в 1885–1914 годах все эти характеристики классической физики были поставлены под сомнение. Является ли свет непрерывным движением волны часть третья обвал 597 или эмиссией дискретных частиц (фотонов), как полагал вслед за Планком Эйнштейн? В некоторых случаях удобнее было считать свет волнами, а в некоторых случаях — частицами, но какая связь существует между волнами и частицами? И что тогда представляет собой свет на самом деле? Вот что писал великий Эйнштейн через двадцать лет после появления этой загадки: «Теперь мы имеем две теории света, каждая из которых нам совершенно необходима; но приходится признать, что между этими теориями нет никакой логической связи, несмотря на двадцать лет колоссального труда физиков-теоретиков, пытающихся эту связь установить» (Holton, 1970, р. 1017). Что происходит внутри атома, который теперь считается не элементарной, следовательно, неделимой частицей материи (как это предполагается его греческим названием), а сложной системой, состоящей из ряда еще более элементарных частиц?

Первое предположение возникло после того, как в 1911 году в Манчестере Резерфорд описал строение атомного ядра, что было триумфом экспериментального воображения, заложившим основу современной ядерной физики и так называемой «фундаментальной науки»). Это предположение заключалось в том, что электроны циркулируют по орбитам вокруг ядра, как планеты вокруг солнца. Но изучение структуры отдельных атомов (особенно структуры водорода Нильсом Бором, знавшим о «квантах» Макса Планка) опять таки продемонстрировало глубочайшие расхождения между поведением электрона и — цитируя самого Нильса Бора — «восхитительно стройным набором концепций, которые по праву называются классической теорией электродинамики» (Holton, 1970, р. 1028). Предложенная Бором модель «работала», т. е. обладала блестящими объяснительными и прогностическими возможностями. Вот только с позиций классической механики она являлась «абсолютно иррациональной и абсурдной» и совершенно не объясняла, что точно происходит внутри атома, когда электрон «перепрыгивает» или каким то иным способом перемещается с одной орбиты на другую. И что происходит между тем моментом, когда электрон появляется в одном месте, а потом вдруг обнаруживается в другом?

И как теперь относиться к точности научных наблюдений, если оказалось, что сам процесс наблюдения физических явлений на субатомном уровне изменяет эти явления? Ведь чем точнее мы хотим знать положение частицы на субатомном уровне, тем неопределеннее становится ее скорость. Приведем весьма типичное высказывание по поводу возможности любых способов детального наблюдения за точным положением электрона: «Характеристики электрона можно измерить, только уничтожив его» (Weisskopf, 1980, р. 37). Этот парадокс был в 1927 году обобщен в знаменитый «принцип неопределенности» блестящим молодым немецким физиком Вернером Гейзенбергом и с тех пор носит его имя. Тот факт, что в названии принципа фигурировало слово «неопределенность», достаточно показателен. Название определяло круг проблем, волновавших исследователей новой научной парадигмы, отказавшихся от привычной научной определенности. И дело совсем не в том, что сами ученые сомневались в своих построениях или приходили к спорным заключениям. Напротив, их теоретические выкладки, при всем кажущемся неправдоподобии и странности, подтверждались результатами наблюдений и опыта. В частности, общая теория относительности Эйнштейна, казалось бы, нашла свое подтверждение в 1919 году.

Изучавшая солнечное затмение британская экспедиция обнаружила, что свет от ряда удаленных звезд отклонялся в направлении Солнца в соответствии с общей теорией относительности. В практическом отношении физика элементарных частиц являлась такой же предсказуемой и закономерной, как и классическая физика, только совершенно в ином роде; и в любом случае на макроатомном уровне законы Ньютона и Галилея оставались неизменными. Но ученых беспокоило, что они не понимают, как совместить старые и новые теории.

Между 1924 и 1927 годами этот дуализм, не дававший покоя физикам первой четверти двадцатого века, был преодолен или, скорее, обойден при помощи блестящих построений математической физики. Речь идет о квантовой механике, почти одновременно созданной в нескольких странах. То, что находится внутри атома, является не волной или частицей, а неразделимым «квантовым состоянием», которое представляет собой либо волну, либо частицу, либо то и другое вместе. Рассматривать квантовое состояние как непрерывное или прерывистое движение бессмысленно, поскольку мы никогда не сможем шаг за шагом проследить весь путь электрона. Такие понятия классической физики, как положение в пространстве, скорость или инерция, просто неприменимы за рамками принципа неопределенности Гейзенберга. Разумеется, появились и другие теории, приводящие к вполне предсказуемым результатам. Эти теории описывали особые состояния, вызванные «волнами» или вибрацией (отрицательно заряженных) электронов, находящихся в ограниченном пространстве атома около (положительно заряженного) ядра. Последовательные «квантовые состояния» в ограниченном пространстве вызывали поддающиеся определению сочетания различных частот, которые, как это показал Шрёдингер в 1926 году, можно точно вычислить, так же как и соответствующую им энергию («волновую механику»).

Такая модель поведения электрона обладала замечательной прогностической способностью и многое объясняла. В частности, много лет спустя, когда при попытке создания атомной бомбы в Лос-Аламосе во время атомной реакции был впервые получен плутоний. Количество плутония оказалось настолько малó, что его свойства не поддавались наблюдению. Однако часть третья обвал 599 на основе количества электронов в атоме этого элемента, а также конфигурации девяноста четырех электронов, вибрирующих вокруг ядра, и только по этим данным, ученые (верно) предсказали, что плутоний — коричневый металл с плотностью около 20 граммов на кубический сантиметр, обладающий определенной электрической и тепловой проводимостью и эластичностью. Квантовая механика объясняла, почему атомы (а также молекулы и основанные на них образования более высокого уровня) остаются стабильными или, скорее, почему для изменения их состояния требуется дополнительная энергия. Нередко отмечалось, что

даже феномен живого — в частности, структура ДНК и сопротивление нуклеотидов термальным воздействиям при комнатной температуре — основан на базовых квантовых эффектах. Например, одни и те же цветы расцветают каждую весну именно из за стабильности конфигурации различных нуклеотидов (Weisskopf, 1980, р. 35–38).

Но этот великий и удивительно плодотворный прорыв в понимании законов природы стал возможен за счет отрицания всего того, что раньше считалось в науке определенным и адекватным, а также за счет вынужденного отказа от недоверия к абсурдным на первый взгляд представлениям. Все это вызывало беспокойство ученых старшего поколения. Чего стоит хотя бы концепция «антиматерии», предложенная кембриджским ученым Полем Дираком в 1928 году. Дирак открыл, что его уравнение имеет решение, только если допустить существование электронных состояний с энергией меньше энергии вакуума. И многие физики с энтузиазмом приняли «антиматерию», совершенно бессмысленную с точки зрения здравого смысла (Weinberg, 1977, p. 23–24). Само понятие «антиматерия» подразумевало сознательный отказ от установки, что прогресс теоретических построений обязан считаться с любыми установленными представлениями о реальности: теперь именно реальности приходилось подстраиваться под математические уравнения. Но принять все это оказалось непросто даже ученым, уже давно отказавшимся от убеждения великого Резерфорда, что любую хорошую физическую теорию можно объяснить официантке.

Даже великие первооткрыватели новой науки, например Макс Планк и Альберт Эйнштейн, никак не могли примириться с завершением эпохи определенности. В частности, Альберт Эйнштейн выразил сомнения по поводу истинности исключительно вероятностных законов, а не детерминистской причинности, в своей знаменитой фразе «Бог не играет в кости». Для этого утверждения не было никаких оснований, кроме «внутреннего голоса, говорившего мне, что квантовая механика не является окончательной истиной» (цит. по: Jammer, 1996, р. 358). Некоторые создатели квантовой механики мечтали устранить противоречия, подчинив одну область другой: Шрёдингер надеялся, что его «волновая механика» превратит «скачки» электронов с одной атомной орбиты на другую в непрерывный процесс изменения энергии и таким образом сохранит классические представления о пространстве, времени и причинности. Скептические первооткрыватели новой науки, особенно Планк и Эйнштейн, вздохнули с облегчением, и совершенно напрасно. Новая эпоха уже наступила. Старые правила больше не годились.

Но сумеют ли физики приспособиться к постоянным противоречиям? Нильс Бор полагал, что могут и просто обязаны. Учитывая природу человеческого языка, не существует способа выразить целостность природы посредством одной и единой системы. Не может быть одной-единственной, всеобъемлющей модели всего на свете. Все, что нам остается делать, — это постигать реальность различными способами и соединять их так, чтобы они дополняли друг друга, «образуя исчерпывающую совокупность различных описаний, включающих явно противоречивые понятия» (Holton, 1970, р. 1018).

В этом заключается смысл введенного Бором «принципа дополнительности», который по сути являлся метафизической концепцией, близкой понятию «относительности». Бор позаимствовал его из источников, весьма далеких от физики, и рассматривал как имеющий универсальную сферу применения. «Дополнительность» Бора была призвана не содействовать исследованиям в области ядерной физики, а, скорее, успокоить физиков в их замешательстве. Притягательность этого принципа зиждется прежде всего на его иррациональности. Ведь даже если мы все (и не в последнюю очередь умные ученые) знаем, что существуют различные способы восприятия одной и той же реальности, иногда несовместимые или противоречащие друг другу, которые необходимо осознать в совокупности, — мы все равно не представляем, как их соединить. Воздействие сонаты Бетховена на слушателей можно анализировать с точки зрения физики, физиологии или психологии; наконец, сонату можно просто слушать, — но совершенно неясно, как эти способы понимания связаны между собой. Этого не знает никто.

Подробнее читайте:
Хобсбаум, Э. Эпоха крайностей / Эрик Хобсбаум ; Пер с англ. [Ольги Лифановой и Александры Никольской.] — М.: Издательство АСТ: CORPUS, 2020. — 688 с.

Источник

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть
Закрыть