Теорема Геделя о неполноте [Jacov A. Smorodinskiy] (fb2) читать онлайн

- Теорема Геделя о неполноте 1.06 Мб, 336с. скачать: (fb2) - (исправленную)  читать: (полностью) - (постранично) - Jacov A. Smorodinskiy

 [Настройки текста]  [Cбросить фильтры]

Теорема Гёделя о неполноте

Теорема о неполноте и доказательство, утверждает примерно следующее: при определенных условиях в любом языке существуют истинные, но недоказуемые утверждения.


Первая теорема Гёделя о неполноте

Во всякой достаточно богатой непротиворечивой теории первого порядка (в частности, во всякой непротиворечивой теории, включающей формальную арифметику), существует такая замкнутая формула F, что ни F, ни -,F не являются выводимыми в этой теории.

Иначе говоря, в любой достаточно сложной непротиворечивой теории существует утверждение, которое средствами самой теории невозможно ни доказать, ни опровергнуть. Например, такое утверждение можно добавить к системе аксиом, оставив её непротиворечивой.

Теорема была доказана Куртом Гёделем в 1931-ом году.


Вторая теорема Гёделя о неполноте


Во всякой достаточно богатой непротиворечивой теории первого порядка (в частности, во всякой непротиворечивой теории, включающей формальную арифметику), формула F, утверждающая непротиворечивость этой теории, не является выводимой в ней.


Иными словами, непротиворечивость достаточно богатой теории не может быть доказана средствами этой теории. Однако вполне может оказаться, что непротиворечивость одной конкретной теории может быть установлена средствами другой, более мощной формальной теории. Но тогда встаёт вопрос о непротиворечивости этой второй теории, и т. д.


Использовать эту теорему для доказательства того, что разумная деятельность не сводится к вычислениям, пытались многие. Например, еще в 1961 году известный логик Джон Лукас (John Lucas) выступал с подобной программой. Его рассуждения оказались довольно уязвимыми - однако он и задачу ставил более широко. Роджер Пенроуз использует несколько другой подход, который излагается в книге полностью, "с нуля.

Работы Роджера Пенроуза, Теорема Гёделя о неполноте

Пределы доказуемости

К проблеме вычислимости функции сознания


Работы Роджера Пенроуза

Дополнительно рекомендуются:

КМ и психика или еще раз о Пенроузе Муравьев И.П.

К проблеме 'вычислимости' функции сознания Е.М.Иванов

Физическая личность

В Англии принято присваивать выдающимся соотечественникам дворянское звание Рыцарь (Knight) и титул Сэр (Sir). В том, что недавно Рыцарем стал крупнейший математик и физик-теоретик Роджер Пенроуз, есть точная символика: вот уже более десяти лет он бесстрашно, открыто и честно атакует одну из величайших тайн природы - тайну разума.

Утверждая, что смоделировать интеллект на машине нельзя, Пенроуз предлагает физический механизм, на котором, возможно, основаны наши интеллект и сознание - а может быть, и то неуловимое, что мы называем личностью человека. "Физическая личность"?..

Микродайджест

(для тех, кого не интересуют подробности)

Основные результаты и гипотезы Пенроуза и его коллег по этому отчаянному предприятию суммированы в книге "Тени разума" (1) и в нескольких статьях. Их можно разделить на "отрицательную программу" и "положительную программу".

Отрицательная программа сводится к математической аргументации (на основе теоремы Геделя) против возможности алгоритмически смоделировать разум. (некоторые возражение - в К проблеме вычислимости функции сознания) Понятием "разум" можно хоть как-то оперировать в формальных терминах, если иметь в виду математическое творчество - теоремы, вычисления, алгоритмы. Поэтому появляется возможность использовать достаточно четкие аргументы - а они-то как раз и подтверждают, что даже в математике самое существенное - то, что не формализуемо! Тем меньше остается надежд, что можно смоделировать другие свойства разума.

Положительная программа, строго говоря, есть всего лишь обсуждение комплекта согласованных друг с другом гипотез. Одна их часть относится к физике, другая - к нейрофизиологии, а в итоге получается вот что. Существенную роль в таком неотъемлемом свойстве разума, как сознание, играет некий "квантовый процесс" в так называемых микротрубочках нейронов мозга. Этот процесс влияет на сигналы, которыми обмениваются нейроны, внося принципиально важный ингредиент: невычислимость (а без нее не обойтись, если мы согласны с выводами отрицательной программы). В рамках существующей квантовой теории описать этот процесс невозможно (так как в ней все вычислимо, пусть даже и в вероятностном смысле). Можно сделать лишь некоторые количественные оценки, но до сколько-нибудь полной теории таких явлений еще далеко. Более того, Пенроуз считает, что создание этой теории должно быть связано с таким же радикальным, концептуальным пересмотром основ физики, какого в свое время потребовало создание общей теории относительности. По поводу реализуемости нужных квантовых процессов в клетках мозга тоже есть лишь косвенные данные. Однако работа продолжается очень активно, и к ней начинают подключаться экспериментаторы.

Мини-дайджест:

логика и математика

Пафос первой части книги заключается в том, чтобы на основе виртуозных математических и логических построений дать убедительные аргументы в пользу неалгоритмической работы сознания. Пенроуз выделяет четыре наиболее характерные точки зрения на вопрос о связи сознательного мышления и вычислений на компьютере.

A. Мышление целиком и полностью является вычислением. В частности, ощущение осознания (feeling of conscious awareness) вызывается просто выполнением соответствующих вычислений.

B. Сознание есть один из результатов физического действия мозга. Любое физическое действие может быть вычислительно смоделировано. Однако само по себе вычислительное моделирование не может вызвать осознание.

C. Определенное физическое действие мозга вызывает осознание. Однако это физическое действие не может быть вычислительно смоделировано ни в каком разумном смысле.

D. Сознание невозможно объяснить ни в рамках физики, ни в рамках теории вычислений, ни вообще в рамках науки.

Пенроуз придерживается позиции C, и ее обоснованию посвящена вся его книга. По отношению к другим позициям автор исключительно корректен (в особенности это относится к D), но всегда абсолютно четко формулирует свое отношение к ним. По поводу D он замечает (после многочисленных реверансов) примерно следующее: а почему, собственно, именно эту проблему - что такое сознание, осознание, понимание - мы должны отказаться исследовать научными методами, которые позволили человечеству так заметно продвинуться в понимании мира, в котором мы живем?

Для иллюстрации различий между A и B, а также для демонстрации подходов, которых автор не собирается придерживаться, в одной из первых глав приводится замечательное рассуждение философа Джона Серля (John Searle), известное под названием "Китайская комната". Оно звучит так.

Предположим, компьютеру рассказали некую историю. Он ее понял, и теперь ведет осмысленное обсуждение этой истории с несколькими людьми. Но и люди, и машина - все говорят только на китайском языке. В той же комнате находится человек, который китайского не знает. Зато он умеет быстро-быстро двигать костяшки на счетах, точно воспроизводя все вычисления, которые делает компьютер при выслушивании, обдумывании и обсуждении истории. Спрашивается: поймет ли этот человек то же самое, что понял компьютер? Вряд ли. Но, согласно А, вроде бы должен понять - ведь он выполнил нужные вычисления. Значит, понимание не сводится к вычислению...

Разумеется, против этого рассуждения можно выдвинуть ряд возражений. Но я хочу подчеркнуть: ни это рассуждение, ни какие бы то ни было другие рассуждения на эту тему строгими доказательствами не являются. (Сам же Серль, кстати, высказывался в том духе, что мозг - это компьютер!) В данном случае, например, надо различать внешние и внутренние проявления сознания. И таких тонкостей множество - если бы их не было, то и проблемы бы не было! Между прочим, Пенроуз нигде не говорит: я доказал, что машинный разум невозможен. Он говорит: я привел очень сильные аргументы... Пенроуз ставит задачу достаточно узкую: может ли процесс установления математической истины, который используется математиками, быть результатом действия вычислительного алгоритма (в очень широком смысле этого слова)? И самыми сильными аргументами против того, что это возможно, он считает те, что основаны на теореме Геделя о неполноте.

Использовать эту теорему для доказательства того, что разумная деятельность не сводится к вычислениям, пытались многие. Например, еще в 1961 году известный логик Джон Лукас (John Lucas) выступал с подобной программой. Его рассуждения оказались довольно уязвимыми - однако он и задачу ставил более широко. Пенроуз использует несколько другой подход, который излагается в книге полностью, "с нуля". Причем изложение доведено до такого совершенства, что его вполне может понять вдумчивый пятиклассник!

Поделюсь впечатлениями о том, как я читал эту часть книги. Сначала автор говорит: предположим, что есть алгоритм, который решает... ну, скажем, все задачи определенного класса, которые могут решить математики. Затем он предлагает: давайте из нескольких задач скомбинируем другую задачу, вот такую; она тоже из этого класса. Ладно, говорим мы. А теперь, говорит автор, мы сделаем вот так, так и так, и получается, что эту задачу наш алгоритм решить не может. Согласны? Допустим, говорим мы. А теперь подумайте, - говорит он, - ведь задача-то эта, скомбинированная, решается. И ответ будет вот такой! Ну и что? - строго спрашиваем мы. Как "ну и что!" - теряет терпение автор. Мы - люди, то есть - решили. А алгоритм, который, как мы предположили, умеет решать - нет. Значит, свести то, что мы с вами умеем делать, к алгоритму - нельзя. Ах вот оно что!!! - обрадованно кричим мы (то есть я). И тут же соглашаемся, что заменить нас машиной - невозможно. Но оказывается, что все только начинается...

Во-первых, "геделевские аргументы" требуют, чтобы алгоритм был, хотя бы в принципе, познаваем. А кто сказал, что встроенный в головы математиков алгоритм они (математики) могут познать? Может быть, выбор только в том, чтобы верить или не верить в это? Далее, в рассуждениях было нужно, чтобы алгоритм на самом деле был правильным. А если в наши головы встроен алгоритм, но он неправильный (то есть иногда делает ошибки)? (Между прочим, к этой точке зрения склонялся Тьюринг. Сам же Гедель считал, что математическая интуиция в принципе может быть сведена к некоей "теоремной машине", но доказать этот факт будет невозможно, даже случайно обнаружив эту "машину".) И так далее... Следующие 130 страниц посвящены анализу всех этих возражений, - причем рассматриваются не только "обычные", но и вероятностные алгоритмы, эволюционные вычисления, квантовые вычисления, вычисления с оракулом...

Пенроуз аргументирует очень развернуто и конкретно, что и дает прекрасные возможности для критики в его адрес. И критика сразу же начинается - жесткая и, я бы даже сказал, свирепая. Разбирать здесь аргументы и контраргументы невозможно, и не нужно. Ясно одно - Пенроуз играет честно. Он собрал всю известную ему критику его предыдущих работ, добавил к ней несколько возражений, придуманных им самим, и отвечает по пунктам и с формулами. Через два года после выхода книги, в 1996 году, в журнале "Psyche" (реферируемый онлайновый научный журнал: http://psyche.cs.monash.edu.au/index.html) прошла большая дискуссия по ней с участием крупнейших специалистов. Интересно, что вся критика касалась только первой части (отрицательной программы). Один из участников, очень известный специалист по математической логике С. Феферман (S. Feferman), нашел формальную ошибку в одном из рассуждений Пенроуза. В статье "Ни тени сомнения" (!) в "Psyche" (http://psyche.cs.monash.edu.au/v2/psyche-2-23-penrose.html) Пенроуз ответил на все возражения и показал, что найденную ошибку можно исправить, не жертвуя основными выводами.

Оставляя в стороне математические аргументы, я хочу упомянуть только о двух моментах. Первый связан с непознаваемостью алгоритма. Очень трудно логически аргументировать против того, что у нас в головах есть некий непознаваемый и несознаваемый алгоритм, который управляет "математическим мышлением". К непознаваемому алгоритму нельзя непосредственно применить теорему Геделя... Но, не отказываясь от виртуозной логической аргументации, Пенроуз спрашивает: почему мы должны всеми силами держаться за саму идею "алгоритмичности" нашего мышления? Что в ней такого уж естественного? Каким образом, например, мог "универсальный математический алгоритм" возникнуть в процессе эволюции? Зачем природа могла снабдить охотника на мамонтов сверхсложным аппаратом, уже содержащим, в определенном смысле, и неевклидову геометрию, и К-теорию?.. Не проще ли предположить, что в процессе естественного отбора совершенствовался некий универсальный механизм понимания?..

Второй момент - возможность того, что некий хаотический, то есть детерминированный, но стохастический "с виду" процесс может отвечать за математику в нашем мышлении. Для этого необходимо, чтобы хаотический процесс мог хотя бы более или менее эффективно приблизить невычислимый процесс. Таких примеров, по-видимому, пока нет. В любом случае речь идет лишь о приближении, ибо хаотический процесс можно - в принципе - точно смоделировать. А на практике, как это обычно и делается, точно смоделировать нельзя, но можно смоделировать типичный хаотический процесс того или иного вида. С этой темой связана еще одна интересная проблема, о которой говорит Пенроуз: проанализировать возможность возникновения невычислимой динамики в рамках уже известных законов физики или химии.

Итак, центральная тема первой части - невычислимое против вычислимого. В математике много невычислимого, но, главным образом, в весьма абстрактных ее разделах. Пример, который приводит Пенроуз для иллюстрации того, что такое невычислимость, показан на рис. 3. Он построен на совершенно элементарном материале - задаче о покрытии плоскости плитками полиомино. Сравнительно недавно было доказано, что эта задача алгоритмически неразрешима. То есть не существует алгоритма, который бы получал на вход набор плиток, а на выходе выдавал бы "да" или "нет", в зависимости от того, можно ли замостить плоскость плитками из этого набора без зазоров и перекрытий. На рис. 1 показано, как можно построить абсолютно детерминированную "эволюцию" наборов плиток, не описываемую никаким алгоритмом.

Невычислимая эволюция "игрушечной Вселенной", состоящей из наборов плиток полиомино. Все наборы занумерованы; эволюция происходит по закону: Sn-> Sn+1, если плитки из набора Sn покрывают плоскость без зазоров и перекрытий, и Sn-> Sn+2 в противном случае.

(Из книги R. Penrose, "Shadows of the Mind".)

Еще много любопытнейших вещей упоминается по ходу дела. Лично меня поразило, что уже несколько лет в научной юридической (!) литературе обсуждаются возможные подходы к проблеме прав, обязанностей и ответственности компьютеров - это связано с определением понятия "свободного выбора"... Но пора переходить к "положительной программе".

Мини-дайджест: физика

Большая часть второй половины книги занята изложением азов квантовой теории, и научно-популярно настроенный читатель получает блестящую возможность понять основные принципы этой теории. А тот, кого интересуют только выводы, узнает вот что (2). Квантовая система живет по своим внутренним - сложным, но точно предсказуемым - законам до тех пор, пока не вступит в контакт с классической системой. Этот контакт называется измерением, а то состояние, в котором система (например, электрон) оказывается после этого - результатом измерения. Состояние описывается так называемой пси-функцией. Так вот, во время "квантовой жизни" эта пси-функция плавно и красиво эволюционирует (в абстрактном математическом пространстве), самым невероятным образом изменяет свою форму, но увидеть этого мы не можем! Если же мы поймаем электрон и посадим его под микроскоп, то увидим там одну из ничтожно малого количества заранее известных пси-функций! И даже точно рассчитав всю эволюцию электрона в его "квантовой жизни", мы можем узнать только вероятность того, что измерение даст нам ту или иную из разрешенных к наблюдению пси-функций.

"Превращение" некоей невидимой пси-функции в реально наблюдаемую называется редукцией, или схлопыванием. Пенроуз обозначает это превращение буквой R. Спрашивается, что такое R? Реальный процесс или математическая абстракция? Пенроуз относит этот вопрос к истинным загадкам квантовой теории (в отличие от кажущихся, которых там тоже хватает). Во-первых, говорит он, совсем не обязательно ответ должен сводиться к одной из этих двух "крайностей". А во-вторых, эта проблема имеет свою длительную историю, здесь есть много красивых идей, и... собственно, на этом твердо обоснованная (общепринятая, скажем так) физика кончается.

Начинаются гипотезы. Главная физическая идея, которой придерживается Пенроуз, выдвигалась в той или иной форме многими авторами. Она состоит в том, что R можно рассматривать как реальное физическое явление, связанное с выбором той или иной конфигурации пространства-времени, в котором находится наша квантовая система. Более того, редукция может происходить по двум причинам. Одна из них - взаимодействие со средой, с "классическими объектами". Когда это так, редукция носит вероятностный характер. Так вот, основная гипотеза в том, что существует еще и такое явление, как объективная редукция, OR, прерывающая "квантовую жизнь" любой системы независимо ни от каких измерений, если в ней слишком много частиц, или накопилось слишком много энергии, или она просто слишком долго не схлопывалась. Эта самая OR как раз и предполагается невычислимой (3). В обычных условиях, когда квантовая система очень быстро вступает во взаимодействие со "средой", R и OR практически неотличимы друг от друга. Но если квантовая система изолирована от среды и долго живет в так называемом сцепленном состоянии (entangled state), называемом еще когерентной квантовой суперпозицией (quantum coherent superposition), в ней происходит OR, результат которой алгоритмически непредсказуем.

Уф! Кажется, самое трудное позади. Если не считать того, что, по мнению Пенроуза, построение настоящей теории всего этого потребует кардинального пересмотра современной физики: нужен переворот такого же масштаба, какой произвела когда-то общая теория относительности! Пока такой теории нет, хотя все эти рассуждения строятся отнюдь не на пустом месте, и существует целый ряд подходов к реализации такого рода идей. А характерные времена и массы, связанные с OR, можно оценить в рамках принятых гипотез.

Итак, кандидатура на роль невычислимого ингредиента найдена - точнее, названа. Но при чем здесь сознание? Да и где в мозгу могут происходить квантовые процессы, влияющие на работу нейронов?

Мини-дайджест: нейрофизиология (4)

Нейрофизиологи уже давно задумывались над возможными квантовыми механизмами, связанными с работой мозга. На эту тему много писал классик нейрофизиологии Джон Экклс (John Eccles). Однако позднее возникли другие идеи, связанные с именем другого действующего лица нашей истории.

Стюарт Хамерофф (Stuart Hameroff), основатель нанобиологии, много лет работает в Аризонском университете в Тусоне (Tucson). Он преподает анестезиологию и сам участвует в операциях в качестве анестезиолога. Его главный научный интерес - механизмы сознания. В 1987 году вышла его пионерская работа - книга "Ultimate Computing: Biomolecular Consciousness and NanoTechnology", где речь шла о своеобразных вычислениях, происходящих в так называемых микротрубочках цитоскелета. Микротрубочки - важная часть "скелета" клетки. Это полые цилиндрические трубочки диаметром примерно 25 нм. Они состоят из субъединиц - тубулинов. Тубулины - это молекулы-димеры, то есть они могут существовать по крайней мере в двух пространственных конфигурациях (конформациях). Для того чтобы произошло "переключение" из одной конформации в другую, достаточно чтобы единственный электрон "переехал с места на место". Поверхность микротрубочки составлена из тубулинов, расположенных в узлах правильной решетки. Конфигурация каждого тубулина зависит от конфигурации его соседей. Прямо-таки клеточный автомат, изготовленный самой природой!

Микротрубочки есть во всех клетках всех организмов, за исключением некоторых бактерий и водорослей. Хамерофф предположил, что микротрубочки нейронов играют важную роль в работе мозга. В них могут возникать "вычисления" - последовательные перестройки конфигурации тубулинов, нечто вроде того, что происходит в игре "Жизнь" (где, как известно, можно реализовать даже машину Тьюринга). Эти вычисления, в свою очередь, влияют на передачу сигналов между нейронами.

Идеи Пенроуза и Хамероффа укладываются в общую картину следующим образом. Есть (косвенные) экспериментальные свидетельства, а также некие физические соображения в пользу того, что в микротрубочках тубулины могут образовывать большие когерентные квантовые системы. Другими словами, большая совокупность тубулинов может некоторое время жить "квантовой жизнью", а потом переходить в классическое состояние с помощью невычислимой процедуры OR. Вот этот переход и есть "момент сознания", или, как пишут авторы, используя терминологию английского философа А. Н. Уайтхеда (Alfred North Whitehead), "элементарный фактор чувственного опыта" ("occasion of experience"). Поток таких событий и образует субъективно ощущаемый "поток сознания".

Что такое "большая совокупность"? Исходя из формулы Пенроуза, связывающей среднюю продолжительность "квантовой жизни" системы с ее "гравитационной энергией", и данных некоторых экспериментов в нейрофизиологии, среднее количество тубулинов, находящихся в сцепленном состоянии при реализации "момента сознания", оценивается в один миллиард. Для этого (тоже оценочно) с большим запасом хватает тысячи нейронов. Более тонкий анализ приводит к модели "оркестрованной OR" (orchestrated OR), в которой участвуют еще и белки MAPs, связывающие микротрубочки друг с другом. Количество таких событий в мозгу человека может достигать сотен миллионов в секунду. В нервной системе червя, с его 302 нейронами и примерно тремя миллиардами тубулинов, "моментов сознания" будет не более двух в секунду - на большее нейронов не хватит.

Рис. 2. Модель работы "клеточного автомата" в микротрубочке. Черные и белые "крючки" - тубулины в разных конформациях. Серые "крючки" - совокупность тубулинов, находящихся в квантовой когерентной суперпозиции. Этапы 2-6 показывают рост этой совокупности вплоть до момента объективной редукции (OR), после которой возникает новое классическое состояние автомата (7). Переход от 6 к 7 связывается с "моментом сознания".

На рисунке 2 показана схема строения нейрона и расположение микротрубочек. На рисунках 3 и 4 проиллюстрирована (напомню, чисто гипотетическая!) "анатомия" одного "момента сознания".

Рис. 3. Схема центральной части нейрона. Показаны массивы параллельных микротрубочек, соединенных связанными с ними белками (MAPs).

Рис. 4. Предполагаемая схема развития квантовой когерентности в микротрубочках. По достижении некоторого порога происходит "объективная редукция", связываемая в концепции Пенроуза-Хамероффа с "моментом сознательного опыта".

Несколько замечаний напоследок

Писать такие книги, как "Тени разума", могут себе позволить только очень авторитетные ученые. Точнее, написать-то может любой, но мало кто станет читать очередной вариант "теории всего", принадлежащий автору, до этого не проявившему себя в науке очень и очень ярко. Каждое сочинение такого рода воспринимается как попытка угадать дальнейший ход развития науки. А это безумно трудно и, кроме того, вызывает почти болезненное раздражение у многих активно работающих профессионалов: мало ли какие гипотезы можно выдумать...

Пенроуз - один из самых строгих критиков собственных работ. Говоря о положительной программе, он то и дело подчеркивает: речь идет лишь о предположениях (5). Но ведь и предположения бывают разного качества. Например, книга "Что такое жизнь с точки зрения физики" Э. Шредингера сыграла большую роль не потому, что там объяснено, что такое жизнь, - этого еще никто не объяснил, хотя книга вышла 50 лет назад. Но эта книга стимулировала множество плодотворных идей. Точно так же и то, что нам предстоит узнать о физической основе сознания, наверняка будет сильно отличаться от первоначальных набросков, которые сделали Пенроуз и Хамерофф. Если Пенроуз прав, сам ответ будет сформулирован на языке, которого пока просто нет. И не очень рискованно предположить, что и этот ответ не будет окончательным.

Но одно мне кажется бесспорным: работы, обсуждавшиеся выше, задают современный уровень, на котором только и интересно сегодня говорить о проблемах естественного и искусственного интеллекта в рамках физики, математики, биологии и компьютерных наук.

Пределы доказуемости

Грегори Чейтин

?В мире науки? №6, 2006

Из идей сложности и случайности, впервые высказанных Готфридом Лейбницем в его ?Рассуждении о метафизике? (1686), и их подтверждения в  современной теории информации следует, что невозможно создать ?самую общую теорию всего? в  математике.

В 1956  году журнал Scientific American опубликовал статью Эрнста Нагеля (Ernest Nagel) и Джеймса Ньюмана (James R. Newman) ?Доказательство Гёделя?. Через два года ее авторы выпустили одноименную книгу, которая переиздается до сих пор. В  те дни я был еще ребенком, но до сих пор помню трепет, который испытал, открыв ее в  Нью-йоркской публичной библиотеке.

Меня поразило то, как Курт Гёдель (Kurt G?del) использовал математику, чтобы показать, что ее собственные возможности ограничены. Он опроверг высказанное около столетия назад Давидом Гильбертом утверждение о  существовании полной теории математики, т.е. конечной совокупности принципов, из которых с помощью последовательного использования правил математической логики можно вывести все положения математики. Гёдель показал, что существуют истинные математические утверждения, которые не могут быть доказаны таким образом. Его выводы основаны на двух самоотносимых парадоксах: ?данное утверждение ложно? и ?данное утверждение недоказуемо?. (Более подробные сведения о  теореме неполноты Гёделя можно найти на сайте Scientific American.)


Существование специфического строго определенного числа ?, которое невозможно вычислить с помощью конечной компьютерной программы, разбивает надежду на создание всеобъемлющей математической системы, в рамках которой можно строго доказать любое истинное утверждение (изображение: www.sciam.ru)


Всю жизнь я разбирался с доказательством Гёделя и теперь, полвека спустя, издал собственную книжку. В  какой-то степени это моя версия книги Нагеля и Ньюмана, однако доказательство Гёделя  ? не главная ее тема. Моя работа основана на измерении информации и доказательстве того, что некоторые математические факты не удается втиснуть в  теорию, потому что они слишком сложны. Согласно моему подходу, Гёдель открыл только верхушку айсберга: существует бесконечное множество верных математических теорем, которые невозможно доказать, исходя из конечной системы аксиом.

Сложность и законы науки


Готфрид Лейбниц, которому в Лейпциге поставлен памятник, еще 300 лет назад предвидел многие свойства алгоритмической информации (фото с сайта www.uni-leipzig.de)


В 1686  году было издано философское эссе Готфрида Лейбница (Gottfried W. Leibniz) ?Рассуждения о  метафизике? (Discours de m?taphysique), в  котором поставлен вопрос: как отличить факты, которые можно описать неким законом, от фактов, никаким законам не подчиняющихся? В  четвертом разделе своего эссе Лейбниц высказал очень простую и глубокую мысль: теория должна быть проще данных, которые она объясняет, иначе она не объясняет ничего. Концепция научного закона становится бессмысленной, если допускает неограниченный уровень математической сложности, потому что в таком случае всегда можно сформулировать закон независимо от того, насколько случайны и беспорядочны факты. И  наоборот, если единственный закон, объясняющий какие-то данные, оказывается слишком сложным, то рассматриваемые данные на самом деле не подчиняются никакому закону.

Современная математическая теория алгоритмической информации позволила дать точные количественные определения понятиям сложности и простоты. Обычная теория информации определяет объем информации числом битов, необходимых для ее кодирования. Например, для кодирования простого ответа ?да/нет? нужен один бит. В отличие от этого, объем алгоритмической информации определяется длиной компьютерной программы, необходимой для генерации данных. Минимальное число битов, необходимых для хранения программы, называется количеством алгоритмической информации данных. Например, бесконечный ряд натуральных чисел 1,  2,  3,... содержит очень мало алгоритмической информации: все числа ряда можно получить с помощью коротенькой компьютерной программы. Не имеет значения, сколько времени понадобится для выполнения вычислений и какой объем памяти придется использовать, важна лишь длина программы в  битах. (Разумеется, точное значение количества алгоритмической информации зависит от выбранного языка программирования, однако для рассматриваемых в данной статье вопросов это несущественно.)

В качестве другого примера возьмем число ?, равное 3,14159... Количество алгоритмической информации в нем тоже невелико: для последовательного вычисления всех его знаков нужен довольно короткий алгоритм. А вот случайное число, содержащее всего миллион знаков, скажем, 1,341285...64, характеризуется гораздо б?льшим количеством алгоритмической информации. Поскольку в таком числе нет определяющей структуры, длина самой короткой программы, необходимой для его написания, будет близка к длине самого числа:

Начать

Напечатать ?1,341285...64?

Конец


Научная теория подобна компьютерной программе, предсказывающей результаты наблюдений. Полезная теория представляет собой сублимацию экспериментальных данных: с помощью нескольких законов и уравнений можно описать целый мир различных явлений (изображение: www.sciam.ru)


(В программу должны быть включены все цифры, замененные многоточием.) Никакая более короткая программа не позволит рассчитать подобную последовательность цифр: ее невозможно сжать, в ней нет избыточности. Самое лучшее, что можно сделать,  ? просто передать ее, как она есть. Такие последовательности называются неприводимыми или алгоритмически случайными.

Как же соотносятся вышесказанное с научными законами и фактами? Идея заключается в том, чтобы взглянуть на науку глазами программиста: научная теория подобна компьютерной программе, предсказывающей результаты наблюдений, т.е. экспериментальные данные. Такая точка зрения опирается на два фундаментальных принципа. Согласно первому (?бритва Оккама?), из двух теорий, объясняющих некоторые данные, следует предпочесть более простую. Иначе говоря, наилучшей теорией является самая короткая программа, позволяющая рассчитать результаты наблюдений. Второй принцип, изложенный Лейбницем, в современных понятиях звучит так: теория, объем которой в битах равен количеству объясняемых ею данных, бесполезна, поскольку теорией такого размера можно описать совершенно случайные данные. Полезная теория обеспечивает сокращение количества информации: осмысление данных  ? это их сжатие в краткие алгоритмические описания. Чем проще теория, тем лучше понимание сути явления.

Достаточная причина

Лейбниц, живший за два с половиной века до появления компьютерных программ, очень близко подошел к современному понятию алгоритмической информации. Лейбниц знал, что все можно представить в виде двоичных кодов, и создал одно из первых вычислительных устройств; рассматривая понятия сложности и простоты, он осознавал огромный потенциал вычислений. Если бы Лейбниц объединил все известные ему элементы, то, скорее всего, усомнился бы в одном из устоев своей философии  ? принципе достаточной причины, согласно которому все происходящее имеет причину. Более того, если какое-то положение истинно, то оно истинно по какой-то причине. Бывает, что в суете и хаосе повседневной жизни в это трудно поверить. Даже если мы не всегда можем увидеть причину (возможно потому, что цепочка рассуждений слишком длинна и запутанна), ее видит Бог. Вот и всё! Здесь Лейбниц соглашался с древнегреческими авторами этой идеи.

Математики, несомненно, безоговорочно принимают принцип достаточной причины Лейбница, потому что всегда стремятся всё доказать. Даже если истинность теоремы очевидна, и миллионы примеров подтверждают ее, математики все равно требуют обобщенного доказательства, на меньшее они не согласны. И здесь концепция алгоритмической информации может внести удивительный вклад в  философские рассуждения об источниках и пределах познания. Она показывает, что некоторые математические факты истинны безо всяких причин, и бросает вызов принципу достаточной причины. Как будет показано ниже, существует бесконечное число неприводимых математических фактов, истинность которых нельзя объяснить никакой теорией. Они неприводимы не только вычислительно, но и логически. ?Доказать? эти факты можно только одним способом: признать их аксиомами без всяких рассуждений.

Понятие ?аксиома? тесно связано с логической неприводимостью. Аксиомы  ? это математические положения, которые мы считаем самоочевидными и не пытаемся доказать, исходя из более простых принципов. Все математические теории основаны на аксиомах, из которых выводятся следствия, называемые теоремами. Именно так поступал Евклид два тысячелетия назад: его труды по геометрии стали классическим примером математического изложения.

В древней Греции, чтобы убедить сограждан проголосовать именно так, а не иначе, вы должны были бы привести им свои доводы. Вероятно, именно поэтому греки пришли к мысли, что математические положения нужно доказывать, а не выводить опытным путем. (В  отличие от греков, древнейшие цивилизации Месопотамии и Египта, похоже, полагались на эксперимент.) Метод логических рассуждений оказался чрезвычайно плодотворным: с его помощью были созданы современная математика, математическая физика и все точные науки, включая технологию создания компьютеров  ? в  высшей степени математичных и логичных машин. Утверждаю ли я, что подход, на котором математика и вся наука строились в течение двух тысячелетий, терпит крах? В  каком-то смысле да. Моим контрпримером, иллюстрирующим ограниченность возможностей логики и рассуждений, моим источником бесконечного потока недоказуемых математических положений является число, которое я назвал ?омега? (?).

Число ?

Первый шаг к открытию числа ? был сделан в знаменитой статье, опубликованной ровно через 250  лет после издания эссе Лейбница. В  1936  году на страницах ?Трудов Лондонского математического общества? (Proceedings of the London Mathematical Society) Алан Тьюринг впервые представил математическую модель простой универсальной вычислительной машины. Кроме того, он задался вопросом: можно ли определить, остановится когда-нибудь компьютерная программа или нет? Так была сформулирована знаменитая проблема останова.


Число ? представляет собой непознаваемую часть математики. Компьютерная программа конечной длины позволяет определить лишь конечное число битов этого числа; все последующие остаются во мраке неизвестности (изображение: www.sciam.ru)


Разумеется, запустив программу, вы можете со временем обнаружить, что она остановилась. Фундаментальная проблема заключается в  том, чтобы решить, когда вы сдадитесь и престанете ждать, если программа не останавливается. Для множества частных случаев она может быть решена, но Тьюринг показал, что общего решения не существует. Никакой алгоритм и никакая математическая теория не позволят определить, какая программа остановится, а  какая нет. (Современное доказательство данного положения Тьюринга можно найти на сайте Scientific American.) Кстати, употребляя слово ?программа? в современном смысле, я имею в  виду совокупность самой компьютерной программы и данных, которые она обрабатывает.

Следующим шагом на пути к числу ? становится рассмотрение множества всех возможных программ. Остановится ли когда-нибудь выбранная случайным образом программа? Вероятность останова и есть  ?. Определим сначала, как осуществить случайный выбор программы. Программа представляет собой последовательность битов, поэтому для выбора значения каждого последующего бита будем просто бросать монету. Сколько битов должна содержать программа? Будем бросать монету до тех пор, пока компьютер не перестанет запрашивать следующий бит. Число  ? есть вероятность того, что при введении такой случайной последовательности битов машина когда-нибудь остановится. (Численное значение ? зависит от выбора языка программирования, но удивительные свойства этого числа с ним не связаны. Когда же язык выбран, ?  приобретает определенную величину, так же, как число  ? или число  5.)

Поскольку число  ? выражает вероятность, оно должно быть больше нуля, но меньше единицы, т.к. некоторые программы останавливаются, а некоторые  ? нет. Число  ?, записанное в  двоичном коде, будет иметь вид вроде 0,1110100... Последовательность битов после запятой неприводима, а сами они оказываются неприводимыми математическими фактами (каждый факт состоит в том, является ли данный бит нулем или единицей).

Как определяется число ?

Чтобы понять, как определяется число ?, рассмотрим упрощенный пример. Допустим, что из всех программ некоего компьютера останавливаются всего три, которые представляют собой 110, 11100 и 11110, длиной 3, 5 и 5 битов соответственно. Если для выбора программ мы будем бросать монету, чтобы определять значение каждого очередного бита случайным образом, вероятности получения каждой из них будут равны соответственно 1/23, 1/25 и 1/25, , поскольку вероятность получения единицы или нуля для каждого бита равна 1/2. Тогда вероятность останова программы для такого компьютера будет определяться выражением:

? = 1/23 + 1/25 + 1/25 = 0,001 + 0,00001 + 0,00001 = 0,00110.

Здесь двоичные числа выражают вероятность случайного выбора одной из трех останавливающихся программ. Поскольку программа 110 останавливается, мы не рассматриваем программы длиной больше трех битов, начинающиеся с 110, например, 1100 и 1101, т.  е. мы не добавляем к сумме 0,0001 для каждой из них. Мы считаем все более длинные программы (1100 и т. д.) с таким началом включенными в программу 110, которая останавливается. Другими словами, данные программы являются самоограничивающимися, поскольку после их остановки последующие биты не запрашиваются.

Число ? можно определить как бесконечную сумму, и каждая программа длиной N  битов вносит в нее свой вклад, равный  ?N. Иными словами, каждая N-битовая программа, которая останавливается, добавляет единицу к N-ному биту двоичного представления числа ?. Сложив все биты, соответствующие остановившимся программам, мы можем получить точное значение  ?. Создается впечатление, что ? можно вычислить точно, как √2 или  ?. Однако это не так: число ? строго определено и имеет вполне конкретное значение, но рассчитать его невозможно, поскольку это позволило бы решить проблему останова, у которой действительно нет решения. Если говорить конкретнее, знание первых N  битов числа  ? позволяет определить, остановится ли когда-нибудь любая программа длиной до N  битов, из чего следует, что для нахождения N  битов числа  ? требуется программа длиной не менее N  битов. Заметьте, я не утверждаю, что нельзя определить некоторое число битов числа ?. Например, зная, что компьютерные программы 0, 10 и 110 останавливаются, мы можем говорить, что с точностью до первых трех битов ? имеет вид 0,111. Дело в том, что первые N битов ? нельзя вычислить с помощью программы, которая была бы существенно короче N битов.

Самое главное, что  ? дает нам бесконечное число неприводимых битов. Любая программа конечной длины, сколько миллиардов битов она бы ни содержала, не поможет нам определить оставшиеся биты, которых бесконечно много. Иными словами, при любом конечном наборе аксиом мы имеем бесконечное число истин, которые не могут быть доказаны с помощью этого набора.

Почему число ? несжимаемо?

Попробуем доказать, что число несжимаемо, т.  е. его первые N битов невозможно определить с помощью программы длиной существенно меньше N битов. Проанализируем свойства ? в свете поставленной Тьюрингом проблемы останова. Используем утверждение, что для программ длиной до N битов задача не может быть решена с помощью программы меньшей длины.

Для демонстрации несжимаемости числа ? покажем, что знание первых его N битов позволяет решить задачу Тьюринга для программ длиной до N битов. Из этого будет следовать, что никакая программа длиной меньше N битов не может вычислить первые N битов ?. (Если бы такая программа существовала, с ее помощью можно было бы вычислить первые N битов ?, а затем использовать их в решении задачи Тьюринга для программ длиной N битов  ? задача невыполнимая с помощью столь короткой программы.)

Посмотрим теперь, как знание N битов ? позволит решить задачу останова и определить, какие из всех программ длиной до N битов будут останавливаться. Сделаем это поэтапно. На K-м этапе будем прогонять каждую программу в течение K секунд и по числу остановившихся программ определять вероятность остановки ?K. Она окажется меньше ?, поскольку будет получена с использованием лишь подмножества программ, которые в конце концов останавливаются, тогда как ? рассчитывается с использованием всех программ. С увеличением K значение ?K будет приближаться к ?, и все больше первых битов ?K будут становиться равными соответствующим битам ?. Когда первые N битов ?K и ? совпадут, это будет значить, что учтены все программы длиной до N битов, которые рано или поздно останавливаются. (Если бы существовала еще какая-то программа длиной N битов, она остановилась бы на более позднем этапе K, и тогда ?K оказалось бы больше ?, что невозможно.)

Итак,зная первые N битов ?, можно решить задачу останова для всех программ длиной до N битов. Предположим теперь, что первые N битов ? можно определить с помощью программы длиной существенно меньше N битов. Тогда ее можно объединить с программой вычисления ?K и получить в итоге программу длиной меньше N битов для решения проблемы останова для всех программ длиной до N битов. Однако, как сказано выше, такой программы существовать не может. Следовательно, для вычисления первых N битов ? требуется программа длиной почти N битов. Этого достаточно, чтобы признать число ? несжимаемым, т.е. неприводимым. (Для больших N сокращение длины с N битов до почти N битов несущественно.)

Из неприводимости числа ? следует, что всеобъемлющей математической теории существовать не может. Бесконечное множество битов  ? составляет бесконечное множество математических фактов (является ли каждый выбранный бит единицей или нулем), которые не могут быть выведены из каких бы то ни было принципов, более простых, чем сама последовательность битов. Значит, сложность математики бесконечна, тогда как любая отдельная теория ?всего на свете? характеризуется конечной сложностью и, следовательно, не может охватить все богатство мира математических истин. Из сказанного отнюдь не следует, что от доказательств нет никакого толка, и я ни в коем случае не против логических рассуждений. На самом деле, неприводимые принципы (аксиомы) всегда составляли часть математики. Просто число  ? показывает, что их гораздо больше, чем предполагалось ранее.

Обзор: неприводимая сложность

* Курт Гедель показал неизбежную неполноту математики: в ней существуют истинные положения, которые невозможно строго доказать. Особое число ? выявляет еще б?льшую неполноту и свидетельствует о существовании бесконечного множества теорем, которые нельзя вывести из конечного набора аксиом.

* Число ? строго определено и имеет вполне конкретное значение, но вычислить его с помощью конечной компьютерной программы невозможно.

* Анализ свойств числа ? показывает, что математикам иногда следует постулировать новые аксиомы. Именно так поступают физики, которые обобщают результаты экспериментов и выводят фундаментальные законы, недоказуемые с помощью логики.

Возможно, математикам не нужно пытаться все доказать. Иногда им следует просто добавлять новые аксиомы, когда дело доходит до неприводимых фактов. Проблема в том, чтобы понять, что они неприводимы, и признать, что их невозможно доказать. Однако математики никогда не сдадутся, в  отличие от физиков, которые всегда готовы обойтись правдоподобными рассуждениями вместо строгих доказательств, и охотно выводят новые законы, чтобы осмыслить свежие экспериментальные данные. Возникает интересный вопрос: похожа ли математика на физику?

Математика и физика

Принято считать, что математика и физика совершенно не похожи друг на друга. Физики описывают мир, исходя из результатов экспериментов и наблюдений. Законы, управляющие Вселенной, будь то законы Ньютона или Стандартная модель физики элементарных частиц, должны устанавливаться эмпирически и затем приниматься за аксиомы, которые невозможно доказать логическим путем, а можно лишь проверить экспериментально. Математики же в некотором смысле независимы от мира. Их выводы и теоремы, например, свойства целых или вещественных чисел, никак не зависят от окружающей нас реальности. Математические истины должны быть верны в любом мире. И все же определенное сходство есть. В  физике, и вообще в естественных науках, ученые формулируют законы, сублимируя результаты наблюдений. Затем они показывают, как результаты наблюдений могут быть выведены из получившихся законов. В  математике происходит нечто подобное: математики сжимают результаты вычислительных экспериментов в  аксиомы, а затем выводят из них теоремы.

Если бы Гильберт оказался прав, то математика была бы замкнутой системой, в которой нет места новым идеям. Существовала бы статичная замкнутая теория, объясняющая в математике все, и это было бы похоже на диктатуру. Чтобы математика развивалась, нужны новые идеи и простор для творчества. Недостаточно усердно работать, выводя все возможные следствия из фиксированного числа базовых принципов. Лично мне больше нравятся открытые системы, я не люблю жестких, авторитарных способов мышления.

Имре Лакатош (Imre Lakatos), бежавший в 1956  году из Венгрии и впоследствии занимавшийся философией науки в Англии, тоже считал, что математика похожа на физику. Он ввел понятие квазиэмпиричности, чтобы показать, что и математике не чужды эксперименты. Например, еще в 1742  году Кристиан Гольдбах опытным путем пришел к предположению, что любое четное число больше двух можно представить в виде суммы двух простых чисел. Предположение Гольдбаха успешно проверено для чисел до 1014, но строго не доказано. Мне кажется, что математика квазиэмпирична. Иными словами, она отличается от физики (которая истинно эмпирична), но, вероятно, не так сильно, как полагает большинство людей.

Новые аксиомы

Идея добавления новых аксиом не чужда математикам. Возьмем для примера пятый постулат Евклида: через выбранную точку, лежащую вне прямой, можно провести только одну прямую, параллельную данной. Столетиями геометры ломали голову, пытаясь доказать это, исходя из остальных постулатов Евклида. Не удалось. Наконец, математики поняли, что пятую аксиому можно заменить и получить неевклидову геометрию криволинейных пространств, в частности сферического и седлообразного. Другим примером может служить закон исключенного среднего в логике и аксиома выбора в теории множеств, которыми охотно пользуется в своих доказательствах большинство математиков. Но ведь есть ученые, которые их не признают и исследуют так называемую интуиционистскую логику и конструктивистскую математику. Оказывается, математика пока не стала монолитной системой абсолютных истин!

Другой очень интересной аксиомой может стать утверждение ?P не равно  NP?, где P и  NP  ? названия классов задач. К  классу  NP относятся задачи, для которых предлагаемое решение можно проверить очень быстро. Например, для задачи ?найти множители числа 8  633? предлагаемое решение ?97  и  89? быстро проверяется простым перемножением. (Существует строгое определение понятия ?быстро?, но подробности здесь не имеют значения.) Класс P составляют задачи, которые можно быстро решить, не имея предварительного предположения. Вопрос, ответа на который не знает никто, состоит в том, можно ли быстро решить любую задачу класса  NP. (Есть ли способ быстро найти множители числа 8  633?) Иначе говоря, тождественны ли классы P и NP? Это один из пунктов списка ?Проблем тысячелетия? Математического института Клэя (Clay Millennium Prize Problem), за решение каждой из которых назначена награда в $1  млн.

Большинство специалистов по вычислительной технике убеждено, что P не равно  NP, но строгое доказательство пока не найдено. Истинность такого предположения подтверждается множеством эмпирических свидетельств, но можно ли на этом основании принять его в качестве аксиомы? Специалисты по вычислительной технике именно так и поступили. Правда, остается вопрос о надежности некоторых широко применяемых криптографических систем: считается, что взломать их невозможно, но никто не может этого доказать.

Экспериментальная математика

На стыке физики и математики возникла экспериментальная математика: открытие новых математических закономерностей путем компьютерной обработки большого числа примеров. Такой подход не столь убедителен, как короткое доказательство, но может быть убедительнее длинного, сложного доказательства и в некоторых случаях вполне приемлем. В прошлом данную концепцию отстаивали и Дьердь Пойа (George P?lya), и Лакатош, убежденные сторонники эвристических методов и квазиэмпирической природы математики. Он применяется и обосновывается в книге ?Новый вид науки? (A New Kind of Science) Стивена Вольфрама (Stephen Wolfram), вышедшей в 2002  году.

Масштабные компьютерные вычисления могут быть очень убедительными, но избавляют ли они от необходимости доказательств? И да, и нет. Вычисления и доказательства дают свидетельства разного рода. В особо важных случаях я считаю необходимыми и те, и другие, поскольку доказательства могут содержать ошибки, а компьютерные вычисления могут, по несчастью, быть остановлены как раз перед обнаружением контрпримера, который опроверг бы предполагаемый вывод.

Рассмотренные вопросы чрезвычайно интересны, но далеки от решения. Со времени публикации статьи о доказательстве Гёделя прошло 50  лет, а сейчас, в 2006  году, мы все еще не знаем, насколько серьезна неполнота, и не следует ли из-за нее пересмотреть математические методы. Возможно, через 50  лет ответ будет найден.

Дополнительная литература:

* Главу о Лейбнице см. в книге: Men of Mathematics. E.T.  Bell. Reissue. Touchstone, 1986.

* Более полные сведения о квазиэмпирическом взгляде на математику см.: New Directions in the Philosophy of Mathematics. Edited by Thomas Tymoczko. Princeton University Press, 1998.

* G?del?s Proof. Revised edition. E.  Nagel, J.R.  Newman and D.R.  Hofstadter. New York University Press, 2002.

* Mathematics by Experiment: Plausible Reasoning in the 21st Century. J.  Borwein and D.  Bailey. A.K.  Peters, 2004.

* О философии Гёделя и связи его работ с трудами Лейбница см.: Incompleteness: The Proof and Paradox of Kurt G?del. Rebecca Goldstein. W.W.  Norton 2005.

* Meta Math!: The Quest for Omega. Gregory Chaitin. Pantheon Books, 2005.

* Краткие биографии математиков доступны на сайте Школы математики и статистики Университета Св. Эндрю (Шотландия).

* Домашняя станица Грегори Чейтина.


.

К проблеме "вычислимости" функции сознания Е.М.Иванов

Дополнительно рекомендуются:

КМ и психика или еще раз о Пенроузе Муравьев И.П.

1. Геделевский аргумент.

Речь в данной работе пойдет о так называемом "геделевском аргументе", который используется как аргумент против возможности создания искусственного интеллекта. Суть аргумента заключается в следующем: полагают, что из теоремы К. Геделя о неполноте формальных систем вытекает принципиальное различие между искусственным ("машинным") интеллектом и человеческим умом, а именно, полагают, что теорема Геделя указывает на некоторое принципиальное преимущество человеческого ума перед "умом" машинным - т.е. человек обладает способностью решать проблемы, принципиально неразрешимые для любых искусственных "интеллектуальных" систем (так называемые "алгоритмически неразрешимые" проблемы), причем ограниченность "искусственного ума" проистекает из его "формального" характера.

Заметим, что "геделевский аргумент"в настоящее время поддерживается рядом известных авторов (Дж. Лукас (1), Р. Пенроуз (2,3 ) и др.) и вызвал обширную научную дискуссию (см. (4 - 11)). Все это заставляет отнестись к данному аргументу серьезно и внимательно.

Прежде чем приступить к анализу собственно "геделевского аргумента", предварительно рассмотрим формулировку, способ доказательства и смысл самой теоремы К. Геделя о неполноте формальных систем. Формулировка теоремы такова: для достаточно выразительно "богатых" формальных систем (языков) - достаточно "богатых" для того, чтобы с их помощью можно было сформулировать любые утверждения формализованной арифметики Пеано - невозможно задать дедуктику (формализованную систему доказательств), которая одновременно обладала бы свойствами полноты (т.е. доказывала бы все содержательно истинные утверждения, которые можно сформулировать с помощью данного языка) и непротиворечивости (т.е. не доказывала бы некоторое суждение вместе с его отрицанием). Иными словами, теорема Геделя утверждает, что в такого рода "выразительных" формальных языках непременно найдутся истинные, но недоказуемые утверждения - причем этот результат не зависит от конкретного выбора дедуктики. Это означает, что множество "содержательных" истин всегда превосходит по объему множество истин, доказуемых с помощью любой сколь угодно сложной формализованной системы доказательств.

Для того, чтобы понять смысл данной теоремы, необходимо прежде всего уточнить смысл понятий, входящих в ее формулировку. Прежде всего необходимо уточнить понятие "формальной системы" - поскольку только к таким системам и имеет отношение рассматриваемая теорема. В самом общем плане формальная система - это система подчиненная неким жестким, однозначно заданным правилам. Соответственно, "формализацию" можно определить как процедуру, цель которой - дать предельно четкое, однозначное и исчерпывающее описание объекта, подлежащего формализации.

Для достижения этой цели, прежде всего, используется символическая форма записи тех правил, которым подчинена данная система. Таким образом, полностью формализованная научная теория должна представлять собой некоторую совокупность формул, записанных без всяких пояснительных слов или предложений, написанных на "естественном", неформализованном языке. Если при описании формальной системы и используются какие-то слова естественного языка, то лишь с дидактической целью, для пояснения - но не как элементы самой формальной теории.

Использование символической записи предполагает фиксацию конечного набора символов, которые только и могут быть использованы для формулирования утверждений данной формальной системы (алфавит языка). Помимо набора символов задается также совокупность правил, указывающих как следует оперировать с данными символами (причем правила эти также записываются в символической форме).

Главное требование к формализму - символы, используемые в данной формальной системе, должны принимать лишь те значения, которые им приписываются в явном виде в рамках заданного формализма. Эти фиксированные значения задаются через посредство правил, указывающих способ действия с тем или иным символам, а также через описание взаимных отношений между заданными символами.

Иногда говорят, что формализация полностью изгоняет всякий смысл. Говорят, что формальная система - это система оперирующая символами, лишенными какой-либо семантической нагрузки. Т.е. семантика полностью заменяется синтаксисом. Это не совсем так.

Здесь нужно уточнить, что такое "смысл". Смысл (слова, предмета и т.п.) возникает в том случае, когда осмысляемое ставится в соответствие с чем-то внешним, находящимся за пределами осмысляемого предмета (т.е. с "контекстом"). Отсюда вытекает определение смысла как "трансцендирования". Смысл всегда есть выход за пределы "актуально данного", "наличного". Когда говорят, что в полностью формализованной системы смысл полностью отсутствует, то имеют в виду, по существу, что в рамках заданного формализма запрещается всякое трансцендирование т.е. выход за пределы данного формализма. То есть для определения и использования символов формальной системы можно использовать только ту информацию, которая в явной форме содержится "внутри" данной формальной системы - и никакую другую. Иными словами, формальная система должна быть "герметична", замкнута в себе. Все, что необходимо для работы с ней, для понимания ее выражений, - содержится в ней самой.

Запрещая трансцендирование, мы лишаем формальную систему смысла как целое. Однако отдельные ее элементы и конструкции сохраняют смысл, который в этом случае определяется через соотнесение с другими элементами или конструкциями - внутри заданной формальной системы. Таким образом, смысл не изгоняется полностью, но ограничивается рамками самой формальной системы и внутри данной формальной системы полностью эксплицируется, развертывается.

Смысл каждого элемента или конструкции - определяется через то "место", которое они занимают внутри данной формальной системы. Это место должно быть задано в явной форме. Ничего не подразумевается. Не допускается никакая недосказанность или неопределенность.

Пока речь шла о формальных системах, понимаемых в самом широком смысле. Это могут быть либо какие-то совершенно произвольные "выдуманные" системы, либо формализованные модели каких-то реальных (материальных) систем - таких объектов, которые допускают исчерпывающее, четкое, однозначное, конечное описание своего способа функционирования (в виде системы правил, которым подчинены действия данной системы).

В этом последнем случае мы можем рассматривать формализацию как "итог" познавательного процесса, или как своего рода "идеал", к которому стремится наше познание. Возможность создания адекватной формализованной модели объекта указывает на то, что мы смогли получить исчерпывающую информацию о данном объекте. Неформализуемость же, напротив, указывает на неполноту наших знаний об объекте.

Далее, нам необходимо уточнить к какого рода формальным системам приложима теорема Геделя. Это так называемые "исчисления" или "дедуктивные системы". По существу, это ничто иное, как формализованные описания тех или иных дедуктивных математических теорий (например, формализованной арифметики, геометрии и т.п.).

Исчисления задаются следующим образом. Прежде всего задается формализованный язык данного исчисления. Для этого нужно определить алфавит и грамматику языка. Алфавит - это набор символов (букв) допустимых в данном языке. Имея алфавит, мы можем составлять слова - любые, сколь угодно длинные последовательности букв заданного алфавита.

Для того, чтобы выделить из множества всевозможных слов интересующие нас ("осмысленные") сочетания букв, вводится грамматика - совокупность правил, позволяющих определить "правильно построенные слова" - выражения. Правила грамматики вводят индуктивно: вначале определяются элементарные выражения, а затем указывается каким образом из них можно построить любые более сложные выражения.

Далее из множества выражений выделяют подмножество формул. Содержательно формулы - это выражения, которые что-то утверждают (например, утверждают нечто о свойствах чисел или геометрических фигур). Формулы также определяются индуктивно.

Далее выделяют множество замкнутых формул или выражений. Это формулы, которые не имеют свободных параметров (т.е. параметров, которые могут принимать различные значения и не связаны кванторами всеобщности или существования). Это такие формулы, которым можно приписать определенное значение "истина" или "ложь". Обозначим множество замкнутых формул данного языка символом Б*.

Как уже говорилось, замкнутые формулы могут быть истинными или ложными (с содержательной точки зрения). Естественно потребовать, чтобы формализованная математическая теория включала в себя только содержательно истинные формулы. Истинность в математике определяется посредством доказательства. Таким образом следующий шаг - введение формализованной системы доказательства - дедуктики. С этой целью задается некоторое конечное множество замкнутых формул, истинность которых принимается без доказательств. Это аксиомы данной дедуктики. Далее задается конечное множество правил вывода, позволяющих из одних истинных формул получать другие истинные формулы.

Всякое формализованное доказательство - это некоторое слово формального языка, представляющее собой цепочку формул, в которой каждая формула - это либо аксиома, либо получена их аксиом посредством применения тех или иных правил вывода. Последняя формула в цепочке - это и есть доказанное утверждение (теорема). Обозначим множество всех доказательств символом D*, а множество всех доказанных формул Иd*. Через И* - обозначим множество содержательно истинных замкнутых формул данного языка.

Теорема Геделя о неполноте формальных систем утверждает, что для любой достаточно выразительно богатой формальной системы выполняется условие И* > Иd* и, следовательно, существует истинная недоказуемая формула. Это верно при условии, что заданная дедуктика непротиворечива, т.е. не позволяет одновременно доказывать некоторое утверждение и его отрицание.

Итак, теорема Геделя утверждает, что для любого достаточно выразительно богатого языка и для любой непротиворечивой дедуктики, заданной на этом языке, множество истинных формул всегда больше множества доказуемых формул. Это весьма нетривиальный вывод.

Задавая дедуктику, прежде всего стремятся получить такую систему доказательств, в которой выводимы все содержательно истинные формулы. Такие дедуктики называются полными. Для некоторых достаточно простых формальных языков (например для языка исчисления предикатов первого порядка) такая полная дедуктика вполне возможна. Но это не возможно для более сложных формальных языков, способных, в частности, выразить все истинные предложения формальной арифметики Пеано. Для такого рода языков невозможно задать полную и непротиворечивую дедуктику.

Каким же образом доказывается теорема Геделя? Мы рассмотрим здесь лишь общую схему доказательства (12).

Идея доказательства заключается в том, чтобы построить пример формулы, которая была бы недоказуема и, вместе с тем, содержательно истинна. Таковой являлась бы формула, содержательный смысл которой заключается в том, что она утверждает свою собственную недоказуемость, т.е. невыводимость из аксиом рассматриваемой формальной системы.

Для того, чтобы построить такую формулу, Гедель изобрел способ нумерации предложений формальной системы, который позволил однозначным образом приписать некоторый номер (натуральное число) каждому элементарному символу, формуле или доказательству данной формальной системы (так называемая "геделевская нумерация").

Используя геделевскую нумерацию можно построить формулу утверждающую недоказуемость формулы с номером n, где n - номер самой этой формулы. По существу, геделевская нумерация задает специфический арифметический метаязык, на котором можно высказывать суждения о свойствах рассматриваемой дедуктивной системы в форме суждений о числах.

Обохзначим через Dem (x, y) - метаязыковое выражение, означающее "последовательность формул с геделевским номером х является доказательством формулы с геделевским номером у". Навесим на х квантор общности и подвергнем Dem (x, y) отрицанию. В результате мы получим одноместный предикат:

(*) {для всех х не верно Dem (x, y)}

который утверждает недоказуемость формулы с геделевским номером у.

Следующий шаг заключается в подстановке в (*) вместо "у" формального (метаязыкового) выражения для номера самой формулы (*).

Пусть формула (*) имеет геделевский номер h. Обозначим через Sb (Wvz(n)) номер результата подстановки в формулу с номером W на место переменной с номером V формулы с номером Z(n). Z(n) - в данном случае - номер формального выражения формулы с геделевским номером n. Пусть, также, m - геделевский номер переменной "у".

Построим формулу

(1) {для всех х не верно Dem (x, Sb (hmz(h))}.

Легко установить, что геделевский номер формулы (1) равен Sb (hmz(h)) так как эта формула получена из формулы с номером h путем подстановки вместо переменной с номером m (т.е. "у") формального выражения числа h. Следовательно, (1) и есть искомая "геделевская формула ("геделевское предложение") G.

Запишем геделевское предложение в виде:

[формула с номером Sb (hmz(h)) недоказуема],

где Sb (hmz(h)) - номер формулы: [формула c номером Sb (hmz(h)) недоказуема].

Если данная формула доказуема, то она истинна, но тогда истинно, что она утверждает, а именно, что она недоказуема. Т.е. если она доказуема, то она недоказуема. Таким образом, мы получили противоречие.

Если же данная формула недоказуема, то она, очевидно, истинна (поскольку утверждает, что она недоказуема и на самом деле недоказуема). Т.е. эта формула является истинной недоказуемой формулой (в рамках заданного формализма).

Ясно, что любое "геделевское предложение" легко можно сделать доказуемым просто включив его в состав аксиом данной формальной системы. Однако в таком случае можно сформулировать новое "геделевское предложение", утверждающее собственную невыводимость уже из нового набора аксиом. Положение не улучшиться даже в том случае, если мы будем вводить дополнительные аксиомы не отдельными единицами, а, скажем, "встроим" в нашу дедуктивную систему некий "генератор геделевских предложений" и, таким образом введем в систему аксиом сразу бесконечное множество "геделевских предложений". И в этом случае можно построить формулу, которая будет утверждать собственную невыводимость из аксиом, включая и любые аксиомы, вводимые посредством "генератора геделевских предложений". Иными словами, система аксиом не будет удовлетворять требованию полноты даже в том случае, если ее пополнить счетно-бесконечным множеством дополнительных аксиом. Как отмечает Л.Г. Антипенко : "... запас арифметических истин оказался столь обширен, что ни из какой даже счетно-бесконечной фиксированной системы аксиом их нельзя формально вывести все" (12 с. 167).

Таким образом, никакое непротиворечивое расширение множества доказуемых формул не позволяет сделать это множество тождественным множеству всех содержательно истинных предложений формального языка - при условии, что данный язык позволяет формулировать предложения, выражающие собственную невыводимость из аксиом любой, заданной в рамках данного формального языка, дедуктики.

Непосредственный смысл теоремы Геделя о неполноте формальных систем можно усмотреть в констатации невозможности формализации содержательного понятия "истины" в математике. Поскольку, однако, истина в математике всегда получается через посредство доказательства, то отсюда, также, можно сделать вывод о невозможности полной и исчерпывающей формализации человеческой способности доказывать математические предложения. Любая формализованная система доказательств отражает в эксплицитной форме лишь некоторую часть этой способности, т.е., по сути, представляет собой лишь формализацию "пост фактум" некоторых содержательных (неформальных) схем математических рассуждений. Но человек всегда способен выдумать новые схемы рассуждений, которые в совокупности не покрываются никаким конкретным формализмом.

Исторически теорема Геделя связана с проблемой "оснований математики", в частности, с Гильбертовой программой обоснования математики через формализацию ее "традиционных" теорий и дальнейшее доказательство непротиворечивости полученного формализма в рамках метаматематики. Из теоремы Геделя о неполноте формальных систем и ряда других ограничительных теорем, вытекает неосуществимость программы Гильберта. Важный результат, также полученный К. Геделем, заключается в том, что оказывается невозможным доказать непротиворечивость формальной системы, используя для доказательства средства, формализуемые в рамках рассматриваемого формального языка. Для подобного рода доказательств необходимо использовать формальный язык более высокого уровня (обладающий большими выразительными возможностями). Эти результаты, в частности, означают, что математика не может быть раз и навсегда застрахована от возможности возникновения противоречий.

Нас, однако, интересует несколько иное применение теоремы Геделя, а именно использование ее в качестве аргумента против возможности создания искусственного интеллекта.

Если смысл теоремы Геделя сводится к невозможности формализации содержательного понятия истины, то уже отсюда следует невозможность создания машины способной различать истину и ложь столь же эффективно, как это делает человек. Преимущество человека перед машиной можно усмотреть в том, что человек способен в любых случаях распознавать истинность "геделевских предложений" (опираясь, например, на ту схему рассуждений, которую мы использовали на последнем этапе доказательства теоремы Геделя), а машина делать это не способна.

Здесь предполагается отождествление машины и формальной системы. Действительно, условием передачи каких-либо функций машине является формализация, т.е. четкое, полное, однозначное, независимое от контекста описание способа реализации данной функции. Невозможно воплотить в машине нечто такое, что мы сами недостаточно ясно представляем себе, нечто неоднозначное, интуитивное, зависимое от контекста. Таким образом, "машинизация" и "формализация" - тесным образом взаимосвязаны. (Отсюда, однако, не следует, что всякая машина может рассматриваться как "материальный" аналог формальной системы. Таковой, в частности, не является машина, в конструкцию которой включен "генератор случайных чисел", т.е. машина, способная в определенных случаях действовать случайным образом).

Геделевский аргумент против искусственного интеллекта часто формулируют в несколько иной форме - говорят об "алгоритмической невычислимости" функции сознания. (В такой форме, например, данный аргумент представлен у Р. Пенроуза (2,3 ) ).

Здесь нужно, прежде всего уточнить смысл, который мы вкладываем в термин "функция сознания". Начиная с Декарта, человеческую "душу", сознание стали рассматривать как особый "функциональный орган", т.е. стали рассматривать сознание с точки зрения тех функций, которые оно выполняет, участвуя, например, в процессах обработки сенсорной информации, а также участвуя в процессах принятия поведенческих решений. При этом, одновременно сознание понимается и как "феноменальная реальность" - как "поток" чувственных и сверхчувственных (смысловые, эмоционально-волевые переживания) феноменов. Вопрос заключается в том, какую конкретно роль играет "феноменальная реальность" в системе психической регуляции человеческого поведения (13).

Для нас нет никакой необходимости выделять функцию "феноменальной реальности" из общего состава психических функций. Поэтому мы далее будем употреблять термины "функция сознания" и "психические функции" - как синонимы. Последние же можно в первом приближении отождествить с "функцией мозга".

Формально психические функции можно представить как некое отображение множества "входов" (конфигураций нервных импульсов, поступающих в мозг от органов чувств) в множество "выходов" (множество различных поведенческих реакций, выражаемых, в конечном итоге, в виде мускульных движений).

С этой точки зрения тезис "алгоритмической невычислимости" функции сознания означает, что невозможно построить алгоритмическое устройство (т.е. устройство, действия которого строго подчинены конечному набору четко и однозначно сформулированных правил), способное достаточно удовлетворительным образом имитировать отношение "вход"- "выход" - характерное для человеческой психики. (Обычно в качестве теста на соответствие искусственного интеллекта уровню человеческого интеллекта рассматривают "игру в имитацию", предложенную А. Тьюрингом. Машинный интеллект считается эквивалентным человеческому, если в заочном диалоге с машиной человек не сможет достоверно установить с кем он общается - с машиной или с человеком).

Далее, нам необходимо уточнить понятия "алгоритм" и "алгоритмически невычислимая функция". В интуитивном смысле алгоритм - это четкая, однозначная инструкция, указывающая, как нужно действовать, чтобы некий исходный продукт преобразовать (переработать) в некий конечный продукт. (Простейший пример алгоритма - кулинарный рецепт).

В математике алгоритм - это четко заданное правило, позволяющее из одной совокупности символов получить другую. (Говорят, что алгоритм перерабатывает одно слово в другое). Важнейшее свойство алгоритмов - массовость, т.е. типичный алгоритм применим, как правило, к бесконечной совокупности слов (составляющих область определения данного алгоритма). Алгоритм есть некая инструкция, предписание, описывающее последовательность действий "вычислительного устройства", реализующего некоторую функцию - отображение множества слов, составляющих область определения алгоритма, в множество других слов, составляющих область значений данного алгоритма. Исполнение предписываемых алгоритмом действий не требует какого-либо творчества, привлечения какой-либо дополнительной информации. Исключаются любые отклонения от инструкции.

Используя математические алгоритмы, оперирующие символическими конструкциями, можно имитировать любые другие (физические) алгоритмы - оперирующие произвольными материальными объектами. Для этого необходимо снабдить "вход" и "выход" алгоритмического устройства приспособлениями, преобразующими, во-первых, "физический" "вход" - в символический и, во-вторых, символический "выход" - в "физический", а также необходимо добиться, чтобы отношение "вход - выход" для данного алгоритмического устройства совпадало с аналогичным отношением имитируемой физической системы.

Тезис об алгоритмической невычислимости функции сознания (психики, мозга) означает, что невозможно построить алгоритмическое устройство функционально эквивалентное человеческому мозгу. (Например, устройство, выдерживающее тест Тьюринга). Иными словами, невозможно написать четкую, однозначную, конечную инструкцию, опираясь на которую можно было бы имитировать, в вышеуказанном смысле, деятельность человеческой психики. Фактически это равносильно принципиальной непознаваемости принципов работы человеческого мозга. Последнее утверждение, как мы увидим ниже, по существу единственный практически значимый вывод, который вытекает из принятия "геделевского аргумента".

Для того, чтобы иметь возможность работать с понятием алгоритма в математике, необходима его формализация. Формализация алгоритма - это, по существу, формализация понятия вычисления функции. Начиная с 1936 года был предложен целый ряд таких формализаций (машина Тьюринга, Машина Поста, нормальные алгорифмы Маркова, рекурсивные функции и др.). Самая известная формализация понятия алгоритма - это так называемая "машина Тьюринга". (Строго говоря, формализацией понятия алгоритма является не сама машина Тьюринга, а ее "функциональная таблица").

Машина Тьюринга - это воображаемое вычислительное устройство (машина) способная с помощью простейших операций перерабатывать некоторые последовательности символов в другие последовательности. Машина Тьюринга состоит из трех частей: 1. Бесконечной в обе стороны ленты, разделенной на ячейки; 2."Головки", которая способна выполнять следующие три операции: считывать символ, записанный в ячейке ленты, записывать символ в ячейку и перемещаться вдоль ленты на одну ячейку влево или вправо; 3.Логического блока - который управляет действиями "головки" в соответствие с некоторой "программой".

Для того, чтобы записать программу для машины Тьюринга, необходимо задать:

1. Внешний алфавит а1..........аn - набор символов, которые могут быть записаны в ячейках ленты.

2. Внутренний алфавит р1...........рm - символы, которые обозначают "внутренние состояния" логического блока.

Программа для машины Тьюринга записывается в виде "функциональной таблицы":

 

р1

р2

р3

.................................pn

а1

.......

 

.......

.........

а2

 

axdypz


 

 

а3

.

аn

 

 

 

 

В строках таблицы располагаются тройки axdypz, где аx - символ, который машина записывает вместо а2 в ячейку, напротив которой в данный момент расположена головка, dy = d-1, d+1, d0 - предписывают движение ленты относительно головки соответственно влево, вправо или предписывают головке оставаться на месте, рz - состояние, в которое переходит логический блок после осуществления предшествующих двух операций.

Если головка машины Тьюринга в начальный момент установлена напротив ячейки, в которой записан символ а2, а внутреннее состояние логического блока - р2 , то для того, чтобы определить дальнейшие действия машины, необходимо найти тройку axdypz , которая стоит на пересечении строки а2 и столбца р2 и выполнить предписанные этой тройкой операции. Далее процесс повторяется с новыми значениями а и р до тех пор, пока машина не получит команду остановиться (для этого вводится специальный символ остановки). Полученная после остановки машины запись на ленте и является значением вычисленной функции для "входа", изначально записанного на ленте машины Тьюринга. Функциональная таблица составляется таким образом, что отношение между "входными" и "выходными" записями на ленте машины Тьюринга соответствует отношению между аргументами и значениями некоторой функции. В таком случае говорят что машина Тьюринга вычисляет данную функцию.

Несмотря на весьма примитивное устройство, машина Тьюринга, тем не менее, является универсальным вычислительным устройством. Как показывает опыт, с помощью машины Тьюринга можно осуществить любые, сколь угодно сложные алгоритмические вычисления. Если известен какой-либо алгоритм решения той или иной массовой проблемы, то всегда можно составить и программу для машины Тьюринга, которая позволяет решать эту проблему с помощью данной машины. Таким образом, возможностей у машины Тьюринга не меньше, чем у самого современного компьютера. Даже больше - поскольку машина Тьюринга обладает потенциально неограниченной памятью.

Учитывая сказанное, можно сделать вывод, что машина Тьюринга является адекватной формализацией интуитивного понятия "вычислительной процедуры", а ее функциональная таблица, соответственно, адекватной формализацией понятия "алгоритм".

Как уже отмечалось, машина Тьюринга не является единственной возможной формализацией понятий "вычисления" и "алгоритма". Существуют также и другие, столь же адекватные формализации этих понятий (машина Поста, нормальные алгорифмы, рекурсивные функции и др.). Все эти формализации эквивалентны друг другу, т.е. существуют стандартные алгоритмы, позволяющие программу для машины Тьюринга перевести в нормальный алгорифм или программу для машины Поста и т.д., и также возможен и обратный перевод. Любая функция, вычислимая по Тьюрингу, вычислима также посредством машины Поста, нормальных алгорифмов или рекурсивных функций.

Отсюда можно сделать вывод, что существует (потенциально бесконечный) класс "универсальных вычислительных машин", способных (в силу того, что каждая из них является адекватной формализацией понятия алгоритма) вычислить любую функцию, вычислимую в интуитивном смысле. Т.е. любая формализация алгоритма, принадлежащая к данному классу, позволяет адекватно представить любой вычислительный процесс (при условии, что этот процесс может быть представлен в виде ясной, четкой, однозначной инструкции, написанной, например, на естественном языке - т.е. если этот процесс можно представить как "алгоритмический" в интуитивном смысле этого слова). Утверждение о существовании класса универсальных вычислительных машин, способных вычислить все, что вычислимо в интуитивном смысле, известно как "тезис Черча" .

Тезис Черча нередко рассматривают как важный аргумент в пользу возможности искусственного интеллекта. Действительно, из тезиса Черча вытекает, что все универсальные вычислительные устройства качественно эквивалентны друг другу. Иными словами, одна универсальная вычислительная машина не может быть качественно "умнее" другой - в том смысле, что задачи, принципиально неразрешимые для машины одного типа, будут также неразрешимыми и для машин любых других типов. Различия между универсальными вычислительными машинами могут касаться лишь количественных параметров, а именно, они могут отличаться лишь по скорости вычислений и по объему памяти.

Если мозг - это тоже своего рода "машина", функции которой можно достаточно четко и однозначно описать в виде конечной "инструкции", то никакие особенности его конструкции не позволят ему выйти за пределы круга задач, разрешимых, скажем, с помощью машины Тьюринга. Разница между мозгом и компьютером, с этой точки зрения, может быть лишь только количественной. Мозг пока превосходит компьютер лишь в силу большего быстродействия и большего объема доступной памяти.

Если же хотят подчеркнуть принципиальное различие между человеком и машиной, то говорят о "невычислимости" функции сознания, предполагая, таким образом, существование особого класса "неалгоритмических" систем, способных решать задачи, принципиально неразрешимые для описанных выше универсальных вычислительных алгоритмических систем, подобных машине Тьюринга.

Существование алгоритмически неразрешимых проблем вытекает уже из теоремы Геделя о неполноте формальных систем. Дело в том, что существует тесная связь между алгоритмами и исчислениями. По существу, и алгоритмы и исчисления - это некие совокупности ясных, четких, однозначно заданных, конечных инструкций, описывающих какие-то действия с символическими объектами. Однако, в случае алгоритма эти инструкции имеют характер предписаний, задающих однозначный порядок выполнения операций над символическими объектами, тогда как в случае исчислений - инструкции носят разрешающий характер - они не определят какие конкретно действия нужно исполнить и в каком порядке, но указывают лишь какие действия разрешены - без указания очередности их исполнения.

С этой точки зрения исчисления - это особая разновидность алгоритмов, характеризующихся возможностью "ветвления" вычислительного процесса. Вычисление здесь построено как процесс "переработки" аксиом в теоремы, а правила вывода соответствуют тексту программы алгоритмического устройства. С другой стороны и алгоритмы можно рассматривать как особый, "детерминированный" вид исчислений.

Из теоремы Геделя непосредственно следует алгоритмическая неразрешимость проблемы распознавания истинности любых замкнутых формул достаточно содержательно богатой формальной системы. Однако, существование алгоритмически неразрешимых проблем можно показать и независимо от теоремы Геделя. В теории алгоритмов получено большое число результатов, касающихся неразрешимости тех или иных массовых проблем (см., например, (14 )). Наиболее известные результаты - это алгоритмическая неразрешимость так называемой "десятой проблемы Гильберта" (проблемы отыскания единого метода решения произвольных диофантовых уравнений -алгебраических уравнений, решения которых ищутся в целых числах), а также - одни из наиболее простых результатов теории алгоритмов - алгоритмическая неразрешимость "проблемы остановки".

Для дальнейшего анализа нам было бы весьма полезно рассмотреть каким образом доказываются подобные результаты. Рассмотрим, к примеру, как доказывается алгоритмическая неразрешимость "проблемы остановки". "Проблема остановки" - это проблема поиска универсального алгоритма, позволяющего по записи произвольного алгоритма (например, функциональной таблицы машины Тьюринга), а также по записи произвольного "входа" - установить остановится ли вычислительное устройство, действующее в соответствие с данным алгоритмом и обрабатывающее данный "вход", или же оно будет работать бесконечно долго.

Алгоритм называется применимым к данному "входу" если он рано или поздно остановится и выдаст некоторый результат. В противном случае говорят, что алгоритм неприменим к данному "входу". Теорема об "остановке" утверждает, что проблема применимости произвольного алгоритма к произвольному "входу" алгоритмически неразрешима.

Эта теорема доказывается весьма просто. Первый шаг заключается в том, что вводится понятие самоприменимости алгоритма. Алгоритм называется самоприменимым, если он эффективно перерабатывает текст, соответствующий его собственной записи, в некоторый результат за конечное число шагов. В противном случае - если алгоритм не останавливается, продолжает работать бесконечно долго - то он называется несамоприменимым.

Вначале доказывается следующее утверждение: не существует алгоритма применимого ко всем несамоприменимым алгоритмам и только к ним. Доказательство заключается в указании на противоречивость понятия о таком алгоритме. Зададимся вопросом: является ли данный алгоритм самоприменимым? Если он самоприменим, то, очевидно, он несамоприменим (поскольку применим лишь к несамоприменимым алгоритмам). Если же он несамоприменим, то он самоприменим (поскольку применим ко всем несамоприменимым алгоритмам).

Исходя из этого результата можно также доказать несуществование алгоритма, способного универсальным образом распознавать несамоприменимость произвольных алгоритмов. Действительно, если такой алгоритм существует, то можно построить и алгоритм, применимый ко всем несамоприменимым алгоритмам и только к ним.

Обозначим буквой В алгоритм способный распознавать несамоприменимость. Тогда следующий алгоритм будет алгоритмом, применимым ко всем несамоприменимым алгоритмам и только к ним:

1. Выполнить В, перейти к п. 2.

2. Если получен ответ "да", то перейти к п. 3, в противном случае перейти к п. 4.

3. Окончить процесс.

4. Перейти к п. 4.

Этот алгоритм останавливается, если рассматриваемый в качестве входа алгоритм несамоприменим, и не останавливается (зацикливает на п. 4) в противном случае.

Используя данный результат можно также показать, что не существует и алгоритм, распознающий универсальным образом самоприменимость (поскольку в противном случае можно построить алгоритм, который распознает несамоприменимость).

И, наконец, можно показать, что алгоритмически неразрешимой является проблема распознавания применимости произвольного алгоритма к произвольному "входу". Допустим обратное. Пусть Е - алгоритм, который по заданному произвольному алгоритму и заданному на входе "слову" распознает применимость данного алгоритма к данному "слову". Нетрудно построить алгоритм, который позволяет установить является ли заданное "слово" кодом данного алгоритма. Обозначим такой алгоритм буквой Р.

Тогда можно построить алгоритм Н:

1. Применить Р. Перейти к п. 2.

2. Если Р дал ответ "да", перейти к п. 3, иначе - к п. 4.

3. Выполнить алгоритм Е. Конец.

4. Перейти к п. 4.

Алгоритм Н является алгоритмом, распознающим самоприменимость произвольных алгоритмов. Следовательно, он не возможен, а значит не возможен и алгоритм Е.

Итак, существуют алгоритмически неразрешимые проблемы и, соответственно, алгоритмически невычислимые функции. Доказательство невычислимости, как мы видели, осуществляется путем "редукции к абсурду", т.е. показывается, что из предположения о существовании алгоритма, вычисляющего данную функцию, вытекает существование абсурдного, внутренне противоречивого объекта, вроде алгоритма применимого ко всем несамоприменимым алгоритмам и только к ним.

Как отмечалось выше, геделевский аргумент можно сформулировать как утверждение об алгоритмической невычислимости функции сознания. Невозможно написать программу для машины Тьюринга или любой другой универсальной вычислительной машины, которая была бы способна имитировать работу человеческого мозга и, таким образом, имитировать в любых ситуациях поведение человека. Этот аргумент можно сформулировать и несколько иначе, в виде утверждения, что человек обладает способностью решать алгоритмически неразрешимые проблемы. Эти формулировки, однако, не являются эквивалентными. В самом деле, любая подлинно случайная последовательность является "невычислимой" в том смысле, что никакой алгоритм не позволит нам гарантированно предсказать каждый следующий элемент в этой последовательности. Но отсюда, однако, не следует, что генератор случайных чисел может оказать нам какое-то содействие в решении каких-либо конкретных алгоритмически неразрешимых проблем.

Поскольку смысл геделевского аргумента усматривают именно в утверждении превосходства человека над машиной, то и тезис "невычислимости функции сознания" следует понимать именно во втором смысле - как тезис о разрешимости для человеческого интеллекта тех или иных алгоритмически неразрешимых проблем.

Итак, мы выяснили суть геделевского аргумента. Впервые данный аргумент был, видимо сформулирован Дж. Лукасом в 1961 году в статье (1).

В последнее время подобные идеи активно отстаивает Р. Пенроуз (2, 3, 11). Пенроуз, в частности, использует геделевский аргумент для обоснования тезиса о квантовой природе человеческого сознания. (Этот вопрос мы более подробно рассмотрим ниже). Рассмотрим вкратце ту форму, которую Пенроуз придает геделевскому аргументу.

Пенроуз утверждает, что предположение о существовании компьютерной программы, воспроизводящей функции человеческого интеллекта, в частности, воспроизводящей функции, составляющие математические способности человека, ведет к противоречию.

Предположим, что математические способности некоторого математика (например, самого Пенроуза) полностью описываются некоторой формальной системой F. Это означает, что любое математическое утверждение, которое Пенроуз признает "неоспоримо верным", является теоремой, доказываемой в F, и наоборот. Предположим, также, что Пенроуз знает, что F описывает его математические способности. Пенроуз, также, полагает, что тот факт, что F описывает его математические способности, - эквивалентен вере в непротиворечивость и непогрешимость F. (В противном случае мы должны были бы поставить под сомнение истины, которые представляются нам "неоспоримо истинными").

Согласно теореме Геделя о неполное формальных систем, поскольку F непротиворечива, существует геделевское предложение G(F), которое должно быть истинным, но которое не является теоремой в системе F. Однако, поскольку Пенроуз верит, что F - непротиворечивая система и знает, что F представляет его способность к математическим рассуждениям, он должен прийти к выводу, что G(F) является "неоспоримой истиной". Таким образом, мы получаем математическое утверждение G(F), которое Пенроуз признает истинным, но которое не является теоремой в F , что противоречит первоначальному предположению, что F представляет целиком и полностью математические способности Пенроуза.

Отсюда вывод, что никакая формальная система не может быть адекватным выражением математических способностей человека и, следовательно, невозможна полная компьютерная имитация человеческого сознания.

Работы Лукаса и Пенроуза вызвали достаточно большой резонанс в научной среде. (См., например, дискуссию по книге Пенроуза "Тени ума" в журнале PSYHE ( 4 -11)). В целом, однако, преобладает критическое отношение к геделевскому аргументу. В следующем разделе данной работы мы последовательно рассмотрим типичные возражения, выдвигаемые против геделевского аргумента и дадим оценку каждому из них. Все это позволит нам выяснить подлинное значение геделевского аргумента.

 

Литертура:

1. Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961, 36, pp. 112-127.

2. Penrose R. The Emperor's New Mind. L. 1989.

3. Penrose R. Shadows of the Mind. L., 1993.

4. Baars B.J. Can Physics Provide a Theory of consciosness? // PSYCHE, 1995, 2 (8).

5. McCarthy J. Awareness and Understending in Computer Programs // PSYCHE, 1995, 2 (11).

6. Chalmers D.J. Mind, Machines, and Mathematics // PSYCHE, 1995, 2(9).

7. Klein S.A. Is Quanum Mechanics Relevant to Anderstenting consciousness? // PSYCHE, 1995, 2 (2)

8. McDermott D. Penrose is Wrong // PSYCHE, 1995, 2 (2).

9. Feferman S. Penrose's Godelian Argument // PSYCHE, 1995, 2 (7).

10. Moravec H. Roger Penrose's Gravitonic Brains // PSYCHE, 1995, 2 (6).

11. Penrose R. Beyond the Doubting of Shadow // PSYCHE, 1996, 2 (23).

12. Антипенко Л.Г. Проблема неполноты теории и ее гносеологическое значение. М., 1986.

13. Chalmers D.J. Facing Up to the Problem of Consciousness // Journal of Consciousness Studies, 2 (3), 1995, pp.200 - 219.

14. Роджерс Х. Теория рекурсивных функций эффективная вычислимость. М., 1972.


2. Критика геделевского аргумента.

  По существу, все доводы против геделевского аргумента укладываются в две противоположные точки зрения:

а). Человек, также как и машина, подчинен действию ограничений, вытекающих из теоремы Геделя о неполноте формальных систем.

б). Теорема Геделя не накладывает никаких существенных ограничений не только на человека, но и на машину.

Рассмотрим вначале как может быть обоснована первая точка зрения. Аргументы здесь используются весьма разнообразные.

1. Утверждают: то, что невычислимо (неразрешимо) для машины, невычислимо (неразрешимо) и для человека. Поскольку невычислимость означает невозможность указать эффективную процедуру разрешения заданной массовой проблемы, то, очевидно, это условие в равной мере действенно и для машины, и для человека. Если алгоритма решения данной проблемы в принципе не существует, то его не существует и для человека, и, следовательно, человек, также как и машина, не способен решать алгоритмически неразрешимые проблемы.

В данном случае предполагается, что решение некой массовой проблемы непременно предполагает существование алгоритма ее разрешения, т.е. предполагается, что найти решение проблемы - это то же самое, что указать единую методику (алгоритм) решения любой задачи, входящей в состав данной массовой проблемы.

Однако, вполне можно предположить, что человек способен решать какие-то проблемы не зная в точности каким образом он их решает, т.е. не владея в явной форме алгоритмом решения данной проблемы. Действительно, нередко мы решаем те или иные задачи "интуитивно", не осознавая сам процесс, который приводит нас к решению. Например, мы распознаем образы не имея представления о том, каким образом наш мозг осуществляет данную операцию. Нет, также, оснований думать, что исследуя работу мозга мы непременно рано или поздно установим "алгоритм", лежащий в основе функции распознавания образов. Следовательно, разрешимость массовой проблемы и наличие алгоритма ее разрешения - это не одно и то же.

Таким образом, данное возражение следует отклонить.

2. Некоторые авторы (1 с. 213) полагают, что человек не способен решать алгоритмически неразрешимые проблемы, так как их разрешимость влечет существование логически противоречивых, абсурдных объектов, наподобие алгоритма применимого только ко всем несамоприменимым алгоритмам. (Напомним, что невозможность подобного алгоритма используется для доказательства теоремы о неразрешимости проблемы "остановки"). Ясно, что абсурд должен быть запрещен в равной мере как для машины, так и для человека. Следует ли, однако, отсюда, что всякий объект, способный эффективно решать алгоритмически неразрешимые массовые проблемы (например, проблему "остановки"), внутренне противоречив (есть нечто подобное "круглому квадрату" или "горячему мороженому") и, следовательно, не может существовать?

Рассмотрим для большей конкретности пример проблемы "остановки". Очевидно, что абсурдность возникает здесь лишь в том случае, если предполагаемое устройство, эффективно решающее данную проблему для любых алгоритмов и любых входных данных, является алгоритмическим устройством, т.е. действует на основе некоторого алгоритма. В самом деле, пусть Е - есть устройство успешно решающее проблему остановки, т.е. это устройство способное по произвольному алгоритму и произвольному "входу" установить (за конечное время) остановится данный алгоритм или же будет работать вечно. Тогда, очевидно, можно построить и устройство способное эффективно распознавать несамоприменимость алгоритмов, а также устройство, которое будет работать останавливаясь и выдавая некий результат в том и только в том случае, если на "вход" вводится описание несамоприменимого алгоритма. Будет ли существование такого устройства чем-то парадоксальным, самопротиворечивым? Парадокс возникает, как мы помним, в том случае, когда мы задаемся вопросом: является ли алгоритм применимый ко всем несамоприменимым алгоритмам самоприменимым, или же он является несамоприменимым? Ясно, что если этот алгоритм самоприменим, то устройство должно остановиться (в силу определения самоприменимости) и, одновременно, не должно остановиться, поскольку применимо лишь к несамоприменимым алгоритмам. Аналогичный результат мы получаем и в случае несамоприменимости данного алгоритма.

Однако такой вопрос можно осмысленно задать лишь в отношении устройства, которое подчинено некоторому алгоритму, и который можно записать в виде текста и ввести в качестве "входа" в это же самое устройство. Если же устройство не подчинено какой-либо однозначно заданной совокупности предписаний, т.е. не является алгоритмическим устройством, то данный вопрос утрачивает всякий смысл. Но в таком случае исчезает и описанный выше парадокс. Таким образом, нет ничего парадоксального и противоречивого в предположении о возможности существовании устройства, применимого лишь к несамоприменимым алгоритмам, при условии, что само это устройство не является алгоритмическим.

Человек, конечно, не может решить такие алгоритмически неразрешимые проблемы, как проблема построения, сажем, "каталога всех и только всех несамоназывающихся каталогов" или построения прочих парадоксальных объектов. Однако, в других случаях, никакого противоречия в предположении о возможности решении любых единичных задач, составляющих алгоритмически неразрешимую массовую проблему, не существует (если эта возможность не сопряжена непременно с необходимостью указания алгоритма решения данной массовой проблемы).

Если мы допускаем возможность существования неформализуемых систем (систем, которые не допускают четкого и однозначного описания принципов своего функционирования посредством конечного набора правил), то мы должны, также, допустить и возможность существования устройств, способных решать алгоритмически неразрешимые проблемы, подобные проблеме "остановки".

3. Некоторые авторы утверждают, что для человека, также как и для машины, вполне можно сформулировать неразрешимые предложения, аналогичные геделевским предложениям (2).

Рассмотрим, к примеру, утверждение (обозначим его "утверждение 1*):

1* [Иванов не способен доказать данное утверждение 1*]

Спрашивается: может ли Иванов доказать данное утверждение? Если "да", то это утверждение истинно и, следовательно, Иванов не способен его доказать. Если же нет", то оно истинно, но недоказуемо (для Иванова).

Однако я, Иванов, вполне ясно вижу, что данное утверждение истинно - что непосредственно доказывается мною в предшествующем рассуждении. Иными словами, хотя формально данное предложение для меня является "недоказумым", тем не менее, фактически я способен "неформально" доказать его истинность - указав, например, что это предложение является геделевским предложением для системы "Иванов" и уже потому истинно. Каким же образом я способен сделать этот формально "запрещенный" для меня вывод? Очевидно, делая этот вывод, я как бы мысленно дистанцируюсь от самого себя, т.е. как бы создаю некое "виртуальное" "Я" или "виртуалього субъекта", не тождественного субъекту, фигурирующему в утверждении 1* под именем "Иванов". Это позволяет мне воспринять данную ситуацию извне, с позиции стороннего наблюдателя. Если для исходного "Я" (Иванова) предложение 1* формально неразрешимо, то для "виртуального Я" (Иванова') - оно оказывается вполне разрешимым.

Отсюда можно сделать важный вывод, что способность распознавать истинность геделевских предложений, если она действительно имеет место, связана с рефлексивной способностью субъекта - его способностью к самоосознанию. Действительно, осознание самого себя как единичной индивидуальности, выделенной из состава всеобщего бытия, т.е. осознание себя как "Я" - которому противопоставлено "не-Я",- такое осознание предполагает самодистанцирование субъекта, его способность "посмотреть" на себя извне, как бы "со стороны" - с некой надиндивидуальной точки зрения.

Рефлексивную способность можно понимать двояко:

1. Как способность субъекта описывать свой собственный внутренний мир - "субъективную реальность".

2. Как способность осознавать собственное "Я" - как нечто отдельное, отделенное от остального мира, противоположное "не-Я".

Первая способность предполагает вторую. Для того, чтобы описать свой собственный внутренний мир, необходимо предварительно опознать этот мир именно в качестве "моего внутреннего мира", противоположного "внешнему миру".

С философской точки зрения способность к самоосознанию указывает на принципиальную "разомкнутость" человеческого сознания, на непосредственную укорененность "Я" в некой надиндивидуальной реальности. Действительно, для того, чтобы понять, что я - это "Я", т.е. субъект, противоположный объекту, необходимо каким-то образом "увидеть" эти "Я" и "не-Я" в их непосредственном соотношении. Но для этого необходимо "выйти из себя", преодолеть замкнутость собственного сознания и "переместиться" в такую "онтологическую точку" в которой отсутствует различие "Я" и "не-Я" (субъекта и объекта) - и именно поэтому из этой "точки" возможно одновременно "созерцать "Я" и "не-Я" в их непосредственном отношении друг к другу. Поскольку такое "видение" может быть только умозрительным (сверхчувственным), то следует признать, что наше индивидуальное сознание должно быть каким-то образом "изнутри" (в своей мыслительной способности) соединено с Мировым целым - так что в некой особой сфере сознания утрачивается сохраняющееся в других сферах (например, в сфере чувственности) деление на субъект и объект.

"Незамкнутость" сознания, вместе с тем, можно истолковать как его неформализуемость. Действительно, благодаря незамкнутости, человеческий интеллект как бы "подключен" к бесконечному "резервуару аксиом", причем не просто внешним образом подключен к этому "резервуару", а так, что не существует отчетливой границы между "моим сознанием" и мировым надиндивидуальным целым. В силу этого невозможно сказать, что "Я" - это именно "вот это" конкретное содержание. Невозможно однозначным способом специфицировать "Я" - поскольку оно не имеет четких границ.

Машина всегда есть то, что она есть - она всегда есть нечто вполне определенное. Человек же не есть только то, что он есть. Он всегда больше того, чем он непосредственно является. Для человеческого интеллекта, когда мы его рассматриваем как целое, нарушается закон тождества А=А. Точнее, для человека одновременно верно и А=А и А >А. Иными словами, человеческий интеллект в своей основе "металогичен", не подчиняется законам классической логики.

Итак, "негеделевость" сознания (если она действительно имеет место) - его способность распознавать геделевские предложения - указывает, как нам представляется, на фундаментальные онтологические свойства сознания - его незамкнутость, укорененность в надиндивидуальном Мировом целом. "Негеделевость" сознания можно в этом случае объяснить тем, что человеческий интеллект - это система с неопределенным множеством аксиом. Такая система неформализуема, для нее невозможно однозначно определить множество "доказуемых истин" и, следовательно, для нее невозможно сформулировать предложения, утверждающие собственную недоказуемость относительно заданной системы аксиом.

Вывод: рассмотренный довод против геделевского аргумента, видимо, несостоятелен. Человек фактически способен распознавать истинность геделевских предложений в которых он сам фигурирует как субъект высказывания. Эту способность можно "метафизически" объяснить "незамкнутостью" человеческого сознания, его непосредственной укорененности в надиндивидуальном мировом целом.

Подчеркнем, что в данном случае мы не предрешаем вопрос об истинности геделевского аргумента. Речь идет лишь о том, как возможно объяснить "негеделевость" человеческого интеллекта если она действительно имеет место - объяснить именно как особую форму "превосходства" человека над машиной. Мы также не настаиваем, что данное объяснение "негеделевости" является единственно возможным.

4. Еще одно возражение против геделевского аргумента заключается в следующем. Полагают, что человек, также как и машина, подпадает под ограничения, вытекающие из теоремы Геделя, но мы не способны в явной форме построить сами для себя геделевские предложения, поскольку не способны установить алгоритм (аксиоматику), на основе которого функционирует наш интеллект (3, 4, 5, 6). Назовем это утверждение "гипотезой о скрытой алгоритмичности" человеческого интеллекта.

Здесь можно рассуждать следующим образом: предположим, что в основе человеческого интеллекта лежит некий алгоритм (система правил) А. Если мы способны в явной форме установить какие именно правила составляют А, т.е. каким конкретно правилам подчинен наш собственный ум, то мы способны также построить "неразрешимое" высказывание:

2* [Алгоритм А не способен установить истинность высказывания 2*].

Это предложение истинно, но недоказумо. Но человек, если он действительно подчинен алгоритму А, не способен установить истинность данного предложения. Однако, если человек способен установить, что он действительно подчинен алгоритму А, то уже в силу этого он сразу же устанавливает истинность - 2* расценивая его как геделевское предложение. Таким образом, предложение 2*одновременно и должно и не может быть распознано человеком как истинное. Чтобы исключить возможность возникновения такого парадокса, необходимо, видимо, предположить принципиальную непознаваемость алгоритма, в соответствие с котором функционирует наш собственный мозг. (Сравним этот аргумент с предшествующим. Разница между ними в том, что во втором случае делается акцент на необходимости детального знания "системы аксиом" (алгоритма) на которой основана психическая деятельность человека, для того, чтобы было возможно сформулировать геделевские предложения, неразрешимые для человеческого мышления. Действительно, конкретный вид геделевских предложений очевидно зависит от выбора дедуктики, т.е. конкретного набора аксиом и правил вывода. Поэтому, не зная действительного устройства формальной системы, невозможно и выписать в явном виде и геделевское предложение для данной системы. С этой точки зрения предложение 1* [Иванов не способен доказать утверждение 1*] не является подлинным геделевским предложение, поскольку оно никак не специфицирует систему "Иванов" и, следовательно, утверждает непонятно о чем. Следовательно, снимается и вопрос о том, каким образом Иванов способен распознать истинность данного предложения).

"Непостижимость" правил, которым подчинено наше мышление и поведение в целом можно обосновать и более простым способом. Предположим, что я выяснил алгоритм А, который исчерпывающим образом описывает функцию моей собственной психики (или функцию моего мозга). Тогда, по крайней мере в некоторых случаях, я буду способен предсказывать свои будущие действия, поступки. Предположим, что исследование алгоритма А привело меня к заключению, что я в ситуации Х должен с необходимостью осуществить действие Р. Но тогда, что, спрашивается, может помешать мне именно в силу осознания неизбежности действия Р "назло" или "нарочно" отказаться от осуществления Р, и осуществить какое-то альтернативное действие. Тогда получится, что я одновременно должен и не должен осуществить действие Р.

Итак, можно утверждать, что если сознание подчинено некоторому конкретному алгоритму, то предположение о познаваемости данного алгоритма ведет к противоречию. Отсюда можно предположить, что данный алгоритм, если он на самом деле существует, принципиально непознаваем. Однако можно ли его в таком случае считать алгоритмом?

Алгоритм - это ясная, четкая, понятная для всех система инструкций, совокупность правил. Следовательно, в само понятие алгоритма уже изначально входит идея его принципиальной познаваемости. То, что принципиально непознаваемо - не может рассматриваться в качестве алгоритма.

Таким образом утверждение о принципиальной непознаваемости алгоритма А - фактически равносильно признанию невозможности описать функцию сознания с помощью какого-либо алгоритма.

Здесь мы, по сути, получаем дополнительный довод в пользу геделевского аргумента - мы видим, что гипотеза об алгоритмической природе сознания ведет к парадоксам, логически противоречива.

Следует подчеркнуть, с другой стороны, что гипотеза об алгоритмической невычислимости функции сознания недоказуема эмпирически. Невозможно на практике показать, что человек на самом деле способен решать алгоритмически неразрешимые массовые проблемы. Это невозможно просто потому, что человек на протяжении своей жизни имеет дело лишь с конечным множеством проблем - которое, конечно, может представлять собой подмножество множества, составляющего алгоритмически неразрешимую массовую проблему. Человек может продемонстрировать свою способность решать любые предъявляемые ему конкретные задачи, входящие в состав данной алгоритмически неразрешимой массовой проблемы. Однако отсюда не следует, что человек способен решать любые проблемы, имеющие отношение к данному (бесконечному) классу проблем. Алгоритмическая неразрешимость не исключает возможности решения любого конечного множества проблем, относящихся к неразрешимой массовой проблеме. Утверждается лишь отсутствие общего, универсального способа решения таких проблем.

Однако хотя гипотеза алгоритмической невычислимости функции сознания и недоказуема, но она, тем не менее, вполне опровержима. Функцию, которую выполняет та или иная система, можно установить двумя различными способами: либо наблюдая как данная система реагирует на те или иные "входные" сигналы, либо выяснив как данная система "устроена" - т.е. выяснив ее конструкцию и, таким образом, выяснив алгоритм, на основе которого функционирует данная система.

В принципе, анализируя строение мозга и функцию отдельных его элементов, можно выяснить алгоритм, которому подчинена наша психическая деятельность. Однако, если мы принимаем геделевский аргумент, то мы должны исключить такую возможность - поскольку она влечет противоречие. Таким образом, единственный практически значимый вывод, который следует из принятия геделевского аргумента, - это вывод о принципиальной невозможности выяснить те принципы, которым подчинена работа нашего мозга.

Это очень сильный вывод. Отсюда, в частности, следует, что функцию мозга невозможно полностью понять исходя из "классической" модели мозга как нейрональной сети, в которой единственными информационно значимыми событиями являются процессы обмена нервными импульсами между отдельными нервными клетками. Действительно, эти процессы - на уровне отдельных нервных клеток и небольших их совокупностей - достаточно хорошо известны. В них нет ничего загадочного для нас. Но в таком случае нет и никаких принципиальных препятствий для того, чтобы выяснить и функцию сколь угодно большой нейрональной сети и даже мозга как целого. Это лишь вопрос времени. Таким образом, с этой точки зрения функция мозга принципиально познаваема.

Геделевский аргумент по существу ставит под сомнение этот оптимистический для нейронаук вывод. Соответственно, возникает вопрос: как может быть устроен мозг, чтобы его функция могла рассматриваться как принципиально непознаваемая? Как вообще возможно существование физических систем, функцию которых в принципе невозможно выяснить анализируя их устройство?

Известные нам физические "законы природы" по существу представляют собой правила, с помощью которых мы можем, исходя из знания структурных свойств и состава физических объектов, предсказать их функциональные свойства. Таким образом, принципиально непознаваемыми могут быть лишь те функциональные свойства физических объектов, которые невыводимы однозначным образом из известных "законов природы" (которые, по сути, представляют собой предельно общие правила (алгоритмы), которым подчинено поведение самых различных физических систем).

Детальный анализ вопроса: как возможны физические системы, функция которых принципиально непознаваема - мы отложим до третьей главы. Пока лишь отметим, что рассмотренный в этом пункте довод против геделевского аргумента также оказался несостоятельным. Функция сознания не может быть подчинена "принципиально непознаваемому алгоритму", поскольку такой "алгоритм" вообще не является алгоритмом, его свойства противоречат самой природе алгоритмов, как потенциально эксплицируемых систем инструкций.

5. Неполнота формальных систем, вытекающая из теоремы Геделя, с необходимостью имеет место лишь при условии непротиворечивости рассматриваемой формальной системы. Непротиворечивость означает, что формальная система не допускает вывода противоположных утверждений: А и не-А. То есть система доказываемых теорем должна быть внутренне самосогласованной. Помимо самосогласованности естественно также потребовать то, что можно назвать "непогрешимостью" формальной системы: она должна доказывать лишь содержательно истинные высказывания, и не доказывать ни одного содержательно ложного высказывания. (Это условие представляется естественным в том случае, если рассматриваемая система претендует на роль формального аналога человеческого интеллекта или хотя бы формального аналога математических способностей человека. Действительно, если формальная система F действительно функционально тождественна человеческому интеллекту, то множество теорем, доказываемых в этой системе, будет полностью покрывать множество "содержательных" истин, так что отсутствует всякая возможность различить "формальные" и "содержательные" истины. Однако, как мы увидим ниже, и это, казалось бы неоспоримое условие "априорной" непогрешимости человеческого ума, - может быть подвергнуто сомнению).

Учитывая сказанное можно предположить, что человек способен "уйти" из под действия ограничений, вытекающих из теоремы Геделя, именно в силу того, что он является противоречивой формальной системой. Ясно, что это предположение снимает противоречивость гипотезы "алгоритмической вычислимости" функции сознания (и, в частности, снимает противоречивость гипотезы о возможности представить математические способности человека посредством некой формальной системы). Заметим, что гипотеза о "противоречивости" человеческого интеллекта является, пожалуй, самым популярным доводом против геделевского аргумента (см., например, (2, 4, 5, 7)). Д. Маккалох, например, утверждает, что геделевский аргумент доказывает не "...алгоритмическую невычислимость функции сознания, а доказывает лишь, что если эта функция вычислима, тогда человеческий интеллект либо противоречив, либо человек принципиально не способен познать алгоритм собственного сознания, а также доказать собственную непротиворечивость"(2).

Отметим, что данный довод против геделевского аргумента существенным образом отличен от всех рассмотренных нами доводов. Действительно, все рассмотренные выше контраргументы были направлены на то, чтобы показать, что человек в такой же мере подвержен действию ограничений, вытекающих из теоремы Геделя, как и машина. Данном же случае признается, что теорема Геделя не имеет силы в отношении человеческого интеллекта - хотя причина этого указывается достаточно тривиальная - внутренняя противоречивость (несамосогласованность) алгоритма, лежащего в основе человеческого мышления. С этой точки зрения нет принципиальной разницы между человеком и машиной. Машина также может избежать "неполноты", вытекающей из теоремы Геделя. Для того, чтобы машина "сравнялась" с человеком достаточно (помимо достижения определенной вычислительной мощности и объема памяти и создания адекватного программного обеспечения) лишь сделать машину способной противоречить самой себе - т.е. высказывать несовместимые друг с другом утверждения, принимать в качестве истинных противоречащие друг другу формулы и т.п.

Подчеркнем, что противоречивость не устраняет возможности описания "мыслящей противоречиво" системы, как системы, подчиненной определенному алгоритму (набору четко и однозначно сформулированных правил). Просто правила, составляющие алгоритм, оказываются логически несовместимыми и в результате система оказывается способной оценивать одни и те же предложения как истинные и как ложные в разные моменты времени.

Формально данная гипотеза действительно позволяет снять противоречивость предположения о возможности представить человеческий ум в виде некоего алгоритма. Однако эта гипотеза влечет весьма радикальные следствия касающиеся, в частности, природы математического мышления и понимания сущности математики.

Что означает для формальной дедуктивной системы противоречивость? То, что из аксиом данной системы при помощи разрешенных правил вывода можно получить некоторое утверждение, а также можно вывести и его отрицание. То есть такая система утрачивает способность однозначно различать истину и ложь.

Согласно правилам логики, что если формальная система противоречива, то в ней может быть доказано любое предложение. Действительно, если система противоречива, то в ней неизбежно в состав теорем включаются ложные формулы. В частности, в ней выводима заведомо ложная формула (А и не-А), которую далее можно использовать в качестве посылки. Опираясь же на ложные посылки можно доказать все, что угодно. Таким образом, если дедуктика противоречива, то в ней доказуема любая формула заданного формального языка.

Если в основе математических способностей человека лежит противоречивая формальная дедуктивная система, то это означает, что любая математическая теорема рано или поздно будет опровергнута. Но в таком случае следует признать, что доказательность в математике, т.е. наличие в ней всеобщих и необходимых истин - не более чем психологическая иллюзия. Математика, таким образом, лишается статуса доказательной науки и ставится в один ряд с науками "эмпирическими".

Но в таком случае возникает вопрос: каким же образом у нас возникает иллюзия доказательности математики? Почему мы сплошь и рядом не сталкиваемся с противоречиями в математических теориях или, по крайней мере, с существенными разногласиями в среде математиков по поводу любой математической теоремы? Почему доказательства, как правило, без особых возражений и длительных дискуссий принимаются математическим сообществом, а также, почему существуют математические результаты, полученные более двух тысяч лет назад и сохранившие свой статус истинных по сей день? (Например, "Начала" Эвклида).

Известен, например, такой факт: ни одна математическая теорема не была опровергнута позже 50 лет после того, как она была доказана (8).

Как можно объяснить все эти факты, указывающие на весьма надежный, достоверный характер математических результатов, с позиций гипотезы, утверждающей внутреннюю противоречивость человеческого интеллекта - включая сюда и способности, ответственные за математическое мышление?

Самое простейшее объяснение этих фактов заключается в предположении, что "контрдоказательства" (т.е. опровержения) известных "надежных" математических теорем просто намного превосходят по своей сложности (длиннее) "доказательства" и именно поэтому "контрдоказательства" пока нам не известны. Это объяснение представляется весьма фантастическим, однако сбрасывать его совсем со счета также не следует.

Другое, гораздо более реалистическое объяснение заключается в предположении, что подлинный источник истинности в математике - это отнюдь не самоочевидный (и потому априорный) характер аксиом, лежащих в основе той или иной дедуктивной математической теории, а практика (точнее, применение математических теорий на практике). Сторонники этой точки зрения полагают, что математическое сообщество сознательно или бессознательно систематически "отбраковывает" как негодные те схемы рассуждений и математические результаты, которые приводят нас к выводам, противоречащим практике. (Например, теорема арифметики, утверждающая 2+2=4, с этой точки зрения, истинна не в силу какой-то особой способности нашего разума непосредственно (интуитивно) усматривать равенство 2+2 и 4, а является истинной в силу того, что любое рассуждение, которое приводило бы нас к иному результату, противоречило бы практике и поэтому неизбежно было бы отвергнуто как ошибочное).

Все это означает, что методология математики ничем принципиально не отличается от методологии любой другой естественной науки (например, физики). Ее "доказательства" - это просто психологически убедительные способы аргументации, не гарантирующие получение абсолютной истины, а отнюдь не способы получения каких-то "всеобщих и необходимых" (а также "общезначимых") истин.

Для того, чтобы убедиться в истинности математических утверждений, с этой точки зрения необходимо сопоставить "доказанный" результат с опытом. Математика, таким образом, вопреки классическим представлениям о ее природе, не имеет "внутреннего" (независимого от практики) критерия истинности.

Из всего этого следует, что если мы отрываем математику от практической почвы - то следует ожидать появления противоречий. В подтверждение этой точки зрения нередко ссылаются на парадоксы, которые в конце 19 - начале 20 столетия были обнаружены в теории бесконечных множеств Г. Кантора - одной из наиболее абстрактных, оторванных от практики математических теорий, с которой связывались большие надежды в плане окончательного обоснования всей "классической" математики.

Уже сам Кантор обнаружил внутреннюю противоречивость понятия "множества всех множеств" (которое совершенно естественно возникало в первоначальной "наивной" версии теории множеств как следствие неограниченного применения принципа "свертки" - условием "свертывания" каких-либо предметов в множество у Кантора являлась простая мыслимость элементов данного множества в качестве единого целого). Позже были открыты и другие парадоксы "наивной" теории множеств (Парадокс Рассела, парадокс Бурали-Форти и др.). Так, например, Б. Рассел показал, что вполне приемлемые с точки зрения теории множеств рассуждения приводят к построению таких парадоксальных объектов, как "множество всех множеств, не содержащих себя в качестве элемента" - это множество одновременно и должно и не должно содержать себя в качестве элемента.

Доказывает ли наличие парадоксов в теории множеств неустранимую противоречивость математического мышления? На этот вопрос, как нам представляется, следует ответить отрицательно.

Во-первых, следует признать, что обнаружение упомянутых противоречий, хотя и вызвало первоначально панику в математическом сообществе, все же не привело к краху классической математики в целом. Ни один из классических разделов математики (арифметика, геометрия, матанализ и др. ) не пострадал. В целом преобладает мнение, что указанные парадоксы являются следствием достаточно тонких, ранее не замечаемых, дефектов мышления, которые вполне устранимы. Например, по мнению Рассела и Пуанкаре парадоксы возникают из-за нарушения принципа "порочного круга", т.е. нарушения правила: "Все, что включает все члены совокупности, не должно быть одним из членов совокупности". Определения, в которых это правило нарушается, называется "непредикативным". Исключая непредикативные определения, мы тем самым исключаем возможность включения в теорию таких парадоксальных объектов, как "множество всех множеств, не содержащих себя в качестве элемента" или "множество всех множеств". Разработанная Расселом "теория типов" позволяет различать математические конструкции по уровню абстрактности и не допускать смешение этих уровней - что и является, по его мнению, причиной возникновения парадоксов.

По существу сходный способ устранения парадоксов используется и в аксиоматической теории множеств Цермело-Френкеля. Здесь исключение понятий типа "множество всех множеств" достигается путем индуктивного способа построения новых множеств - всякое множество строится на основе уже ранее построенных (или постулированных) множеств с использованием конечного набора разрешенных операций.

Вместе с тем, нужно отметить, что ни аксиоматическое построение теории множеств, ни теория "типов" не позволяю сами по себе гарантировать непротиворечивость математических построений. Исключая известные парадоксы, мы не можем быть уверены, что подобные парадоксы не возникнут в будущем. К. Гедель доказал теорему, согласно которой истинность в рамках той или иной формальной системы не может быть доказана с использованием только тех средств,которые формализованы в рамках данной системы. Отсюда следует, что истинность математики в целом не может быть доказана средствами самой математики. Не означает ли это, что математика не имеет "внутреннего" критерия истинности и неизбежно должна апеллировать к опыту?

Как нам представляется, это совсем не обязательно. Неспособность математики к самообоснованию не является чем-то удивительным. Математика мыслимая как целое - это ни что иное, как сфера "чистого мышления", т.е. мышления, "не замутненного" какими-либо внерациональными (волевыми, эмоциональными, чувственными) элементами. Ясно, что сам характер процедуры обоснования (отсылка к основанию) не допускает самообоснования. В готовых формах мышления истина лишь транслируется, но не рождается. Однако, это не означает, что истина рождается непременно лишь в чувственном опыте. Можно допустить также и существование некой "непроницаемой" для разума (металогической) внечувственной сферы, которая является внутренним (в смысле, "внеэмпирическим", внечувственным) основанием самого разума. Это и есть то, что обычно называют "интеллектуальной интуицией" - способность непосредственно "усматривать" истинность без каких-либо обоснований или доказательств. Фактическая "прочность" математических теорий, весьма оторванных от практики, указывает на то, что такого рода "интеллектуальная интуиция" действительно существует и является подлинным источником истинности нашего мышления.

Рассмотрим вкратце причины возникновения парадоксов в математике и человеческом мышлении в целом. Парадоксальные объекты - это, по существу, невозможные объекты, т.е такие объекты, которым приписываются несовместимые друг с другом предикаты (например: круглый квадрат, горячее мороженое и т.п.). Возникает вопрос: как вообще можно мыслить то, что не может существовать?

Наше мышление - предметно. Каждое осмысленное понятие указывает на некий возможный или действительный объект, группу объектов, на свойства или отношения между объектами (причем в качестве "объектов" могут выступать не только чувственно воспринимаемые предметы, но и нечто сверхчувственное, например, смысл, желание, оценка, "Я", душа и т.п.). Каким же образом возможна мысль предмет которой - нечто невозможное?

Эта проблема обычно решается в философии путем различения предметного, содержательного мышления и мышления символического. В первом случае акт мышления - есть акт схватывания "идеи" объекта - предмета мысли во всей полноте его свойств и отношений. Во втором же случае мы мы мыслим с помощью "отвлеченных понятий", которые лишь указывают "направление" к идее, но не позволяют реально обладать ее конкретным содержанием (9).

Иными словами, содержательная мысль - это мысль, включающая в себя адекватное самому предмету "интеллектуальное созерцание" данного предмета, т.е. мысль полно, исчерпывающе воспроизводящая структурные, реляционные и прочие свойства предмета мышления. Именно таковым, по существу, и является (вернее, должно всегда являться) математическое мышление.

Символическое мышление, в отличие от содержательного, не воспроизводит "идеально" предмет мышления, но задает лишь отдельные признаки, с помощью которых можно практически распознавать замысленный объект. Последнее, однако, не гарантирует, что объект, обладающий указанными признаками, действительно существует (вернее, может существовать - поскольку мышление имеет дело с возможным и невозможным, а не с возможным и действительным). Указываемый признаками класс может оказаться пустым в силу несовместимости указанных признаков.

Таким образом, символическое мышление - это мышление, которое как бы "остановилось на середине дороги", это не законченное мышление. По сути, это лишь как бы "замысел" содержательной мысли, некая программа синтеза "идеи", адекватной предмету мысли, причем эта программа может быть выполнимой или невыполнимой. В последнем случае мы и имеем дело с парадоксальными, невозможными объектами, - которые, по существу, нами не мыслятся, но лишь замысливаются, лишь мнятся, но не осуществляются в мышлении.

В математике различие между содержательным и символическим мышлением можно представить как различие между конструктивным и неконструктивным мышлением. Обычно полагают, что математическое мышление конструктивно, если мыслимый объект задается через посредство указания процедуры (алгоритма) его построения. Неконструктивное задание математического объекта осуществляется через посредство задания условий (признаков), которым данный объект должен удовлетворять. Ясно, что если ограничиться только конструктивными определениями, никакие парадоксы возникнуть не могут.

Алгоритм, однако, это некая финитная процедура. Идея алгоритма предполагает возможность передачи процесса порождения объекта машине. Машина, очевидно, не может осуществить бесконечное множество шагов для того, чтобы выдать некий окончательный результат. Таким образом, конструктивизм в математике равносилен запрету на использование актуальной бесконечности. (По мнению сторонников конструктивистского и интуитивистского направлений в математики парадоксы связаны именно с использованием в математике идеи актуальной бесконечности или, по крайней мере, связаны с некритическим применением к бесконечным множествам классической логики, применимой в полном объеме лишь к конечным множествам).

Запрет на использование актуальной бесконечности можно истолковать в пользу "эмпирического" статуса истинности в математике. Действительно, отказ от актуальной бесконечности делает математические конструкции вполне обозримыми и, значит, потенциально эмпирически проверяемыми. В этой потенциальной проверяемости и можно усмотреть причину надежности конструктивных доказательств. Поэтому если мы хотим сохранить идею чисто "внутреннего", внеэмпирического источника истинности в математике, то мы должны настаивать на надежности также и доказательств, использующих понятие актуальной бесконечности.

На неустранимость из математического мышления актуальной бесконечности непосредственно указывает сама теорема Геделя о неполноте формальных систем. Действительно, смысл теоремы как раз и заключается в том, что Гедель (используя лишь финитные средства) доказал, что содержательная математическая истина не может быть выражена с помощью каких-либо финитных методов рассуждения. Т.е. математика не может быть целиком сведена к каким-либо конечным формальным построениям. Как отмечает Л.Г. Антипенко: "...теоремы Геделя о неполноте превращают высказывания о существовании актуальной бесконечности в математическую истину того же рода, как 2+2=4 "(10 с.130). Следовательно, "бесконечное" не является псевдопонятием, есть необходимая часть математики. Но в таком случае, ошибочна идея чисто эмпирического статуса математической истинности (т.к. "бесконечное" , о котором мы можем доказательно рассуждать, не является понятием, которое можно извлечь из опыта).

Как же в таком случае следует относиться к существующим и возможным парадоксам теории (актуально) бесконечных множеств? Как нам представляется, эти парадоксы не обязательно указывают на какие-то неустранимые пороки нашего мышления. Внутренняя противоречивость, например, "множества всех множеств" проистекает, как представляется, из его особого статуса, отличного от статуса обычного бесконечного множества. Поскольку это множество изначально содержит в себе все, что только можно помыслить, оно непополнимо, следовательно, его невозможно увеличить прибавив к нему множество всех его подмножеств (как это происходит в случае обычных бесконечных множеств). Но и обычное бесконечное множество нельзя пополнить прибавив к нему любое конечное или бесконечное множество имеющее ту же самую мощность, что и исходное множество. Это свойство также выглядит парадоксальным с точки зрения свойств конечных множеств. Т.е. свойства "множества всех множеств" радикальным образом отличны от свойств "обычных" бесконечных множеств и это отличие примерно такого же рода, как отличие между бесконечными и конечными множествами. Вопросы, которые порождают парадоксы, применительно к таким особым множествам просто неуместны. Нельзя приписывать "множеству всех множеств" какие-либо конкретные кардинальные или ординальные числа, поскольку оно изначально содержит в себе все возможные кардиналы и ординалы. Мера этого множества бесконечна и потому неопределима. Точно так же нельзя спрашивать о том, к какому классу (обычных или необычных множеств) относится "множество всех множеств, не включающих себя в качестве элемента"- поскольку это множество уже за рамками такого рода противопоставлений. Но именно это, как нам представляется, и утверждает "терия типов" Б. Рассела.

Суть этой теории видится в том, что переход к более высокому типу абстракций качественно изменяет характер рассматриваемых математических конструкций и, таким образом, на них уже невозможно распространить свойства или отношения, характерные для математических конструкций низшего уровня абстракции. Опираясь на эту теорию, следовательно, можно устранять парадоксы, не отказываясь от понятия актуальной бесконечности и, таким образом, не подвергая сомнению существование внутренних критериев истинности в математике. (Вместе с тем, как отмечал К. Гедель, "теория типов" является "слишком радикальным" средством устранения парадоксов, поскольку использование рефлексивных понятий в математике далеко не всегда влечет возникновение парадоксов. Для нас, однако, важно лишь то, что парадоксы можно устранить без разрушения большей части классической математики и не отказываясь от представления об актуальной бесконечности).

Таким образом, накладывая определенные ограничения на возможные способы математических рассуждений можно, видимо, избежать угрозы возникновения противоречий в математике. Это говорит о том, что противоречия в математике не носят фатальный характер, не являются следствием неустранимой противоречивости человеческого мышления. Человек может противоречить сам себе когда он мыслит "неправильно" (недостаточно конструктивно, не продумывая определения до конца, не выводя всех необходимых следствий из заданных постулатов, не учитывая различия в уровне абстракции математических объектов и т.п.). И эта "неправильность" мышления представляется вполне устранимой.

Иногда сторонники идеи противоречивости человеческого мышления ссылаются на достаточно очевидный факт способности человека ошибаться. В силу этого полагают, что даже в сфере математического мышления нельзя рассчитывать на полную строгость и отсутствие противоречий. При этом ссылаются на широко известные случаи ошибочных доказательств, авторство которых принадлежит, нередко, выдающимся математикам.

Проблема здесь в том, насколько фатальны эти ошибки, способно ли математическое сообщество своевременно их замечать и исправлять. На этот последний вопрос, видимо, следует ответить положительно. История математики показывает, что хотя отдельные, даже великие, математики время от времени ошибаются, математическое сообщество в целом достаточно быстро находит и исправляет ошибки (как правило, это происходит еще при жизни автора ошибочной теоремы) (8).

Это говорит о том, что ошибки математиков - это не следствие неустранимой внутренней противоречивости человеческого мышления, а скорее есть следствие влияния на мышление каких-то внешних факторов, искажающих правильный ход мыслительных процессов (в этом смысле ошибки человека аналогичны ошибкам, которые время от времени допускает компьютер, даже в том случае, если он работает на основе "идеальной", безошибочно составленной и непротиворечивой программе).

Итак, хотя, видимо, предположение о внутренне противоречивом характере человеческого мышления невозможно строго опровергнуть, но вряд ли это предположение можно считать правдоподобным, а аргументы в его пользу - убедительными.

Предположим, однако, что мышление человека действительно страдает неустранимой противоречивостью. Что это предположение может конкретно дать нам в плане анализа геделевского аргумента?

Если человеческое мышление подчинено внутренне противоречивой системе правил, то, очевидно, к человеку неприложимы ограничения, следующие из теоремы Геделя о неполноте формальных систем - просто потому, что теорема имеет в виду только непротиворечивые формальные системы. Однако, противоречивость, очевидно, не дает человеку каких-либо преимуществ перед машиной, функционирование которой подчинено непротиворечивой системе правил. Человек, конечно, в этом случае может констатировать истинность любых геделевских предложений, но это возможно лишь в силу отсутствия внутреннего критерия, позволяющего однозначно различать истину и ложь. Следовательно, такого рода констатации будут иметь лишь относительный характер, поскольку не исключается, что в будущем те же предложения будут отнесены к разряду ложных.

Гораздо большее значение имеет тот факт, что сомнение в непротиворечивом характере человеческого мышления ставит под сомнение достоверность любых математических результатов, в том числе и теоремы Геделя о неполноте формальных систем. Но если мы ставим под сомнение истинность теоремы Геделя, то это ставит, также, и под сомнение сами основания различения человеческого и машинного интеллекта, которые предполагаются исходя из данной теоремы.

6. Д. Чалмерс (3) полагает, что геделевский аргумент можно нейтрализовать более слабым предположением, чем гипотеза о противоречивом характере алгоритма, представляющего интеллектуальные способности человека. Достаточно лишь предположить, что человек не способен установить непротиворечивость собственного мышления, в частности, не способен установить, что все утверждения, в истинность которых он верит, на самом деле являются истинными.

Действительно, вернемся к рассмотренному ранее аргументу в п.4. Мы видели, что парадоксальность предположения, что некоторый алгоритм F воплощает собой человеческий интеллект (или хотя бы только "математические способности" человека) проистекает из того, что человек, в этом случае, одновременно и должен и не должен признавать геделевское предложение G(F) в качестве истинного. Однако, для того, чтобы с необходимостью утверждать истинность G(F), необходимо не только знать, что "я есть F", но также и знать, что "я непротиворечив", а также знать, что все, что я с необходимостью считаю истинным - является истинным на самом деле.

Если я признаю, что я способен ошибаться (даже в отношении того, что представляется мне несомненно истинным), то я не могу с необходимостью утверждать и истинность G(F), и, таким образом, вышеупомянутый парадокс снимается.

Как следует относиться к данному аргументу? С одной стороны, сомнения в непогрешимости человеческого ума представляются вполне законными и естественными. Однако, с другой стороны, предположение о погрешимости нашего мышления предполагает существование некоего способа убедиться в этом. Однако, установить погрешимость человеческого разума можно лишь опять-таки с помощью человеческого разума. Может ли человеческое мышление само себя уличить в наличии неких систематических, принципиально неисправимых ошибок? Если да, то оно также должно быть способно эти ошибки исправить и, следовательно, способно мыслить безошибочно. Если нет, то нет и критерия с помощью которого было бы возможно уличить наш ум в некой неправильности, наличии принципиальных ошибок. Истина и ложь предполагают друг друга. Если нет истины, а есть только ложь, то ложь - это и есть истина . Если мышление содержит неустранимые ошибки, которые принципиально невозможно обнаружить, то его с необходимостью следует считать безошибочным.

Таким образом, естественно постулировать, что человеческое мышление, как таковое, по своей собственной природе непогрешимо. Погрешности же возникают за счет случайных, привнесенных факторов и могут быть всегда устранены. С этой точки зрения Р. Пенроуз прав утверждая сущностную непогрешимость человеческого мышления в качестве априорной истины (11).

Чалмерс, однако, утверждает, что само понятие о мыслящей системе, способной достоверно знать о собственной непогрешимости, внутренне противоречиво, причем этот вывод, по его мнению, не зависит от внутренней природы рассматриваемой системы. Он даже пытается это формально доказать, используя метод, подобный методу доказательства теоремы Геделя о неполноте формальных систем.

Пусть имеется некая мыслящая система А, которая является непогрешимой и имеет достоверное (т.е. необходимо истинное) знание о собственной непогрешимости. Рассмотрим теперь утверждение G, высказываемое данной системой, содержательно означающее "я не верю в G". Система А знает, что если она верит в G, то она не является непогрешимой, поскольку в этом случае она верит в ложное высказывание. Так что если она верит в собственную непогрешимость, то она не должна верить в G. Но это говорит о том, что если система А непогрешима, то G - истинное высказывание. Но, предположим, что она знает, что она непоргешима, следовательно, она знает, что G - истинно (т.е. она верит в истинность G). Но в таком случае А оказывается не непогрешимой. Таким образом, мы получаем противоречие.

Нам представляется, однако, что человек (рассматриваемый в качестве системы А) на практике избегает в этой ситуации противоречия, сохраняя веру в собственную принципиальную непогрешимость и, одновременно, зная об истинности высказывания G, за счет того, что он способен дистанцироваться от самого себя и взглянуть на ситуацию "извне", с точки зрения "внешнего наблюдателя". Иными словами, я - которое верит в G, и я, которое верит в собственную непогрешимость - это одновременно одно и то же и не одно и то же я. Наше "Я" способно "раздваиваться", "выходить из себя" в акте рефлексии, оставаясь, при этом, одновременно и "в самом себе". Таким образом человеческий ум способен совмещать в себе несовместимые логически истины не становясь при этом противоречивым. Если бы это было не так, то мы должны были бы признать уже неразрешимость для человека высказываний типа "я не могу доказать данное утверждение". Однако, как уже отмечалось, истинность этого высказывания для всякого разумного человека вполне очевидна - иначе не возможно было бы само понимание смысла геделевской теоремы о неполноте.

На наш взгляд, значимость геделевского аргумента зависит лишь от реальной непротиворечивости (или противоречивости) человеческого интеллекта. Если он реально непротиворечив, то вера в собственную непогрешимость (в принципе) ничем не может быть поколеблена, так как поколебать ее могут только внутренние противоречия. Никакой "внешний авторитет", который мог бы указать человеческому уму его неисправимые ошибки не существует и, следовательно, идея "погрешимой непротиворечивости" человеческого ума не имеет никакого смысла.

Погрешимость человеческого ума может означать лишь, что содержательная истинность не совпадает с истинностью, определяемой посредством человеческого ума. Но содержательная истинность - это и есть истинность, установленная с помощью человеческого ума. Если же человеческий ум противоречив, т.е. способен вывести истинность А и не-А одновременно, то вступают в силу аргументы из предыдущего пункта. Эти аргументы, конечно, не являются строго доказательными, но они показывают, что гипотеза о противоречивом характере человеческого ума представляется малоправдоподобной. По крайней мере, она гораздо хуже объясняет реальное положение дел, чем противоположная гипотеза о непротиворечивом характере нашего ума.

7. Другой способ "тривиализации" геделевского аргумента заключается в указании на то, что человеческий интеллект - это открытая (и, следовательно, неформализуемая) система и, таким образом, теорема Геделя, имеющая отношение лишь к формальным системам, к человеческому интеллекту неприложима.

Открытость человеческого интеллекта можно понимать как способность человека время от времени модифицировать алгоритм, лежащий в основе его интеллектуальной деятельности - под влиянием той информации, которую человек получает из окружающей среды в процессе жизнедеятельности.

Выше мы отмечали, что необходимым признаком формальной системы является "смысловая замкнутость" - запрет на всякого рода "трансцендирование" за пределы заданного формализма, всякого рода заимствования извне. Человек, в силу того, что он способен обучаться и, следовательно, способен изменять правила, которым подчинено его мышление - не обладает "смысловой замкнутостью" и, таким образом, не является формальной системой.

Именно в "открытом" характере человеческого мышления можно усмотреть существенное различие между человеком и машиной. Человек имеет в данном случае преимущество перед машиной в том, что он способен развиваться, гибко менять свои "алгоритмы" в соответствие с изменениями, происходящими в окружающем мире. Однако это различие было бы сведено к нулю, если бы удалось создать машину, способную к обучению.

Следовательно, различие между человеком и машиной не является в этом случае принципиальным и неустранимым и является лишь следствием несовершенства существующих машин.

С нашей точки зрения "открытость" человеческого интеллекта (в описанном смысле) отнюдь не влечет невозможности представить его в виде формальной системы и, следовательно, не выводит человека за пределы сферы действия теоремы Геделя.

Прежде всего, отметим, что модификация предполагаемого "алгоритма интеллекта" посредством обучения - это достаточно постепенный, медленный процесс. Следовательно, если мы рассматриваем человеческий интеллект на достаточно малом временном интервале (порядка нескольких минут или часов), то его приближенно можно рассматривать как нечто тождественное себе, неизменное. Если, при этом, интеллектуальная деятельность человека подчинена какому-либо набору жестких правил (алгоритму), то мы вполне можем на этом малом промежутке времени рассматривать человеческий интеллект как формальную систему, к которой приложимы ограничения, вытекающие из теоремы Геделя о неполноте формальных систем.

Для того, чтобы распознать истинность геделевских предложений не нужно много времени. По крайней мере, гораздо меньше, чем требуется для сколь-нибудь значительной модификации нашего интеллекта. Таким образом, если человек и преодолевает ограничения, вытекающие из теоремы Геделя и способен всегда распознавать истинность геделевских предложений, то эта его способность, очевидно, никак не связана с его способностью к обучению.

Далее, система способная модифицировать алгоритмы собственной деятельности, вполне может быть представлена как формальная система, по крайней мере, при выполнении следующих условий:

1. Модификация "алгоритма мышления" осуществляется в соответствие с неким стабильным, неизменным "алгоритмом модификации", т.е. если модификация представляет собой некий "правилосообразный" процесс.

2. Можно (в принципе) заранее предвидеть все возможные варианты воздействий внешней среды на данную систему.

Если человеческий мозг - это своего рода "машина", действующая в соответствие с какой-либо системой правил (т.е. это принципиально "познаваемая" машина), то, очевидно, первое условие выполняется. Хотя "алгоритм", в соответствие с которым функционирует наш мозг, подвержен изменениям, тем не менее характер этих изменений определяется "конструкцией" мозга (и, таким образом - принципиально предсказуем).

Выполнимость для человека второго условия вытекает из того факта, что человек имеет контакт с внешнем миром лишь опосредованно - через посредство органов чувств. В силу дискретного характера нервного импульса, ограниченности числа афферентных нервных волокон, конечного числа чувственных рецепторов, ограниченности времени жизни человека - число всевозможных конфигураций сенсорных "входов" нашего мозга конечно. Следовательно, все возможные конфигурации "входов", которые способны модифицировать "алгоритм" нашего мышления, восприятия и прочих психических процессов, в принципе вполне можно заранее предвидеть.

В сочетании первое и второе условие делают возможным предусмотреть все возможные варианты модификации "алгоритма" психической деятельности. Но в таком случае система мозг+окружающая среда (данная через посредство органов чувств) вполне может рассматриваться как формальная система - поскольку все ее действия можно рассматривать как подчиненные определенным правилам и в целом система обладает свойством логической замкнутости.

Единственный неконтролируемый фактор, в этом случае, - это последовательность в которой мозг получает те или иные конфигурации сенсорных сигналов на "входе". Однако с такого рода неопределенностью сталкивается любой алгоритм - поскольку заранее не известно в какой последовательности ему предстоит обрабатывать предъявляемые на входе конфигурации символов, входящих в область определения данного алгоритма.

Таким образом "открытость" не является принципиальным препятствием к тому, чтобы рассматривать психику человека (в совокупности с "внешней средой") как фиксированную формальную систему.

Но в таком случае для этой системы можно построить геделевские предложения, которые будут содержательно истинными но, тем не менее, в рамках любой из возможных модификаций данной формальной системы, не могут быть распознаны как истинные или ложные.

Следовательно, "открытость" человеческой психики не дает человеку каких-либо принципиальных преимуществ перед машиной, не позволяет рассматривать психику как нечто принципиально неформализуемое, не выводит человеческий ум за пределы сферы действия теоремы Геделя о неполноте формальных систем.

8. Можно усомниться не только в том, что человек является принципиально формализуемой системой, но и в том, что "механизм" психической деятельности можно рассматривать в качестве дедуктивной системы. С этой точки зрения, разница между человеком и машиной оказывается также непринципиальной. Например, Ф. Джордж пишет: "Необходимо упомянуть мнение некоторых авторов, согласно которым этот факт (т.е. принципиальная неполнота формальных систем - И.Е.) ограничивает возможности ЭВМ и машин, не делая этого для человеческого мозга. Но это не так, если не сводить вычислительные машины к аксиоматическим системам, а очевидно, что делать это нет причин. Вычислительные машины могут быть запрограммированы таким образом, чтобы делать "прыжки" в логических процессах при проведении индуктивного вывода и использовать вероятностные методы. Итак, мы утверждаем, что результаты Геделя, также как результаты Черча и Тьюринга, не имеют никакого отношения к любым ограничениям, относящимся к машинам и не относящимся к человеческому мозгу; эти ограничения относятся также и к "аксиоматическому мозгу" кто бы его не создавал и какие бы при этом не использовал средства" (12 с.90).

Отметим, однако, что понятие "дедуктивной системы" (исчисления) не предполагает ничего иного, кроме наличия каких-либо неизменных, четко определенных правил переработки одной совокупности символов (объектов) в другую. Сами эти правила могут быть произвольными. Как уже отмечалось, любой алгоритм - есть разновидность дедуктивной системы - это дедуктивная система, в которой установлен строгий порядок вывода "теорем".

С этой точки зрения любой алгоритм - есть разновидность аксиоматической системы. "Логические прыжки", о которых говорит Джордж, - следует, видимо, понимать как включение в дедуктивную систему правил, противоречащих законам логики. Но такая система неизбежно внутренне противоречива (по крайней мере, если нарушается закон тождества или закон противоречия) и т.о. вступают в действия возражения, сформулированные нами в пункте 6.

Несколько сложнее обстоит дело в том случае, когда неприменимость теоремы Геделя связывается с наличием элемента случайности. Всякая подлинно случайная последовательность, очевидно, алгоритмически невычислима. По существу, невозможность алгоритмической имитации процесса порождения данной последовательности - и есть подлинный критерий ее случайности. Система, которая содержит в себе элемент подлинной случайности, также может рассматриваться как неформализуемая - поскольку невозможно ее полное и исчерпывающее описание с помощью какого-либо конечного набора правил. Следовательно, действительно к такой системе теорема Геделя неприменима.

Таким образом, можно предположить, что, как человек, так и "мыслящий" компьютер, одинаково способны избежать ограничений, которые вытекают из теоремы Геделя о неполноте формальных систем, при условии, что они содержат в себе некий "генератор случайности" - функциональный элемент, деятельность которого не может быть описана с помощью конечного набора правил, не может быть воспроизведена посредством какого-либо алгоритма - именно в силу случайного характера его функционирования.

С этой точки зрения между человеком и машиной нет какой-либо принципиальной разницы. Вместе с тем, нужно отметить, что включение в вычислительный процесс элемента случайности - (например, в форме случайного выбора следующего вычислительного шага из набора "разрешенных" программой шагов) - хотя и может в некоторых случаях ускорить процесс вычислений (установлено, что вероятностные машины Тьюринга имеют некоторые преимущества в "скорости" перед детерминированными машинами Тьюринга, т.е. способны решать поисковые задачи за меньшее в среднем число шагов), но, тем не менее, это не позволяет хотя бы минимальным образом расширить круг принципиально разрешимых проблем. То, что принципиально неразрешимо для детерминированной машины - остается неразрешимым и для вероятностной.

Заметим, что если ограничиться рассмотрением только математических способностей человека (а только эта часть интеллекта человека имеет отношение к теореме Геделя), то аргумент, основанный на гипотезе наличия "вероятностного" элемента в составе человеческой психики, теряет всякий смысл. Действительно, в своем повседневном поведении человек часто действует спонтанно, случайным образом осуществляя выбор между заданными альтернативами. Однако этого нельзя сказать о математическом мышлении. Математик, который принимает или не принимает доказательство теоремы методом "бросания монеты", представлялся бы нам психически нездоровым. Доказательность математических рассуждений предполагает строгую логическую детерминированность каждого последующего шага. Элемент случайности допускается лишь в процессе поиска решения той или иной математической проблемы. Здесь, как уже отмечалось, случайность может играть конструктивную роль несколько ускоряя поиск решения. Однако принципиальной разницы между детерминированным и недетерминированным поиском не существует. Задачи неразрешимые эффективно с помощью детерминированного поиска, не могут также быть эффективно решены посредством случайных блужданий.

Можно, также, предположить, что случайность может играть позитивную роль и в процессах выдвижения новых математических гипотез. Однако чисто случайное угадывание правильной нетривиальной математической теоремы представляется чем-то весьма маловероятным, граничащим с чудом. Это возможно, видимо, лишь в том случае, если имеется крайне мощный механизм проверки (селекции) подобного рода гипотез. Однако и в этом случае значение элемента случайности можно, видимо, свести к нулю задав определенный, чисто детерминированный порядок порождения такого рода гипотез (при условии, что выбор гипотез осуществляется из некоторой заранее заданной совокупности "всех возможных теорем" данного математического языка или исчисления).

Отметим, что для дедуктивной системы будет невозможно заранее сформулировать геделевские предложения, если система аксиом и правил вывода будет постоянно изменяться случайным образом, т.е. если в эту систему будут непрерывно вноситься заранее непредсказуемые, никакими правилами не ограниченные изменения.

Однако в каждый конкретный момент времени для такой системы будут существовать вполне определенные неразрешимые предложения геделевского типа. Таким образом, система с "флуктуирующим" составом аксиом не будет обладать той универсальной способностью к распознаванию геделевских предложений, которую мы приписываем человеческому интеллекту.

Такой способностью могла бы обладать лишь система с бесконечным числом аксиом, при условии, что в это число входили бы все потенциально возможные геделевские предложения и, следовательно, все возможные пополнения ее аксиоматики. Иными словами, множество аксиом данной системы должно совпадать с универсумом математических рассуждений (Канторовским "Абсолютом" - множеством всех множеств). Ни одна реальная "машинная" система не способна обладать "бесконечной" аксиоматикой (т.к. не возможна бесконечная по числу символов программа, описывающая алгоритм данной системы). Поэтому любая "машинная" система принципиально не полна (пополнима).

Однако, человеческий интеллект, видимо, вполне способен потенциально содержать в себе "универсум математических рассуждений" - поскольку это и есть универсум всех возможных "человеческих" математических рассуждений (если только не считать этот универсум неким "псевдопонятием", не имеющим никакого позитивного содержания).

Итак, введя в систему искусственного интеллекта элемент случайности мы можем сделать ее "неформальной" и, таким образом, вывести за пределы действия теоремы Геделя о неполноте формальных систем. Однако это, видимо, не может иметь никакого отношения к математическим способностям искусственного или естественного интеллекта и не позволит системе, содержащей в себе элемент случайности, решать алгоритмически неразрешимые проблемы и, в частности, распознавать истинность любых геделевских предложений (хотя такая система в некотором смысле будет "алгоритмически невоспроизводимой", поскольку невозможно будет предсказывать каким-либо регулярным, правилосообразным способом, что она сделает в следующий момент времени).

9. Наиболее значительный довод против геделевского аргумента заключается, с нашей точки зрения, в том, что человек - это конечное существо и поэтому к нему неприменимо понятие алгоритмической невычислимости (см. также аналогичную аргументацию в (6) ). Действительно, алгоритмически невычислимыми (с точки зрения теории алгоритмов) могут быть лишь такие функции, область определения которых - бесконечное множество. Любая функция, область определения которой конечно, алгоритмически вычислима.

Если количество различных вариантов отображения одного множество в другое конечно, то все эти варианты можно, в принципе, перечислить. Один из этих вариантов, по существу, и будет представлять собой "алгоритм" вычисления интересующей нас функции (записанный в виде "функциональной таблицы", сопоставляющей каждому возможному "входу" соответствующий ему "выход"). Человек - это система с конечным числом возможных "входов" и "выходов". "Входы" в данном случае - это возможные конфигурации нервных импульсов, которые могут быть переданы в мозг от органов чувств. "Выходы" - это возможные (т.е. допустимые) действия (моторные акты) человека в ответ на ту или иную конфигурацию нервных импульсов на "входе".

Ясно, что объем сенсорной информации, которую наши органы чувств могут передать за конечное время в мозг, конечен. Следовательно, число возможных конфигураций нервных сигналов на "входе" также конечно (хотя и астрономически велико). Поскольку продолжительность жизни человека имеет верхний предел, то конечно и количество всевозможных последовательностей конфигураций нервных сигналов, которые может получить наш мозг на протяжении всей нашей жизни от всех органов чувств. Также конечно и число возможных реакций человека на эти возможные последовательности конфигураций сенсорных сигналов.

Таким образом, функция сознания, которая символически может быть представлена в виде:

{S0, S1,...Sn} Rn

где Si - конфигурация сенсорного входа в момент i; S0 - конфигурация сенсорного входа в момент рождения; Ri - реакция (действие) субъекта в момент i; - может рассматриваться как отображение одного конечного множество в другое конечное множество. Но в таком случае принципиально возможно составить "таблицу", в которой бы перечислялись все возможные последовательности конфигураций сенсорных сигналов на входе:

{S0, S1,...Sn}j и все возможные реакции на каждую из этих последовательностей {Ri}j.

Некоторый избранный фрагмент данной таблицы, изображающий "правильные" (т.е. "человеческие") реакции на ту или иную последовательность конфигураций сенсорных сигналов, будет представлять собой "программу" для системы искусственного интеллекта. Эти "программа" позволила бы подчиненному ей алгоритмическому устройству "в среднем" вести себя приблизительно таким же образом, каким ведет себя в сходных ситуациях человек (при учете предыстории каждой конкретной ситуации). Данная программа, в принципе, может быть построена путем последовательного отбора (селекции) тех элементов таблицы {S0, S1,...Sn} Rn, которые соответствуют типично человеческому поведению в ситуации Sn, имеющей предисторию S0, S1,...Sn-1. Эту селекцию, в принципе, могли бы осуществить некие люди-эксперты, специально нанятые для сортировки элементов таблицы.

Конечно, реально, физически такую "сортировку" осуществить невозможно - для этого потребовалось бы, вероятно, использовать все вещество Вселенной и временные интервалы, превосходящие длительность существования Вселенной. Но нас в данном случае интересует лишь принципиальная (т.е. в предположении наличия неограниченных материальных, энергетических и временных ресурсов), а не физическая осуществимость - поскольку именно такая принципиальная осуществимость и имеется в виду в теории алгоритмов. В этой теории учитывается лишь такая невычислимость, которая обусловлена принципиальными причинами - а именно, логической противоречивостью идеи существования того или иного алгоритма, а отнюдь не "физическая" невычислимость, обусловленная ограниченностью ресурсов.

Отсюда следует важный вывод: если окажется, что построить машину, выдерживающую "тест Тьюринга", невозможно, то эта невозможность будет проистекает не из каких-то принципиальных логических ограничений, не из теоремы Геделя о неполноте и не из алгоритмической невычислимости функции сознания, - а будет проистекать из некоторых физических ограничений ("нехватки ресурсов"). Иными словами, в этом случае нужно будет говорить не об "алгоритмической невычислимости", а о "физической невычислимости" функции сознания для любого алгоритмического устройства (мозг, при этом, не включается в число "алгоритмических устройств").

Однако отсюда, строго говоря, не следует, что функция сознания в целом является алгоритмически вычислимой. В самом деле, любой конечный фрагмент алгоритмически невычислимой функции, очевидно, представляет некоторую алгоритмически вычислимую функцию. Поэтому "вычислимый", алгоритмически имитируемый фрагмент функции сознания - ограниченный рамками конечной человеческой жизни, - может быть фрагментом некой "глобальной" алгоритмически невычислимой функции, не ограниченной какими-либо временными рамками.

Таким образом, мы не можем, исходя из факта конечности человека, утверждать, что человеческий интеллект, как таковой, подчинен какому-либо алгоритму (конечному набору правил). Речь идет лишь о том, какой смысл можно придать этому гипотетическому свойству невычислимости. Из сказанного можно сделать вывод, что принципиальная разница между человеком и машиной, если она действительно существует, может проявляться только на бесконечно больших временных интервалах. Иными словами, это может означать, что невозможно создать такую систему искусственного интеллекта, которая действовала как человек неограниченно долго, на сколь угодно больших временных интервалах. Но, еще раз подчеркнем, в силу конечности человека, ни теорема Геделя о неполноте формальных систем, ни какие-либо другие доводы в пользу "невычислимости" функции сознания, не накладывают принципиального запрета на создание алгоритмического устройства, способного имитировать человеческое поведение сколь угодно успешно на любых конечных временных интервалах.

Нужно, однако, заметить, что хотя алгоритмическая невычислимость не препятствует сама по себе созданию эффективного компьютерного "аналога" человеческого интеллекта, тем не менее описанный выше "метод" построения "алгоритма сознания" путем селекции элементов описанной "функциональной таблицы" не может дать положительных результатов в том случае, если мы попытаемся создать алгоритмическую модель не "интеллекта вообще", а модель какой-либо конкретной личности. Действительно, для того, чтобы построить "функциональную таблицу" для конкретной личности, необходимо выяснить как она, эта личность, будет вести себя в той или иной ситуации, учитывая при этом все возможные варианты "предисторий" для каждой мыслимой ситуации (т.е. учитывая все возможные последовательности конфигураций сенсорных сигналов, предшествующие данному моменту времени). Но для этого необходимо каждый раз "стирать" всю память субъекта и "заполнять" ее каким-либо новым содержанием - многократно возвращая, таким образом, личность к моменту рождения. Нет, однако, никаких гарантий, что такого рода "манипуляции" с человеческой психикой совместимы с сохранением индивидуального "Я", личности данного человека. Т.е, иными словами, мы не можем гарантировать, что имеем в этом случае дело все время с одной и той же личностью.

Невозможно, также, составить "функциональную таблицу" для конкретной личности и методом "экспертных оценок". По существу, поведение конкретной личности во многих жизненных ситуациях принципиально непредсказуемо - нередко даже для самой этой личности.

Таким образом, хотя "интеллектвообще" в принципе поддается имитации (по крайней мере на конечных временных интервалах), но конкретная личность (личность Пушкина, Толстого, например), видимо, имитирована быть не может.

Конечно, среди множества всевозможных таблиц вида:

{S0, S1,...Sn} Rn наверняка существуют таблицы, совпадающие ("пост фактум") с описанием "жизненного пути" той или иной конкретной личности. Однако, эти таблицы совершенно бесполезны на практике - их нельзя использовать в качестве "программы" для искусственного интеллекта - поскольку любое малейшее отклонение от заданного "жизненного пути" сделает систему искусственного интеллекта совершенно беспомощной, не способный принять какое-либо разумное решение.

Учитывая сказанное, можно утверждать весьма вероятную "невычислимость" функции индивидуального сознания - даже если оно рассматривается на конечном интервале времени. Нельзя построить компьютер, который воспроизводил бы личность Пушкина или Толстого, но допустимо предполагать возможность создания компьютера, способного действовать подобно "какому-либо" человеку.

Но здесь нужно заметить, что даже в том случае, когда область определения и область значений функции - это конечные множества, существуют ситуации, когда функция может все же рассматриваться как "алгоритмически невычислимая". Эти те случаи, когда задача нахождения значения данной функции либо недоопределена (отсутствуют некоторые данные, необходимые для решения этой задачи), либо когда условия задачи внутренне противоречивы.

Если предположить, что человек способен решать недоопределенные или противоречиво сформулированные задачи (путем, например, привлечения какой-либо дополнительной информации, которая доопределяет задачу или снимает противоречия), - то, в этом случае, очевидно, никакая алгоритмическая имитация сознания, даже на конечных временных интервалах, будет невозможной.

Представим себе, например, что человек способен с достаточно большой вероятностью "угадывать" ближайшее будущее (включая и чисто случайные события). Ясно, что такого рода "дар ясновидения" не может быть воспроизведен с помощью какого-либо алгоритмического устройства. Задача компьютерной имитации сознания, даже на конечном интервале, в этом случае принципиально неразрешима.

Такая постановка проблемы "вычислимости" функции сознания тесно связана с вопросом о существовании так называемых "экстрасенсорных способностей" человека. Ясно, что способностьь получать какую-либо дополнительную информацию об окружающем мире помимо органов чувств, особенно в том случае, если эта информация вообще не может быть получена каким-либо технически воспроизводимым способом (например, получение информации о будущем), исключает возможность компьютерной имитации человеческого сознания.

Однако все это может иметь значение для рассматриваемой нами проблемы "вычислимости" функции сознания лишь в том случае, если такого рода "экстра" способности не являются чем-то исключительным, присущим лишь отдельным, выдающимся индивидам, а являются существенной и необходимой компонентой нормальной работы человеческой психики.

Можно, например, предположить, что некоторые типичные задачи, успешно решаемые человеком, по своему характеру являются недоопределенными и требуется некая дополнительная априорная "экстрасенсорная" информация, для того, чтобы эти задачи могли быть эффективно решены.

Например, обычная задача зрительного восприятия того или иного предмета - с физической точки зрения - есть "обратная задача рассеивания", т.е. задача восстановления структуры и формы рассеивающего свет предмета по результату этого рассеивания - структуре пучка рассеянного света. Такого рода задачи относятся к классу "некорректно поставленных" задач - для решения которых, как правило, требуется привлечение априорной информации о характере объекта, рассеивающего излучение.

Полагают обычно, что такого рода информацию наш мозг извлекает из памяти, из прошлого опыта. Однако, не исключено, что какая-то часть необходимой априорной информации черпается человеком их каких-то "экстрасенсорных" источников, принципиально недоступных машине. (Кто-то или что-то "подсказывает" нам с какого рода объектом мы в данный момент имеет дело). Если это так, то функция человеческого восприятия была бы "алгоритмически невычислимой".

Конечно, такого рода предположения о наличии неких "экстрасенсорных" составляющих обычного человеческого восприятия или мышления выглядят весьма фантастично. Однако полностью отбрасывать такую возможность тоже не стоит. По крайней мере, этот вопрос требует дальнейшего научного исследования. Положительное решение этого вопроса дало бы нам весьма эффективное решение проблемы "вычислимости" функции сознания.

Итак, мы рассмотрели основные возражения против "геделевского аргумента" и гипотезы о "невычислимости" функции сознания и выяснили, что ни одно из этих возражений не является в достаточной степени убедительным для того чтобы решительно отвергнуть данный аргумент. Хотя, с другой стороны, данный аргумент нельзя считать и строго доказанным. (Более того, мы видели, что данный аргумент в принципе эмпирически недоказуем).

Один из наиболее важных выводов заключается в том, что тезис об алгоритмической невычислимости функции сознания, по сути, не является синонимом запрета на компьютерную имитацию человеческого интеллекта на конечных временных интервалах.

Единственное практически важное следствие, которое можно получить из "геделевского аргумента", - это вывод о принципиальной непознаваемости механизмов психической деятельности человека - в случае, если "геделевский аргумент" является истинным. Это следствие позволяет рассматривать гипотезу "невычислимости" как "нормальную" научную гипотезу, которая хотя и не может быть доказана, но, тем не менее, может быть опровергнута (фальсифицирована).

Как уже отмечалось, это следствие влечет далеко идущие выводы. В частности, отсюда вытекает неудовлетворительность обычной "нейрофизиологической" модели функционирования человеческого мозга (поскольку эта модель предполагает принципиальную познаваемость нервных механизмов психических процессов).

Это очень сильный вывод. Поэтому было бы желательно обосновать гипотезу "невычислимости" с помощью каких-либо дополнительных доводов, отличных от "геделевского аргумента". Поскольку эти аргументы имеют преимущественно философский характер, мы назовем их "метафизическими аргументами". Эти "метафизические аргументы" мы рассмотрим в следующем разделе нашей работы.

 

  Литература:

1. Криницкий И.А. Алгоритмы вокруг нас. М, 1984.

2. McCullough D. Can Humans Escape Godel? // PSYCHE, 1995, 2(4).

3.Chalmers D.J. Mind, Machines, and Mathematics // PSYCHE, 1995, 2(9).

4. Moravec H. Roger Penrose's Gravitonic Brains // PSYCHE, 1995, 2 (6).

5. McDermott D. Penrose is Wrong // PSYCHE, 1995, 2 (2).

6. Maudlin T. Between the Motion and the Act // PSYCHE, 1995, 2(2)

7. Baars B.J. Can Physics Provide a Theory of consciosness? // PSYCHE, 1995, 2 (8).

8. Перминов В.Я. Развитие представлений о надежности математического доказательства. М., 1987.

9. Соловьев В.С. Критика отвлеченных начал // Сочинения.Т.1. М., 1990.

10. Антипенко Л.Г. Проблема неполноты теории и ее гносеологическое значение. М., 1986.

11. Penrose R. Shadows of the Mind. L., 1993.

12. Джордж Ф. Основы кибернетики. М., 1984.

3."Метафизические" аспекты проблемы вычислимости функции сознания.

Прежде всего, попытаемся выяснить философский смысл гипотезы "невычислимости" функции сознания. Напомним, что возможны два различных понимания смысла этой гипотезы. Во-первых, эту гипотезу можно понимать как предположение о невозможности практического создания алгоритмического устройства, способного успешно имитировать функцию человеческого сознания. Как мы видели в предыдущем разделе работы, в силу конечности человека во времени, алгоритмическая имитация сознания на конечных временных интервалах принципиально возможна. По крайней мере, ни теорема Геделя о неполноте формальных систем, ни гипотеза алгоритмической невычислимости функции сознания, сами по себе не исключают возможность создания машины, выдерживающей тест Тьюринга на "разумность". Следовательно, в этом случае можно говорить лишь о "физической невычислимости" - как о возможной причине, препятствующей практическому созданию "искусственного интеллекта" равноценного человеческому интеллекту. Иными словами, причина невозможности машинной имитации функции сознания человека может проистекать лишь из каких-либо чисто физических ограничений, накладываемых, например, на скорость осуществления вычислительных процессов или на объем доступной машине памяти.

"Физическая невычислимость", конечно, не означает принципиальную невозможность физической реализации функции сознания. Ведь человеческий мозг - это тоже физическая система и она, очевидно, способна выполнять такого рода функцию. Речь идет лишь о невозможности имитировать функцию сознания с помощью какого-либо "алгоритмического устройства", т.е. физической системы, деятельность которой можно описать путем задания конечного набора правил. Причем эта невозможность проистекает не из каких-либо ограничений, связанных с математической логикой, теоремой Геделя и т.п., а проистекает из неких гипотетических физических ограничений, которые присущи любым "алгоритмическим системам", но не приложимы к человеческому мозгу (который, в таком случае, не может рассматриваться как "алгоритмическая система").

Во-вторых, данный тезис можно понимать как утверждение о том, что человек способен эффективно решать алгоритмически неразрешимые проблемы и, следовательно, его интеллектуальные возможности качественно превосходят любой мыслимый "машинный интеллект". Однако и в этом случае возникают проблемы, обусловленные конечной природой человека.

Даже если я на практике способен продемонстрировать способность, например, решать: остановится или нет на заданном "входе" произвольный предъявленный мне алгоритм, я, тем не менее, не смогу доказать, что действительно способен эффективно решать любые проблемы такого рода - поскольку я смогу практически продемонстрировать способность решать лишь некоторое ограниченное подмножество задач, входящих в состав данной массовой алгоритмически неразрешимой проблемы.

Можно утверждать, что если человек способен на практике эффективно решать задачи, относящиеся к какому-либо классу задач, то можно, в принципе, создать машину, которая была бы также способна решать любые практически значимые задачи данного класса. Действительно, для любого (конечного или бесконечного) класса задач можно указать предельную "размерность" задачи (определяемую, например, "длинной фразы", описывающей условия данной задачи), при которой задача еще сохраняет свою практическую значимость.

Например, ясно, что задача, для описания условий которой потребуется порядка 10 2000 знаков никакого практического значения иметь не может - поскольку человек просто не успеет в течение своей жизни ознакомиться с условиями данной задачи. Поэтому любой бесконечный класс проблем всегда можно свести к конечному классу "практически значимых" проблем. Но в этом случае существует простой "рецепт" составления такой компьютерной "программы", которая позволила бы машине успешно решать любые проблемы из данного класса (при условии, что человек способен эффективно решать любые из этих проблем). Нужно просто последовательно предъявлять человеку практически значимые проблемы, относящиеся к данному классу, и записывать найденные им решения. По исчерпании множества задач мы получим "функциональную таблицу", в которой для каждой практически значимой задачи указывается ее решение. Эта "таблица" и будет выполнять роль алгоритма для нашей машины.

Конечно, практически построить такую "функциональную таблицу" для сколь-нибудь нетривиальных практически значимых задач не представляется возможным. Однако эта невозможность будет проистекать из "ограниченности ресурсов", т.е. из каких-либо физических причин и никак не связана логическими запретами, проистекающими из теории алгоритмов.

Таким образом, мы видим, что и в этом случае "алгоритмическая невычислимость" сводится на практике к "физической невычислимости". Только физические ограничения, накладываемые на вычислительные процессы, имеют практическое значение и могут быть действительными препятствиями на пути создания "умных" машин.

Единственный эмпирически верифицируемый результат, вытекающий из гипотезы "алгоритмической невычислимости" функции сознания, как мы видели, - это вывод о непознаваемости механизмов человеческой психики. (Знание этих механизмов позволило бы установить "алгоритм" психической деятельности и, таким образом, исключало бы саму возможность постановки вопроса о "невычислимости" функции сознания).

Все это показывает, что мы должны относиться к гипотезе "алгоритмической невычислимости функции сознания" как к философской, "метафизической" гипотезе, которая может быть верифицирована лишь косвенным образом. Такого рода гипотезы полезны лишь в силу того, что из них можно вывести какие-либо эмпирически проверяемые следствия.

Для того, чтобы получить такие следствия и продвинуться далее в понимании смысла гипотезы "невычислимости" функции сознания, полезно задаться вопросом: при каких вообще условиях эта гипотеза может соответствовать действительности. В частности, какими конкретно свойствами должен обладать наш "психический аппарат" для того, чтобы его функцию можно было бы характеризовать как "алгоритмически невычислимую".

Прежде всего, алгоритмическая невычислимость функции сознания предполагает невозможность алгоритмической имитации работы человеческого мозга. Сразу же возникает вопрос: каким же образом это возможно? Какими свойствами должна обладать материальная система для того, чтобы ее способ функционирования невозможно было бы описать с помощью некоторого конечного набора правил? Ясно, что такая система должна быть "неформальной", т.е. не должна допускать четкого, однозначного, конечного и исчерпывающего описания собственного устройства и характера функционирования. По существу, "неформализуемость" является синонимом "неопределенности". Принципиально неформализуемой может быть лишь система, которую можно охарактеризовать как "объективно неопределенную" или как "неопределенную по существу". Это означает, что неопределенность в данном случае не есть следствие нашей неспособности выяснить структуру и свойства данной системы, не есть следствие нашего незнания. Напротив, неопределенность здесь - есть свойство самой системы. Она неопределенна сама по себе, в ней нечего определять. Все это предполагает существование особого рода "неопределенного бытия" - "сущей неопределенности".

Идея существования "объективно неопределенных" объектов не является чем-то совершенно невероятным. Соотношения неопределенностей в квантовой механике, а также квантовомеханический принцип суперпозиции - убедительно показывают, что природе отнюдь не чужда "объективная неопределенность", природа не обязана состоять из определенных в себе объектов.

Однако "объективная неопределенность" еще не дает нам решение главной проблемы: как возможна система, способная решать алгоритмически неразрешимые проблемы?

Неопределенность непосредственно ассоциируется со случайностью. Случайность - это как бы "внешнее", непосредственно наблюдаемое проявление неопределенности. Мы уже отмечали выше, что наличие в системе подлинно случайного элемента делает ее неформализуемой. Однако использование случайности не создает возможности решения алгоритмически неразрешимых проблем. Если различие человека и машины заключается лишь в том, что человек время от времени действует спонтанно, недетерминированно, а машина строго придерживается неизменных правил, то, в таком случае, мы легко можем сравнять машину с человеком встроив в нее "генератор случайных чисел" и разрешив ей время от времени "подбрасывать монету" и действовать случайным образом.

Попытаемся представить себе, что же в действительности может представлять собой система, практически способная решать какие-либо алгоритмически неразрешимые проблемы, например, система, способная распознавать истинность любых геделевских предложений.

Мы отмечали выше, что любое геделевское предложение можно сделать распознаваемым, если включить его в состав аксиом рассматриваемой формальной системы. Ограничения для формальных систем вытекают из невозможности создания такой системы, которая могла бы содержать в составе своей аксиоматики любые мыслимые геделевские предложения. Такая система обладала бы бесконечным набором аксиом, причем таким бесконечным набором аксиом, что его невозможно каким-либо образом пополнить, так что любое мыслимое геделевское предложение уже заранее должно было бы содержаться в данном множестве аксиом.

Ясно, что любая алгоритмически неразрешимая проблема будет разрешимой для системы с бесконечным множеством аксиом, при условии, что в число аксиом входит бесконечная "функциональная таблица", которая каждому аргументу данной невычислимой функции сопоставляет ее значение.

Можно представить себе некую "суперсистему", которая включает в состав своей аксиоматики все мыслимые (бесконечные) "функциональные таблицы", содержащие в себе решения любых мыслимых алгоритмически неразрешимых проблем. Такая "суперсистема", очевидно, будет с необходимостью содержаться в составе "универсальной" системы, которую можно представить себе как бесконечное множество всех возможных бесконечных и конечных "функциональных таблиц" - соответствующих любым возможным вычислимым и невычислимым функциям.

Поскольку "универсальная система" будет содержать в себе все мыслимые функциональные таблицы, среди них наверняка найдутся и такие (бесконечные) таблицы, в которых содержится правильное решение любой осмысленной алгоритмически неразрешимой проблемы.

Конечно, необходимо еще указать некий эффективный метод, с помощью которого можно было бы установить, какая именно бесконечная "функциональная таблица" соответствует той или иной конкретной алгоритмически неразрешимой проблеме. Следовательно,"суперсистема" должна обладать бесконечной вычислительной мощностью - для того, чтобы быть способной просматривать бесконечные "столбцы" и "строки" "функциональных таблиц" и находить нужные таблицы, соответствующие поставленной алгоритмически неразрешимой задаче.

Из всего вышесказанного можно сделать вывод, что условием способности сознания решать алгоритмически неразрешимые проблемы действительно является "неопределенность" его содержания, но эта неопределенность должна пониматься не как "смутность" или "размытость", а как бесконечность этого содержания. (Всякая определенность предполагает наличие границ, т.е. конечность в том или ином отношении, тогда как "безграничное" - есть нечто само по себе неопределенное).

Наше сознание, если оно действительно обладает способностью решать алгоритмически неразрешимые проблемы, должно быть как бы "подключено" к некому бесконечному "резервуару" знаний, из которого оно может черпать неограниченное множество дополнительных "аксиом". Этот "резервуар", видимо, можно отождествить с "Умопостигаемым Универсумом" (или "Универсумом рассуждений") - всеполнотой мыслимого бытия, - совокупностью всего того, что в принципе (потенциально) возможно помыслить. (Нечто подобное платоновскому "миру идей", "Мировому Уму" Плотина или Абсолюту христианской теологии).

В связи с этим, видимо, недостаточно просто постулировать способность человека решать те или иные конкретные алгоритмически неразрешимые проблемы. Если человеческое сознание подключено к Абсолюту, то это предполагает поистине ничем неограниченные способности (по крайней мере ? в потенции). Т.е. следует предположить потенциальную способность человека решать любые алгоритмически неразрешимые проблемы. В этой связи интересно рассуждение Р. Пенроуза о невозможности моделирования человеческого интеллекта даже посредством машины Тьюринга с оракулом. Последняя ? есть машина, действующая на основе определенного алгоритма. Но, вместе с тем, эта машина, в отличие от обычной машины Тьюринга, может время от времени подключаться к оракулу ? неалгоритмическому устройству, способному выдавать по запросу алгоритма решения той или иной конкретной алгоритмически невычислимой функции для заданных конкретных значений аргумента данной функции. Например, в качестве оракула может выступать устройство, способное для любой программы и входных данных решать проблему остановки.

Пенроуз утверждает, что такая система с оракулом подпадает под определение формальной системы и потому на нее распространяются ограничения, вытекающие из теоремы Геделя о неполноте формальных систем. Действительно, для такой системы можно построить неразрешимое предложение, утверждающее собственную невыводимость из аксиом, в состав которых включается также и оракул. Именно потому, что функция оракула может быть вполне однозначно формально описана ? и возникает возможность построения вполне определенного неразрешимого геделевского предложения для данной системы. Таким образом, если мы утверждаем, что человек ускользает от тех ограничений, которые накладывает на формальные системы теорема Геделя, то мы должны постулировать невозможность имитации функции сознания и с помощью любых машин Тьюринга с оракулом (о-машин). Отсюда следует, что душа человека есть не просто нечто бесконечное, но абсолютно бесконечное, содержащее в себе Абсолют ? то, выше чего и вне чего помыслить что-либо невозможно.

Поскольку в чувственно воспринимаемом "материальном" мире человек - существо конечное, то из этого следует, что человек имеет также и некую "скрытую", бесконечную сверхчувственную составляющую (тождественную содержательно Абсолюту) - которая является подлинным основанием его сознания. Можно предположить, что наше конечное чувственное бытие - есть частное проявление (актуализация) бесконечного сверхчувственного начала. И именно к этому сверхчувственному началу нашей души и применимо в полной мере условие "алгоритмической невычислимости". (Которое, как мы видели, неприменимо к конечным системам).

Все эти весьма радикальные метафизические выводы, которые до сих пор основывались лишь на анализе теоремы Геделя о неполноте формальных систем, было бы желательно подкрепить какими-либо другими, не связанными с теоремой Геделя, аргументами.

Такие аргументы, на наш взгляд, имеются. Один из этих аргументов связан с понятием о существовании уникального индивидуального "Я". Другой аргумент вытекает из анализа проблемы соотношения функционального, феноменального и субстратного аспектов нашего сознания. Последний аргумент связан, также, с вопросом о возможности достоверных суждений о переживаемых нами субъективных феноменах.

Рассмотрим последовательно эти аргументы. Начнем с того очевидного обстоятельства, что человеческое сознание существует всегда в форме той или иной конкретной единичной индивидуальности, конкретного "Я" - субъекта психической деятельности.

Как бы мы не понимали природу "Я", несомненно, что"Я" есть нечто абсолютно уникальное, существующее лишь в единичном экземпляре. Действительно, предположим, что может существовать "второе Я", т.е. индивид, независимый от меня физически, но, вместе с тем, обладающий тем же самым "Я". Сразу же становится очевидной абсурдность этого предположения. Ясно, что любой физически независимый от меня субъект, будь даже он абсолютно точной моей копией (физической и духовной) - не есть я. В противном случае я должен был бы чувствовать когда его бьют, когда ему хорошо, когда плохо, о чем он думает и т.п.

Итак, "Я", по самой своей природе - как единичная индивидуальность - может существовать лишь в одном экземпляре, есть нечто "неудвоимое".

Эта уникальность, существенная единичность"Я", видимо, и породила понимание "Я" как некой совершенно бессодержательной сущности, находящейся как бы за пределами потока субъективных переживаний. "Я" стали мыслить как некий "чистый взор", как некого "зрителя", перед которым, как в кинофильме, развертывается содержание "потока сознания". (Такое понимание "Я" можно найти уже в Ведах).

В самом деле, если "Я" абсолютно уникально, неудвоимо - то его невозможно отождествить с каким-либо конкретным феноменальным содержанием сознания - с какими-либо образами, ощущениями, представлениями, идеями и т.п. Нередко "Я" пытаются отождествить с личностью или с содержимым памяти субъекта. Однако если память (которая, как полагают, и образует фундамент личности) - это ничто иное, как некоторая конечная совокупность зафиксированных в мозге материальных "записей", то не видно никаких принципиальных препятствий к тому, чтобы скопировать эти записи и каким-то образом перенести их в другой мозг - осуществляя тем самым "копирование" личности.

Но это, очевидно, не приведет к "копированию Я". Отсюда вывод: "Я" не тождественно ни личности, ни совокупной памяти, никакому вообще конечному содержанию - которое может быть, в принципе, скопировано, размножено.

Представление о "бессодержательности" "Я" - как будто решает эту проблему - различая "Я", как "чистый взор" от "содержания", предстоящего этому "Я". Но такая абсолютная бессодержательность "Я" порождает новые трудности. Если "Я" не тождественно какому-либо конкретному содержанию, структуре, информации и т.п., то, спрашивается, как мы вообще можем знать о том, что есть какое-либо "Я"? Как вообще можно знать нечто, полностью лишенное какого-либо положительного содержания?

Представляется очевидным, что знать можно лишь что-то обладающее конкретным содержанием. Отсюда - один шаг до вывода о том, что никакого "Я" вообще не существует. Если "Я" бессодержательно - то оно - не более чем фикция, понятие не наполненное определенным смыслом. (Этот вывод, фактически, был сделан еще Д. Юмом в первой трети 18 века - и этот вывод надолго, по сути, до настоящего времени, заблокировал развитие позитивной философской теории индивидуального "Я").

Избежать столь негативных и противоречащих здравому смыслу выводов в отношении "Я" можно, видимо, лишь признав содержательность "Я". Но тогда мы снова возвращаемся к проблеме "неудвоимости Я". Необходимо, видимо, как-то совместить, с одной стороны, содержательность "Я", а с другой - невозможность "размножения""Я". Совместить эти два условия можно лишь предположив, что наше "Я" (душа) - это некое бесконечное содержание. Только бесконечное содержание принципиально не возможно скопировать и потому только бесконечное содержание может составлять основу нашей уникальной индивидуальности.

Бесконечность содержания нашей "души" - безусловно исключает возможность компьютерной имитации той или иной конкретной личности. Отсюда очевидна полная абсурдность многочисленных в последнее время проектов достижения личного бессмертия путем поэтапного"переселения" конкретной личности в компьютер (1). (Путем, например, постепенного замещения нервной ткани микросхемами).

Ясно, что если бы личность (индивидуальное "Я") можно было бы "перенести" из мозга в компьютер, то ее можно было бы одновременно поместить в нескольких компьютерах, т.е. осуществить "размножение" индивидуального "Я". Это рассуждение наглядно показывает принципиальную невозможность отождествить "Я" с какой-либо конечной информацией, каким либо конечным содержанием, а также с алгоритмически вычислимой функцией.

Возможность алгоритмической имитации функции индивидуальной психики прямо влечет возможность ее "размножения". Следовательно, нужно признать, что такая имитация принципиально не возможно (или же нужно признать полную "бессодержательность" "Я", принципиальное отличие "Я" от "функции сознания", - со всеми вытекающими отсюда негативными последствиями).

Другой аргумент в пользу "невычислимости" функции сознания человека связан с оценкой различных подходов к решению психофизической проблемы - проблемы отношения материи и сознания.

Очевидно, что мозг и сознание тесно взаимосвязаны. Однако характер этой взаимосвязи можно понимать различным образом. Ключевой вопрос здесь: как соотносится феноменальная реальность (мир субъективных переживаний) и физические процессы в мозге. Можно ли, например, утверждать, что между ними имеется взаимно-однозначное соответствие - так что любое субъективное явление - образ, ощущение, смысл и т.д. - можно взаимно однозначным образом сопоставить с определенными физическими процессами в мозге?

Сомнения в наличии такого взаимно однозначного соответствия субъективного и физического проистекают из того факта, что наше знание о собственных субъективных переживаниях опосредовано актами рефлексии, т.е. некими процедурами самоотчета. Мы знаем о своих переживаниях ровно столько, сколько способны сообщить окружающим. Рефлексия - это некоторая конкретная психическая функция и, следовательно, одна из функций нашего мозга. Функции, как правило, обладают в тех или иных пределах инвариантностью по отношению к физическому способу их реализации: одну и ту же функцию (например, функцию обработки информации) можно осуществить самыми различными способами, используя, при этом, самые различные материалы, виды энергии, различные алгоритмы реализации данной функции.

Предположим, что суммарная функция нашего мозга может быть достаточно точно воспроизведена с помощью компьютера. Это означает, что данная функция является инвариантной к способу ее реализации. Но если функция инвариантна по отношению к способу ее реализации, то по характеру функционирования, очевидно, невозможно в точности установить устройство функционирующей системы.

Предположим, что мы научились заменять нервные клетки человеческого мозга функционально эквивалентными устройствами, состоящими, скажем, из кремниевых транзисторов. Тогда можно постепенно заменить нервную ткань мозга некой "искусственной нервной тканью". Если такая замена реально осуществлена, то, спрашивается, сможет ли человек, мозг которого был подвергнут такой операции, заметить, что у него в голове вместо живого мозга - куча транзисторов?

Если "электронный мозг" функционирует в точности так же, как и "живой", то на тождественные вопросы "электронный" мозг и "живой" мозг должны давать тождественные ответы. На вопрос: "чувствуете ли Вы какие-либо изменения в себе, в своем внутреннем мире" человек, подвергнутый операции замены "живого" мозга на "электронный", должен, очевидно, ответить отрицательно. Никаких изменений в себе он заметить не сможет. Это означает, что физические процессы в мозге не представлены (и в принципе не могут быть представлены) на уровне субъективного самоотчета. Иными словами, то, о чем мы говорим, описывая собственные субъективные переживания, это не физические процессы в мозге, а некая инвариантная "функциональная структура". Эта точка зрения известна как "функционализм" или "эмерджентизм".

"Функционализм", на первый взгляд, представляется весьма убедительной теорией. Однако эта концепция вызывает существенные возражения. Один из наиболее известных аргументов против функционализма - это так называемый "аргумент китайской комнаты", придуманный Дж. Сирлом (2).

Отметим, прежде всего, что компьютер представляет собой характерный пример системы, функция которой в широких пределах инвариантна по отношению к способу ее физической реализации. Так, например, транзисторы можно сделать не только из кремния, но и из других материалов (арсенида галлия, сверхпроводников и т.п.). Можно вообразить себе полностью механический или гидравлический компьютер. Способ осуществления вычислений, даже в рамках одной и той же физической конструкции, может широко варьироваться без каких-либо изменений соотношения "вход" - "выход".

Если компьютер можно сделать почти из "чего угодно", то в качестве его главной рабочей детали (процессора) можно использовать, также, и человека. Ясно, что человек легко может выполнять все те операции, которые выполняет компьютер (или, например, машина Тьюринга). Следовательно, человек, с этой точки зрения, является "универсальной вычислительной машиной".

Предположим, что человек, выполняющий функцию вычислительной машины, находится в закрытой комнате и может общаться с внешним миром лишь через окошко. Предположим, также, что "программа" (инструкция), которую он выполняет, - это программа "понимания" китайского языка. Когда через окошко в комнату вводится некоторый текст, написанный по-китайски, "человек-компьютер" обрабатывает данный текст с помощью данных ему инструкций (подобных, например, "функциональным таблицам" машины Тьюринга) и выдает назад в окно получившийся результат.

Если инструкции написаны подобно программе компьютера, т.е. в виде жесткого алгоритма, предписывающего чисто механическое манипулирование с полученными символами, то, очевидно, человек в комнате сможет выполнить все необходимые манипуляции не понимая ни слова по-китайски и вообще не вникая в смысл символов, с которыми он работает. Однако если программа, в соответствии с которой действует "человек-компьютер", - это действительно эффективная программа понимания китайского языка, то на осмысленные вопросы, заданные на китайском языке, человек будет давать также осмысленные ответы по-китайски - даже если он на самом деле не знает ни одного китайского слова!

Таким образом, хотя с точки зрения внешнего наблюдателя человек в "китайской комнате" будет знать китайский язык, поскольку будет осмысленно отвечать на любые вопросы, сформулированные по-китайски, истинное "субъективное" понимание китайского языка в данной ситуации будет полностью отсутствовать.

Программу понимания китайского языка можно заменить, например, программой распознавания образов - и тогда мы получим имитацию процесса зрительного восприятия при отсутствии адекватных зрительных переживаний.

Итак, человек может имитировать функцию компьютера, который, в свою очередь, имитирует те или иные психические функции и при этом данный человек не будет субъективно переживать то, что должен переживать человек, в голове которого протекает соответствующий психический процесс (например, процесс понимания китайского языка или процесс зрительного восприятия).

Отсюда можно сделать вывод, что тождество функций само по себе не гарантирует тождества (или даже хотя бы наличия) субъективных переживаний. Но это означает, что переживания, феноменальный внутренний мир - не является простым коррелятом совокупной функции нашего мозга, а соответствует скорее физическому способу реализации этой функции (или же вообще есть нечто "сферхфизическое" - если мы допускаем дуалистическое решение психофизической проблемы). Следовательно, наличие ощущений, образов, представлений, смыслов, и т.п., конкретный характер переживания всех этих явлений - зависит от того, каким именно образом наш мозг физически (или "сферхфизически") реализует те или иные функции по обработке сенсорной информации, выработке поведенческих решений и т.д.

Все это означает, что утверждение функционалистов об инвариантности психических функций по отношению к способу их реализации в мозге - ошибочно. Способ осуществления психических функций непосредственно отражается на характере субъективных переживаний, сопровождающих тот или иной психический процесс.

Можно даже указать, какая именно составляющая нашего внутреннего мира непосредственно отражает способ реализации психических функций в мозге. Это то, что называют "чувственными качествами". Это такие качества, как цвет, запах, вкус, боль, высота звука и т.д. Возьмем, к примеру, цвет. Цвет как субъективно переживаемое чувственное качество не является свойством самих физических объектов. По существу, цвет - это субъективный способ представления информации о длине электромагнитной волны, падающей на сетчатку глаза. Субъективный характер цветовых ощущений доказывается хотя бы тем, что разные люди по-разному воспринимают цвета, а также тем, что цветовые ощущения можно вызвать непосредственным электрическим раздражением мозга или зрительного нерва. Если мы оденем очки с цветными стеклами - изменится видимый цвет предметов, но это не значит, что изменились сами предметы.

Таким образом, наше знание о цвете - это знание не о самих вещах, а о том, каким образом наш психический механизм кодирует сенсорную информацию - конкретно информацию о длине электромагнитной волны. Мы достоверно знаем, что для этих целей он использует набор качественно различных цветовых ощущений. В принципе, вполне возможны и какие-либо другие способы кодирования информации о длине волны. Например, мы могли бы видеть поверхности, обладающие различной способностью поглощать и отражать электромагнитные волны различной длины, заштрихованными различным образом и т.п.

Однако, если функция нашего мозга обладает свойством инвариантности по отношению к способу ее реализации (а это несомненно так, если возможен полноценный "искусственный интеллект" на базе вычислительных устройств, подобных машине Тьюринга или компьютеру), то совершенно не понятно каким образом мы можем иметь какую-либо информацию о том, каким конкретно способом наш мозг осуществляет ту или иную психическую функцию. По существу в этом случае знание о способе реализации психических функций - именно как достоверное знание - представляется принципиально невозможным.

Здесь мы делаем особый акцент на достоверном характере наших знаний о содержимом собственного внутреннего мира. Интуитивно представляется совершенно невозможным усомниться в истинности собственного рефлексивного самоотчета. Если я вижу перед собой зеленую стену - я не могу усомниться в том, что я в этот момент действительно вижу нечто зеленое. Даже античные скептики, которые сомневались во всем на свете, исключали сомнения в отношении собственных субъективных переживаний. Тимон говорил: "Я сомневаюсь, что мед сладок, но что он кажется сладким - я полностью принимаю".

Мы как бы имеем (в виде особого чувства очевидности) непосредственные, убедительные доказательства подлинности чувственно данной нам "феноменальной реальности". Очевидно, что эта внутренняя самодостоверность, доказательность рефлексии в отношении чувственных качеств невозможна, если функция сознания инвариантна к способу ее физической реализации.

Можно представить себе некий компьютер, который способен описывать свое собственное устройство и алгоритм, которому он подчинен. Однако, эта его "рефлексивная способность" не обеспечивает для него достоверность знаний о его действительном устройстве и действительном алгоритме его деятельности. Можно в широких пределах изменять устройство данного компьютера, изменять его алгоритм - так, что при этом суммарная его функция, включая и функцию "самоописания", останется неизменной. Но в последнем случае "рефлексивный самоотчет" данного компьютера будет ошибочным. Следовательно, этот "самоотчет" и изначально не обладал гарантированной истинностью.

Наше знание собственного внутреннего мира, знание чувственных качеств - которое, как мы установили выше, является знанием о способе обработки сенсорной информации в мозге, интуитивно представляется совершенно достоверным, что несовместимо с предположением о возможности различных способов реализации психических функций.

Одно из двух: либо достоверность нашего самоосознания иллюзорна - и тогда никакое непосредственное, самодостоверное знание в принципе не возможно - и мы погружаемся в "трясину" абсолютного релятивизма, либо достоверное знание существует и, таким образом, ошибочен тезис инвариантности функции сознания по отношению к способу ее реализации. В последнем случае нужно признать, что существует лишь один единственный физический способ реализации данной функции - именно тот способ, который и использует наш мозг. (Поскольку мы не только имеем достоверные знания о собственных переживаниях, но и также знаем, что они действительно достоверны, то одного условия единственности способа реализации психических функций недостаточно. Необходимо также, чтобы субъект имел некие абсолютные гарантии этой единственности. Такую гарантию, очевидно, может дать лишь Бог - так что достоверность самопознания, кроме всего прочего, указывает на непосредственную "божественность" человеческого сознания, его сопричастность самому истоку мироздания).

Итак, если наше самоосознание достоверно, то нужно признать, что существует лишь один единственный способ осуществления функции нашего сознания. Однако, это условие невыполнимо если возможна компьютерная (алгоритмическая) имитация функции сознания. Таким образом, мы приходим к выводу, что условие достоверности самоосознания выполнимо лишь в том случае, если функция сознания в некотором смысле "невычислима", т.е. невоспроизводима с помощью какого-либо "алгоритмического устройства".

Отметим, однако, что в данном случае требование "невычислимости" имеет несколько иной смысл, чем в том случае, когда мы связывали это требование с теоремой Геделя о неполноте формальных систем. Мы уже отмечали, что теорема Геделя и гипотеза алгоритмической невычислимости функции сознания не накладывают, по существу, какого-либо запрета на практическое создание систем искусственного интеллекта. Однако, новые, рассмотренные нами аргументы в пользу "невычислимости" - такой запрет, по существу, предполагают.

Действительно, достоверность рефлексии предполагает практическую невозможность заменить мозг функционально эквивалентным алгоритмическим устройством. Эта практическая невозможность, поскольку она не может быть непосредственно обусловлена алгоритмической невычислимостью функции сознания, может быть обусловлена лишь физическими причинами - ограниченностью ресурсов, характером физическихзаконов и т.п. (Или же, как мы отмечали выше, может быть обусловлена некими "сверхестественными", "экстрасенсорными" свойствами, возможно присущими нормальной человеческой психике).

Итак, мы видим, что единственность способа физической реализации функции сознания - является более сильным требованием, чем алгоритмическая невычислимость данной функции. Заметим, также, что единственность физической реализации функции сознания возможна и при условии, что функция сознания алгоритмически вычислима. Действительно, алгоритмическая вычислимость еще не гарантирует, что соответствующие вычисления реально могут быть осуществлены. На это может не хватить ни времени, ни материальных и энергетических ресурсов. Здесь нужно, также, учитывать, что имитация функции сознания имеет смысл только в том случае, если она осуществляется в реальном масштабе времени.

Можно предположить, что принцип инвариантности функции по отношении к способу ее реализации имеет пределы применимости и его применимость зависит от сложности рассматриваемой функции. Действительно, достаточно простые функции, такие как арифметическое сложение или вычитание, извлечение корня и т.п. можно осуществить самыми различными способами, например, с помощью механического арифмометра, вручную, используя калькулятор, компьютер различной конструкции и т.п. Более сложные задачи, например, решение систем сложных дифференциальных уравнений, - уже арифмометр или калькулятор решить не смогут. Не удастся их решить и вручную - за сколь-нибудь обозримое время. Т.е. чем сложнее функция - тем уже круг физических устройств, с помощью которых данная функция может быть практически реализована. Можно предположить, что при достижении уровня сложности человеческой психики, число "устройств", способных реализовать подобную функцию, сокращается до одного устройства - и таким единственным "устройством" является человеческий мозг.

Поскольку, в соответствии с тезисом Черча, различия между универсальными вычислительными устройствами могут касаться лишь скорости и объема памяти, то можно предположить, что мозг является в некотором роде "предельным" вычислительным "устройством", т.е. относится к классу вычислительных устройств, обладающих максимально возможной "вычислительной мощностью". Иными словами, любое устройство, способное эффективно имитировать функцию мозга, с необходимостью должно быть основано на тех же самых физических (а также структурных и алгоритмических) принципах, которые лежат в основе процессов переработки информации в человеческом мозге.

Таким образом, данная концепция не исключает возможность создания "искусственного интеллекта", но предполагает, что любой "искусственный мозг", равный по своим возможностям человеческому мозгу, должен использовать те же самые физические и структурные принципы, что и мозг естественный. (Отсюда, в частности, следует, что эволюция компьютеров должна в конечном итоге привести нас к раскрытию природы человеческого сознания. Компьютер "окончательного поколения" с необходимостью будет не только по функции, но и по физическому устройству, - в наиболее существенных своих чертах - соответствовать человеческому мозгу).

Подведем итог обсуждения проблемы "вычислимости" функции человеческого сознания. Мы видим, что имеются дополнительные основания считать невозможной алгоритмическую имитацию функции сознания. Во-первых, невозможность алгоритмической имитации сознания вытекает из содержательной бесконечности человеческого "Я"- что, в свою очередь, является следствием сущностной уникальности нашего "Я".

Во-вторых, такого рода невозможность проистекает из интуитивно очевидной достоверности нашего рефлексивного самоотчета - если при этом учесть, что чувственные качества отражают способ обработки информации в мозге и, следовательно, достоверность самоотчета означает возможность достоверного знания о механизмах, лежащих в основе психической деятельности. Отсюда вытекает требование единственности способа реализации функции сознания.

Если единственным практически значимым следствием гипотезы алгоритмической невычислимости функции сознания является "непознаваемость" механизмов психической деятельности, то условие единственности способа реализации функции сознания приводит нас к выводу о практической (физической) невозможности компьютерной имитации функции человеческого мозга.

По существу, условие алгоритмической невычислимости и условие единственности способа реализации функции ("физическая" невычислимость) не зависят друг от друга. Алгоритмическая невычислимость не исключает "физическую" вычислимость (на конечных временных интервалах). С другой стороны, алгоритмическая вычислимость - не гарантирует физическую возможность осуществления компьютерной имитации данной функции.

Далее, возникает неизбежный вопрос: каким образом вообще возможна материальная система, функция которой алгоритмически невычислима или же эта функция такова, что она не может быть физически реализована каким-либо альтернативным способом?

Рассмотрим вначале первый вопрос - о возможности существования материальных систем, функция которых является алгоритмически невычислимой. Существенная проблема возникает здесь в связи с тем, что любая материальная система подчинена законам физики, которые, по сути, представляют собой алгоритмы, описывающие способ функционирования любых физических объектов. Поскольку мозг - физический объект, то полное его физическое описание и будет представлять собой его "формализованную модель" и, следовательно, ни о какой принципиальной "непознаваемости" работы мозга и речи быть не может.

Если здесь и есть какие-либо "границы познаваемости", то они обусловлены скорее ограниченностью наших ресурсов - неспособностью описать с достаточной степенью точности и подробности столь сложный физический объект как человеческий мозг, а отнюдь не природой самого мозга.

Более полное и адекватное описание реальности нам дает квантовая физика. Если предположить, что функционирование мозга в какой-то существенной своей части подчинено законам квантовой физики, то мы вполне можем найти место для алгоритмически невычислимых процессов. Действительно, хотя квантовая физика, также как и классическая, использует для описания физических систем дифференциальные уравнения, однако решения этих уравнений дают нам лишь распределение вероятности получения в процессе измерения тех или иных значений наблюдаемых величин, но эти решения не позволяют предсказать исходы индивидуальных экспериментов с квантовыми объектами. То есть квантовая теория описывает лишь распределение в пространстве и во времени "объективных тенденций", "потенций" - но не позволяет предсказывать конкретные события. Более того, она даже не дает какого-либо объяснения того, как "объективные тенденции" переходят в "события", т.е. она не описывает сам механизм перехода "потенциальное - актуальное".

Переход от "потенций" к "событиям" описывается в квантовой механике как процесс "редукции волновой функции": в результате измерения мы всегда получаем какое-либо вполне определенное значение измеряемой физической величины и, следовательно, квантовая система после измерения "скачкообразно" переходит в новое квантовое состояние - являющееся собственным состоянием оператор, соответствующего данной измеряемой величине. Если исходное состояние не является собственным состоянием оператора измеряемой величины, то, учитывая результат измерения, мы должны зачеркнуть прежнюю волновую функцию и записать новую, соответствующую результату измерения. Этот процесс, в силу хотя бы его нелинейного характера, невозможно описать с помощью уравнения Шредингера. (Этот факт был установлен еще И. фон Нейманом в начале 30-х годов).

Таким образом, имеется физический процесс (редукция волновой функции), для которого не существует какого-либо "алгоритма", позволяющего описывать его течение и предсказывать его результаты. Это процесс, который не подчинен каким-либо известным нам правилам,- неформализуемый, неалгоритмизируемый процесс.

Если функция сознания алгоритмически невычислима, то единственный физический процесс, с которым данная функция может быть сопоставлена, - это, видимо, процесс редукции волновой функции (поскольку любому иному физическому процессу можно сопоставить алгоритм в виде уравнения Шредингера).

Все эти соображения и приводят нас к идее связи сознания с процессом редукции волновой функции. Такова, например, точка зрения Р. Пенроуза (3,4). Вся аргументация Пенороуза в пользу гипотезы квантовой природы сознания целиком опирается на геделевский аргумент, на идею алгоритмической невычислимости функции сознания. (Отметим, что "непостижимость" механизма редукции волновой функции дает нам, также, и объяснение предполагаемой "непостижимости" механизмов сознания - эта непостижимость, как мы помним, непосредственно следует из гипотезы алгоритмической невычислимости функции сознания).

Связь сознания с процессами редукции волновой функции предполагают также и некоторые другие авторы, которые рассматривают гипотезу "квантового сознания" вне связи с геделевским аргументом и проблемой алгоритмической вычислимости функции сознания (Д. Бом, Г. Степп, Е. Уокер и др. (5,6,7)).

Дело в том, что существует другая линия аргументации, которая приводит нас к идее связи сознания с процессами редукции волновой функции. После того как в 1931 году И. фон Нейман создал "квантовую теорию измерений", стало ясно, что квантовомеханическое описание процесса измерения (взаимодействия квантовой системы и измерительного прибора) является принципиально неполным - т.к. не содержит описания механизма редукции волновой функции. Однако экспериментатор всегда видит некий определенный результат измерения, т.е. всегда видит процесс редукции волновой функции уже состоявшимся. Исходя из этого, была высказана идея (Е. Вигнером и др.), что редукция волновой функции имеет "сверхфизическую" природу и осуществляется непосредственно в сознании человека-наблюдателя. С этой точки зрения сознание - это фундаментальная реальность - необходимая составляющая целостной физической картины мира. Проявляет же себя сознание в составе физической реальности именно в актах редукции волновой функции.

Существуют, вместе с тем, и другие аргументы в пользу связи сознания с физическими процессами квантового уровня. В нашей работе (8), в частности, показано существование весьма детального сходства наиболее общих, фундаментальных свойств квантовых объектов и человеческой субъективности. Имеются в виду такие свойства сферы субъективного, как целостность, временная нелокальность, наличие актуальной (чувственность) и потенциальной (смыслы) составляющих субъективного бытия, качественность чувственных переживаний и бескачественность смыслов и т.д.

Учитывая данную аналогию было бы неверно связывать сознание лишь с актом редукции волновой функции. По сути, все составляющие описания квантового объекта имеют аналоги в составе описания структуры субъективной реальности.

Акты редукции волновой функции можно связать с процессами перехода от потенциального (смыслового) содержания сознания к актуальному (чувственному) его содержанию и связать с аффективно-волевой составляющей психики. Спонтанный, напредсказуемый характер процессов редукции можно сопоставить с уникальностью человеческой индивидуальности ( уникальностью "самости", "Я")

Квантовая теория может, видимо, оказать нам некоторую помощь и в обосновании идеи единственности способа физической реализации функции сознания (то, что мы ранее назвали "физической невычислимостью").

Выше мы отмечали, что если мозг - это некое "предельное" по своей вычислительной мощности "устройство", то эволюция компьютеров рано или поздно приведет нас к открытию тех фундаментальных принципов, в соответствие с которыми работает наше сознание и которые обеспечивают феноменальное быстродействие и эффективность работы человеческой психики.

Следовательно, проследив возможные пути эволюции компьютеров, можно, видимо, предугадать физические принципы, лежащие в основе психических процессов. Эволюция компьютеров, фактически, до сих пор сводилась к уменьшению размеров составляющих их деталей. Как только характерные размеры этих деталей станут меньше 0,1 микрона - вступят в действие законы квантовой физики. Таким образом, предел эволюции современных компьютеров - это компьютеры, работающие на принципах квантовой механики - так называемые "квантовые компьютеры" (9).

Исследования последних лет показали, что использование квантовомеханического принципа суперпозиции позволяет экспоненциально ускорять решение некоторых задач (например, задачи факторизации больших чисел (10) ), а также существенным образом ускорять решение некоторых других задач (например, задачи поиска нужной записи в базах данных (11) ).

Учитывая чрезвычайную сложность решения задачи практической реализации сколь-нибудь длительных квантовых вычислений, можно предположить, что существует лишь один единственный способ физического осуществления квантовых вычислений, позволяющих достичь вычислительной мощности человеческого мозга. Тогда, исходя из принципа единственности способа реализации функции сознания, мы можем предположить, что именно этот способ "квантовых вычислений" и использует человеческий мозг.

В работе (8) мы также показали, что некоторые функциональные свойства человеческого сознания весьма напоминают функциональные свойства квантовых компьютеров, что является дополнительным аргументом в пользу перспективности идеи квантовой природы сознания.

Таким образом, мы видим, что гипотеза алгоритмической невычислимости функции сознания, а также гипотеза единственности способа реализации этой функции - не являются абсолютно неприемлимыми с точки зрения современной физики. Не стоит также забывать еще одну рассмотренную нами выше возможность интерпретации идеи "невычислимости" - гипотезу наличия "экстрасенсорных" свойств нормальной человеческой психики.

По крайней мере, все рассмотренные в данной работе следствия гипотезы "невычислимости" требуют дальнейшего исследования и можно надеется, что эти исследования в конце концов приведут нас к разгадке тайны природы человеческого сознания.

Литература:

1. Корчмарюк Я.И.Сеттлеретика - новая междисциплинарная наука о переселении личности

2. Сирл Дж. Разум мозга - компьютерная программа?// В мире науки. 1990. №3. С.7-13.

3. Penrose R. The Emperor's New Mind. L. 1989.

4. Penrose R. Shadows of the Mind. L., 1993.

5. Bohm D. Wholeness and the Implicate Order. L.,1983.

6. Stapp H.P. Why Classical Mechanics Cannot Naturally Accommodate Consciousness bat Quantum Mechanics Can // Psyche. 2 (21). 1996.

7. Walker E.H. The Nature of Consciousness // Mathematical Biosciences. 1970.№7.P.131-178.

8. Иванов Е.М. Материя и субъективность. Саратов, 1998.

9. Deutsch D. Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer // Proc. Roy. Soc. L., A400. 1985.№96.

10. Shor P.W. Algorithms for Quantum Computation: Discrete Log and Factoring // Proceedings of the 35th annual Symposium on the Foundations of Computer Science. IEEE. Computer Society Press. 1994. P.124.

11. Grover L.K. A fast quantum mechanical algorithm for datebase search // Proceedings, STOC, 1996.





Краткая история времени. От большого взрыва до черных дыр

Стивен Хокинг


* Стивен Хокинг

* Оглавление

* Благодарности

* Предисловие

* 1. Наше представление о Вселенной

* 2. Пространство и время

* 3. Расширяющаяся Вселенная

* 4. Принцип неопределенности

* 5. Элементарные частицы и силы в природе

* 6. Черные дыры

* 7. Черные дыры не так уж черны

* 8. Рождение и гибель Вселенной

* 9. Стрела времени

* 10. Объединение физики

* 11. Заключение

* Великие физики

* Словарь терминов

* Послесловие

Стивен Хокинг

КРАТКАЯ ИСТОРИЯ ВРЕМЕНИ ОТ БОЛЬШОГО ВЗРЫВА ДО ЧЕРНЫХ ДЫР



 

      Stephen W. Hawking. A Brief History of Time From the Big Bang to Black Holes

Оглавление


      Благодарности

      Предисловие

      1. Наше представление о Вселенной

      2. Пространство и время

      3. Расширяющаяся Вселенная

      4. Принцип неопределенности

      5. Элементарные частицы и силы в природе

      6. Черные дыры

      7. Черные дыры не так уж черны

      8. Рождение и гибель Вселенной

      9. Стрела времени

      10. Объединение физики

      11. Заключение

      Альберт Эйнштейн

      Галилео Галилей

      Исаак Ньютон

      Словарь терминов

      Послесловие

Благодарности

      Книга посвящается Джейн

      Я решил попробовать написать популярную книгу о пространстве и времени после того, как прочитал в 1982 г. курс Лёбовских лекций в Гарварде. Тогда уже было немало книг, посвященных ранней Вселенной и черным дырам, как очень хороших, например книга Стивена Вайнберга ?Первые три минуты?, так и очень плохих, которые здесь незачем называть. Но мне казалось, что ни в одной из них фактически не затрагиваются те вопросы, которые побудили меня заняться изучением космологии и квантовой теории: откуда взялась Вселенная? как и почему она возникла? придет ли ей конец, а если придет, то как? Эти вопросы интересуют всех нас. Но современная наука очень насыщена математикой, и лишь немногочисленные специалисты достаточно владеют последней, чтобы разобраться в этом. Однако основные представления о рождении и дальнейшей судьбе Вселенной можно изложить и без помощи математики так, что они станут понятны даже людям, не получившим научного образования. Это я и пытался сделать в моей книге. Читателю судить о том, насколько я преуспел.

      Мне сказали, что каждая включенная в книгу формула вдвое уменьшит число покупателей. Тогда я решил вообще обходиться без формул. Правда, в конце я все-таки написал одно уравнение ? знаменитое уравнение Эйнштейна Е=mc^2. Надеюсь, оно не отпугнет половину моих потенциальных читателей.

 


 

      Если не считать того, что я заболел боковым амиотрофическим склерозом, то почти во всем остальном мне сопутствовала удача. Помощь и поддержка, которые мне оказывали моя жена Джейн и дети Роберт, Люси и Тимоти, обеспечили мне возможность вести довольно-таки нормальный образ жизни и добиться успехов в работе. Мне повезло и в том, что я выбрал теоретическую физику, ибо она вся вмещается в голове. Поэтому моя физическая немощь не стала серьезным минусом. Мои научные коллеги, все без исключения, оказывали мне всегда максимальное содействие.

      На первом, ?классическом? этапе моей работы моими ближайшими помощниками и сотрудниками были Роджер Пенроуз, Роберт Герок, Брендон Картер и Джордж Эллис. Я благодарен им за помощь и за совместную работу. Этот этап завершился изданием книги ?Крупномасштабная структура пространства-времени?, которую мы с Эллисом написали в 1973 г. (Хокинг С., Эллис Дж. Крупномасштабная структура пpoстранства-времени. M.: Мир, 1976).

      Я бы не советовал читающим следующие далее страницы обращаться к ней за дополнительной информацией: она перегружена математикой и тяжела для чтения. Надеюсь, что с тех пор я научился писать более доступно.

      На втором, ?квантовом? этапе моей работы, начавшемся в 1974 г., я в основном работал с Гари Гиббонсом, Доном Пэйджем и Джимом Хартлом. Я очень многим им обязан, как и своим аспирантам, которые оказывали мне огромную помощь и в ?физическом?, и в ?теоретическом? смысле этого слова. Необходимость не отставать от аспирантов была чрезвычайно важным стимулом и, как мне кажется, не позволяла мне застрять в болоте.

      В работе над книгой мне очень много помогал Брайен Уитт, один из моих студентов. В 1985 г., набросав первый, примерный план книги, я заболел воспалением легких. Пришлось лечь на операцию, и после трахеотомии я перестал говорить, а тем самым почти лишился возможности общаться. Я думал, что не смогу закончить книгу. Но Брайен нс только помог мне ее переработать, но и научил пользоваться компьютерной программой общения Living Center, которую мне подарил Уолт Уолтош, сотрудник фирмы Words Plus, Inc., Саннивейл (шт. Калифорния). С ее помощью я могу писать книги и статьи, а также разговаривать с людьми посредством синтезатора речи, подаренного мне другой саннивейлской фирмой Speech Plus. Дэвид Мэйсон установил на моем кресле-коляске этот синтезатор и небольшой персональный компьютер. Такая система все изменила: мне стало даже легче общаться, чем до того как я потерял голос.

      Многим из тех, кто ознакомился с предварительными вариантами книги, я благодарен за советы, касающиеся того, как ее можно было бы улучшить. Так, Петер Газзарди, мой редактор издательства Bantam Books, слал мне письмо за письмом с замечаниями и вопросами по тем местам, которые, по его мнению, были плохо объяснены. Признаться, я был сильно раздражен, получив огромный список рекомендуемых исправлений, но Газзарди оказался совершенно прав. Я уверен, книга стала лучше благодаря тому, что Газзарди тыкал меня носом в ошибки.

      Я выражаю глубокую благодарность моим помощникам Колину Уилльямсу, Дэвиду Томасу и Рэймонду Лэфлемму, моим секретарям Джуди Фелле, Энн Ральф, Шерил Биллингтон и Сью Мэйси и моим медсестрам. Я бы ничего не смог достичь, если бы все расходы на научные исследования и необходимую медицинскую помощь не взяли на себя Гонвилл-энд-Кайюс-колледж, Совет по научным и техническим исследованиям и фонды Леверхулма, Мак-Артура, Нуффилда и Ральфа Смита. Всем им я очень благодарен.

 


 

      Стивен Хокинг. 20 октября 1987 г.

Предисловие

      Мы живем, почти ничего не понимая в устройстве мира. Не задумываемся над тем, какой механизм порождает солнечный свет, который обеспечивает наше существование, не думаем о гравитации, которая удерживает нас на Земле, не давая ей сбросить нас в пространство. Нас не интересуют атомы, из которых мы состоим и от устойчивости которых мы сами существенным образом зависим. За исключением детей (которые еще слишком мало знают, чтобы не задавать такие серьезные вопросы), мало кто ломает голову над тем, почему природа такова, какова она есть, откуда появился космос и не существовал ли он всегда? не может ли время однажды повернуть вспять, так что следствие будет предшествовать причине? есть ли непреодолимый предел человеческого познания? Бывают даже такие дети (я их встречал), которым хочется знать, как выглядит черная дыра, какова самая маленькая частичка вещества? почему мы помним прошлое и не помним будущее? если раньше и правда был хаос, то как получилось, что теперь установился видимый порядок? и почему Вселенная вообще существует?

      В нашем обществе принято, что родители и учителя в ответ на эти вопросы большей частью пожимают плечами или призывают на помощь смутно сохранившиеся в памяти ссылки на религиозные легенды. Некоторым не нравятся такие темы, потому что в них живо обнаруживается узость человеческого понимания.

      Но развитие философии и естественных наук продвигалось вперед в основном благодаря подобным вопросам. Все больше взрослых людей проявляют к ним интерес, и ответы иногда бывают совершенно неожиданными для них. Отличаясь по масштабам как от атомов, так и от звезд, мы раздвигаем горизонты исследований, чтобы охватить как очень маленькие, так и очень большие объекты.

      Весной 1974 г., примерно за два года до того, как космический аппарат ?Викинг? достиг поверхности Марса, я был в Англии на конференции, организованной Лондонским королевским обществом и посвященной возможностям поиска внеземных цивилизаций. Во время перерыва на кофе я обратил внимание на гораздо более многолюдное собрание, проходившее в соседнем зале, и из любопытства вошел туда. Так я стал свидетелем давнего ритуала ? приема новых членов в Королевское общество, которое является одним из старейших на планете объединений ученых. Впереди молодой человек, сидевший в инвалидном кресле, очень медленно выводил свое имя в книге, предыдущие страницы которой хранили подпись Исаака Ньютона. Когда он, наконец, кончил расписываться, зал разразился овацией. Стивен Хокинг уже тогда был легендой.

 


 

      Сейчас Хокинг в Кембриджском университете занимает кафедру математики, которую когда-то занимал Ньютон, а позже П. А. М. Дирак ? два знаменитых исследователя, изучавшие один ? самое большое, а другой ? самое маленькое. Хокинг ? их достойный преемник. Эта первая популярная книга Хокипга содержит массу полезных вещей для широкой аудитории. Книга интересна не только широтой своего содержания, она позволяет увидеть, как работает мысль ее автора. Вы найдете в ней ясные откровения о границах физики, астрономии, космологии и мужества.

      Но это также книга о Боге? а может быть, об отсутствии Бога. Слово ?Бог? часто появляется на ее страницах. Хокинг отправляется на поиски ответа на знаменитый вопрос Эйнштейна о том, был ли у Бога какой-нибудь выбор, когда он создавал Вселенную. Хокинг пытается, как он сам пишет, разгадать замысел Бога. Тем более неожиданным оказывается вывод (по меньшей мере временный), к которому приводят эти поиски: Вселенная без края в пространстве, без начала и конца во времени, без каких-либо дел для Создателя.

      Карл Саган, Корнеллский университет, Итака, шт. Нью-Йорк.

1. Наше представление о Вселенной

      Как-то один известный ученый (говорят, это был Бертран Рассел) читал публичную лекцию об астрономии. Он рассказывал, как Земля обращается вокруг Солнца, а Солнце, в свою очередь, обращается вокруг центра огромного скопления звезд, которое называют нашей Галактикой. Когда лекция подошла к концу, из последних рядов зала поднялась маленькая пожилая леди и сказала: ?Все, что вы нам говорили,  ? чепуха. На самом деле наш мир ? это плоская тарелка, которая стоит па спине гигантской черепахи?. Снисходительно улыбнувшись, ученый спросил: ?А на чем держится черепаха?? ? ?Вы очень умны, молодой человек,  ? ответила пожилая леди.  ? Черепаха ? на другой черепахе, та ? тоже на черепахе, и так все ниже и ниже?.

      Такое представление о Вселенной как о бесконечной башне из черепах большинству из нас покажется смешным, но почему мы думаем, что сами знаем лучше? Что нам известно о Вселенной, и как мы это узнали? Откуда взялась Вселенная, и что с ней станется? Было ли у Вселенной начало, а если было, то что происходило до начала? Какова сущность времени? Кончится ли оно когда-нибудь? Достижения физики последних лет, которыми мы частично обязаны фантастической новой технике, позволяют наконец получить ответы хотя бы на отдельные из таких давно поставленных вопросов. Пройдет время, и эти ответы, может быть, станут столь же очевидными, как то, что Земля вращается вокруг Солнца, а может быть, столь же нелепыми, как башня из черепах. Только время (чем бы оно ни было) решит это.

      Еще в 340 г. до н. э. греческий философ Аристотель в своей книге ?О небе? привел два веских довода в пользу того, что Земля не плоская тарелка, а круглый шар. Во-первых, Аристотель догадался, что лунные затмения происходят тогда, когда Земля оказывается между Луной и Солнцем. Земля всегда отбрасывает на Луну круглую тень, а это может быть лишь в том случае, если Земля имеет форму шара. Будь Земля плоским диском, ее тень имела бы форму вытянутого эллипса, если только затмение не происходит всегда именно в тот момент, когда Солнце находится точно на оси диска. Во-вторых, по опыту своих путешествий греки знали, что в южных районах Полярная звезда на небе располагается ниже, чем в северных. (Поскольку Полярная звезда находится над Северным полюсом, она будет прямо над головой наблюдателя, стоящего на Северном полюсе, а человеку на экваторе покажется, что она на линии горизонта). Зная разницу в кажущемся положении Полярной звезды в Египте и Греции, Аристотель сумел даже вычислить, что длина экватора равна 400 000 стадиев. Что такое стадий, точно неизвестно, но он близок к 200 метрам, и, стало быть, оценка Аристотеля примерно в 2 раза больше значения, принятого сейчас. У греков был еще и третий довод в пользу шарообразной формы Земли: если Земля не круглая, то почему же мы сначала видим паруса корабля, поднимающиеся над горизонтом, и только потом сам корабль?

      Аристотель думал, что Земля неподвижна, а Солнце, Луна, планеты и звезды обращаются вокруг нее по круговым орбитам. Он так полагал, ибо в соответствии со своими мистическими воззрениями Землю считал центром Вселенной, а круговое движение ? самым совершенным. Птолемей во II веке развил идею Аристотеля в полную космологическую модель. Земля стоит в центре, окруженная восемью сферами, несущими на себе Луну, Солнце и пять известных тогда планет: Меркурий, Венеру, Марс, Юпитер и Сатурн (рис. 1.1). Сами планеты, считал Птолемей, движутся по меньшим кругам, скрепленным с соответствующими сферами. Это объясняло тот весьма сложный путь, который, как мы видим, совершают планеты. На самой последней сфере располагаются неподвижные звезды, которые, оставаясь в одном и том же положении друг относительно друга, движутся по небу все вместе как единое целое. Что лежит за последней сферой, не объяснялось, но во всяком случае это уже не было частью той Вселенной, которую наблюдает человечество.

 


 

      Модель Птолемея позволяла неплохо предсказывать положение небесных тел на небосводе, но для точного предсказания ему пришлось принять, что траектория Луны в одних местах подходит к Земле в 2 раза ближе, чем в других! Это означает, что в одном положении Луна должна казаться в 2 раза большей, чем в другом! Птолемей знал об этом недостатке, но тем не менее его теория была признана, хотя и не везде. Христианская Церковь приняла Птолемееву модель Вселенной как не противоречащую Библии, ибо эта модель была очень хороша тем, что оставляла за пределами сферы неподвижных звезд много места для ада и рая. Однако в 1514 г. польский священник Николай Коперник предложил еще более простую модель. (Вначале, опасаясь, наверное, того, что Церковь объявит его еретиком, Коперник пропагандировал свою модель анонимно). Его идея состояла в том, что Солнце стоит неподвижно в центре, а Земля и другие планеты обращаются вокруг него по круговым орбитам. Прошло почти столетие, прежде чем идею Коперника восприняли серьезно. Два астронома ? немец Иоганн Кеплер и итальянец Галилео Галилей ? публично выступили в поддержку теории Коперника, несмотря на то что предсказанные Коперником орбиты не совсем совпадали с наблюдаемыми. Теории Аристотеля? Птолемея пришел конец в 1609 г., когда Галилей начал наблюдать ночное небо с помощью только что изобретенного телескопа. Направив телескоп на планету Юпитер, Галилей обнаружил несколько маленьких спутников, или лун, которые обращаются вокруг Юпитера. Это означало, что не все небесные тела должны обязательно обращаться непосредственно вокруг Земли, как считали Аристотель и Птолемей. (Разумеется, можно было по-прежнему считать, что Земля покоится в центре Вселенной, а луны Юпитера движутся по очень сложному пути вокруг Земли, так что лишь кажется, будто они обращаются вокруг Юпитера. Однако теория Коперника была значительно проще.) В то же время Иоганн Кеплер модифицировал теорию Коперника, исходя из предположения, что планеты движутся не по окружностям, а по эллипсам (эллипс ? это вытянутая окружность). Наконец-то теперь предсказания совпали с результатами наблюдений.

      Что касается Кеплера, то его эллиптические орбиты были искусственной (ad hoc) гипотезой, и притом ?неизящной?, так как эллипс гораздо менее совершенная фигура, чем круг. Почти случайно обнаружив, что эллиптические орбиты хорошо согласуются с наблюдениями, Кеплер так и не сумел примирить этот факт со своей идеей о том, что планеты обращаются вокруг Солнца под действием магнитных сил. Объяснение пришло лишь гораздо позднее, в 1687 г., когда Исаак Ньютон опубликовал свою книгу ?Математические начала натуральной философии?. Ньютон в ней не только выдвинул теорию движения материальных тел во времени и пространстве, но и разработал сложные математические методы, необходимые для анализа движения небесных тел. Кроме того, Ньютон постулировал закон всемирного тяготения, согласно которому всякое тело во Вселенной притягивается к любому другому телу с тем большей силой, чем больше массы этих тел и чем меньше расстояние между ними. Это та самая сила, которая заставляет тела падать на землю. (Рассказ о том, что Ньютона вдохновило яблоко, упавшее ему на голову, почти наверняка недостоверен. Сам Ньютон сказал об этом лишь то, что мысль о тяготении пришла, когда он сидел в ?созерцательном настроении?, и ?поводом было падение яблока?). Далее Ньютон показал, что, согласно его закону, Луна под действием гравитационных сил движется по эллиптической орбите вокруг Земли, а Земля и планеты вращаются по эллиптическим орбитам вокруг Солнца.

      Модель Коперника помогла избавиться от Птолемеевых небесных сфер, а заодно и от представления о том, что Вселенная имеет какую-то естественную границу. Поскольку ?неподвижные звезды? не изменяют своего положения на небе, если не считать их кругового движения, связанного с вращением Земли вокруг своей оси, естественно было предположить, что неподвижные звезды ? это объекты, подобные нашему Солнцу, только гораздо более удаленные.

      Ньютон понимал, что по его теории тяготения звезды должны притягиваться друг к другу и поэтому, казалось бы, не могут оставаться совсем неподвижными. Не должны ли они упасть друг на друга, сблизившись в какой-то точке? В 1691 г. в письме Ричарду Бентли, еще одному выдающемуся мыслителю того времени, Ньютон говорил, что так действительно должно было бы произойти, если бы у нас было лишь конечное число звезд в конечной области пространства. Но, рассуждал Ньютон, если число звезд бесконечно и они более или менее равномерно распределены по бесконечному пространству, то этого никогда не произойдет, так как нет центральной точки, куда им нужно было бы падать.

      Эти рассуждения ? пример того, как легко попасть впросак, ведя разговоры о бесконечности. В бесконечной Вселенной любую точку можно считать центром, так как по обе стороны от нее число звезд бесконечно. Лишь гораздо позже поняли, что более правильный подход ? взять конечную систему, в которой все звезды падают друг на друга, стремясь к центру, и посмотреть, какие будут изменения, если добавлять еще и еще звезд, распределенных приблизительно равномерно вне рассматриваемой области. По закону Ньютона дополнительные звезды в среднем никак не повлияют на первоначальные, т. е. звезды будут с той же скоростью падать в центр выделенной области. Сколько бы звезд мы ни добавили, они всегда будут стремиться к центру. В наше время известно, что бесконечная статическая модель Вселенной невозможна, если гравитационные силы всегда остаются силами взаимного притяжения.

      Интересно, каким было общее состояние научной мысли до начала XX в.: никому и в голову не пришло, что Вселенная может расширяться или сжиматься. Все считали, что Вселенная либо существовала всегда в неизменном состоянии, либо была сотворена в какой-то момент времени в прошлом примерно такой, какова она сейчас. Отчасти это, может быть, объясняется склонностью людей верить в вечные истины, а также особой притягательностью той мысли, что, пусть сами они состарятся и умрут, Вселенная останется вечной и неизменной.

      Даже тем ученым, которые поняли, что ньютоновская теория тяготения делает невозможной статическую Вселенную, не приходила в голову гипотеза расширяющейся Вселенной. Они попытались модифицировать теорию, сделав гравитационную силу отталкивающей на очень больших расстояниях. Это практически не меняло предсказываемого движения планет, но зато позволяло бесконечному распределению звезд оставаться в равновесии, так как притяжение близких звезд компенсировалось отталкиванием от далеких. Но сейчас мы считаем, что такое равновесие оказалось бы неустойчивым. В самом деле, если в какой-то области звезды чуть-чуть сблизятся, то силы притяжения между ними возрастут и станут больше сил отталкивания, так что звезды будут и дальше сближаться. Если же расстояние между звездами чуть-чуть увеличится, то перевесят силы отталкивания и расстояние будет нарастать.

      Еще одно возражение против модели бесконечной статической Вселенной обычно приписывается немецкому философу Генриху Олберсу, который в 1823 г. опубликовал работу, посвященную этой модели. На самом деле многие современники Ньютона занимались той же задачей, и статья Олберса была даже не первой среди работ, в которых высказывались серьезные возражения. Ее лишь первой стали широко цитировать. Возражение таково: в бесконечной статической Вселенной любой луч зрения должен упираться в какую-нибудь звезду. Но тогда небо даже ночью должно ярко светиться, как Солнце. Контраргумент Олберса состоял в том, что свет, идущий к нам от далеких звезд, должен ослабляться из-за поглощения в находящемся на его пути веществе.

      Но в таком случае само это вещество должно нагреться и ярко светиться, как звезды. Единственная возможность избежать вывода о ярко, как Солнце, светящемся ночном небе ? предположить, что звезды сияли не всегда, а загорелись в какой-то определенный момент времени в прошлом. Тогда поглощающее вещество, возможно, еще не успело разогреться или же свет далеких звезд еще не дошел до нас. Но возникает вопрос: почему зажглись звезды?

      Конечно, проблема возникновения Вселенной занимала умы людей уже очень давно. Согласно ряду ранних космогонии и иудейско-христианско-мусульманским мифам, наша Вселенная возникла в какой-то определенный и не очень отдаленный момент времени в прошлом. Одним из оснований таких верований была потребность найти ?первопричину? существования Вселенной. Любое событие во Вселенной объясняют, указывая его причину, т. е. другое событие, произошедшее раньше; подобное объяснение существования самой Вселенной возможно лишь в том случае, если у нее было начало. Другое основание выдвинул Блаженный Августин (православная Церковь считает Августина блаженным, а Католическая ? святым.  ? прим. ред.). в книге ?Град Божий?. Он указал на то, что цивилизация прогрессирует, а мы помним, кто совершил то или иное деяние и кто что изобрел. Поэтому человечество, а значит, вероятно, и Вселенная, вряд ли очень долго существуют. Блаженный Августин считал приемлемой дату сотворения Вселенной, соответствующую книге ?Бытия?: приблизительно 5000 год до нашей эры. (Интересно, что эта дата не так уж далека от конца последнего ледникового периода ? 10 000 лет до н. э., который археологи считают началом цивилизации).

      Аристотелю же и большинству других греческих философов не нравилась идея сотворения Вселенной, так как она связывалась с божественным вмешательством. Поэтому они считали, что люди и окружающий их мир существовали и будут существовать вечно. Довод относительно прогресса цивилизации ученые древности рассматривали и решили, что в мире периодически происходили потопы и другие катаклизмы, которые все время возвращали человечество к исходной точке цивилизации.

      Вопросы о том, возникла ли Вселенная в какой-то начальный момент времени и ограничена ли она в пространстве, позднее весьма пристально рассматривал философ Иммануил Кант в своем монументальном (и очень темном) труде ?Критика чистого разума?, который был издан в 1781 г. Он назвал эти вопросы антиномиями (т. е. противоречиями) чистого разума, так как видел, что в равной мере нельзя ни доказать, ни опровергнуть ни тезис о необходимости начала Вселенной, ни антитезис о ее вечном существовании. Тезис Кант аргументировал тем, что если бы у Вселенной не было начала, то всякому событию предшествовал бы бесконечный период времени, а это Кант считал абсурдом. В поддержку антитезиса Кант говорил, что если бы Вселенная имела начало, то ему предшествовал бы бесконечный период времени, а тогда спрашивается, почему Вселенная вдруг возникла в тот, а не другой момент времени? На самом деле аргументы Канта фактически одинаковы и для тезиса, и для антитезиса. Он исходит из молчаливого предположения, что время бесконечно в прошлом независимо от того, существовала или не существовала вечно Вселенная. Как мы увидим ниже, до возникновения Вселенной понятие времени лишено смысла. На это впервые указал Блаженный Августин. Когда его спрашивали, чем занимался Бог до того, как создал Вселенную, Августин никогда не отвечал в том духе, что, мол, Бог готовил ад для тех, кто задает подобные вопросы. Нет, он говорил, что время ? неотъемлемое свойство созданной Богом Вселенной и поэтому до возникновения Вселенной времени не было.

      Когда большинство людей верило в статическую и неизменную Вселенную, вопрос о том, имела она начало или нет, относился, в сущности, к области метафизики и теологии. Все наблюдаемые явления можно было объяснить как с помощью теории, в которой Вселенная существует вечно, так и с помощью теории, согласно которой Вселенную сотворили в какой-то определенный момент времени таким образом, чтобы все выглядело, как если бы она существовала вечно. Но в 1929 г. Эдвин Хаббл сделал эпохальное открытие: оказалось, что в какой бы части неба ни вести наблюдения, все далекие галактики быстро удаляются от нас. Иными словами, Вселенная расширяется. Это означает, что в более ранние времена все объекты были ближе друг к другу, чем сейчас. Значит, было, по-видимому, время, около десяти или двадцати тысяч миллионов лет назад, когда они все находились в одном месте, так что плотность Вселенной была бесконечно большой. Сделанное Хабблом открытие перевело вопрос о том, как возникла Вселенная, в область компетенции науки.

      Наблюдения Хаббла говорили о том, что было время ? так называемый большой взрыв, когда Вселенная была бесконечно малой и бесконечно плотной. При таких условиях все законы науки теряют смысл и не позволяют предсказывать будущее.Если в еще более ранние времена и происходили какие-либо события, они все равно никак не смогли бы повлиять на то, что происходит сейчас. Из-за отсутствия же наблюдаемых следствий ими можно просто пренебречь. Большой взрыв можно считать началом отсчета времени в том смысле, что более ранние времена были бы просто не определены. Подчеркнем, что такое начало отсчета времени очень сильно отличается от всего того, что предлагалось до Хаббла. Начало времени в неизменяющейся Вселенной есть нечто, что должно определяться чем-то, существующим вне Вселенной; для начала Вселенной нет физической необходимости. Сотворение Богом Вселенной можно в своем представлении относить к любому моменту времени в прошлом. Если же Вселенная расширяется, то могут существовать физические причины для того, чтобы она имела начало. Можно по-прежнему представлять себе, что именно Бог создал Вселенную ? в момент большого взрыва или даже позднее (но так, как если бы произошел большой взрыв). Однако было бы абсурдно утверждать, что Вселенная возникла раньше большого взрыва. Представление о расширяющейся Вселенной не исключает создателя, но налагает ограничения на возможную дату его трудов!

      Чтобы можно было говорить о сущности Вселенной и о том, было ли у нее начало и будет ли конец, нужно хорошо представлять себе, что такое научная теория вообще. Я буду придерживаться простейшей точки зрения: теория ? это теоретическая модель Вселенной или какой-нибудь ее части, дополненная набором правил, связывающих теоретические величины с нашими наблюдениями. Эта модель существует лишь у нас в голове и не имеет другой реальности (какой бы смысл мы ни вкладывали в это слово). Теория считается хорошей, если она удовлетворяет двум требованиям: во-первых, она должна точно описывать широкий класс наблюдений в рамках модели, содержащей лишь несколько произвольных элементов, и, во-вторых, теория должна давать вполне определенные предсказания относительно результатов будущих наблюдений. Например, теория Аристотеля, согласно которой все состоит из четырех элементов ? земли, воздуха, огня и воды,  ? была достаточно простой, чтобы называться теорией, но с ее помощью нельзя было получить никаких определенных предсказаний. Теория же тяготения Ньютона исходила из еще более простой модели, в которой тела притягиваются друг к другу с силой, пропорциональной некоторой величине, называемой их массой, и обратно пропорциональной квадрату расстояния между ними. Но теория Ньютона весьма точно предсказывает движение Солнца, Луны и планет.

      Любая физическая теория всегда носит временный характер в том смысле, что является всего лишь гипотезой, которую нельзя доказать. Сколько бы раз ни констатировалось согласие теории с экспериментальными данными, нельзя быть уверенным в том, что в следующий раз эксперимент не войдет в противоречие с теорией. В то же время любую теорию можно опровергнуть, сославшись на одно-единственное наблюдение, которое не согласуется с ее предсказаниями. Как указывал философ Карл Поппер, специалист в области философии науки, необходимым признаком хорошей теории является то, что она позволяет сделать предсказания, которые в принципе могут быть экспериментально опровергнуты. Всякий раз, когда новые эксперименты подтверждают предсказания теории, теория демонстрирует свою жизненность, и наша вера в нее крепнет. Но если хоть одно новое наблюдение не согласуется с теорией, нам приходится либо отказаться от нее, либо переделать. Такова по крайней мере логика, хотя, конечно, вы всегда вправе усомниться в компетентности того, кто проводил наблюдения.

      На практике часто оказывается, что новая теория на самом деле является расширением предыдущей теории. Например, чрезвычайно точные наблюдения за планетой Меркурий выявили небольшие расхождения между ее движением и предсказаниями ньютоновской теории тяготения. Согласно общей теории относительности Эйнштейна, Меркурий должен двигаться немного иначе, чем получается в теории Ньютона. Тот факт, что предсказания Эйнштейна совпадают с результатами наблюдений, а предсказания Ньютона не совпадают, стал одним из решающих подтверждений новой теории. Правда, на практике мы до сих пор пользуемся теорией Ньютона, так как в тех случаях, с которыми мы обычно сталкиваемся, ее предсказания очень мало отличаются от предсказаний общей теории относительности. (Теория Ньютона имеет еще и то огромное преимущество, что с ней гораздо проще работать, чем с теорией Эйнштейна).

      Конечной целью науки является создание единой теории, которая описывала бы всю Вселенную. Решая эту задачу, большинство ученых делят ее на две части. Первая часть ? это законы, которые дают нам возможность узнать, как Вселенная изменяется со временем. (Зная, как выглядит Вселенная в какой-то один момент времени, мы с помощью этих законов можем узнать, что с ней произойдет в любой более поздний момент времени). Вторая часть ? проблема начального состояния Вселенной. Некоторые полагают, что наука должна заниматься только первой частью, а вопрос о том, что было вначале, считают делом метафизики и религии. Сторонники такого мнения говорят, что, поскольку Бог всемогущ, в его воле было ?запустить? Вселенную как угодно. Если они правы, то у Бога была возможность сделать так, чтобы Вселенная развивалась совершенно произвольно. Бог же, по-видимому, предпочел, чтобы она развивалась весьма регулярно, по определенным законам. Но тогда столь же логично предположить, что существуют еще и законы, управляющие начальным состоянием Вселенной.

      Оказывается, очень трудно сразу создавать теорию, которая описывала бы всю Вселенную. Вместо этого мы делим задачу на части и строим частные теории. Каждая из них описывает один ограниченный класс наблюдений и делает относительно него предсказания, пренебрегая влиянием всех остальных величин или представляя последние простыми наборами чисел. Возможно, что такой подход совершенно неправилен. Если все во Вселенной фундаментальным образом зависит от всего другого, то возможно, что, исследуя отдельные части задачи изолированно, нельзя приблизиться к полному ее решению. Тем не менее в прошлом наш прогресс шел именно таким путем. Классическим примером опять может служить ньютоновская теория тяготения, согласно которой гравитационная сила, действующая между двумя телами, зависит только от одной характеристики каждого тела, а именно от его массы, но не зависит от того, из какого вещества состоят тела. Следовательно, для вычисления орбит, по которым движутся Солнце и планеты, не нужна теория их структуры и состава.

      Сейчас есть две основные частные теории для описания Вселенной ? общая теория относительности и квантовая механика. Обе они ? результат огромных интеллектуальных усилий ученых первой половины нашего века. Общая теория относительности описывает гравитационное взаимодействие и крупномасштабную структуру Вселенной, т. е. структуру в масштабе от нескольких километров до миллиона миллиона миллиона миллиона (единица с двадцатью четырьмя пулями) километров, или до размеров наблюдаемой части Вселенной. Квантовая механика же имеет дело с явлениями в крайне малых масштабах, таких, как одна миллионная одной миллионной сантиметра. И эти две теории, к сожалению, несовместны ? они не могут быть одновременно правильными. Одним из главных направлений исследований в современной физике и главной темой этой книги является поиск новой теории, которая объединила бы две предыдущие в одну ? в квантовую теорию гравитации. Пока такой теории нет, и ее, может быть, еще придется долго ждать, но мы уже знаем многие из тех свойств, которыми она должна обладать. В следующих главах вы увидите, что нам уже немало известно о том, какие предсказания должны вытекать из квантовой теории гравитации.

      Если вы считаете, что Вселенная развивается не произвольным образом, а подчиняется определенным законам, то в конце концов вам придется объединить все частные теории в единую полную, которая будет описывать все во Вселенной. Правда, в поиски такой единой теории заложен один фундаментальный парадокс. Все сказанное выше о научных теориях предполагает, что мы являемся разумными существами, можем производить во Вселенной какие угодно наблюдения и на основе этих наблюдений делать логические заключения. В такой схеме естественно предположить, что в принципе мы могли бы еще ближе подойти к пониманию законов, которым подчиняется наша Вселенная. Но если единая теория действительно существует, то она, наверное, тоже должна каким-то образом влиять на наши действия. И тогда сама теория должна определять результат наших поисков ее же! А почему она должна заранее предопределять, что мы сделаем правильные выводы из наблюдений? Почему бы ей с таким же успехом не привести нас к неверным выводам? или же вообще ни к каким?

      Я могу предложить всего лишь один ответ на эти вопросы. Он основан на дарвиновском принципе естественного отбора. Моя идея состоит в том, что в любой популяции организмов, способных к самовоспроизведению, неизбежны генетические вариации и различия в воспитании отдельных индивидуумов. Это значит, что некоторые индивидуумы более других способны делать правильные выводы об окружающем их мире и поступать в соответствии с этими выводами. У таких индивидуумов будет больше шансов выжить и дать потомство, а потому их образ мыслей и их поведение станут доминирующими. В прошлом интеллект и способность к научному открытию безусловно обеспечивали преимущества в выживании. Правда, совсем не очевидно, что все сказанное верно и сейчас: сделанные нами научные открытия могут нас же и погубить, но даже если этого не случится, полная единая теория вряд ли сильно повлияет на наши шансы выжить. Тем не менее, коль скоро Вселенная развивается регулярным образом, можно полагать, что способности к рассуждению, которые мы приобрели в результате искусственного отбора, проявятся в поисках единой полной теории и помогут избежать неправильных выводов.

      Поскольку уже существующих частных теорий вполне достаточно, чтобы делать точные предсказания во всех ситуациях, кроме самых экстремальных, поиск окончательной теории Вселенной не отвечает требованиям практической целесообразности. (Заметим, однако, что аналогичные возражения можно было бы выдвинуть против теории относительности и квантовой механики, а ведь именно эти теории произвели революцию в ядерной физике и в микроэлектронике!) Таким образом, открытие полной единой теории, может быть, не будет способствовать выживанию и даже никак не повлияет на течение нашей жизни. Но уже на заре цивилизации людям не нравились необъяснимые и не связанные между собой события, и они страстно желали понять тот порядок, который лежит в основе нашего мира. По сей день мы мечтаем узнать, почему мы здесь оказались и откуда взялись. Стремление человечества к знанию является для нас достаточным оправданием, чтобы продолжать поиск. А наша конечная цель ? никак не меньше, чем полное описание Вселенной, в которой мы обитаем.

2. Пространство и время

      Наши современные представления о законах движения тел восходят к Галилею и Ньютону. До них бытовала точка зрения Аристотеля, который считал, что естественным состоянием любого тела является состояние покоя и тело начинает двигаться только под действием силы или импульса. Отсюда следовало, что тяжелое тело должно падать быстрее, чем легкое, потому что его сильнее тянет к земле.

      Согласно аристотелевской традиции, все законы, которые управляют Вселенной, можно вывести чисто умозрительно и нет никакой необходимости проверять их на опыте. Поэтому до Галилея никто не задумывался над тем, действительно ли тела разного веса падают с разными скоростями. Говорят, что Галилей демонстрировал ложность учения Аристотеля, бросая тела разного веса с падающей Пизанской башни. Это наверняка выдумка, но Галилей действительно делал нечто подобное: он скатывал по гладкому откосу шары разного веса. Такой эксперимент аналогичен сбрасыванию тяжелых тел с башни, но он проще для наблюдений, так как меньше скорости. Измерения Галилея показали, что скорость всякого тела увеличивается по одному и тому же закону независимо от веса тела. Например, если взять шар и пустить его вниз по наклонной плоскости с уклоном метр на каждые десять метров, то, каким бы тяжелым ни был шар, его скорость в конце первой секунды будет один метр в секунду, в конце второй секунды ? два метра в секунду и т. д. Конечно, свинцовая гиря будет падать быстрее, чем перышко, но только из-за того, что перо сильнее замедляется силой сопротивления воздуха, чем гиря. Если бросить два тела, сопротивление воздуха для которых невелико, например две свинцовые гири разного веса, то они будут падать с одинаковой скоростью.

      Ньютон вывел свои законы движения, исходя из измерений, проведенных Галилеем. В экспериментах Галилея на тело, катящееся по наклонной плоскости, всегда действовала одна и та же сила (вес тела) и в результате скорость тела постоянно возрастала. Отсюда следовало, что в действительности приложенная к телу сила изменяет скорость тела, а не просто заставляет его двигаться, как думали раньше. Это еще означало, что если на тело не действует сила, оно будет двигаться по прямой с постоянной скоростью. Такую мысль впервые четко высказал Ньютон в своей книге ?Математические начала?, вышедшей в 1687 г. Этот закон теперь называется Первым законом Ньютона. О том, что происходит с телом, когда па него действует сила, говорится во Втором законе Ньютона. Он гласит, что тело будет ускоряться, т. е. менять свою скорость, пропорционально величине силы. (Если, например, сила возрастет в 2 раза, то и ускорение в 2 раза увеличится). Кроме того, ускорение тем меньше, чем больше масса (т. е. количество вещества) тела. (Действуя на тело вдвое большей массы, та же сила создает вдвое меньшее ускорение). Всем хорошо известно, как обстоит дело с автомобилем: чем мощнее двигатель, тем больше создаваемое им ускорение, но чем тяжелее автомобиль, тем меньше ускоряет его тот же двигатель.

      Кроме законов движения Ньютон открыл закон, которому подчиняется сила тяготения. Этот закон таков: всякое тело притягивает любое другое тело с силой, пропорциональной массам этих тел. Следовательно, если вдвое увеличить массу одного из тел (скажем, тела А), то и сила, действующая между телами, тоже увеличится в 2 раза. Мы так считаем потому, что новое тело А можно представить себе составленным из двух тел, масса каждого из которых равна первоначальной массе. Каждое из этих тел притягивало бы тело В с силой, равной первоначальной силе. Следовательно, суммарная сила, действующая между телами А и В, была бы вдвое больше этой первоначальной силы. А если бы одно из тел имело массу, скажем, вдвое, а второе ? втрое больше первоначальной массы, то сила взаимодействия возросла бы в 6 раз. Теперь понятно, почему все тела падают с одинаковой скоростью: тело с удвоенным весом будет тянуть вниз удвоенная гравитационная сила, но и масса тела при этом будет в 2 раза больше. По Второму закону Ньютона эти два эффекта компенсируют друг друга, и ускорение будет во всех случаях одинаковым.

      Закон тяготения Ньютона говорит, что чем дальше тела друг от друга, тем меньше сила их взаимодействия. Согласно этому закону, гравитационная сила притяжения звезды составляет ровно четверть силы притяжения такой же звезды, но находящейся на вдвое меньшем расстоянии. Закон Ньютона позволяет с большой точностью предсказать орбиты Земли, Луны и планет. Если бы закон всемирного тяготения был иным и сила гравитационного притяжения уменьшалась быстрее, чем по закону Ньютона, то орбиты планет были бы не эллипсами, а спиралями, сходящимися к Солнцу. Если же гравитационное притяжение убывало бы с расстоянием медленнее, то притяжение удаленных звезд оказалось бы сильнее притяжения Земли.

      Представления Аристотеля существенно отличались от представлений Галилея и Ньютона тем, что Аристотель считал состояние покоя неким предпочтительным состоянием, в котором всегда должно оказываться тело, если на него не действует сила или импульс. Аристотель, в частности, считал, что Земля покоится. Из законов Ньютона же следует, что единого эталона покоя не существует. Вы можете на равных основаниях утверждать, что тело А находится в покое, а тело В движется относительно тела А с постоянной скоростью или же что тело В, наоборот, покоится, а тело А движется. Если, например, забыть на время о вращении нашей планеты вокруг оси и о ее движении вокруг Солнца, то можно сказать, что земля покоится, а поезд несется на север со скоростью девяносто километров в час или же что поезд стоит на месте, а земля под ним убегает на юг со скоростью 90 километров в час. Если бы в этом поезде кто-нибудь экспериментировал с движущимися телами, то оказалось бы, что все законы Ньютона выполняются. Например, играя в поезде в настольный теннис, вы обнаружили бы, что траектория шарика подчиняется законам Ньютона, как если бы вы играли на неподвижном столе, и вы не могли бы сказать, что именно движется ? поезд или земля.

      Отсутствие абсолютного эталона покоя означает, что невозможно определить, произошли ли некие два события в одной и той же точке пространства, если известно, что они имели место в разные моменты времени. Пусть, например, наш теннисный шарик в движущемся поезде отскакивает от стола вертикально вверх и, падая вниз, ударяется через секунду о стол в той же точке. Тому, кто стоит у железнодорожного полотна, показалось бы, что точки соприкосновения шарика со столом разделены расстоянием около сорока метров, которое прошел поезд за время между подскоками. Следовательно, отсутствие абсолютного состояния покоя означает, что никакому событию нельзя приписать абсолютного положения в пространстве, как это полагал Аристотель. Положение событий в пространстве и расстояния между ними должны быть разными для наблюдателя, едущего в поезде, и для наблюдателя, который стоит рядом с проходящим поездом, и нет никаких оснований считать, что положения, фиксируемые одним из этих наблюдателей, более предпочтительны, чем положения, фиксируемые другим.

      Ньютона сильно беспокоило отсутствие абсолютного положения в пространстве или, как его называли, абсолютного пространства, потому что это противоречило его идее абсолютного Бога. И он фактически отказался принять отсутствие абсолютного пространства, несмотря на то, что такое отсутствие вытекало из законов, открытых им самим. Многие резко критиковали Ньютона за его иррациональное упорство, и в частности епископ Беркли ? философ, считавший, что все материальные объекты, а также пространство и время ? иллюзия. (Узнав о таких воззрениях Беркли, знаменитый д-р Джонсон воскликнул: ?Я опровергаю это вот как!? ? и так стукнул ногой по большому камню, что чуть не потерял равновесие).

      И Аристотель, и Ньютон верили в абсолютное время. Иными словами, они считали, что временной интервал между двумя событиями можно однозначно измерить и что результат будет одинаков независимо от того, кто производит измерения, лишь бы у измеряющего были правильные часы. Время было полностью отделено от пространства и считалось не зависящим от него. Такова была точка зрения большинства, точка зрения здравого смысла. Но нам пришлось изменить свои представления о пространстве и времени. Представления, основанные на ?здравом смысле?, относятся к сравнительно медленным объектам (яблоко, планета), но они оказываются совершенно неуместными, когда скорости становятся близкими к скорости света.

      То, что свет распространяется с конечной, хотя и очень большой скоростью, установил в 1676 г. датский астроном Оле Христенсен Рёмер. Он обнаружил, что моменты прохождения спутников Юпитера за его диском следуют один за другим не через равные интервалы, как должно быть, если спутники вращаются вокруг Юпитера с постоянной скоростью. При вращении Земли и Юпитера вокруг Солнца расстояние между этими двумя планетами изменяется. Рёмер заметил, что затмения лун Юпитера тем больше запаздывают, чем дальше мы от него находимся. Он объяснил это тем, что свет от спутников идет до нас дольше, когда мы находимся дальше. Однако Рёмер не очень точно измерял изменения расстояния от Земли до Юпитера, и поэтому полученное им значение скорости света оказалось равным 140.000 миль/с, тогда как современное значение составляет 186.000 миль/с (1 миля = 1,609 км. Современное значение скорости света равно 299.792.458 м/с.  ? прим. перев.). Тем не менее достижение Рёмера было выдающимся, ибо он не только доказал, что свет распространяется с конечной скоростью, но и измерил ее, причем все это за одиннадцать лет до выхода в свет книги Ньютона ?Математические начала?.

      Настоящей теории распространения света не существовало до 1865 г., когда английский физик Джеймс Кларк Максвелл сумел объединить две частные теории, с помощью которых тогда описывали электрические и магнитные силы. Согласно уравнениям Максвелла, в электромагнитном поле, составленном из двух полей, могут существовать волноподобные возмущения, которые распространяются с постоянной скоростью, как волны на поверхности пруда. Если длина волны (т. е. расстояние между гребнями двух соседних волн) составляет метр или больше, то мы имеем дело с радиоволнами. Более короткие волны называются волнами сверхвысокочастотного диапазона (если их длина ? порядка сантиметра) и волнами инфракрасного диапазона (до десяти тысячных сантиметра). Длина волны видимого света составляет всего лишь сорок-восемьдесят миллионных долей сантиметра. Еще короче волны ультрафиолетового, рентгеновского и гамма-излучений.

      Теория Максвелла предсказывала, что радиоволны и свет должны распространяться с некоторой фиксированной скоростью. Но поскольку теория Ньютона покончила с представлением об абсолютном покое, теперь, говоря о фиксированной скорости света, нужно было указать, относительно чего измеряется эта фиксированная скорость. В связи с этим было постулировано существование некой субстанции, названной ?эфиром?, которой наполнено все, даже ?пустое? пространство. Световые волны распространяются в эфире так же, как звуковые в воздухе, и, следовательно, их скорость ? это скорость относительно эфира. Наблюдатели, с разными скоростями движущиеся относительно эфира, должны видеть, что свет идет к ним с разной скоростью, но скорость света относительно эфира должна оставаться при этом неизменной. В частности, коль скоро Земля движется в эфире по своей орбите вокруг Солнца, скорость света, измеренная в направлении движения Земли (при движении в сторону источника света), должна превышать скорость света, измеренную под прямым углом к направлению движения (т. е. когда мы не движемся к источнику). В 1887 г. Альберт Майкельсон (впоследствии ставший первым американцем, удостоенным Нобелевской премии по физике) и Эдвард Морли поставили в Кливлендской школе прикладных наук очень точный эксперимент. Майкельсон и Морли сравнивали значение скорости света, измеренной в направлении движения Земли, с ее значением, измеренным в перпендикулярном направлении. К своему огромному удивлению, они обнаружили, что оба значения совершенно одинаковы!

      С 1887 по 1905 г. был сделан ряд попыток (наиболее известная из которых принадлежит датскому физику Хендрику Лоренцу) объяснить результат эксперимента Майкельсона и Морли тем, что все движущиеся в эфире объекты сокращаются в размерах, а все часы замедляют свой ход. Но в 1905 г. никому доселе не известный служащий Швейцарского патентного бюро по имени Альберт Эйнштейн опубликовал ставшую потом знаменитой работу, в которой было показано, что никакого эфира не нужно, если отказаться от понятия абсолютного времени. Через несколько недель ту же точку зрения высказал один из ведущих французских математиков Анри Пуанкаре. Аргументы, выдвинутые Эйнштейном, были ближе к физике, чем аргументы Пуанкаре, который подошел к этой задаче как к математической. Об Эйнштейне обычно говорят как о создателе новой теории, но и имя Пуанкаре связывают с разработкой важной се части.

      Фундаментальный постулат этой теории относительности, как стали называть новую теорию, состоял в том, что законы науки должны быть одинаковыми для всех свободно движущихся наблюдателей независимо от скорости их движения. Этот постулат был справедлив для законов движения Ньютона, но теперь он был распространен на теорию Максвелла и на скорость света; скорость света, измеренная любыми наблюдателями, должна быть одинакова независимо от того, с какой скоростью движутся сами наблюдатели. Из этого простого принципа вытекает ряд замечательных следствий. Самые известные из них ? это, наверное, эквивалентность массы и энергии, нашедшая свое выражение в знаменитом уравнении Эйнштейна Е = mc^2 (где Е ? энергия, m ? масса, а с ? скорость света), и закон, согласно которому ничто не может двигаться быстрее света. В силу эквивалентности массы и энергии энергия, которой обладает движущийся объект, должна теперь добавляться к его массе. Другими словами, чем больше энергия, тем труднее увеличить скорость. Правда, этот эффект существенен лишь при скоростях, близких к скорости света. Если, например, скорость какого-нибудь объекта составляет 10% скорости света, то его масса лишь на 0,5% больше нормальной, тогда как при скорости, равной 90% скорости света, масса уже в 2 раза превышает нормальную. По мере того как скорость объекта приближается к скорости света, масса растет все быстрее, так что для дальнейшего ускорения требуется все больше и больше энергии. На самом деле скорость объекта никогда не может достичь скорости света, так как тогда его масса стала бы бесконечно большой, а поскольку масса эквивалентна энергии, для достижения такой скорости потребовалась бы бесконечно большая энергия. Таким образом, любой нормальный объект в силу принципа относительности навсегда обречен двигаться со скоростью, не превышающей скорости света. Только свет и другие волны, не обладающие ?собственной? массой, могут двигаться со скоростью света.

      Другое замечательное следствие из постулата относительности ? революция в наших представлениях о пространстве и времени. По теории Ньютона, если световой импульс послан из одной точки в другую, то время его прохождения, измеренное разными наблюдателями, будет одинаковым (поскольку время абсолютно), по пройденный им путь может оказаться разным у разных наблюдателей (так как пространство не является абсолютным). И поскольку скорость света есть пройденное светом расстояние, деленное на время, разные наблюдатели будут получать разные скорости света. В теории относительности же все наблюдатели должны быть согласны в том, с какой скоростью распространяется свет. И коль скоро у них нет согласия в вопросе о расстоянии, пройденном светом, у них не должно быть согласия и в том, сколько времени шел свет. (Время прохождения ? это пройденное светом расстояние, относительно которого нет согласия у наблюдателей, деленное на скорость света, относительно которой все согласны). Иными словами, теория относительности покончила с понятием абсолютного времени! Оказалось, что у каждого наблюдателя должен быть свой масштаб времени, измеряемого с помощью имеющихся у него часов, и что показания одинаковых часов, находящихся у разных наблюдателей, не обязательно согласуются.

 


 

      Всякий наблюдатель может определить, где и когда произошло какое-нибудь событие, методом радиолокации, послав световой импульс или импульс радиоизлучения. Часть посланного сигнала в конце пути отразится назад, и наблюдатель измерит время возврата эхо-сигнала. Временем события будет середина интервала между посылкой сигнала и его возвращением: расстояние до события равно половине времени, затраченного на прохождение туда и обратно, умноженной на скорость света. (Под событием здесь понимается нечто, происходящее в определенной точке пространства в определенный момент времени). Все сказанное поясняется пространственно-временной диаграммой, представленной на рис. 2.1. При изложенном методе наблюдатели, перемещающиеся относительно друг друга, припишут одному и тому же событию разное время и положение в пространстве. Ни одно из измерений, произведенных разными наблюдателями, не будет правильнее других, но все они будут связаны между собой. Каждый наблюдатель может точно вычислить, какое время и какое положение в пространстве припишет событию любой другой наблюдатель, если известна скорость второго наблюдателя относительно первого.

      Для точного определения расстояний сейчас пользуются именно таким методом, потому что время мы умеем измерять точнее, чем длину. Даже метр определяется как расстояние, которое свет проходит за время 0,000000003335640952 секунды, измеренное при помощи цезиевых часов. (Само это число соответствует историческому определению метра как расстояния между двумя отметками на специальном платиновом стержне, хранящемся в Париже). Мы можем пользоваться и более удобной новой единицей длины, которая называется световой секундой. Это просто расстояние, которое свет проходит за одну секунду. В теории относительности расстояние теперь определено через время и скорость света, откуда автоматически следует, что, измеряя скорость света, каждый наблюдатель получит один и тот же результат (по определению 1 метр за 0,000000003335640952 секунды). Теперь не нужно вводить эфир, присутствие которого, кстати, как показал опыт Майкельсона-Морли, и невозможно обнаружить. Однако теория относительности вынуждает нас к фундаментальной смене представлений о пространстве и времени. Нам приходится принять, что время не отделено полностью от пространства и не независимо от него, но вместе с ним образует единый объект, который называется пространством-временем.

      Из повседневного опыта мы знаем, что положение точки в пространстве можно задать тремя числами ? ее координатами. Можно, например, сказать, что некая точка в комнате находится в двух метрах от одной стены, в метре ? от другой и в полутора метрах от пола. А можно также задать ее положение, указав широту, долготу и высоту над уровнем моря. Вы можете пользоваться любыми тремя подходящими координатами, хотя они всегда имеют лишь ограниченную область применимости. Никто не станет, задавая положение Луны, указывать расстояние в километрах на север и на запад от площади Пикадилли и высоту над уровнем моря. Вместо этого можно указать расстояние до Солнца, расстояние до плоскости, в которой лежат орбиты планет, и угол между прямой, соединяющей Луну с Солнцем, и прямой, соединяющей Солнце с какой-нибудь близкой звездой, скажем, с альфой Центавра. Правда, и эти координаты вряд ли подходят для задания положения Солнца в нашей Галактике или положения нашей Галактики среди окружающих нас других галактик. Но можно всю Вселенную разбить на перекрывающиеся ?куски? и для каждого ?куска? ввести свою систему координат, чтобы задавать в нем положение точки.

      Событие ? это нечто, происходящее в определенной точке пространства и в определенный момент времени. Следовательно, событие можно характеризовать четырьмя числами, или координатами. Выбор координат будет опять произвольным: можно взять любые три четко определенные координаты и любую меру времени. В теории относительности нет реального различия между пространственными и временными координатами, как нет различия между двумя любыми пространственными координатами. Можно перейти к новой системе координат, в которой, скажем, первая пространственная координата будет комбинацией первой и второй старых пространственных координат. Например, вместо того чтобы задавать положение точки на поверхности Земли, измеряя в километрах расстояние до нее к северу и к западу от площади Пикадилли, можно было бы откладывать расстояние от той же площади Пикадилли, но к северо-востоку и к северо-западу. Аналогичным образом в теории относительности можно ввести новую временную координату, которая была бы равна сумме старого времени (измеренного в секундах) и расстояния (в световых секундах) к северу от Пикадилли.

 


 

      Четыре координаты какого-либо события можно рассматривать как координаты, определяющие положение этого события в четырехмерном пространстве, которое называется пространством-временем. Четырехмерное пространство представить себе невозможно. Лично я с трудом представляю себе даже трехмерное пространство! Но нетрудно изображать графически двумерные пространства, например, поверхность Земли. (Поверхность Земли двумерна, потому что положение любой точки можно задать двумя координатами ? широтой и долготой). На диаграммах, которыми я буду, как правило, пользоваться, ось времени направлена вверх, а одна из пространственных осей горизонтальна. Два других пространственных измерения либо будут отсутствовать, либо же одно из них я буду иногда изображать в перспективе. (Такие диаграммы, как диаграмма рис. 2.1, называются пространственно-временными диаграммами). Например, на рис. 2.2 ось времени направлена вверх и отсчет на ней ведется в годах, а расстояние от Солнца до звезды альфа Центавра отложено по горизонтальной оси и измеряется в милях. Траектории Солнца и альфы Центавра, возникающие при их перемещении в пространстве-времени, показаны на диаграмме вертикальными линиями: первая ? слева, а вторая ? справа. Луч света от Солнца распространяется по диагонали, и он доходит от Солнца до альфы Центавра за четыре года.

 


 

      Мы видели, что уравнения Максвелла предсказывают постоянство скорости света независимо от скорости источника и эти предсказания подтверждаются точными измерениями. Отсюда следует, что световой импульс, испущенный в некоторый момент времени из некоторой точки пространства, с течением времени будет распространяться во все стороны, превращаясь в световую сферу, размеры и положение которой зависят от скорости источника. Через одну миллионную долю секунды свет образует сферу радиусом 300 метров; через две миллионные доли секунды радиус сферы увеличится до 600 метров и т. д. Картина будет напоминать волны па воде, расходящиеся по поверхности пруда от брошенного камня. Эти волны расходятся, как круг, расширяющийся со временем. Если представить себе трехмерную модель, два измерения которой на поверхности пруда, а одно ? ось времени, то в такой модели расходящийся по воде круг будет ?следом? конуса с вершиной, находившейся в момент падения камня в той точке на поверхности пруда, в которой камень коснулся воды (рис. 2.3). Точно так же свет, распространяясь из некоего события в четырехмерном пространстве-времени, образует в нем трехмерный конус. Этот конус называется световым конусом будущего для данного события. Можно нарисовать и другой конус, который называется световым конусом прошлого и представляет множество событий, из которых световой импульс может попасть в точку, соответствующую данному событию (рис. 2.4).

 


 

      Световые конусы прошлого и будущего для данного события Р делят пространство-время на три области (рис. 2.5). Абсолютное будущее данного события ? это область, заключенная внутри светового конуса будущего события Р. Это совокупность всех событий, на которые в принципе может повлиять то, что происходит в точке Р. События, лежащие вне светового конуса события Р, недостижимы для сигналов, идущих из точки Р, так как ничто не может двигаться быстрее света. Следовательно, на них никак не сказывается происходящее в точке Р. Абсолютное прошлое событие Р лежит внутри светового конуса прошлого. Это множество всех событий, сигналы от которых, распространяющиеся со скоростью света или с меньшей скоростью, могут попасть в точку Р. Таким образом, в конусе прошлого лежит множество всех событий, которые могут влиять на событие в точке Р. Зная, что происходит в какой-то момент времени всюду в той области пространства, которая ограничена световым конусом прошлого события Р, можно предсказать, что должно произойти в самой точке Р. Область пространства, не лежащую внутри световых конусов прошлого и будущего, мы будем называть внешней. События, принадлежащие внешней области, не могут ни сами влиять на события в точке Р, ни оказаться под влиянием происходящих в Р событий. Если, например, Солнце прямо сейчас вдруг перестанет светить, то в настоящий момент это никак не повлияет на земную жизнь, так как мы все еще будем находиться в области, внешней но отношению к той точке, в которой Солнце потухло (рис. 2.6), а узнаем обо всем лишь через восемь минут ? время, за которое свет от Солнца достигает Земли. Только тогда происходящие на Земле события попадут в световой конус будущего той точки, в которой Солнце потухло. По той же причине мы не знаем, что в данный момент происходит далеко во Вселенной: дошедший до нас свет далеких галактик был испущен миллион лет назад, а свет от самого далекого наблюдаемого объекта шел к нам 8 тысяч миллионов лет. Это значит, что, всматриваясь во Вселенную, мы видим ее в прошлом.

 


 

      Если пренебречь гравитационными эффектами, как это сделали в 1905 г. Эйнштейн и Пуанкаре, то мы придем к так называемой специальной (или частной) теории относительности. Для каждого события в пространстве-времени мы можем построить световой конус (представляющий собой множество всех возможных путей, по которым распространяется свет, испущенный в рассматриваемой точке), а поскольку скорость света одинакова для любого события и в любом направлении, все световые конусы будут одинаковы и ориентированы в одном направлении. Кроме того, эта теория говорит нам, что ничто не может двигаться быстрее света. Это означает, что траектория любого объекта во времени и в пространстве должна представляться линией, лежащей внутри световых конусов для всех событий на ней (рис. 2.7).

 


 

      Специальная теория относительности позволила объяснить постоянство скорости света для всех наблюдателей (установленное в опыте Майкельсона и Морли) и правильно описывала, что происходит при движении со скоростями, близкими к скорости света. Однако новая теория противоречила ньютоновской теории гравитации, согласно которой объекты притягиваются друг к другу с силой, зависящей от расстояния между ними. Последнее означает, что, если сдвинуть один из объектов, сила, действующая на другой, изменится мгновенно. Иначе говоря, скорость распространения гравитационных эффектов должна быть бесконечной, а не равной (или меньшей) скорости света, как того требовала теория относительности. С 1908 по 1914 г. Эйнштейн предпринял ряд безуспешных попыток построить такую модель гравитации, которая согласовалась бы со специальной теорией относительности. Наконец в 1915 г. он опубликовал теорию, которая сейчас называется общей теорией относительности.

 


 

      Эйнштейн высказал предположение революционного характера: гравитация ? это не обычная сила, а следствие того, что пространство-время не является плоским, как считалось раньше; оно искривлено распределенными в нем массой и энергией. Такие тела, как Земля, вовсе не принуждаются двигаться по искривленным орбитам гравитационной силой; они движутся по линиям, которые в искривленном пространстве более всего соответствуют прямым в обычном пространстве и называются геодезическими. Геодезическая ? это самый короткий (или самый длинный) путь между двумя соседними точками. Например, поверхность Земли есть искривленное двумерное пространство. Геодезическая на Земле называется большим кругом и является самым коротким путем между двумя точками (рис. 2.8). Поскольку самый короткий путь между двумя аэропортами ? по геодезической, диспетчеры всегда задают пилотам именно такой маршрут. Согласно общей теории относительности, тела всегда перемещаются по прямым в четырехмерном пространстве-времени, но мы видим, что в нашем трехмерном пространстве они движутся по искривленным траекториям. (Понаблюдайте за самолетом над холмистой местностью. Сам он летит по прямой в трехмерном пространстве, а его тень перемещается по кривой на двумерной поверхности Земли).

      Масса Солнца так искривляет пространство-время, что, хотя Земля движется по прямой в четырехмерном пространстве, мы видим, что в нашем трехмерном пространстве она движется по круговой орбите. Орбиты планет, предсказываемые общей теорией относительности, почти совпадают с предсказаниями ньютоновской теории тяготения. Однако в случае Меркурия, который, будучи ближайшей к Солнцу планетой, испытывает самое сильное действие гравитации и имеет довольно вытянутую орбиту, общая теория относительности предсказывает, что большая ось эллипса должна поворачиваться вокруг Солнца примерно на один градус в десять тысяч лет. Несмотря на его малость, этот эффект был замечен еще до 1915 г. и рассматривался как одно из подтверждений теории Эйнштейна. В последние годы радиолокационным методом были измерены еще меньшие отклонения орбит других планет от предсказаний Ньютона, и они согласуются с предсказаниями общей теории относительности.

 


 

      Лучи света тоже должны следовать геодезическим в пространстве-времени. Искривленность пространства означает, что свет уже не распространяется прямолинейно. Таким образом, согласно обшей теории относительности, луч света должен изгибаться в гравитационных полях, и, например, световые конусы точек, находящихся вблизи Солнца, должны быть немного деформированы под действием массы Солнца. Это значит, что луч света от далекой звезды, проходящий рядом с Солнцем, должен отклониться на небольшой угол, и наблюдатель, находящийся на Земле, увидит эту звезду в другой точке (рис. 2.9). Конечно, если бы свет от данной звезды всегда проходил рядом с Солнцем, мы не могли бы сказать, отклоняется ли луч света или же звезда действительно находится там, где мы ее видим. Но вследствие обращения Земли все новые звезды заходят за солнечный диск, и их свет отклоняется. В результате их видимое положение относительно остальных звезд меняется.

      В нормальных условиях этот эффект очень труден для наблюдения, так как яркий солнечный свет не позволяет видеть звезды, находящиеся на небе рядом с Солнцем. Но такая возможностьпоявляется во время солнечного затмения, когда Луна перекрывает солнечный свет. В 1915 г. никто не смог сразу проверить предсказанное Эйнштейном отклонение света, потому что шла Первая мировая война. Лишь в 1919 г. английская экспедиция в Западной Африке, наблюдавшая там солнечное затмение, показала, что свет действительно отклоняется Солнцем так, как и предсказывала теория. То, что английские ученые доказали правильность теории, родиной которой была Германия, приветствовалось как еще один великий акт примирения обеих стран после войны. Но, хотя это выглядит иронично, проведенный позднее анализ фотографий, полученных этой экспедицией, показал ошибки измерения того же порядка, что и измеряемый эффект. Результат англичан был либо чистым везением, либо тем нередким в науке случаем, когда получают то, что хотелось получить. Правда, отклонение света Солнцем было впоследствии точно подтверждено целым рядом наблюдений.

      Еще одно предсказание общей теории относительности состоит в том, что вблизи массивного тела типа Земли время должно течь медленнее. Это следует из того, что должно выполняться определенное соотношение между энергией света и его частотой (т. с. числом световых волн в секунду): чем больше энергия, тем выше частота. Если свет распространяется вверх в гравитационном поле Земли, то он теряет энергию, а потому его частота уменьшается. (Это означает, что увеличивается интервал времени между гребнями двух соседних волн). Наблюдателю, расположенному на большой высоте, должно казаться, что внизу все происходит медленнее. Это предсказание было проверено в 1962 г. с помощью двух очень точных часов, расположенных: одни на самом верху водонапорной башни, а вторые ? у ее подножья.

      Оказалось, что нижние часы, которые были ближе к Земле, в точном соответствии с общей теорией относительности шли медленнее. Разница в ходе часов на разной высоте над поверхностью Земли приобрела сейчас огромное практическое значение в связи с появлением очень точных навигационных систем, работающих на сигналах со спутников. Если не принимать во внимание предсказаний общей теории относительности, то координаты будут рассчитаны с ошибкой в несколько километров!

      Законы движения Ньютона покончили с абсолютным положением в пространстве. Теория относительности освободила нас от абсолютного времени. Возьмем пару близнецов. Предположим, что один из них отправился жить на вершину горы, а другой остался на уровне моря. Тогда первый состарится быстрее, чем второй, и поэтому при встрече один из них будет выглядеть старше другого. Правда, разница в возрасте была бы совсем мала, но она сильно увеличилась бы, если бы один из близнецов отправился в долгое путешествие на космическом корабле со скоростью, близкой к скорости света. По возвращении он оказался бы значительно моложе своего брата, который оставался на Земле. Это так называемый парадокс близнецов, но он парадокс лишь для того, кто в глубине души верит в абсолютное время. В общей теории относительности нет единого абсолютного времени; каждый индивидуум имеет свой собственный масштаб времени, зависящий от того, где этот индивидуум находится и как он движется.

      До 1915 г. пространство и время воспринимались как некая жесткая арена для событий, на которую все происходящее на ней никак не влияет. Так обстояло дело даже в специальной теории относительности. Тела двигались, силы притягивали и отталкивали, но время и пространство просто оставались самими собой, их это не касалось. И было естественно думать, что пространство и время бесконечны и вечны.

      В общей же теории относительности ситуация совершенно иная. Пространство и время теперь динамические величины: когда движется тело или действует сила, это изменяет кривизну пространства и времени, а структура пространства-времени в свою очередь влияет на то, как движутся тела и действуют силы. Пространство и время не только влияют на все, что происходит во Вселенной, но и сами изменяются под влиянием всего в ней происходящего. Как без представлений о пространстве и времени нельзя говорить о событиях во Вселенной, так в общей теории относительности стало бессмысленным говорить о пространстве и времени за пределами Вселенной.

      В последующие десятилетия новому пониманию пространства и времени предстояло произвести переворот в наших взглядах на Вселенную. Старое представление о почти не меняющейся Вселенной, которая, может быть, всегда существовала и будет существовать вечно, сменилось картиной динамической, расширяющейся Вселенной, которая, по-видимому, возникла когда-то в прошлом и, возможно, закончит свое существование когда-то в будущем. Эта революция в нашем сознании (ей будет посвящена следующая глава) явилась отправной точкой моих исследований в теоретической физике. Мы с Роджером Пенроузом показали, что, согласно общей теории относительности Эйнштейна, Вселенная должна иметь начало, а может быть, и конец.

3. Расширяющаяся Вселенная

      Если в ясную безлунную ночь посмотреть на небо, то, скорее всего, самыми яркими объектами, которые вы увидите, будут планеты Венера, Марс, Юпитер и Сатурн. Кроме того, вы увидите огромное количество звезд, похожих на наше Солнце, но находящихся гораздо дальше от нас. При обращении Земли вокруг Солнца некоторые из этих ?неподвижных? звезд чуть-чуть меняют свое положение относительно друг друга, т. е. на самом деле они вовсе не неподвижны! Дело в том, что они несколько ближе к нам, чем другие. Поскольку же Земля вращается вокруг Солнца, близкие звезды видны все время в разных точках фона более удаленных звезд. Благодаря этому можно непосредственно измерить расстояние от нас до этих звезд: чем они ближе, тем сильнее заметно их перемещение. Самая близкая звезда, называемая Проксимой Центавра, находится от нас на расстоянии приблизительно четырех световых лет (т. е. свет от нее идет до Земли около четырех лет), или около 37 триллионов километров (37*1012). Большинство звезд, видимых невооруженным глазом, удалены от нас на несколько сотен световых лет. Сравните это с расстоянием до нашего Солнца, составляющим всего восемь световых минут! Видимые звезды рассыпаны но всему ночному небу, но особенно густо в той полосе, которую мы называем Млечным Путем. Еще в 1750 г. некоторые астрономы высказывали мысль, что существование Млечного Пути объясняется тем, что большая часть видимых звезд образует одну дискообразную конфигурацию ? пример того, что сейчас называется спиральной галактикой. Лишь через несколько десятилетий астроном Уильям Гершель подтвердил это предположение, выполнив колоссальную работу но составлению каталога положений огромного количества звезд и расстояний до них. Но даже после этого представление о спиральных галактиках было принято всеми лишь в начале нашего века.

      Современная картина Вселенной возникла только в 1924 г., когда американский астроном Эдвин Хаббл показал, что наша Галактика не единственная. На самом деле существует много других галактик, разделенных огромными областями пустого пространства. Для доказательства Хабблу требовалось определить расстояния до этих галактик, которые настолько велики, что, в отличие от положений близких звезд, видимые положения галактик действительно не меняются. Поэтому для измерения расстояний Хаббл был вынужден прибегнуть к косвенным методам. Видимая яркость звезды зависит от двух факторов: от того, какое количество света излучает звезда (ее светимости), и от того, гдe она находится. Яркость близких звезд и расстояние до них мы можем измерить; следовательно, мы можем вычислить и их светимость. И наоборот, зная светимость звезд в других галактиках, мы могли бы вычислить расстояние до них, измерив их видимую яркость. Хаббл заметил, что светимость некоторых типов звезд всегда одна и та же, когда они находятся достаточно близко для того, чтобы можно было производить измерения. Следовательно, рассуждал Хаббл, если такие звезды обнаружатся в другой галактике, то, предположив у них такую же светимость, мы сумеем вычислить расстояние до этой галактики. Если подобные расчеты для нескольких звезд одной и той же галактики дадут один и тот же результат, то полученную оценку расстояния можно считать надежной.

 


 

      Таким путем Хаббл рассчитал расстояния до девяти разных галактик. Теперь известно, что наша Галактика ? одна из нескольких сотен тысяч миллионов галактик, которые можно наблюдать в современные телескопы, а каждая из этих галактик в свою очередь содержит сотни тысяч миллионов звезд. На рис. 3.1 показано, какой увидел бы нашу Галактику наблюдатель, живущий в какой-нибудь другой галактике. Наша Галактика имеет около ста тысяч световых лет в поперечнике. Она медленно вращается, а звезды в ее спиральных рукавах каждые несколько сотен миллионов лет делают примерно один оборот вокруг ее центра. Наше Солнце представляет собой обычную желтую звезду средней величины, расположенную на внутренней стороне одного из спиральных рукавов. Какой же огромный путь мы прошли от Аристотеля и Птолемея, когда Земля считалась центром Вселенной!

      Звезды находятся так далеко от нас, что кажутся просто светящимися точками в небе. Мы не различаем ни их размеров, ни формы. Как же можно говорить о разных типах звезд? Для подавляющего большинства звезд существует только одно характерное свойство, которое можно наблюдать ? это цвет идущего от них света. Ньютон открыл, что, проходя через трехгранный кусок стекла, называемый призмой, солнечный свет разлагается, как в радуге, на цветовые компоненты (спектр). Настроив телескоп на какую-нибудь отдельную звезду или галактику, можно аналогичным образом разложить в спектр свет, испускаемый этой звездой или галактикой. Разные звезды имеют разные спектры, но относительная яркость разных цветов всегда в точности такая же, как в свете, который излучает какой-нибудь раскаленный докрасна предмет. (Свет, излучаемый раскаленным докрасна непрозрачным предметом, имеет очень характерный спектр, зависящий только от температуры предмета ? тепловой спектр. Поэтому мы можем определить температуру звезды по спектру излучаемого ею света). Кроме того, мы обнаружим, что некоторые очень специфические цвета вообще отсутствуют в спектрах звезд, причем отсутствующие цвета разные для разных звезд. Поскольку, как мы знаем, каждый химический элемент поглощает свой определенный набор характерных цветов, мы можем сравнить их с теми цветами, которых нет в спектре звезды, и таким образом точно определить, какие элементы присутствуют в ее атмосфере.

      В 20-х годах, когда астрономы начали исследование спектров звезд других галактик, обнаружилось нечто еще более странное: в нашей собственной Галактике оказались те же самые характерные наборы отсутствующих цветов, что и у звезд, но все они были сдвинуты на одну и ту же величину к красному концу спектра. Чтобы понять смысл сказанного, следует сначала разобраться с эффектом Доплера. Как мы уже знаем, видимый свет ? это колебания, или волны электромагнитного поля. Частота (число волн в одну секунду) световых колебаний чрезвычайно высока ? от четырехсот до семисот миллионов миллионов волн в секунду. Человеческий глаз воспринимает свет разных частот как разные цвета, причем самые низкие частоты соответствуют красному концу спектра, а самые высокие ? фиолетовому. Представим себе источник света, расположенный на фиксированном расстоянии от нас (например, звезду), излучающий с постоянной частотой световые волны. Очевидно, что частота приходящих волн будет такой же, как та, с которой они излучаются (пусть гравитационное поле галактики невелико и его влияние несущественно). Предположим теперь, что источник начинает двигаться в нашу сторону. При испускании следующей волны источник окажется ближе к нам, а потому время, за которое гребень этой волны до нас дойдет, будет меньше, чем в случае неподвижной звезды. Стало быть, время между гребнями двух пришедших волн будет меньше, а число волн, принимаемых нами за одну секунду (т. е. частота), будет больше, чем когда звезда была неподвижна. При удалении же источника частота приходящих волн будет меньше. Это означает, что спектры удаляющихся звезд будут сдвинуты к красному концу (красное смещение), а спектры приближающихся звезд должны испытывать фиолетовое смещение. Такое соотношение между скоростью и частотой называется эффектом Доплера, и этот эффект обычен даже в нашей повседневной жизни. Прислушайтесь к тому, как идет по шоссе машина: когда она приближается, звук двигателя выше (т. е. выше частота испускаемых им звуковых волн), а когда, проехав мимо, машина начинает удаляться, звук становится ниже. Световые волны и радиоволны ведут себя аналогичным образом. Эффектом Доплера пользуется полиция, определяя издалека скорость движения автомашин по частоте радиосигналов, отражающихся от них. Доказав, что существуют другие галактики, Хаббл все последующие годы посвятил составлению каталогов расстояний до этих галактик и наблюдению их спектров. В то время большинство ученых считали, что движение галактик происходит случайным образом и поэтому спектров, смещенных в красную сторону, должно наблюдаться столько же, сколько и смещенных в фиолетовую. Каково же было удивление, когда у большей части галактик обнаружилось красное смещение спектров, т. е. оказалось, что почти все галактики удаляются от нас! Еще более удивительным было открытие, опубликованное Хабблом в 1929 г.: Хаббл обнаружил, что даже величина красного смещения не случайна, а прямо пропорциональна расстоянию от нас до галактики. Иными словами, чем дальше находится галактика, тем быстрее она удаляется! А это означало, что Вселенная не может быть статической, как думали раньше, что на самом деле она непрерывно расширяется и расстояния между галактиками все время растут.

      Открытие расширяющейся Вселенной было одним из великих интеллектуальных переворотов двадцатого века. Задним числом мы можем лишь удивляться тому, что эта идея не пришла никому в голову раньше. Ньютон и другие ученые должны были бы сообразить, что статическая Вселенная вскоре обязательно начала бы сжиматься под действием гравитации. Но предположим, что Вселенная, наоборот, расширяется. Если бы расширение происходило достаточно медленно, то под действием гравитационной силы оно в конце концов прекратилось бы и перешло в сжатие. Однако если бы скорость расширения превышала некоторое критическое значение, то гравитационного взаимодействия не хватило бы, чтобы остановить расширение, и оно продолжалось бы вечно. Все это немного напоминает ситуацию, возникающую, когда с поверхности Земли запускают вверх ракету. Если скорость ракеты не очень велика, то из-за гравитации она в конце концов остановится и начнет падать обратно. Если же скорость ракеты больше некоторой критической (около одиннадцати километров в секунду), то гравитационная сила не сможет ее вернуть, и ракета будет вечно продолжать свое движение от Земли. Расширение Вселенной могло быть предсказано на основе ньютоновской теории тяготения в XIX, XVIII и даже в конце XVII века. Однако вера в статическую Вселенную была столь велика, что жила в умах еще в начале нашего века. Даже Эйнштейн, разрабатывая в 1915 г. общую теорию относительности, был уверен в статичности Вселенной. Чтобы не вступать в противоречие со статичностью, Эйнштейн модифицировал свою теорию, введя в уравнения так называемую космологическую постоянную. Он ввел новую ?антигравитационную? силу, которая в отличие от других сил не порождалась каким-либо источником, а была заложена в саму структуру пространства-времени. Эйнштейн утверждал, что пространство-время само по себе всегда расширяется и этим расширением точно уравновешивается притяжение всей остальной материи во Вселенной, так что в результате Вселенная оказывается статической. По-видимому, лишь один человек полностью поверил в общую теорию относительности: пока Эйнштейн и другие физики думали над тем, как обойти нестатичность Вселенной, предсказываемую этой теорией, русский физик и математик А. А. Фридман, наоборот, занялся ее объяснением.

      Фридман сделал два очень простых исходных предположения: во-первых, Вселенная выглядит одинаково, в каком бы направлении мы ее ни наблюдали, и во-вторых, это утверждение должно оставаться справедливым и в том случае, если бы мы производили наблюдения из какого-нибудь другого места. Не прибегая ни к каким другим предположениям, Фридман показал, что Вселенная не должна быть статической. В 1922 г., за несколько лет до открытия Хаббла, Фридман в точности предсказал его результат!

      Предположение об одинаковости Вселенной во всех направлениях на самом деле, конечно, не выполняется. Как мы, например, уже знаем, другие звезды в нашей Галактике образуют четко выделяющуюся светлую полосу, которая идет пo всему небу ночью ? Млечный Путь. Нo если говорить о далеких галактиках, то их число во всех направлениях примерно одинаково. Следовательно, Вселенная действительно ?примерно? одинакова во всех направлениях ? при наблюдении в масштабе, большом по сравнению с расстоянием между галактиками, когда отбрасываются мелкомасштабные различия.

      Долгое время это было единственным обоснованием гипотезы Фридмана как ?грубого? приближения к реальной Вселенной. Но потом по некоей случайности выяснилось, что гипотеза Фридмана и в самом деле дает удивительно точное описание нашей Вселенной.

      В 1965 г. два американских физика, Арно Пензиас и Роберт Вильсон, работавших на фирме Bell Laboratories в шт. Нью-Джерси, испытывали очень чувствительный ?микроволновый?, т. е. сверхвысокочастотный (СВЧ), детектор. (Микроволны ? это то же, что и световые волны, но их частота всего лишь десять тысяч миллионов волн в секунду). Пензиас и Вильсон заметили, что уровень шума, регистрируемого их детектором, выше, чем должно быть. Этот шум не был направленным, приходящим с какой-то определенной стороны. Сначала названные исследователи обнаружили в детекторе птичий помет и пытались объяснить эффект другими причинами подобного рода, но потом все такие ?факторы? были исключены. Они знали, что любой шум, приходящий из атмосферы, всегда сильнее не тогда, когда детектор направлен прямо вверх, а когда он наклонен, потому что лучи света, идущие из-за горизонта, проходят через значительно более толстые слои атмосферы, чем лучи, попадающие в детектор прямо сверху. ?Лишний? же шум одинаков, куда бы ни направлять детектор. Следовательно, источник шума должен находиться за пределами атмосферы. Шум был одинаковым и днем, и ночью, и вообще в течение года, несмотря на то что Земля вращается вокруг своей оси и продолжает свое вращение вокруг Солнца. Это означало, что источник излучения находится за пределами Солнечной системы и даже за пределами нашей Галактики, ибо в противном случае интенсивность излучения изменялась бы, поскольку в связи с движением Земли детектор меняет свою ориентацию. Как мы знаем, по пути к нам излучение проходит почти через всю наблюдаемую Вселенную. Коль скоро же оно одинаково во всех направлениях, то, значит, и сама Вселенная одинакова во всех направлениях, по крайней мере в крупном масштабе. Теперь нам известно, что, в каком бы направлении мы ни производили наблюдения, этот шум изменяется не больше, чем на одну десятитысячную. Так Пензиас и Вильсон, ничего не подозревая, дали удивительно точное подтверждение первого предположения Фридмана.

      Приблизительно в это же время два американских физика из расположенного по соседству Принстонского университета, Боб Дикке и Джим Пиблс, тоже занимались исследованием микроволн. Они проверяли предположение Джорджа Гамова (бывшего ученика А. А. Фридмана) о том, что ранняя Вселенная была очень горячей, плотной и раскаленной добела. Дикке и Пиблс высказали ту мысль, что мы можем видеть свечение ранней Вселенной, ибо свет, испущенный очень далекими ее областями, мог бы дойти до нас только сейчас. Но из-за расширения Вселенной красное смещение светового спектра должно быть так велико, что дошедший до нас свет будет уже микроволновым (СВЧ) излучением. Дикке и Пиблс готовились к поиску такого излучения, когда Пензиас и Вильсон, узнав о работе Дикке и Пиблса, сообразили, что они его уже нашли. За этот эксперимент Пензиас и Вильсон были удостоены Нобелевской премии 1978 г. (что было не совсем справедливо, если вспомнить о Дикке и Пиблсе, не говоря уже о Гамове!).

      Правда, на первый взгляд, тот факт, что Вселенная кажется нам одинаковой во всех направлениях, может говорить о какой-то выделенности нашего местоположения во Вселенной. В частности, раз мы видим, что все остальные галактики удаляются от нас, значит, мы находимся в центре Вселенной. Но есть и другое объяснение: Вселенная будет выглядеть одинаково во всех направлениях и в том случае, если смотреть на нее из какой-нибудь другой галактики. Это, как мы знаем, вторая гипотеза Фридмана. У нас нет научных доводов ни за, ни против этого предположения, и мы приняли его, так сказать, из скромности: было бы крайне странно, если бы Вселенная казалась одинаковой во всех направлениях только вокруг нас, а в других ее точках этого не было! В модели Фридмана все галактики удаляются друг от друга. Это вроде бы как надутый шарик, на который нанесены точки, если его все больше надувать. Расстояние между любыми двумя точками увеличивается, но ни одну из них нельзя назвать центром расширения. Притом чем больше расстояние между точками, тем быстрее они удаляются друг от друга. Но и в модели Фридмана скорость, с которой любые две галактики удаляются друг от друга, пропорциональна расстоянию между ними. Таким образом, модель Фридмана предсказывает, что красное смешение галактики должно быть прямо пропорционально ее удаленности от нас, в точном соответствии с открытием Хаббла. Несмотря на успех этой модели и на согласие ее предсказаний с наблюдениями Хаббла, работа Фридмана оставалась неизвестной на Западе, и лишь в 1935 г. американский физик Говард Робертсон и английский математик Артур Уолкер предложили сходные модели в связи с открытием Хаббла.

 


 

      Сам Фридман рассматривал только одну модель, но можно указать три разные модели, для которых выполняются оба фундаментальных предположения Фридмана. В модели первого типа (открытой самим Фридманом) Вселенная расширяется достаточно медленно для того, чтобы в силу гравитационного притяжения между различными галактиками расширение Вселенной замедлялось и в конце концов прекращалось. После этого галактики начинают приближаться друг к другу, и Вселенная начинает сжиматься. На рис. 3.2 показано, как меняется со временем расстояние между двумя соседними галактиками. Оно возрастает от нуля до некоего максимума, а потом опять падает до нуля. В модели второго типа расширение Вселенной происходит так быстро, что гравитационное притяжение хоть и замедляет расширение, не может его остановить. На рис. 3.3 показано, как изменяется в этой модели расстояние между галактиками. Кривая выходит из нуля, а в конце концов галактики удаляются друг от друга с постоянной скоростью. Есть, наконец, и модель третьего типа, в которой скорость расширения Вселенной только-только достаточна для того, чтобы избежать сжатия до нуля (коллапса). В этом случае расстояние между галактиками тоже сначала равно нулю (рис. 3.4), а потом все время возрастает. Правда, галактики ?разбегаются? все с меньшей и меньшей скоростью, но она никогда не падает до нуля.

      Модель Фридмана первого типа удивительна тем, что в ней Вселенная не бесконечна в пространстве, хотя пространство не имеет границ. Гравитация настолько сильна, что пространство, искривляясь, замыкается с самим собой, уподобляясь земной поверхности. Ведь, перемещаясь в определенном направлении по поверхности Земли, вы никогда не натолкнетесь на абсолютно непреодолимую преграду, не вывалитесь через край и в конце концов вернетесь в ту же самую точку, откуда вышли. В первой модели Фридмана пространство такое же, но только вместо двух измерений, поверхность Земли имеет три измерения. Четвертое измерение, время, тоже имеет конечную протяженность, но оно подобно отрезку прямой, имеющему начало и конец. Потом мы увидим, что если общую теорию относительности объединить с квантово-механическим принципом неопределенности, то окажется, что и пространство, и время могут быть конечными, не имея при этом ни краев, ни границ.

      Мысль о том, что можно обойти вокруг Вселенной и вернуться в то же место, годится для научной фантастики, но не имеет практического значения, ибо, как можно показать, Вселенная успеет сжаться до нуля до окончания обхода. Чтобы вернуться в исходную точку до наступления конца Вселенной, пришлось бы передвигаться со скоростью, превышающей скорость света, а это невозможно!

      В первой модели Фридмана (в которой Вселенная расширяется и сжимается) пространство искривляется, замыкаясь само на себя, как поверхность Земли. Поэтому размеры его конечны. Во второй же модели, в которой Вселенная расширяется бесконечно, пространство искривлено иначе, как поверхность седла. Таким образом, во втором случае пространство бесконечно. Наконец, в третьей модели Фридмана (с критической скоростью расширения) пространство плоское (и, следовательно, тоже бесконечное).

      Но какая же из моделей Фридмана годится для нашей Вселенной? Перестанет ли Вселенная наконец расширяться и начнет сжиматься или же будет расширяться вечно? Чтобы ответить на этот вопрос, нужно знать нынешнюю скорость расширения Вселенной и ее среднюю плотность. Если плотность меньше некоторого критического значения, зависящего от скорости расширения, то гравитационное притяжение будет слишком мало, чтобы остановить расширение. Если же плотность больше критической, то в какой-то момент в будущем из-за гравитации расширение Вселенной прекратится и начнется сжатие.

      Сегодняшнюю скорость расширения Вселенной можно определить, измеряя (по эффекту Доплера) скорости удаления от нас других галактик. Такие измерения можно выполнить очень точно. Но расстояния до других галактик нам плохо известны, потому что их нельзя измерить непосредственно. Мы знаем лишь, что Вселенная расширяется за каждую тысячу миллионов лет на 5-10%. Однако неопределенность в современном значении средней плотности Вселенной еще больше. Если сложить массы всех наблюдаемых звезд в нашей и других галактиках, то даже при самой низкой оценке скорости расширения сумма окажется меньше одной сотой той плотности, которая необходима для того, чтобы расширение Вселенной прекратилось. Однако и в нашей, и в других галактиках должно быть много темной материи, которую нельзя видеть непосредственно, но о существовании которой мы узнаем по тому, как ее гравитационное притяжение влияет на орбиты звезд в галактиках. Кроме того, галактики в основном наблюдаются в виде скоплений, и мы можем аналогичным образом сделать вывод о наличии еще большего количества межгалактической темной материи внутри этих скоплений, влияющего на движение галактик. Сложив массу всей темной материи, мы получим лишь одну десятую того количества, которое необходимо для прекращения расширения. Но нельзя исключить возможность существования и какой-то другой формы материи, распределенной равномерно по всей Вселенной и еще не зарегистрированной, которая могла бы довести среднюю плотность Вселенной до критического значения, необходимого, чтобы остановить расширение. Таким образом, имеющиеся данные говорят о том, что Вселенная, вероятно, будет расширяться вечно. Единственное, в чем можно быть совершенно уверенным, так это в том, что если сжатие Вселенной все-таки произойдет, то никак не раньше, чем через десять тысяч миллионов лет, ибо по крайней мере столько времени она уже расширяется. Но это не должно нас слишком сильно тревожить: к тому времени, если мы не переселимся за пределы Солнечной системы, человечества давно уже не будет ? оно угаснет вместе с Солнцем!

      Все варианты модели Фридмана имеют то общее, что в какой-то момент времени в прошлом (десять-двадцать тысяч миллионов лет назад) расстояние между соседними галактиками должно было равняться нулю. В этот момент, который называется большим взрывом, плотность Вселенной и кривизна пространства-времени должны были быть бесконечными.

      Поскольку математики реально не умеют обращаться с бесконечно большими величинами, это означает, что, согласно общей теории относительности (на которой основаны решения Фридмана), во Вселенной должна быть точка, в которой сама эта теория неприменима. Такая точка в математике называется особой (сингулярной). Все наши научные теории основаны на предположении, что пространство-время гладкое и почти плоское, а потому все эти теории неверны в сингулярной точке большого взрыва, в которой кривизна пространства-времени бесконечна. Следовательно, даже если бы перед большим взрывом происходили какие-нибудь события, по ним нельзя было бы спрогнозировать будущее, так как в точке большого взрыва возможности предсказания свелись бы к нулю. Точно так же, зная только то, что произошло после большого взрыва (а мы знаем только это), мы не сможем узнать, что происходило до него. События, которые произошли до большого взрыва, не могут иметь никаких последствий, касающихся нас, и поэтому не должны фигурировать в научной модели Вселенной. Следовательно, нужно исключить их из модели и считать началом отсчета времени момент большого взрыва.

      Мысль о том, что у времени было начало, многим не нравится, возможно, тем, что в ней есть намек на вмешательство божественных сил. (В то же время за модель большого взрыва ухватилась Католическая Церковь и в 1951 г. официально провозгласила, что модель большого взрыва согласуется с Библией). В связи с этим известно несколько попыток обойтись без большого взрыва. Наибольшую поддержку получила модель стационарной Вселенной. Ее авторами в 1948 г. были X. Бонди и Т. Гоулд, бежавшие из оккупированной нацистами Австрии, и англичанин Ф. Хойл, который во время войны работал с ними над проблемой радиолокации. Их идея состояла в том, что по мере разбегания галактик на освободившихся местах из нового непрерывно рождающегося вещества все время образуются новые галактики. Следовательно, Вселенная должна выглядеть примерно одинаково во все моменты времени и во всех точках пространства. Конечно, для непрерывного ?творения? вещества требовалась некоторая модификация теории относительности, но нужная скорость творения оказывалась столь малой (одна частица на кубический километр в год), что не возникало никаких противоречий с экспериментом. Стационарная модель ? это пример хорошей научной теории в смысле критериев главы 1: она простая и дает определенные предсказания, которые можно проверять путем наблюдений. Одно из ее предсказаний таково: должно быть постоянным число галактик и других аналогичных объектов в любом заданном объеме пространства независимо от того, когда и где во Вселенной производятся наблюдения. В конце 50-х-начале 60-х годов астрономы из Кембриджского университета под руководством М. Райла (который во время войны вместе с Бонди, Гоулдом и Хойлом тоже занимался разработкой радиолокации) составили каталог источников радиоволн, приходящих из внешнего пространства. Эта кембриджская группа показала, что большая часть этих радиоисточников должна находиться вне нашей Галактики (многие источники можно было отождествить даже с другими галактиками) и, кроме того, что слабых источников гораздо больше, чем сильных. Слабые источники интерпретировались как более удаленные, а сильные ? как те, что находятся ближе. Далее, оказалось, что число обычных источников в единице объема в удаленных областях больше, чем вблизи. Это могло означать, что мы находимся в центре огромной области Вселенной, в которой меньше источников, чем в других местах. Но, возможно, было и другое объяснение: в прошлом, когда радиоволны начали свой путь к нам, источников было больше, чем сейчас. Оба эти объяснения противоречат предсказаниям теории стационарной Вселенной. Кроме того, микроволновое излучение, обнаруженное в 1965 г. Пензиасом и Вильсоном, тоже указывало на большую плотность Вселенной в прошлом, и поэтому от модели стационарной Вселенной пришлось отказаться.

      В 1963 г. два советских физика, Е. М. Лифшиц и И. М. Халатников, сделали еще одну попытку исключить большой взрыв, а с ним и начало времени. Лифшиц и Халатников высказали предположение, что большой взрыв ? особенность лишь моделей Фридмана, которые в конце концов дают лишь приближенное описание реальной Вселенной. Не исключено, что из всех моделей, в какой-то мере описывающих существующую Вселенную, сингулярность в точке большого взрыва возникает только в моделях Фридмана. Согласно Фридману, все галактики удаляются в прямом направлении друг от друга, и поэтому все они находились в одном месте. Однако в реально существующей Вселенной галактики никогда не расходятся точно по прямой: обычно у них есть еще и небольшие составляющие скорости, направленные под углом. Поэтому на самом деле галактикам не нужно находиться точно в одном месте ? достаточно, чтобы они были расположены очень близко друг к другу. Тогда нынешняя расширяющаяся Вселенная могла возникнуть не в сингулярной точке большого взрыва, а на какой-нибудь более ранней фазе сжатия; может быть, при сжатии Вселенной столкнулись друг с другом не все частицы. Какая-то доля их могла пролететь мимо друг друга и снова разойтись в разные стороны, в результате чего и происходит наблюдаемое сейчас расширение Вселенной. Как тогда определить, был ли началом Вселенной большой взрыв? Лифшиц и Халатников занялись изучением моделей, которые в общих чертах были бы похожи на модели Фридмана, но отличались от фридмановских тем, что в них учитывались нерегулярности и случайный характер реальных скоростей галактик во Вселенной. В результате Лифшиц и Халатников показали, что в таких моделях большой взрыв мог быть началом Вселенной даже в том случае, если галактики не всегда разбегаются по прямой, по это могло выполняться лишь для очень ограниченного круга моделей, в которых движение галактик происходит определенным образом. Поскольку же моделей фридмановского типа, не содержащих большой взрыв, бесконечно больше, чем тех, которые содержат такую сингулярность, Лифшиц и Халатников утверждали, что на самом деле большого взрыва не было. Однако позднее они нашли гораздо более общий класс моделей фридмановского типа, которые содержат сингулярности и в которых вовсе не требуется, чтобы галактики двигались каким-то особым образом. Поэтому в 1970 г. Лифшиц и Халатников отказались от своей теории.

      Тем не менее их работа имела очень важное значение, ибо показала, что если верна общая теория относительности, то Вселенная могла иметь особую точку, большой взрыв. Но эта работа не давала ответа на главный вопрос: следует ли из общей теории относительности, что у Вселенной должно было быть начало времени ? большой взрыв? Ответ на этот вопрос был получен при совершенно другом подходе, предложенном в 1965 г. английским математиком и физиком Роджером Пенроузом. Исходя из поведения световых конусов в общей теории относительности и того, что гравитационные силы всегда являются силами притяжения, Пенроуз показал, что когда звезда сжимается под действием собственных сил гравитации, она ограничивается областью, поверхность которой в конце концов сжимается до нуля. А раз поверхность этой области сжимается до нуля, то же самое должно происходить и с ее объемом. Все вещество звезды будет сжато в нулевом объеме, так что ее плотность и кривизна пространства-времени станут бесконечными. Иными словами, возникнет сингулярность в некоей области пространства-времени, называемая черной дырой.

      На первый взгляд, эта теорема Пенроуза относится только к звездам: в ней ничего не говорится о том, испытала ли вся Вселенная в прошлом большой взрыв. В то время, когда Пепроуз доказал свою теорему, я, будучи аспирантом, отчаянно искал какую-нибудь задачу, чтобы защитить диссертацию. За два года до этого врачи поставили мне диагноз ?боковой амиотрофическнй склероз?, или моторная болезнь нейронов, и дали понять, что я протяну не больше одного-двух лет. При таких обстоятельствах не было особого смысла работать над диссертацией, ибо я не надеялся дожить до ее завершения. Но прошло два года, а хуже мне не стало. Мои дела шли прекрасно, и я был помолвлен с очаровательной девушкой по имени Джейн Уайлд. Для женитьбы мне требовалась работа, а чтобы ее получить, нужна была докторская степень.

      В 1965 г. я прочитал о теореме Пенроуза, согласно которой любое тело в процессе гравитационного коллапса должно в конце концов сжаться в сингулярную точку. Вскоре я понял, что если в теореме Пенроуза изменить направление времени на обратное, так, чтобы сжатие перешло в расширение, то эта теорема тоже будет верна, коль скоро Вселенная сейчас хотя бы грубо приближенно описывается в крупном масштабе моделью Фридмана. По теореме Пенроуза конечным состоянием любой коллапсируюшей звезды должна быть сингулярность; при обращении времени эта теорема утверждает, что в любой модели фридмановского типа начальным состоянием расширяющейся Вселенной тоже должна быть сингулярность. По соображениям технического характера в теорему Пенроуза было введено в качестве условия требование, чтобы Вселенная была бесконечна в пространстве. Поэтому на основании этой теоремы я мог доказать лишь, что сингулярность должна существовать, если расширение Вселенной происходит достаточно быстро, чтобы не началось повторное сжатие (ибо только такие фридмановские модели бесконечны в пространстве).

      Потом я несколько лет разрабатывал новый математический аппарат, который позволил бы устранить это и другие технические условия из теоремы о необходимости сингулярности. В итоге в 1970 г. мы с Пенроузом написали совместную статью, в которой наконец доказали, что сингулярная точка большого взрыва должна существовать, опираясь только на то, что верна общая теория относительности и что во Вселенной содержится столько вещества, сколько мы видим. Наша работа вызвала массу возражений, частично со стороны советских ученых, которые из-за приверженности марксистской философии верили в научный детерминизм, а частично и со стороны тех, кто не принимал саму идею сингулярностей как нарушающую красоту теории Эйнштейна. Но с математической теоремой не очень поспоришь, и поэтому, когда работа была закончена, ее приняли, и сейчас почти все считают, что Вселенная возникла в особой точке большого взрыва. По иронии судьбы мои представления изменились, и теперь я пытаюсь убедить физиков в том, что на самом деле при зарождении Вселенной никакой особой точки не было. В следующих главах я покажу, что при учете квантовых эффектов сингулярность может исчезнуть.

      В этой главе мы видели, как менее чем за полстолетия изменились представления людей о природе, формировавшиеся не одну тысячу лет. Начало этим изменениям положили открытое Хабблом расширение Вселенной и сознание незначительности нашей собственной планеты среди огромных просторов Вселенной. По мере того как множились экспериментальные и теоретические результаты, становилось все более ясно, что у Вселенной должно быть начало во времени. Наконец в 1970 г. мы с Пенроузом доказали это, исходя из общей теории относительности Эйнштейна. Из нашего доказательства следовало, что общая теория относительности представляет собой неполную теорию; в ней нет ответа на вопрос, как возникла Вселенная, потому что, согласно теории относительности, все физические теории, в их числе и она сама, нарушаются в точке возникновения Вселенной. Однако общая теория относительности и не претендует на роль полной теории: теоремы о сингулярности на самом деле утверждают лишь, что на некоей очень ранней стадии развития размеры Вселенной были очень малы, настолько, что тогда могли быть весьма существенными мелкомасштабные эффекты, которыми занимается уже другая величайшая теория XX века ? квантовая механика. Итак, в начале 70-х годов нам пришлось в своих исследованиях Вселенной переключиться с теории чрезвычайно большого на теорию крайне малого. Этой теории, квантовой механике, будет посвящена следующая глава, а затем мы перейдем к обсуждению того, как эти две частные теории можно было бы объединить в единую квантовую теорию гравитации.

4. Принцип неопределенности

      Под влиянием успеха научных теорий, особенно ньютоновской теории тяготения, у французского ученого Пьера Лапласа в начале XIX в. выработался взгляд на Вселенную как на полностью детерминированный объект. Лаплас полагал, что должен существовать набор научных законов, которые позволяли бы предсказать все, что может произойти во Вселенной, если только известно полное описание ее состояния в какой-то момент времени. Например, если бы мы знали положения Солнца и планет, отвечающие какому-то моменту времени, то с помощью законов Ньютона мы могли бы вычислить, в каком состоянии оказалась бы Солнечная система в любой другой момент времени. В данном случае детерминизм довольно очевиден, но Лаплас пошел дальше, утверждая, что существуют аналогичные законы для всего, в том числе и для поведения человека.

      Доктрина научного детерминизма встретила сильное сопротивление со стороны многих, почувствовавших, что этим ограничивается свободное вмешательство Бога в наш мир; тем не менее эта идея оставалась обычной научной гипотезой еще в самом начале нашего века. Одним из первых указаний на необходимость отказа от детерминизма стали результаты расчетов двух английских физиков, Джона Рэлея и Джеймса Джинса, из которых следовало, что горячий объект типа звезды должен все время излучать бесконечно большую энергию. Согласно известным тогда законам, горячее тело должно в равной мере излучать электромагнитные волны всех частот (например, радиоволны, видимый свет, рентгеновское излучение). Это означает, что должно излучаться одинаковое количество энергии и в виде волн с частотами от одного до двух миллионов миллионов волн в секунду, и в виде волн, частоты которых находятся в интервале от двух до трех миллионов миллионов волн в секунду. А поскольку разных частот бесконечно много, полная излучаемая энергиядолжна быть бесконечной.

      Чтобы избавиться от этого явно абсурдного вывода, немецкий ученый Макс Планк в 1900 г. принял гипотезу, согласно которой свет, рентгеновские лучи и другие волны не могут испускаться с произвольной интенсивностью, а должны испускаться только некими порциями, которые Планк назвал квантами. Кроме того, Планк предположил, что каждый квант излучения несет определенное количество энергии, которое тем больше, чем выше частота волн. Таким образом, при достаточно высокой частоте энергия одного кванта может превышать имеющееся количество энергии и, следовательно, высокочастотное излучение окажется подавленным, а интенсивность, с которой тело теряет энергию, будет конечной.

      Гипотеза квантов прекрасно согласовалась с наблюдаемыми значениями интенсивности излучения горячих тел, но что она означает для детерминизма, было неясно до 1926 г., когда другой немецкий ученый, Вернер Гейзенберг, сформулировал знаменитый принцип неопределенности. Чтобы предсказать, каким будет положение и скорость частицы, нужно уметь производить точные измерения ее положения и скорости в настоящий момент. Очевидно, что для этого надо направить на частицу свет. Часть световых волн на ней рассеется, и таким образом мы определим положение частицы в пространстве. Однако точность этого измерения будет не выше, чем расстояние между гребнями двух соседних волн, и поэтому для точного измерения положения частицы необходим коротковолновый свет. Согласно же гипотезе Планка, свет невозможно использовать произвольно малыми порциями, и не бывает меньшей порции, чем один квант. Этот квант света внесет возмущение в движение частицы и непредсказуемо изменит ее скорость. Кроме того, чем точнее измеряется положение, тем короче должны быть длины световых волн, а следовательно, тем больше будет энергия одного кванта. Это значит, что возмущение скорости частицы станет больше. Иными словами, чем точнее вы пытаетесь измерить положение частицы, тем менее точными будут измерения ее скорости, и наоборот. Гейзенберг показал, что неопределенность в положении частицы, умноженная на неопределенность в се скорости и на ее массу, не может быть меньше некоторого числа, которое называется сейчас постоянной Планка. Это число не зависит ни от способа, которым измеряется положение или скорость частицы, ни от типа этой частицы, т. е. принцип неопределенности Гейзенберга является фундаментальным, обязательным свойством нашего мира.

      Принцип неопределенности имеет далеко идущие следствия, относящиеся к нашему восприятию окружающего мира. Даже по прошествии более пятидесяти лет многие философы так окончательно и не согласились с ними, и эти следствия до сих пор остаются предметом споров. Принцип неопределенности означал конец мечтам Лапласа о научной теории, которая давала бы полностью детерминированную модель Вселенной: в самом деле, как можно точно предсказывать будущее, не умея даже в настоящий момент производить точные измерения состояния Вселенной! Конечно, мы можем себе представлять, что существует некий набор законов, полностью определяющий события для какого-то сверхъестественного существа, которое способно наблюдать современное состояние Вселенной, никак не возмущая ее. Однако такие модели Вселенной не представляют интереса для нас ? простых смертных. Лучше, пожалуй, воспользовавшись тем принципом ?экономии?, который называется принципом ?бритвы Оккама? (У. Оккам /1285-1349/ ? английский философ. Суть принципа ?бритвы Оккама?: понятия, не поддающиеся проверке в опыте, должны быть удалены из науки.  ? прим. ред.) взять и вырезать все положения теории, которые не поддаются наблюдению. Приняв такой подход, Вернер Гейзенберг, Эрвин Шредингер и Поль Дирак в 20-х годах нашего века пересмотрели механику и пришли к новой теории ? квантовой механике, в основу которой был положен принцип неопределенности. В квантовой механике частицы больше не имеют таких определенных и не зависящих друг от друга характеристик, как положение в пространстве и скорость, недоступных для наблюдения. Вместо этого они характеризуются квантовым состоянием, которое представляет собой некую комбинацию положения и скорости.

      Квантовая механика, вообще говоря, не предсказывает, что наблюдение должно иметь какой-то единственный определенный результат. Наоборот, она предсказывает некий ряд разных результатов и дает вероятность каждого из них. Это значит, что, выполнив одно и то же измерение для многих одинаковых систем, начальные состояния которых совпадают, мы бы обнаружили, что в одном числе случаев результат измерения равен А, в другом ? Б и т. д. Мы можем предсказать, в скольких примерно случаях результат будет равняться А и Б, но определить результат каждого конкретного измерения невозможно. Таким образом, квантовая механика вносит в науку неизбежный элемент непредсказуемости или случайности. Эйнштейн выступил очень резко против этой концепции, несмотря на ту огромную роль, которую сам сыграл в ее развитии. За огромный вклад в квантовую теорию Эйнштейну была присуждена Нобелевская премия. Но он никогда не мог согласиться с тем, что Вселенной управляет случай. Все чувства Эйнштейна нашли свое выражение в его знаменитом высказывании: ?Бог не играет в кости?. Однако большинство остальных ученых были склонны принять квантовую механику, потому что она прекрасно согласовалась с экспериментом. Квантовая механика в самом деле является выдающейся теорией и лежит в основе почти всей современной науки и техники. Принципы квантовой механики положены в основу работы полупроводниковых и интегральных схем, которые являются важнейшей частью таких электронных устройств, как телевизоры и электронно-вычислительные машины. На квантовой механике зиждется современная химия и биология. Единственные области физики, которые пока не используют должным образом квантовую механику,  ? это теория гравитации и теория крупномасштабной структуры Вселенной.

 


 

      Несмотря на то что световое излучение состоит из волн, тем не менее, согласно гипотезе Планка, свет в каком-то смысле ведет себя так, как будто он образован частицами: излучение и поглощение света происходит только в виде порций, или квантов. Принцип же неопределенности Гейзенберга говорит о том, что частицы в каком-то смысле ведут себя как волны: они не имеют определенного положения в пространстве, а ?размазаны? по нему с некоторым распределением вероятности. В квантово-механической теории используется совершенно новый математический аппарат, который уже не описывает сам реальный мир на основе представлений о частицах и волнах; эти понятия можно теперь относить только к результатам наблюдений в этом мире. Таким образом, в квантовой механике возникает частично-волновой дуализм: в одних случаях частицы удобно считать волнами, а в других лучше считать волны частицами. Из этого следует один важный вывод: мы можем наблюдать так называемую интерференцию между двумя волнами-частицами. Гребни волн одной из них могут, например, совпадать со впадинами другой. Тогда две волны гасят друг друга, а не усиливают, суммируясь, как можно было бы ожидать, в более высокие волны (рис. 4.1). Всем известный пример интерференции света ? переливающиеся разными цветами радуги мыльные пузыри. Это явление возникает в результате отражения света от двух поверхностей тонкой пленки воды, которая образует пузырь. Белый свет содержит всевозможные длины волн, отвечающие разным цветам. Гребни некоторых волн, отраженных от одной из поверхностей мыльной пленки, совпадают со впадинами волн той же длины, отраженных от второй поверхности пузыря. Тогда в отраженном свете будут отсутствовать цвета, соответствующие этим длинам волн, и отраженный свет окажется разноцветным.

 


 

      Итак, благодаря возникшему в квантовой механике дуализму частицы тоже могут испытывать интерференцию. Широко известный пример такой интерференции частиц ? опыт с двумя щелями в экране (рис. 4.2). Рассмотрим экран, в котором прорезаны две узкие параллельные щели. По одну сторону от экрана со щелями помещен источник света какого-то определенного цвета (т. е. определенной длины волны). Свет в основном попадает на поверхность экрана, но небольшая его часть пройдет сквозь щели. Далее представим себе экран для наблюдения, установленный по другую от источника света сторону экрана со щелями. Тогда в любую точку экрана для наблюдения будут попадать световые волны из обеих щелей. Но расстояние, пройденное светом через щели от источника до экрана, будет, вообще говоря, разным. Это означает, что волны, прошедшие через щели, попадут на экран в разной фазе: в одних местах они будут ослаблять друг друга, а в других ? усиливать. В результате на экране получится характерная картина, составленная из темных и светлых полос.

      Удивительно, что в точности такие же полосы возникают при замене источника света источником частиц, скажем, электронов, вылетающих с определенной скоростью (это означает, что им соответствуют волны определенной длины). Описанное явление тем более странно, что при наличии только одной щели никакие полосы не возникают и на экране появляется просто однородное распределение электронов. Можно было бы предположить, что еще одна щель просто увеличит число электронов, попадающих в каждую точку экрана, по на самом деле из-за интерференции число этих электронов в некоторых местах, наоборот, уменьшается. Если пропускать через щели но одному электрону за раз, то можно было бы ожидать, что каждый из них пройдет либо через одну щель, либо через другую, т. е. будет вести себя так, как будто та щель, через которую он прошел, единственная, и тогда на экране должно возникнуть однородное распределение. Однако на самом деле полосы появляются даже в том случае, когда электроны выпускаются по одному. Следовательно, каждый электрон должен проходить сразу через обе щели!

      Явление интерференции частиц стало решающим для нашего понимания структуры атомов, тех мельчайших ?кирпичиков?, которые рассматриваются в химии и биологии и из которых построены мы сами и все вокруг нас. В начале века считалось, что атомы подобны Солнечной системе: электроны (частицы, несущие отрицательный электрический заряд), как планеты вокруг Солнца, вращаются вокруг расположенного в центре ядра, заряженного положительно. Предполагалось, что электроны удерживаются на орбитах силами притяжения между положительными и отрицательными зарядами аналогично тому, как гравитационное притяжение между Солнцем и планетами не дает планетам уйти с орбит. Это объяснение наталкивалось на следующую трудность: до появления квантовой механики законы механики и электричества предсказывали, что электроны должны терять энергию, а из-за этого двигаться по спирали к центру атома и падать на ядро. Это означало бы, что атомы, а с ними, конечно, и вся материя должны быстро сколлапсировать в состояние с очень высокой плотностью. Частное решение этой проблемы нашел в 1913 г. датский ученый Нильс Бор. Бор постулировал, что электроны могут двигаться не по любым орбитам, а только по тем, которые лежат на некоторых определенных расстояниях от центрального ядра. Если бы было сделано и предположение о том, что на каждой такой орбите могут находиться только один или два электрона, то проблема коллапса атома была бы решена, потому что тогда электроны, двигаясь по спирали к центру, могли бы лишь заполнить орбиты с минимальными радиусами и энергиями.

      Эта модель прекрасно объясняла строение простейшего атома ? атома водорода, у которого вокруг ядра вращается всего один электрон. Было, однако, непонятно, как тот же подход распространить на более сложные атомы. Кроме того, предположение об ограниченном числе разрешенных орбит выглядело весьма произвольным. Эту трудность разрешила новая теория ? квантовая механика. Оказалось, что электрон, вращающийся вокруг ядра, можно представить себе как волну, длина которой зависит от ее скорости. Вдоль некоторых орбит укладывается целое (а не дробное) число длин волн электрона. При движении по этим орбитам гребни волн окажутся в одном и том же месте на каждом витке, и поэтому волны будут складываться; такие орбиты относятся к боровским разрешенным орбитам. А для тех орбит, вдоль которых не укладывается целое число длин волн электрона, каждый гребень по мере обращения электронов рано или поздно скомпенсируется впадиной; такие орбиты не будут разрешенными.

      Американский ученый Ричард Фейнман придумал красивый способ, который дает возможность наглядно представить себе дуализм волна-частица. Фейнман ввел так называемое суммирование по траекториям. В этом подходе в отличие от классической, неквантовой теории нет предположения о том, что частица должна иметь одну-единственную траекторию в пространстве-времени, а наоборот, считается, что частица может перемещаться из А в Б по любому возможному пути. С каждой траекторией связаны два числа: одно из них описывает размеры волны, а другое отвечает ее положению в цикле (гребень или впадина). Чтобы определить вероятности перехода из А в Б, надо сложить волны для всех этих траекторий. Если сравнить между собой несколько соседних траекторий, то их фазы, или положения в цикле, будут сильно различаться. Это значит, что волны, соответствующие таким траекториям, будут почти полностью гасить друг друга. Однако для некоторых семейств соседних траекторий фазы при переходе от траектории к траектории будут мало меняться, и соответствующие им волны не скомпенсируют друг друга. Такие траектории относятся к боровским разрешенным орбитам.

      Основываясь на таких представлениях, записанных в конкретном математическом виде, можно было по сравнительно простой схеме вычислить разрешенные орбиты для более сложных атомов и даже для молекул, состоящих из нескольких атомов, которые держатся вместе за счет электронов, чьи орбиты охватывают больше одного ядра. Поскольку строение молекул и происходящие между ними реакции являются основой всей химии и всей биологии, квантовая механика в принципе позволяет предсказать все, что мы видим вокруг себя, с точностью, которую допускает принцип неопределенности. (Правда, на практике расчеты систем, содержащих много электронов, оказываются настолько сложными, что произвести их просто невозможно).

      Крупномасштабная структура Вселенной, по-видимому, подчиняется общей теории относительности Эйнштейна. Эта теория называется классической, потому что в ней не учитывается квантово-механический принцип неопределенности, который необходимо учитывать для согласования с другими теориями. Мы же не вступаем в противоречие с результатами наблюдений из-за того, что все гравитационные поля, с которыми обычно приходится иметь дело, являются очень слабыми. Однако, согласно теоремам о сингулярности, о которых говорилось выше, гравитационное поле должно становиться очень сильным по крайней мере в двух ситуациях: в случае черных дыр и в случае большого взрыва. В таких сильных полях должны быть существенными квантовые эффекты. Следовательно, классическая общая теория относительности, предсказав точки, в которых плотность становится бесконечной, в каком-то смысле сама предрекла свое поражение в точности так же, как классическая (т. е. неквантовая) механика обрекла себя на провал заключением о том, что атомы должны коллапсировать, пока их плотность не станет бесконечной. У нас еще нет полной теории, в которой общая теория относительности была бы непротиворечиво объединена с квантовой механикой, но зато мы знаем кое-какие свойства будущей теории. О том, что вытекает из этих свойств в отношении черных дыр и большого взрыва, мы поговорим в последующих главах. А сейчас займемся самыми последними попытками объединения наших представлений обо всех других силах природы в одну, единую квантовую теорию.

5. Элементарные частицы и силы в природе

      Аристотель считал, что вещество во Вселенной состоит из четырех основных элементов ? земли, воздуха, огня и воды, на которые действуют две силы: сила тяжести, влекущая землю и воду вниз, и сила легкости, под действием которой огонь и воздух стремятся вверх. Такой подход к строению Вселенной, когда все делится на вещество и силы, сохраняется и по сей день.

      По Аристотелю, вещество непрерывно, т. е. любой кусок вещества можно бесконечно дробить на все меньшие и меньшие кусочки, так и не дойдя до такой крошечной крупинки, которая дальше бы уже не делилась. Однако некоторые другие греческие философы, например Демокрит, придерживались мнения, что материя по своей природе имеет зернистую структуру и все в мире состоит из большого числа разных атомов (греческое слово ?атом? означает неделимый). Проходили века, но спор продолжался без всяких реальных доказательств, которые подтверждали бы правоту той или другой стороны. Наконец, в 1803 г. английский химик и физик Джон Дальтон показал, что тот факт, что химические вещества всегда соединяются в определенных пропорциях, можно объяснить, предположив, что атомы объединяются в группы, которые называются молекулами. Однако до начала нашего века спор между двумя школами так и не был решен в пользу атомистов. В разрешение этого спора очень важный вклад внес Эйнштейн. В своей статье, написанной в 1905 г., за несколько недель до знаменитой работы о специальной теории относительности, Эйнштейн указал на то, что явление, носящее название броуновского движения,  ? нерегулярное, хаотическое движение мельчайших частичек, взвешенных в воде,  ? можно объяснить ударами атомов жидкости об эти частички.

      К тому времени уже имелись некоторые основания подумывать о том, что и атомы тоже не неделимы. Несколькими годами раньше Дж. Дж. Томсон из Тринити-колледжа в Кембридже открыл новую частицу материи ? электрон, масса которого меньше одной тысячной массы самого легкого атома. Экспериментальная установка Томсона немного напоминала современный телевизионный кинескоп. Раскаленная докрасна металлическая нить служила источником электронов. Поскольку электроны заряжены отрицательно, они ускорялись в электрическом поле и двигались в сторону экрана, покрытого слоем люминофора. Когда электроны падали на экран, на нем возникали вспышки света. Вскоре стало понятно, что эти электроны должны вылетать из атомов, и в 1911 г. английский физик Эрнст Резерфорд наконец доказал, что атомы вещества действительно обладают внутренней структурой: они состоят из крошечного положительно заряженного ядра и вращающихся вокруг пего электронов. Резерфорд пришел к этому выводу, изучая, как отклоняются альфа-частицы (положительно заряженные частицы, испускаемые атомами радиоактивных веществ) при столкновении с атомами.

      Вначале думали, что ядро атома состоит из электронов и положительно заряженных частиц, которые назвали протонами (от греческого слово ?протос? ? первичный), потому что протоны считались теми фундаментальными блоками, из которых состоит материя. Однако в 1932 г. Джеймс Чедвик, коллега Резерфорда по Кембриджскому университету, обнаружил, что в ядре имеются еще и другие частицы ? нейтроны, масса которых почти равна массе протона, но которые не заряжены. За это открытие Чедвик был удостоен Нобелевской премии и выбран главой Конвилл-энд-Кайус-колледжа Кембриджского университета (колледж, в котором я сейчас работаю). Потом ему пришлось отказаться от этого поста из-за разногласий с сотрудниками. В колледже постоянно происходили ожесточенные споры, которые начались с тех пор, как после войны группа вернувшейся молодежи проголосовала против того, чтобы старые сотрудники оставались на своих должностях, которые они уже много лет занимали. Все это происходило еще до меня; я начал работать в колледже в 1965 г. и застал самый конец борьбы, когда другой глава колледжа, нобелевский лауреат Невилл Мотт, вынужден был тоже уйти в отставку.

      Еще лет двадцать назад протоны и нейтроны считались ?элементарными? частицами, но эксперименты по взаимодействию протонов и электронов, движущихся с большими скоростями, с протонами показали, что на самом деле протоны состоят из еще более мелких частиц. Мюррей Гелл-Манн, теоретик из Калифорнийского технологического института, назвал эти частицы кварками. В 1969 г. за исследование кварков Гелл-Манн был удостоен Нобелевской премии. Название ?кварк? взято из заумной стихотворной строки Джеймса Джойса: ?Три кварка для мастера Марка!?. По идее, слово quark должно произноситься так же, как слово quart (куорт), в которой буква t на конце заменена буквой k, но обычно его произносят так, что оно рифмуется со словом lark.

      Известно несколько разновидностей кварков: предполагают, что существует по крайней мере шесть ?ароматов?, которым отвечают u-кварк, d-кварк, странный кварк, очарованный кварк, b-кварк и t-кварк. Кварк каждого ?аромата? может быть еще и трех ?цветов? ? красного, зеленого и синего. (Следует подчеркнуть, что это просто обозначения, так как размер кварков значительно меньше длины волны видимого света и поэтому цвета в обычном смысле слова у них нет. Дело просто в том, что современным физикам нравится придумывать названия новых частиц и явлений, не ограничивая больше свою фантазию греческим алфавитом). Протон и нейтрон состоят из трех кварков разных ?цветов?. В протоне содержится два u-кварка и один d-кварк, в нейтроне ? два d-кварка и один u-кварк. Частицы можно строить и из других кварков (странного, очарованного, b и t), но все эти кварки обладают гораздо большей массой и очень быстро распадаются на протоны и нейтроны.

      Мы уже знаем, что ни атомы, ни находящиеся внутри атома протоны с нейтронами не являются неделимыми, а потому возникает вопрос: что же такое настоящие элементарные частицы ? те исходные кирпичи, из которых все состоит? Поскольку длины световых волн существенно больше размеров атома, у нас нет надежды ?увидеть? составные части атома обычным способом. Для этой цели необходимы значительно меньшие длины волн. В предыдущей главе мы узнали, что, согласно квантовой механике, все частицы на самом деле являются еще и волнами и чем выше энергия частицы, тем меньше соответствующая длина волны. Таким образом, наш ответ на поставленный вопрос зависит от того, насколько высока энергия частиц, имеющихся в нашем распоряжении, потому что ею определяется насколько мал масштаб тех длин, которые мы сможем наблюдать. Единицы, в которых обычно измеряется энергия частиц, называются электронвольтами. (Томсон в своих экспериментах для ускорения электронов использовал электрическое поле. Электронвольт ? это энергия, которую приобретает электрон в электрическом поле величиной 1 вольт). В XIX в., когда умели использовать только частицы с энергиями в несколько электронвольт, выделяющимися в химических реакциях типа горения, атомы считались самыми мелкими частями материи. В экспериментах Резерфорда энергии альфа-частиц составляли миллионы электронвольт. Затем мы научились с помощью электромагнитных полей разгонять частицы сначала до энергий в миллионы, а потом и в тысячи миллионов электронвольт. Так мы узнали, что частицы, которые двадцать лет назад считались элементарными, на самом деле состоят из меньших частиц. А что если при переходе к еще более высоким энергиям окажется, что и эти меньшие частицы в свою очередь состоят из еще меньших? Конечно, это вполне вероятная ситуация, но у нас сейчас есть некоторые теоретические основания считать, что мы уже владеем или почти владеем сведениями об исходных ?кирпичиках?, из которых построено все в природе.

      Все, что есть во Вселенной, в том числе свет и гравитацию, можно описывать, исходя из представления о частицах, с учетом частично-волнового дуализма, о котором мы говорили в предыдущей главе. Частицы же имеют некую вращательную характеристику ? спин (spin ? вращаться, крутиться (англ.).  ? прим. перев.).

 


 

      Представим себе частицы в виде маленьких волчков, вращающихся вокруг своей оси. Правда, такая картина может ввести в заблуждение, потому что в квантовой механике частицы не имеют вполне определенной оси вращения. На самом деле спин частицы дает нам сведения о том, как выглядит эта частица, если смотреть на нее с разных сторон. Частица со спином 0 похожа на точку: она выглядит со всех сторон одинаково (рис. 5.1, I). Частицу со спином 1 можно сравнить со стрелой: с разных сторон она выглядит по-разному (рис. 5.1, II) и принимает тот же вид лишь после полного оборота на 360 град. Частицу со спином 2 можно сравнить со стрелой, заточенной с обеих сторон: любое ее положение повторяется после полуоборота (180 град.). Аналогичным образом частица с более высоким спином возвращается в первоначальное состояние при повороте на еще меньшую часть полного оборота. Это все довольно очевидно, а удивительно другое ? существуют частицы, которые после полного оборота не принимают прежний вид: их нужно дважды полностью повернуть! Говорят, что такие частицы обладают спином 1/2.

      Все известные частицы во Вселенной можно разделить на две группы: частицы со спином 1/2, из которых состоит вещество во Вселенной, и частицы со спином 0, 1 и 2, которые, как мы увидим, создают силы, действующие между частицами вещества. Частицы вещества подчиняются так называемому принципу запрета Паули, открытому в 1925 г. австрийским физиком Вольфгангом Паули. В 1945 г. Паули за свое открытие был удостоен Нобелевской премии. Он являл собой идеальный пример физика-теоретика: говорят, что одно его присутствие в городе нарушало ход всех экспериментов! Принцип Паули гласит, что две одинаковые частицы не могут существовать в одном и том же состоянии, т. е. не могут иметь координаты и скорости, одинаковые с той точностью, которая задается принципом неопределенности. Принцип Паули имеет крайне важное значение, так как он позволил объяснить, почему под действием сил, создаваемых частицами со спином 0, 1, 2, частицы материи не коллапсируют в состояние с очень высокой плотностью: если частицы вещества имеют очень близкие значения координат, то их скорости должны быть разными, и, следовательно, они не смогут долго находиться в точках с этими координатами. Если бы в сотворении мира не участвовал принцип Паули, кварки не могли бы объединиться в отдельные, четко определенные частицы ? протоны и нейтроны, которые в свою очередь не смогли бы, объединившись с электронами, образовать отдельные, четко определенные атомы. Без принципа Паули все эти частицы сколлапсировали бы и превратились в более или менее однородное и плотное ?желе?.

      Правильное представление об электроне и других частицах со спином 1/2 отсутствовало до 1928 г., когда Поль Дирак предложил теорию для описания этих частиц. Впоследствии Дирак получил кафедру математики в Кембридже (которую в свое время занимал Ньютон и которую сейчас занимаю я). Теория Дирака была первой теорией такого рода, которая согласовалась и с квантовой механикой, и со специальной теорией относительности. В ней давалось математическое объяснение того, почему спин электрона равен 1/2, т. е. почему при однократном полном обороте электрона он не принимает прежний вид, а при двукратном принимает. Теория Дирака предсказывала также, что у электрона должен быть партнер ? антиэлектрон, или, иначе, позитрон. Открытие позитрона в 1932 г. подтвердило теорию Дирака, и в 1933 г. он получил Нобелевскую премию по физике. Сейчас мы знаем, что каждой частице соответствует античастица, с которой она может аннигилировать. (В случае частиц, обеспечивающих взаимодействие, частица и античастица ? одно и то же). Могли бы существовать целые антислова и антилюди, состоящие из античастиц. Но встретив антисебя, не вздумайте поздороваться с ним за руку! Возникнет ослепительная вспышка света, и вы оба исчезнете. Чрезвычайно важен вопрос, почему вокруг нас гораздо больше частиц, чем античастиц. Мы к нему еще вернемся в этой главе.

      В квантовой механике предполагается, что все силы, или взаимодействия, между частицами вещества переносятся частицами с целочисленным спином, равным 0, 1 или 2. Частица вещества, например электрон или кварк, испускает частицу, которая является переносчиком взаимодействия. В результате отдачи скорость частицы вещества меняется. Затем частица-переносчик налетает на другую частицу вещества и поглощается ею. Это соударение изменяет скорость второй частицы, как будто между этими двумя частицами вещества действует сила.

      Частицы-переносчики взаимодействия обладают одним важным свойством: они не подчиняются принципу запрета Паули. Это означает отсутствие ограничений для числа обмениваемых частиц, так что возникающая сила взаимодействия может оказаться большой. Но если масса частиц-переносчиков велика, то на больших расстояниях их рождение и обмен будут затруднены. Таким образом, переносимые ими силы будут короткодействующими. Если же частицы-переносчики не будут обладать собственной массой, возникнут дальнодействующие силы. Частицы-переносчики, которыми обмениваются частицы вещества, называются виртуальными, потому что в отличие от реальных их нельзя непосредственно зарегистрировать при помощи детектора частиц. Однако мы знаем, что виртуальные частицы существуют, потому что они создают эффекты, поддающиеся измерению: благодаря виртуальным частицам возникают силы, действующие между частицами вещества. При некоторых условиях частицы со спинами 0, 1, 2 существуют и как реальные; тогда их можно непосредственно зарегистрировать. С точки зрения классической физики такие частицы встречаются нам в виде волн, скажем световых или гравитационных. Они иногда испускаются при взаимодействии частиц вещества, протекающем за счет обмена частицами-переносчиками взаимодействия. (Например, электрическая сила взаимного отталкивания между двумя электронами возникает за счет обмена виртуальными фотонами, которые нельзя непосредственно зарегистрировать. Но если электроны пролетают друг мимо друга, то возможно испускание реальных фотонов, которые будут зарегистрированы как световые волны).

      Частицы-переносчики можно разделить на четыре типа в зависимости от величины переносимого ими взаимодействия и от того, с какими частицами они взаимодействовали. Подчеркнем, что такое разделение совершенно искусственно; это схема, удобная для разработки частных теорий, ничего более серьезного в ней, вероятно, нет. Большинство физиков надеется, что в конце концов удастся создать единую теорию, в которой все четыре силы оказались бы разновидностями одной и той же силы. Многие даже видят в этом главную цель современной физики. Недавно увенчались успехом попытки объединения трех сил. В этой главе я еще собираюсь о них рассказать. О том, как обстоит дело с включением в такое объединение гравитации, мы поговорим немного позже.

      Итак, первая разновидность сил ? гравитационная сила. Гравитационные силы носят универсальный характер. Это означает, что всякая частица находится под действием гравитационной силы, величина которой зависит от массы или энергии частицы. Гравитация гораздо слабее каждой из оставшихся трех сил. Это очень слабая сила, которую мы вообще не заметили бы, если бы не два ее специфических свойства: гравитационные силы действуют на больших расстояниях и всегда являются силами притяжения. Следовательно, очень слабые гравитационные силы взаимодействия отдельных частиц в двух телах большого размера, таких, например, как Земля и Солнце, могут в сумме дать очень большую силу. Три остальных вида взаимодействия либо действуют только на малых расстояниях, либо являются то отталкивающими, то притягивающими, что приводит в общем к компенсации. В квантово-механическом подходе к гравитационному полю считается, что гравитационная сила, действующая между двумя частицами материи, переносится частицей со спином 2, которая называется гравитоном. Гравитон не обладает собственной массой, и поэтому переносимая им сила является дальнодействующей. Гравитационное взаимодействие между Солнцем и Землей объясняется тем, что частицы, из которых состоят Земля и Солнце, обмениваются гравитонами. Несмотря на то что в обмене участвуют лишь виртуальные частицы, создаваемый ими эффект безусловно поддается измерению, потому что этот эффект ? вращение Земли вокруг Солнца! Реальные гравитоны распространяются в виде волн, которые в классической физике называются гравитационными, но они очень слабые, и их так трудно зарегистрировать, что пока это никому не удалось сделать.

      Следующий тип взаимодействия создается электромагнитными силами, которые действуют между электрически заряженными частицами, как, например, электроны и кварки, но не отвечают за взаимодействие таких незаряженных частиц, как гравитоны. Электромагнитные взаимодействия гораздо сильнее гравитационных: электромагнитная сила, действующая между двумя электронами, примерно в миллион миллионов миллионов миллионов миллионов миллионов миллионов (единица с сорока двумя нулями) раз больше гравитационной силы. Но существуют два вида электрического заряда ? положительный и отрицательный. Между двумя положительными зарядами так же, как и между двумя отрицательными, действует сила отталкивания, а между положительным и отрицательным зарядами ? сила притяжения. В больших телах, например в Земле или Солнце, содержание положительных и отрицательных зарядов почти одинаково, и, следовательно, силы притяжения и отталкивания почти компенсируют друг друга, и остается очень малая чисто электромагнитная сила. Однако в малых масштабах атомов и молекул электромагнитные силы доминируют. Под действием электромагнитного притяжения между отрицательно заряженными электронами и положительно заряженными протонами в ядре электроны в атоме вращаются вокруг ядра в точности так же, как под действием гравитационного притяжения Земля вращается вокруг Солнца. Электромагнитное притяжение описывается как результат обмена большим числом виртуальных безмассовых частиц со спином 1, которые называются фотонами. Как и в случае гравитонов, фотоны, осуществляющие обмен, являются виртуальными, но при переходе электрона с одной разрешенной орбиты на другую, расположенную ближе к ядру, освобождается энергия, и в результате испускается реальный фотон, который при подходящей длине волны можно наблюдать человеческим глазом как видимый свет, или же с помощью какого-нибудь детектора фотонов, например фотопленки. Аналогичным образом при соударении реального фотона с атомом может произойти переход электрона с одной орбиты на другую, более далекую от ядра. Этот переход происходит за счет энергии фотона, который поглощается атомом. Взаимодействие третьего типа называется слабым взаимодействием. Оно отвечает за радиоактивность и существует между всеми частицами вещества со спином 1/2, но в нем не участвуют частицы со спином 0, 1, 2 ? фотоны и гравитоны. До 1967 г. свойства слабых сил были плохо изучены, а в 1967 г. Абдус Салам, теоретик из Лондонского Империал-колледжа, и Стивен Вайнберг из Гарвардского университета одновременно предложили теорию, которая объединяла слабое взаимодействие с электромагнитным аналогично тому, как на сто лет раньше Максвелл объединил электричество и магнетизм. Вайнберг и Салам высказали предположение о том, что в дополнение к фотону существуют еще три частицы со спином 1, которые все вместе называются тяжелыми векторными бозонами и являются переносчиками слабого взаимодействия. Эти бозоны были обозначены символами W+, W? и Z0, масса каждого из них составляла 100 ГэВ (ГэВ означает гигаэлектронвольт, т. е. тысяча миллионов электронвольт). Теория Вайнберга-Салама обладает свойством так называемого спонтанного нарушения симметрии. Оно означает, что частицы, совершенно разные при низких энергиях, при высоких энергиях оказываются на самом деле одной и той же частицей, но находящейся в разных состояниях. Это в каком-то смысле похоже на поведение шарика при игре в рулетку. При всех высоких энергиях (т. е. при быстром вращении колеса) шарик ведет себя всегда почти одинаково ? безостановочно вращается. Но когда колесо замедлится, энергия шарика уменьшается, и в конце концов он проваливается в одну из тридцати семи канавок, имеющихся на колесе. Иными словами, при низких энергиях шарик может существовать в тридцати семи состояниях. Если бы мы почему-либо могли наблюдать шарик только при низких энергиях, то считали бы, что существует тридцать семь разных типов шариков!

      Теория Вайнберга-Салама предсказывала, что при энергиях, значительно превышающих 100 ГэВ, три новые частицы и фотон должны вести себя одинаково, а при более низких энергиях частиц, т. е. в большинстве обычных ситуаций, эта ?симметрия? должна нарушаться. Массы W+, W? и Z0 бозонов предсказывались большими, чтобы создаваемые ими силы имели очень малый радиус действия. Когда Вайнберг и Салам выдвинули свою теорию, им мало кто верил, а на маломощных ускорителях тех времен невозможно было достичь энергии в 100 ГэВ, необходимой для рождения реальных W+, W? и Z0 частиц. Однако лет через десять предсказания, полученные в этой теории при низких энергиях, настолько хорошо подтвердились экспериментально, что Вайнбергу и Саламу была присуждена Нобелевская премия 1979 г. совместно с Шелдоном Глэшоу (тоже из Гарварда), который предложил похожую единую теорию электромагнитных и слабых ядерных взаимодействии. Комитет по Нобелевским премиям был избавлен от неприятностей, которые могли бы возникнуть, если бы оказалось, что он совершил ошибку сделанным в 1983 г. в ЦЕРНе открытием трех массивных партнеров фотона с правильными значениями массы и другими предсказанными характеристиками. Карло Руббиа, возглавивший группу из нескольких сотен физиков, которым принадлежало это открытие, получил Нобелевскую премию 1984 г., присужденную ему совместно с инженером ЦЕРНа Симоном Ван дер Меером, автором проекта накопителя античастиц, использованного в эксперименте. (В наше время чрезвычайно трудно оставить свой след в экспериментальной физике, разве что вы уже на вершине!).

      Сильное ядерное взаимодействие представляет собой взаимодействие четвертого типа, которое удерживает кварки внутри протона и нейтрона, а протоны и нейтроны внутри атомного ядра. Переносчиком сильного взаимодействия считается еще одна частица со спином 1, которая называется глюоном.

      Глюоны взаимодействуют только с кварками и с другими глюонами. У сильного взаимодействия есть одно необычайное свойство ? оно обладает конфайнментом (confinement ? ограничение, удержание (англ.).  ? прим. ред.).

      Конфайнмент состоит в том, что частицы всегда удерживаются в бесцветных комбинациях. Один кварк не может существовать сам по себе, потому что тогда он должен был бы иметь цвет (красный, зеленый или синий). Поэтому красный кварк должен быть соединен с зеленым и синим посредством глюонной ?струи? (красный + зеленый + синий = белый). Такой триплет оказывается протоном или нейтроном. Существует и другая возможность, когда кварк и антикварк объединяются в пару (красный + антикрасный, или зеленый + антизеленый, или синий + антисиний = белый). Такие комбинации входят в состав частиц, называемых мезонами. Эти частицы нестабильны, потому что кварк и антикварк могут аннигилировать друг с другом, образуя электроны и другие частицы. Аналогичным образом, один глюон не может существовать сам по себе из-за конфайнмента, потому что глюоны тоже обладают цветом. Следовательно, глюоны должны группироваться таким образом, чтобы их цвета в сумме давали белый цвет. Описанная группа глюонов образует нестабильную частицу ? глюбол.

 


 

      Мы не можем наблюдать отдельный кварк или глюон из-за конфайнмента. Не означает ли это, что само представление о кварках и глюонах как о частицах несколько метафизично? Нет, потому что сильное взаимодействие характеризуется еще одним свойством, которое называется асимптотической свободой. Благодаря этому свойству понятие кварков и глюонов становится вполне определенным. При обычных энергиях сильное взаимодействие действительно является сильным и плотно прижимает кварки друг к другу. Но, как показывают эксперименты на мощных ускорителях, при высоких энергиях сильное взаимодействие заметно ослабевает и кварки и глюоны начинают вести себя почти как свободные частицы. На рис. 5.2 представлен фотоснимок столкновения протона и антипротона высокой энергии. Мы видим, что несколько почти свободных кварков, родившихся в результате взаимодействия, образовали ?струи? треков, которые видны на фотографии.

      Итогом успешного объединения электромагнитного и слабого взаимодействий стали попытки соединить эти два вида взаимодействий с сильным взаимодействием, чтобы в результате получилась так называемая теория великого объединения. В этом названии есть некоторое преувеличение: во-первых, теории великого объединения не такие уж великие, а во-вторых, они не объединяют полностью все взаимодействия, потому что в них не входит гравитация. Кроме того, все эти теории на самом деле неполны, потому что содержат параметры, которые нельзя предсказать теоретически и которые надо вычислять, сравнивая теоретические и экспериментальные результаты. Тем не менее такие теории могут стать шагом к полной теории объединения, охватывающей все взаимодействия. Основная идея построения теорий великого объединения состоит в следующем: как уже говорилось, сильные взаимодействия при высоких энергиях становятся слабее, чем при низких. В то же время электромагнитные и слабые силы асимптотически не свободны, и при высоких энергиях они растут. Тогда при каком-то очень большом значении энергии ? при энергии великого объединения ? эти три силы могли бы сравняться между собой и стать просто разновидностями одной и той же силы. Теории великого объединения предсказывают, что при этой энергии разные частицы вещества со спином 1/2, такие, как кварки и электроны, тоже перестали бы различаться, что было бы еще одним шагом к объединению.

      Значение энергии великого объединения не очень хорошо известно, но оно должно составлять по меньшей мере тысячу миллионов миллионов ГэВ. В ускорителях современного поколения сталкиваются частицы с энергиями около 100 ГэВ, а в будущих проектах эта величина должна возрасти до нескольких тысяч ГэВ. Но для ускорения частиц до энергии великого объединения нужен ускорительразмером с Солнечную систему. Маловероятно, чтобы в нынешней экономической ситуации кто-нибудь решился ее финансировать. Вот почему невозможна непосредственная экспериментальная проверка теорий великого объединения. Но здесь, как и в случае электрослабой единой теории, существуют низкоэнергетические следствия, которые можно проверить.

      Самое интересное из таких следствии то, что протоны, составляющие большую часть массы обычного вещества, могут спонтанно распадаться на более легкие частицы, такие, как антиэлектроны. Причина в том, что при энергии великого объединения нет существенной разницы между кварком и антиэлектроном. Три кварка внутри протона обычно не обладают достаточным количеством энергии для превращения в антиэлектроны, но один из кварков может совершенно случайно получить однажды энергию, достаточную для этого превращения, потому что в силу принципа неопределенности невозможно точно зафиксировать энергию кварков внутри протона. Тогда протон должен распасться, но вероятность того, что кварк будет иметь достаточную энергию, столь мала, что ждать этого придется по крайней мере миллион миллионов миллионов миллионов миллионов (единица с тридцатью нулями) лет, что гораздо больше времени, прошедшего с момента большого взрыва, которое не превышает десяти тысяч миллионов лет или что-то около того (единица с десятью нулями). Отсюда напрашивается вывод, что возможность спонтанного распада протона нельзя экспериментально проверить. Можно, однако, увеличить вероятность наблюдения распада протона, изучая очень большое число протонов. (Наблюдая, например, 1 с тридцатью одним нулем протонов в течение года, можно надеяться обнаружить, согласно одной из простейших теорий великого объединения, более одного распада протона).

      Несколько таких экспериментов уже выполнено, но они не дали определенных сведений о распадах протона или нейтрона. Один из экспериментов, в котором использовалось восемь тысяч тонн воды, проводился в соляной шахте штата Огайо (для того, чтобы исключить космические помехи, которые можно принять за распад протона). Поскольку в течение всего эксперимента не было зарегистрировано ни одного распада протона, можно вычислить, что время жизни протона должно быть больше, чем десять миллионов миллионов миллионов миллионов миллионов (единица с тридцатью одним нулем) лет. Этот результат превышает предсказания простейшей теории великого объединения, но есть и более сложные теории, дающие более высокую оценку. Для их проверки потребуются еще более точные эксперименты с еще большими количествами вещества.

      Несмотря на трудности наблюдения распада протона, не исключено, что само наше существование есть следствие обратного процесса ? образования протонов или, еще проще, кварков на самой начальной стадии, когда кварков было не больше, чем антикварков. Такая картина начала Вселенной представляется наиболее естественной. Земное вещество в основном состоит из протонов и нейтронов, которые в свою очередь состоят из кварков, но в нем нет ни антипротонов, ни антинейтронов, состоящих из антикварков, если не считать те несколько штук, которые были получены на больших ускорителях. Эксперименты с космическими лучами подтверждают, что то же самое справедливо и для всего вещества в нашей Галактике: в нем нет ни антипротонов, ни антинейтронов, за исключением того небольшого количества античастиц, которое возникает в результате рождения пар частица-античастица в соударениях частиц при высоких энергиях. Если бы в нашей Галактике были большие участки антивещества, то можно было бы ожидать сильного излучения на границах раздела вещества и антивещества, где возникало бы множество соударений частиц и античастиц, которые, аннигилируя, испускали бы излучение высокой энергии.

      У нас нет прямых указаний на то, состоит ли вещество других галактик из протонов и нейтронов или из антипротонов и антинейтронов, но оно должно состоять из частиц одного типа: в пределах одной галактики не может быть смеси частиц и античастиц, потому что в результате их аннигиляции испускалось бы мощное излучение. Поэтому мы считаем, что все галактики состоят из кварков, а не из антикварков; вряд ли одни галактики состояли из вещества, а другие ? из антивещества.

      Но почему кварков должно быть настолько больше, чем антикварков? Почему число их не одинаково? Нам очень повезло, что это так, потому что если бы кварков и антикварков было поровну, то почти все кварки и антикварки проаннигилировали бы друг с другом в ранней Вселенной, наполнив ее излучением, но едва ли оставив хоть какое-нибудь вещество. Не было бы ни галактик, ни звезд, ни планет, на которых могла бы развиваться человеческая жизнь. С помощью теорий великого объединения можно объяснить, почему во Вселенной кварков должно быть сейчас больше, чем антикварков, даже в том случае, если в самом начале их было поровну. Как мы уже знаем, в теориях великого объединения при высоких энергиях кварки могут превращаться в антиэлектроны. Возможны и обратные процессы, когда антикварки превращаются в электроны, а электроны и антиэлектроны ? в антикварки и кварки. Когда-то на очень ранней стадии развития Вселенной она была такой горячей, что энергии частиц было достаточно для подобных превращений. Но почему же в результате кварков стало больше, чем антикварков? Причина кроется в том, что законы физики не совсем одинаковы для частиц и античастиц.

      До 1956 г. считалось, что законы физики инвариантны относительно трех преобразований симметрии ? C, P и T. Симметрия С означает, что все законы одинаковы для частиц и античастиц. Симметрия P означает, что законы физики одинаковы для любого явления и для его зеркального отражения (зеркальным отражением частицы, вращающейся по часовой стрелке, будет частица, вращающаяся против часовой стрелки). Наконец, смысл симметрии Т состоит в том, что при изменении направления движения всех частиц и античастиц на обратное система вернется в то состояние, в котором она находилась раньше; иными словами, законы одинаковы при движении во времени вперед или назад.

      В 1956 г. два американских физика, Тзундао Ли и Чженьнин Янг, высказали предположение, что слабое взаимодействие на самом деле не инвариантно относительно Р-преобразований. Иными словами, в результате слабого взаимодействия развитие Вселенной может пойти иначе, чем развитие ее зеркального изображения. В том же году Цзиньсян By, коллега Ли и Янга, сумела доказать, что их предположение правильно. Расположив в магнитном поле ядра радиоактивных атомов так, чтобы их спины были направлены одинаково, она показала, что электронов вылетает больше в одном направлении, чем в другом. В следующем году Ли и Янг за свое открытие были удостоены Нобелевской премии. Оказалось, что слабые взаимодействия не подчиняются и симметрии С. Это означает, что Вселенная, состоящая из античастиц, будет вести себя иначе, чем наша Вселенная. Всем, однако, казалось, что слабое взаимодействие должно все-таки подчиняться комбинированной симметрии CP, т. е. развитие Вселенной должно происходить так же, как и развитие ее зеркального отражения, если, отразив ее в зеркале, мы еще каждую частицу заменим античастицей! Но в 1964 г. еще два американца, Джеймс Кронин и Вел Фитч, обнаружили, что в распаде частиц, которые называются K-мезонами, нарушается даже CP-симметрия.

      В результате в 1980 г. Кронин и Фитч получили за свою работу Нобелевскую премию. (Какое огромное количество премий присуждено за работы, в которых показано, что Вселенная не так проста, как нам кажется).

      Существует математическая теорема, в которой утверждается, что любая теория, подчиняющаяся квантовой механике и теории относительности, должна всегда быть инвариантна относительно комбинированной симметрии CPT. Другими словами, поведение Вселенной не изменится, если заменить частицы античастицами, отразить все в зеркале и еще изменить направление времени на обратное. Но Кронин и Фитч показали, что если заменить частицы античастицами и произвести зеркальное отражение, но при этом не изменять направление времени на обратное, то Вселенная будет вести себя по-другому. Следовательно, при обращении времени законы физики должны измениться, т. е. они не инвариантны относительно симметрии Т.

      Понятно, что в ранней Вселенной нарушалась симметрия Т: когда время течет вперед, Вселенная расширяется, а если быi время пошло назад, то Вселенная начала бы сжиматься. А поскольку существуют силы, не инвариантные относительно симметрии Т, то отсюда следует, что но мере расширения Вселенной под действием этих сил антиэлектроны должны превращаться в кварки чаще, чем электроны в антикварки. Затем, когда Вселенная расширялась и охлаждалась, антикварки и кварки должны были аннигилировать, но поскольку кварков оказалось бы больше, чем антикварков, кварки остались бы в небольшом избытке. И они-то и есть те самые кварки, из которых состоит сегодняшнее вещество, которое мы видим и из которого сотворены мы сами. Таким образом, само наше существование можно рассматривать как подтверждение теории великого объединения, правда, только как качественное подтверждение. Неопределенности происходят из-за того, что мы не можем предсказать, ни сколько кварков останется после аннигиляции, ни даже будут ли оставшиеся частицы кварками или антикварками. (Правда, если бы в излишке остались антикварки, мы бы просто переименовали их в кварки, а кварки ? в антикварки).

      Теории великого объединения не включают в себя гравитационное взаимодействие. Это не столь уж существенно, потому что гравитационные силы так малы, что их влиянием можно просто пренебречь, когда мы имеем дело с элементарными частицами или атомами. Однако тот факт, что гравитационные силы являются дальнодействующими, да еще и всегда силами притяжения, означает, что результаты их воздействия всегда суммируются. Следовательно, если имеется достаточное количество частиц вещества, то гравитационные силы могут стать больше всех остальных сил. Вот почему эволюция Вселенной определяется именно гравитацией. Даже в случае объектов размером со звезду гравитационное притяжение может перевесить все остальные силы и привести к коллапсу звезды. В 70-х годах я занимался исследованием черных дыр, которые могут возникнуть в результате такого звездного коллапса, и окружающих их сильных гравитационных полей. Именно в ходе этой работы у меня появились первые догадки о том, как квантовая механика и общая теория относительности могут влиять друг на друга ? первые проблески формы той квантовой теории гравитации, которую еще предстоит разработать.

6. Черные дыры

      Термин ?черная дыра? появился совсем недавно. Его ввел в обиход в 1969 г. американский ученый Джон Уилер как метафорическое выражение представления, возникшего по крайней мере 200 лет назад, когда существовали две теории света: в первой, которой придерживался Ньютон, считалось, что свет состоит из частиц; согласно же второй теории, свет ? это волны. Сейчас мы знаем, что на самом деле обе они правильны. В силу принципа частично-волнового дуализма квантовой механики свет может рассматриваться и как частицы, и как волны. В теории, в которой свет ? волны, было непонятно, как будет действовать на него гравитация. Если же свет ? поток частиц, то можно считать, что гравитация действует на них так же, как на пушечные ядра, ракеты и планеты. Сначала ученые думали, что частицы света перемешаются с бесконечной скоростью и поэтому гравитация не может их замедлить, по когда Рёмер установил, что скорость света конечна, стало ясно, что влияние гравитации может оказаться существенным.

      Исходя из этого, Джон Мичел, преподаватель из Кембриджа, в 1783 г. представил в журнал ?Философские труды Лондонского Королевского общества? (Philosophical Transactions of the Royal Society of London) свою работу, в которой он указывал на то, что достаточно массивная и компактная звезда должна иметь столь сильное гравитационное ноле, что свет не сможет выйти за его пределы: любой луч света, испущенный поверхностью такой звезды, не успев отойти от нее, будет втянут обратно ее гравитационным притяжением. Мичел считал, что таких звезд может быть очень много. Несмотря на то что их нельзя увидеть, так как их свет не может до нас дойти, мы тем не менее должны ощущать их гравитационное притяжение. Подобные объекты называют сейчас черными дырами, и этот термин отражает их суть: темные бездны в космическом пространстве. Через несколько лет после Мичела и французский ученый Лаплас высказал, по-видимому, независимо от него аналогичное предположение. Небезынтересно, что Лаплас включил его лишь в первое и второе издания своей книги ?Система мира?, но исключил из более поздних изданий, сочтя, наверное, черные дыры бредовой идеей. (К тому же в XIX в. корпускулярная теория света потеряла популярность. Стало казаться, что все явления можно объяснить с помощью волновой теории, а в ней воздействие гравитационных сил на свет вовсе не было очевидным).

      На самом деле свет нельзя рассматривать как пушечные ядра в теории тяготения Ньютона, потому что скорость света фиксирована. (Пушечное ядро, вылетевшее вверх с поверхности Земли, из-за гравитации будет замедлять полет и в конце концов остановится, а потом начнет падать. Фотон же должен продолжать движение вверх с постоянной скоростью. Как же тогда ньютоновская гравитация может воздействовать на свет?) Последовательная теория взаимодействия света и гравитации отсутствовала до 1915 г., когда Эйнштейн предложил общую теорию относительности. Но даже после этого прошло немало времени, пока стало наконец ясно, какие выводы следуют из теории Эйнштейна относительно массивных звезд.

      Чтобы понять, как возникает черная дыра, надо вспомнить о том, каков жизненный цикл звезды. Звезда образуется, когда большое количество газа (в основном водорода) начинает сжиматься силами собственного гравитационного притяжения. В процессе сжатия атомы газа все чаще и чаще сталкиваются друг с другом, двигаясь со все большими и большими скоростями. В результате газ разогревается и в конце концов становится таким горячим, что атомы водорода, вместо того чтобы отскакивать друг от друга, будут сливаться, образуя гелий. Тепло, выделяющееся в этой реакции, которая напоминает управляемый взрыв водородной бомбы, и вызывает свечение звезды. Из-за дополнительного тепла давление газа возрастает до тех пор, пока не уравновесит гравитационное притяжение, после чего газ перестает сжиматься. Это немного напоминает надутый резиновый шарик, в котором устанавливается равновесие между давлением воздуха внутри, заставляющим шарик раздуваться, и натяжением резины, под действием которого шарик сжимается. Подобно шарику, звезды будут долго оставаться в стабильном состоянии, в котором выделяющимся в ядерных реакциях теплом уравновешивается гравитационное притяжение. Но в конце концов у звезды кончится водород и другие виды ядерного топлива. Как ни парадоксально, но чем больше начальный запас топлива у звезды, тем быстрее оно истощается, потому что для компенсации гравитационного притяжения звезде надо тем сильнее разогреться, чем больше ее масса. А чем горячее звезда, тем быстрее расходуется ее топливо. Запаса топлива на Солнце хватит примерно на пять тысяч миллионов лет, но более тяжелые звезды израсходуют свое топливо всего за сто миллионов лет, т. е. за время, гораздо меньшее возраста Вселенной. Израсходовав топливо, звезда начинает охлаждаться и сжиматься, а вот что с ней происходит потом, стало понятно только в конце 20-х годов нашего века.

      В 1928 г. Субраманьян Чандрасекар, аспирант из Индии, отправился по морю в Англию, в Кембридж, чтобы пройти там курс обучения у крупнейшего специалиста в области общей теории относительности Артура Эддингтона. (Говорят, в начале 20-х годов один журналист сказал Эддингтону, что он слышал, будто в мире всего три человека понимают общую теорию относительности. Эддингтон, помолчав, сказал: ?Я думаю ? кто же третий??). Во время своего путешествия из Индии Чандрасекар вычислил, какой величины должна быть звезда, чтобы, израсходовав целиком свое топливо, она все же могла бы противостоять воздействию собственных гравитационных сил. Чандрасекар рассуждал так. Когда звезда уменьшается, частицы вещества очень сильно сближаются друг с другом, и в силу принципа запрета (исключения) Паули их скорости должны все больше различаться. Следовательно, частицы стремятся разойтись и звезда расширяется. Таким образом, радиус звезды может удерживаться постоянным благодаря равновесию между гравитационным притяжением и возникающим в силу принципа Паули отталкиванием, точь-в-точь как на более ранней стадии развития звезды гравитационные силы уравновешивались ее тепловым расширением.

      Однако Чандрасекар понимал, что отталкивание, обусловленное принципом Паули, не беспредельно. Согласно теории относительности, максимальная разница скоростей частиц вещества в звезде равна скорости света. Это значит, что, когда звезда становится достаточно плотной, отталкивание, обусловленное принципом Паули, должно стать меньше, чем гравитационное притяжение. Чандрасекар рассчитал, что если масса холодной звезды более чем в полтора раза превышает массу Солнца, то эта звезда не сможет противостоять собственной гравитации. (Данное значение массы сейчас называют пределом Чандрасекара). Приблизительно в то же время аналогичное открытие сделал советский физик Л. Д. Ландау.

      Выводы Чандрасекара и Ландау имели важные следствия относительно судьбы звезд с большой массой. Если масса звезды меньше предела Чандрасекара, то она в конце концов может перестать сокращаться, превратившись в белого карлика ? одно из возможных конечных состояний звезды. Белый карлик имеет в радиусе несколько тысяч километров, плотность ? сотни тонн на кубический сантиметр и удерживается в равновесии благодаря отталкиванию электронов в его веществе, отталкиванию, которое возникает из-за принципа Паули. На небе видно немало белых карликов. Одним из первых был открыт белый карлик, вращающийся вокруг Сириуса ? самой яркой звезды на ночном небе.

      Ландау показал, что звезда может оказаться и в другом конечном состоянии, предельная масса которого равна одной-двум массам Солнца, а размеры даже меньше, чем у белого карлика. Эти звезды тоже должны существовать благодаря возникающему из-за принципа Паули отталкиванию, но не между электронами, а между протонами и нейтронами. Поэтому такие звезды получили название нейтронных звезд. Их радиус не больше нескольких десятков километров, а плотность ? сотни миллионов тонн на кубический сантиметр. Когда Ландау предсказал нейтронные звезды, наблюдать их никто не умел, а реальная возможность их наблюдения появилась значительно позже.

      Если масса звезды превышает предел Чандрасекара, то, когда ее топливо кончается, возникают большие сложности. Чтобы избежать катастрофического гравитационного коллапса, звезда может взорваться или каким-то образом выбросить из себя часть вещества, чтобы масса стала меньше предельной. Трудно, однако, поверить, что так происходит со всеми звездами независимо от их размеров. Как звезда узнает, что ей пора терять вес? А даже если бы каждой звезде удалось потерять в весе настолько, чтобы избежать коллапса, то что произошло бы, если бы мы увеличили массу белого карлика или нейтронной звезды так, чтобы она превысила бы предел? Может быть, тогда произошел бы коллапс и плотность звезды стала бесконечной? Эддингтон был так этим поражен, что отказался верить результату Чандрасекара. Он считал просто невозможным, чтобы звезда сколлапсировала в точку. Такой позиции придерживалось большинство ученых: сам Эйнштейн заявил в своей статье, что звезды не могут сжиматься до нулевых размеров. Враждебное отношение ученых, в особенности Эддингтона, который был первым учителем Чандрасекара и главным авторитетом в исследовании строения звезд, вынудили Чандрасекара оставить работу в прежнем направлении и переключиться на другие задачи астрономии, такие, как движение звездных скоплений. Однако Нобелевская премия 1983 г. была, по крайней мере частично, присуждена Чандрасекару за ранние работы, связанные с предельной массой холодных звезд.

      Он показал, что если масса звезды превышает предел Чандрасекара, то принцип запрета не может остановить ее коллапс, а задачу о том, что должно произойти с такой звездой согласно общей теории относительности, первым решил в 1939 г. молодой американский физик Роберт Оппенгеймер. Но из результатов Оппенгеймера следовало, что с помощью существовавших тогда телескопов нельзя наблюдать ни один из предсказанных эффектов. Потом началась Вторая мировая война, и сам Оппенгеймер вплотную занялся разработкой атомной бомбы. После войны о гравитационном коллапсе совершенно забыли, потому что большинство ученых было увлечено изучением явлений атомных и ядерных масштабов. Но в шестидесятых годах, благодаря новейшей технике, число астрономических наблюдений сильно возросло, а их область значительно расширилась, что вызвало возрождение интереса к астрономии и космологии. Результаты Оппенгеймера были заново открыты и развиты далее многими физиками.

 


 

      В итоге, благодаря Оппенгеймеру, мы имеем сейчас следующую картину. Из-за гравитационного поля звезды лучи света в пространстве-времени отклоняются от тех траекторий, по которым они перемещались бы в отсутствие звезды. Световые конусы, вдоль поверхности которых распространяются испущенные из их вершин световые лучи, около поверхности звезды немного наклоняются внутрь. Это проявляется в наблюдаемом во время солнечного затмения искривлении световых лучей, идущих от удаленных звезд. По мере сжатия звезды увеличивается гравитационное поле на ее поверхности и световые конусы наклоняются еще сильнее. Поэтому световым лучам, испущенным звездой, становится все труднее выйти за пределы гравитационного поля звезды, и удаленному наблюдателю ее свечение будет казаться тусклым и более красным. В конце концов, когда в ходе сжатия радиус звезды достигнет некоторого критического значения, гравитационное поле у ее поверхности станет очень сильным, и тогда световые конусы настолько повернутся внутрь, что свет не сможет больше выйти наружу (рис. 6.1). По теории относительности ничто не может двигаться быстрее света; а раз свет не может выйти наружу, то и никакой другой объект не сможет выйти, т. е. все будет втягиваться назад гравитационным полем. Это значит, что существует некое множество событий, т. е. некая область пространства-времени, из которой невозможно выйти наружу и достичь удаленного наблюдателя. Такая область называется сейчас черной дырой. Границу черной дыры называют горизонтом событий. Она совпадает с путями тех световых лучей, которые первыми из всех теряют возможность выйти за пределы черной дыры.

      Чтобы понять, что вы увидели бы, если бы наблюдали за образованием черной дыры при коллапсе звезды, надо вспомнить, что в теории относительности отсутствует абсолютное время и у каждого наблюдателя своя мера времени. Из-за того что звезда имеет гравитационное поле, для наблюдателя на звезде время будет не таким, как для удаленного наблюдателя. Предположим, что какой-нибудь отважный астронавт находится на поверхности коллапсирующей звезды и коллапсирует внутрь вместе с ней.

      Пусть он каждую секунду по своим часам посылает сигналы на космический корабль, обращающийся по орбите вокруг звезды. В какой-то момент времени по его часам, скажем в 11:00, звезда сожмется до радиуса ниже критического, при котором гравитационное поле становится настолько сильным, что ничто не может выйти наружу, и тогда сигналы этого смельчака больше не попадут на космический корабль. При приближении времени к 11:00 интервалы между очередными сигналами, которые астронавт посылает своим спутникам на космический корабль, будут удлиняться, но до 10:59:59 этот эффект будет невелик. Между сигналами, которые астронавт по своим часам пошлет в 10:59:58 и 10:59:59, па космическом корабле пройдет чуть больше секунды, но сигнала, посланного астронавтом в 11:00, им придется ждать вечно. Световые волны, испущенные с поверхности звезды между 10:59:59 и 11:00 по часам астронавта, будут, с точки зрения пассажира космического корабля, размазаны по бесконечному периоду времени. Временной интервал между двумя волнами, приходящими друг за другом на корабль, будет все время увеличиваться, и поэтому излучаемый звездой свет будет непрерывно ослабевать и казаться все более красным. В конце концов звезда станет такой тусклой, что ее больше не увидят с борта космического корабля: от нее останется лишь черная дыра в пространстве. При этом на корабль будет по-прежнему действовать гравитационное притяжение звезды, так что он продолжит свое движение по орбите вокруг черной дыры.

      Но этот сценарий не совсем реалистичен по следующей причине. При удалении от звезды ее гравитационное притяжение ослабевает, а поэтому ноги нашего отважного астронавта всегда будут испытывать более сильное гравитационное воздействие, чем голова. Разница в величине сил приведет к тому, что астронавт либо окажется вытянутым, как спагетти, либо разорвется на части еще до того, как размеры звезды сократятся до критического радиуса, когда возникает горизонт событий! Но мы считаем, что во Вселенной существуют гораздо большие объекты, например центральные области галактик, которые тоже могут превращаться в черные дыры из-за гравитационного коллапса. Тогда, находясь на одном из таких объектов, астронавт не был бы разорван на части еще до образования черной дыры. На самом деле он бы не почувствовал ничего особенного, когда радиус звезды достиг бы критического значения, и вполне мог бы пройти, не заметив, точку, за которой начинается область, откуда нельзя вернуться назад. Но всего через несколько часов, когда эта область начала бы коллапсировать, разница гравитационных сил, действующих на ноги и на голову, возросла бы так сильно, что его опять разорвало бы на части.

      В работе, которую мы с Роджером Пенроузом выполнили в период с 1965 по 1970 г., было показано, что, согласно общей теории относительности, в черной дыре должна быть сингулярность, в которой плотность и кривизна пространства-времени бесконечны. Ситуация напоминает большой взрыв в момент начала отсчета времени с той только разницей, что это означало бы конец времени для астронавта и для коллапсирующего тела. В этой сингулярной точке нарушались бы законы науки, а мы потеряли бы способность предсказывать будущее. Но эта потеря не коснулась бы ни одного наблюдателя, находящегося вне черной дыры, потому что до него не дошел бы ни световой, ни какой-нибудь другой сигнал, вышедший из сингулярности. Под влиянием этого удивительного факта Роджер Пенроуз выдвинул ?гипотезу космической цензуры?, которую можно сформулировать так: ?Бог не терпит голой сингулярности?. Другими словами, сингулярности, возникшие в результате гравитационного коллапса, появляются лишь в местах вроде черных дыр, где горизонт событий надежно укрывает их от взглядов извне. Строго говоря, это гипотеза слабой космической цензуры (как ее и называют сейчас): благодаря ей наблюдатели, находящиеся за пределами черной дыры, защищены от последствий того, что в сингулярности теряется способность предсказывать будущее, но эта гипотеза нечего не дает для спасения несчастного астронавта, упавшего в черную дыру.

      Существуют некоторые решения уравнений общей теории относительности, которые позволяют астронавту увидеть голую сингулярность; он может увернуться от сингулярности и, пролетев через ?кротовую нору?, выйти в другой области Вселенной. Такой вариант предоставил бы широкие возможности для путешествия в пространстве и времени, но, к сожалению, все эти решения, по-видимому, сильно нестабильны. Малейшее возмущение, например присутствие астронавта, могло бы так изменить решения, что астронавт не увидел бы сингулярность до самого столкновения с ней, когда его существованию пришел бы конец. Другими словами, сингулярность находилась бы всегда в его будущем и никогда в прошлом. Сильная формулировка гипотезы космической цензуры такова: сингулярности реалистического решения должны быть всегда либо целиком в будущем (как в случае гравитационного коллапса), либо целиком в прошлом (как в случае большого взрыва). Очень хочется надеяться, что ?гипотеза космической цензуры? выполняется в той или иной формулировке, потому что иначе вблизи голых сингулярностей имелась бы возможность попадать в прошлое. Это было бы прекрасно для писателей-фантастов, но означало бы, что никогда нельзя быть уверенным в своей безопасности: кто-то может войти в прошлое и лишить жизни кого-нибудь из ваших родителей еще до того, как они успели дать жизнь вам!

      Горизонт событий, ограничивающий ту область пространства-времени, из которой невозможно выбраться наружу, подобен некоей полупроницаемой мембране, окружающей черную дыру: объекты вроде неосторожного астронавта могут упасть в черную дыру через горизонт событий, но никакие объекты не могут выбраться из нее через горизонт событий обратно. (Вспомните, что горизонт событий ? это путь, по которому в пространстве-времени распространяется свет, когда он стремится выйти из черной дыры, а быстрее света не может двигаться ничто). О горизонте событий можно сказать так, как сказано у поэта Данте о входе в Ад: ?Оставь надежду всяк сюда входящий?. Все и вся провалившееся за горизонт событий вскоре попадет в область бесконечной плотности, где время кончается.

      Общая теория относительности предсказывает, что при движении тяжелых объектов должны излучаться гравитационные волны, которые представляют собой пульсации кривизны пространства, распространяющиеся со скоростью света. Излучаемые при любом движении гравитационные волны будут уносить энергию системы. (Это напоминает поведение брошенного в воду поплавка, который сначала то уходит под воду, то выныривает на поверхность, но, поскольку волны уносят его энергию, в конце концов застывает в неподвижном стационарном состоянии). Например, при обращении Земли вокруг Солнца возникают гравитационные волны, и Земля теряет свою энергию. Потеря энергии будет влиять на орбиту Земли, и Земля начнет постепенно приближаться к Солнцу. В конце концов они войдут в контакт, и Земля, перестав двигаться относительно Солнца, окажется в стационарном состоянии. При вращении Земли вокруг Солнца теряемая мощность очень мала ? примерно такова, какую потребляет небольшой электрокипятильник. Это означает, что Земля упадет на Солнце примерно через тысячу миллионов миллионов миллионов миллионов лет, а потому прямо сейчас беспокоиться не о чем! Изменения орбиты Земли происходят слишком медленно для наблюдения, но за последние несколько лет в точности такой же эффект наблюдался в системе PSR 1913+16. (PSR означает ?пульсар? ? особая разновидность нейтронной звезды, которая излучает периодические импульсы радиоволн). Это система двух нейтронных звезд, вращающихся одна вокруг другой; потери энергии на гравитационное излучение приводят к их сближению по спирали.

      Когда во время гравитационного коллапса звезды образуется черная дыра, все движения звезды должны сильно ускориться, и поэтому потери энергии тоже должны сильно возрасти. Следовательно, коллапсирующая звезда должна вскоре оказаться в некоем стационарном состоянии. Каким же будет это конечное состояние?

      Можно предположить, что оно будет зависеть от всех сложных свойств исходной звезды, т. е. не только от ее массы и скорости вращения, но и от разных плотностей разных частей звезды и от сложного движения газов внутри нее. Но если бы черные дыры были столь же разнообразными, как и коллапсирующие объекты, из которых они возникают, то делать какие бы то ни было общие предсказания о черных дырах оказалось бы очень трудно.

      Однако в 1967 г. канадский ученый Вернер Израэль (он родился в Берлине, воспитывался в Южной Африке, а докторскую диссертацию защищал в Ирландии) произвел революцию в науке о черных дырах. Израэль показал, что, согласно общей теории относительности, невращающиеся черные дыры должны иметь очень простые свойства: они должны быть правильной сферической формы, размеры черной дыры должны зависеть только от ее массы, а две черные дыры с одинаковыми массами должны быть идентичны друг другу. Фактически получалось, что черные дыры можно описать частным решением уравнений Эйнштейна, известным еще с 1917 г. и найденным Карлом Шварцшильдом вскоре после опубликования общей теории относительности. Сначала многие, в том числе и сам Израэль, считали, что, поскольку черные дыры должны быть совершенно круглыми, они могут образовываться только в результате коллапса совершенно круглого объекта. Таким образом, любая реальная звезда ? а реальные звезды не бывают идеально сферической формы ? может сколлапсировать, порождая только голую сингулярность.

      Правда, была возможна и другая интерпретация полученного Израэлем результата, которую, в частности, поддерживали Роджер Пенроуз и Джон Уилер. Быстрые движения, возникающие во время коллапса звезды, означают, указывали эти ученые, что излучаемые звездой гравитационные волны могут еще сильнее скруглить ее, и к тому моменту, когда звезда окажется в стационарном состоянии, она будет в точности сферической формы. При таком взгляде на вещи любая невращающаяся звезда, как бы ни была сложна ее форма и внутренняя структура, после гравитационного коллапса должна превратиться в черную дыру правильной сферической формы, размеры которой будут зависеть только от ее массы. В дальнейшем такой вывод был подтвержден расчетами и вскоре стал общепринятым.

      Результат Израэля касался только черных дыр, образовавшихся из невращающихся объектов. В 1963 г. Рой Керр из Новой Зеландии нашел семейство решений уравнений общей теории относительности, которые описывали вращающиеся черные дыры. Керровские черные дыры вращаются с постоянной скоростью, а их форма и размер зависят только от массы и скорости вращения. Если вращение отсутствует, то черная дыра имеет идеальную шарообразную форму, а отвечающее ей решение идентично шварцшильдовскому решению. Если же черная дыра вращается, то ее диаметр увеличивается по экватору (точно так же, как деформируются вследствие вращения Земля и Солнце), и тем сильнее, чем быстрее вращение. Чтобы можно было перенести результат Израэля и на вращающиеся тела, было сделано предположение, что любое вращающееся тело, которое в результате коллапса образует черную дыру, должно в конце концов оказаться в стационарном состоянии, описываемом решением Керра.

      В 1970 г. мой аспирант и коллега по Кембриджу Брендон Картер сделал первый шаг к доказательству этого предположения. Картер показал, что если стационарная вращающаяся черная дыра обладает осью симметрии, как волчок, то ее размеры и форма будут зависеть только от ее массы и скорости вращения. Затем в 1971 г. я доказал, что любая стационарная черная дыра всегда будет иметь такую ось симметрии. Наконец в 1973 г. Дэвид Робинсон из Королевского колледжа в Лондоне, опираясь на наши с Картером результаты, показал, что вышеприведенное предположение правильно, т. е. что стационарная черная дыра всегда будет решением Керра. Итак, после гравитационного коллапса черная дыра должна оказаться в таком состоянии, чтобы она могла вращаться, но не могла пульсировать. Кроме того, размеры черной дыры будут зависеть только от се массы и скорости вращения и никак не будут связаны со свойствами того тела, которое сколлапсировало в эту черную дыру. Этот вывод стал известен в формулировке: ?У черной дыры нет волос?. Теорема об отсутствии волос у черной дыры имеет огромное практическое значение, потому что она налагает сильные ограничения на возможные типы черных дыр и тем самым дает возможность строить детальные модели объектов, которые могли бы содержать черные дыры, и сравнивать их предсказания с результатами наблюдений. Кроме того, из нее следует, что при образовании черной дыры должна теряться огромная часть информации о сколлапсировавшем теле, потому что после коллапса все, что нам удастся измерить,  ? это, может быть, лишь масса тела да скорость его вращения. Значимость сказанного станет ясна из следующей главы.

      Черные дыры ? один из очень немногочисленных примеров в истории науки, когда теория развивалась во всех деталях как математическая модель, не имея никаких экспериментальных подтверждений своей справедливости. И это, конечно, было главным возражением противников черных дыр: как можно верить в реальность объектов, существование которых следует лишь из вычислений, основанных на такой сомнительной теории, как общая теория относительности. Но в 1963 г. Маартен Шмидт, астроном из Паламарской обсерватории в Калифорнии, измерил красное смещение тусклого, похожего на звезду объекта в направлении источника радиоволн ЗС273 (источник под номером 273 в третьем Кембриджском каталоге радиоисточников). Обнаруженное Шмидтом красное смещение оказалось слишком велико, чтобы его можно было объяснить действием гравитационного поля: если бы оно было гравитационного происхождения, то связанный с ним объект должен был иметь такую большую массу и располагаться так близко к нам, что его присутствие изменило бы орбиты всех планет Солнечной системы. Но, может быть, тогда красное смещение возникло из-за расширения Вселенной, и из этого следует, что рассматриваемый объект находится, наоборот, очень далеко? Видимый на таком большом расстоянии объект должен быть очень ярким, т. е. должен излучать огромную энергию. Единственный механизм, с помощью которого могло бы излучаться такое большое количество энергии,  ? это гравитационный коллапс, но не какой-нибудь одной звезды, а коллапс всей центральной области Галактики. С тех пор были открыты и другие аналогичные квазизвездные объекты, или квазары, обладающие красным смещением. Но их большая удаленность сильно затрудняет наблюдение и не дает возможности сделать окончательные выводы относительно черных дыр.

      В 1967 г. появился новый довод в пользу существования черных дыр. Кембриджский аспирант Джослин Белл обнаружил на небе объекты, излучающие регулярные импульсы радиоволн. Сначала Белл и его руководитель Энтони Хьюиш решили, что они установили контакт с внеземными цивилизациями нашей Галактики! Я помню, что, докладывая о своем открытии на семинаре, четыре источника они действительно назвали сокращенно LGM 1-4, где LGM означает ?зеленые человечки? (Little Green Men). Но потом и авторы, и все остальные пришли к менее романтичному заключению, что обнаруженные объекты, которые были названы пульсарами, представляют собой вращающиеся нейтронные звезды, которые излучают импульсы радиоволн из-за сложного характера взаимодействия их магнитного поля с окружающим веществом. Эта новость огорчила авторов боевиков о космических пришельцах, но очень воодушевила наш немногочисленный отряд сторонников черных дыр, так как мы впервые получили подтверждение того, что нейтронные звезды существуют. Радиус нейтронной звезды равен примерно пятнадцати километрам, т. е. всего в несколько раз больше критического радиуса, по достижении которого звезда превращается в черную дыру. Если звезда может сколлапсировать до таких небольших размеров, то вполне допустимо предположить, что другие звезды в результате коллапса станут еще меньше и образуют черные дыры.

 


 

      Да, но как можно рассчитывать найти черную дыру, если по самому ее определению она вообще не излучает свет? Это все равно что ловить черного кота в темной комнате. И все-таки один способ есть. Еще Джон Митчелл в своей пионерской работе, написанной в 1783 г., указывал, что черные дыры все же оказывают гравитационное воздействие на близкие к ним объекты. Астрономы наблюдали много систем, в которых две звезды обращаются одна вокруг другой под действием гравитационного притяжения. Наблюдаются и такие системы, в которых видима лишь одна звезда, обращающаяся вокруг своего невидимого партнера. Разумеется, мы не можем сразу заключить, что партнер и есть черная дыра, потому что это может быть просто чересчур тусклая звезда. Однако некоторые из таких систем, например Лебедь Х-1 (рис. 6.2), являются еще и мощными источниками рентгеновского излучения. Это явление лучше всего объясняется предположением, что с поверхности видимой звезды ?сдувается? вещество, которое падает на вторую, невидимую звезду, вращаясь по спирали (как вытекающая из ванны вода), и, сильно разогреваясь, испускает рентгеновское излучение (рис. 6.3). Для существования такого механизма невидимый объект должен быть очень малым ? белым карликом, нейтронной звездой или черной дырой. Результаты наблюдения орбиты видимой звезды позволяют вычислить, какую наименьшую массу может иметь невидимый объект. В случае Лебедя Х-1 эта масса составляет примерно шесть солнечных масс, т. е., согласно Чандрасекару, слишком велика, чтобы обладающий ею невидимый объект оказался белым карликом. А так как эта масса велика и для нейтронной звезды, объект, по-видимому, должен быть черной дырой.

 


 

      Существуют и другие модели, объясняющие результаты наблюдений Лебедя Х-1 без привлечения черных дыр, но все они довольно искусственны. Черная дыра представляется единственным совершенно естественным объяснением наблюдений. Несмотря на это, я заключил пари с Кином Торном из Калифорнийского технологического института, что на самом деле в Лебеде Х-1 нет черной дыры! Для меня это пари ? некая страховка. Я очень много занимался черными дырами, и вся моя работа пойдет насмарку, если вдруг окажется, что черные дыры не существуют. Но в этом случае утешением мне будет выигранное пари, а по его условиям я в течение четырех лет буду бесплатно получать журнал ?Private Eye?. Если же черные дыры все-таки существуют, то Кип будет целый год получать журнал ?Penthouse?. Заключая пари в 1975 г., мы были на 80% уверены в том, что Лебедь Х-1 является черной дырой. Сейчас наша уверенность возросла, я бы сказал, до 95%, но пари остается в силе.

      Мы располагаем данными о еще нескольких черных дырах в системах типа Лебедя Х-1 в нашейГалактике и двух соседних галактиках, которые называются Большим и Малым Магеллановыми Облаками. Но черных дыр почти наверняка гораздо больше: на протяжении долгой истории Вселенной многие звезды должны были израсходовать до конца свое ядерное топливо и сколлапсировать. Число черных дыр вполне может даже превышать число видимых звезд, которое только в нашей Галактике составляет около ста тысяч миллионов. Дополнительное гравитационное притяжение столь большого количества черных дыр могло бы быть причиной того, почему наша Галактика вращается именно с такой скоростью, а не с какой-нибудь другой: массы видимых звезд для объяснения этой скорости недостаточно. Существуют и некоторые данные в пользу того, что в центре нашей Галактики есть черная дыра гораздо большего размера с массой примерно в сто тысяч масс Солнца. Звезды, оказавшиеся в Галактике слишком близко к этой черной дыре, разлетаются на части из-за разницы гравитационных сил на ближней и дальней сторонах звезды. Остатки разлетающихся звезд и газ, выброшенный другими звездами, будут падать по направлению к черной дыре. Как и в случае Лебедя Х-1, газ будет закручиваться по спирали внутрь и разогреваться, правда, не так сильно. Разогрев будет недостаточным для испускания рентгеновского излучения, но им можно объяснить тот крошечный источник радиоволн и инфракрасных лучей, который наблюдается в центре Галактики.

      Не исключено, что в центрах квазаров есть такие же черные дыры, но еще больших размеров, с массами около ста миллионов масс Солнца. Только падением вещества в такую сверхмассивную черную дыру можно было бы объяснить, откуда берется энергия мощнейшего излучения, которое исходит из черной дыры. Вещество падает, вращаясь по спирали, внутрь черной дыры и заставляет ее вращаться в том же направлении, в результате чего возникает магнитное поле, похожее на магнитное поле Земли. Падающее внутрь вещество будет рождать около черной дыры частицы очень высокой энергии. Магнитное поле будет настолько сильным, что сможет сфокусировать эти частицы в струи, которые будут вылетать наружу вдоль оси вращения черной дыры, т. е. в направлении ее северного и южного полюсов. У некоторых галактик и квазаров такие струи действительно наблюдаются.

      Можно рассмотреть и возможность существования черных дыр с массами, меньшими массы Солнца. Такие черные дыры не могли бы образоваться в результате гравитационного коллапса, потому что их массы лежат ниже предела Чандрасекара: звезды с небольшой массой могут противостоять гравитации даже в том случае, если все их ядерное топливо уже израсходовано. Черные дыры малой массы могут образоваться лишь при условии, что вещество сжато до огромных плотностей чрезвычайно высокими внешними давлениями. Такие условия могут выполняться в очень большой водородной бомбе: физик Джон Уилер как-то вычислил, что если взять всю тяжелую воду из всех океанов мира, то можно сделать водородную бомбу, в которой вещество так сильно сожмется, что в ее центре возникнет черная дыра. (Разумеется, вокруг не останется никого, кто мог бы это увидеть!) Более реальная возможность ? это образование не очень массивных черных дыр с небольшой массой при высоких значениях температуры и давления на весьма ранней стадии развития Вселенной. Черные дыры могли образоваться лишь в том случае, если ранняя Вселенная не была идеально гладкой и однородной, потому что лишь какую-нибудь небольшую область с плотностью, превышающей среднюю плотность, можно так сжать, чтобы она превратилась в черную дыру. Но мы знаем, что во Вселенной должны были присутствовать неоднородности, иначе все вещество не сбилось бы в комки, образуя звезды и галактики, а равномерно распределилось бы по всей Вселенной.

      Могли ли эти неоднородности, существованием которых объясняется возникновение звезд и галактик, привести к образованию первичных черных дыр, зависит от того, какой была ранняя Вселенная. Следовательно, определив, какое количество первичных черных дыр сейчас существует, мы смогли бы многое узнать о самых ранних стадиях развития Вселенной. Первичные черные дыры, масса которых превышает тысячу миллионов тонн (масса большой горы), можно было бы зарегистрировать только по влиянию их гравитационного поля на видимую материю или же на процесс расширения Вселенной. Но в следующей главе мы узнаем, что на самом деле черные дыры вовсе не черные: они светятся, как раскаленное тело, и чем меньше черная дыра, тем сильнее она светится. Как ни парадоксально, но может оказаться, что маленькие черные дыры проще регистрировать, чем большие!

7. Черные дыры не так уж черны

      До 1970 г. я в своих исследованиях по общей теории относительности сосредоточивался в основном на вопросе о том, существовала или нет сингулярная точка большого взрыва. Но как-то вечером в ноябре 1970 г., вскоре после рождения моей дочери Люси, ложась спать, я задумался о черных дырах. Из-за своей немощности я очень медленно готовлюсь ко сну, и поэтому у меня было много времени для размышлений. Тогда еще не было точного определения, какие точки пространства-времени лежат внутри черной дыры, а какие ? снаружи. Но мы уже обсуждали с Роджером Пенроузом определение черной дыры как множества событий, из которого невозможно уйти на большое расстояние. Это определение стало сейчас общепринятым. Оно означает, что границу черной дыры, горизонт событий, образуют в пространстве-времени пути лучей света, которые не отклоняются к сингулярности, но и не могут выйти за пределы черной дыры и обречены вечно балансировать на самом краю (рис. 7.1). Это как если бы, убегая от полицейского, держаться на шаг впереди, не будучи в силах совсем оторваться от него.

 


 

      Вдруг я понял, что пути лучей света па горизонте событий никогда не смогут сблизиться. Если бы это произошло, то лучи в конце концов пересеклись бы.

      Как если бы наткнуться на кого-то другого, тоже убегающего от полицейского, но в противоположном направлении,  ? тогда оба будут пойманы. (Или же, в нашем случае, упадут в черную дыру). Но если бы эти лучи света поглотила черная дыра, то они не могли бы лежать на границе черной дыры. Следовательно, на горизонте событий лучи света должны всегда двигаться параллельно друг другу, т. е. поодаль друг от друга. Иначе говоря, горизонт событий (граница черной дыры) подобен краю тени ? тени грядущей гибели. Если посмотреть на тень, создаваемую каким-нибудь очень удаленным источником, например Солнцем, то вы увидите, что на краю тени лучи света не приближаются друг к другу.

 


 

      Если лучи света, образующие горизонт событий, т. е. границу черной дыры, никогда не смогут сблизиться, то площадь горизонта событий может либо оставаться той же самой, либо увеличиваться со временем, но никогда не будет уменьшаться, потому что ее уменьшение означало бы, что по крайней мере некоторые лучи света на границе черной дыры должны сближаться. На самом деле эта площадь будет всегда увеличиваться при падении в черную дыру вещества или излучения (рис. 7.2). Если же две черные дыры столкнутся и сольются в одну, то площадь горизонта событий либо будет больше суммы площадей горизонтов событий исходных черных дыр, либо будет равна этой сумме (рис. 7.3). То, что площадь горизонта событий не уменьшается, налагает важное ограничение на возможное поведение черных дыр. Я был так возбужден сделанным открытием, что почти не спал в ту ночь. На следующий день я позвонил Роджеру Пенроузу. Он согласился с моими рассуждениями. Я думаю, что на самом деле это свойство площадей Пенроузу было уже известно. Но он исходил из несколько иного определения черной дыры. Он не понял, что оба определения дают одинаковые границы черной дыры и, следовательно, одинаковые площади при условии, что черная дыра находится в состоянии, не изменяющемся со временем.

      То, что площадь черной дыры не уменьшается, очень напоминает поведение одной физической величины ? энтропии, которая является мерой беспорядка в системе. По своему повседневному опыту мы знаем, что беспорядок всегда увеличивается, если пустить все на самотек. (Попробуйте только прекратить дома всякий мелкий ремонт, и вы убедитесь в этом воочию!) Беспорядок можно превратить в порядок (например, покрасив дом), но это потребует затраты усилий и энергии и, следовательно, уменьшит количество имеющейся ?упорядоченной? энергии.

      Точная формулировка приведенных рассуждений называется вторым законом термодинамики. Этот закон гласит, что энтропия изолированной системы всегда возрастает и что при объединении двух систем в одну энтропия полной системы больше, чем сумма энтропий отдельных исходных систем. В качестве примера рассмотрим систему молекул газа в коробке. Можно представить себе, что молекулы ? это маленькие бильярдные шары, которые все время сталкиваются друг с другом и отскакивают от стенок коробки. Чем выше температура газа, тем быстрее движутся молекулы и, следовательно, тем чаще и сильнее они ударяются о стенки коробки, и тем больше создаваемое ими изнутри давление на стенки коробки. Пусть сначала все молекулы находятся за перегородкой в левой части коробки. Если вынуть перегородку, то молекулы выйдут из своей половины и распространятся по обеим частям коробки. Через некоторое время все молекулы могут случайно оказаться справа или опять слева, но, вероятнее всего, в обеих половинах коробки число молекул окажется примерно одинаковым. Такое состояние менее упорядочено, т. е. является состоянием большего беспорядка, чем исходное состояние, в котором все молекулы находились в одной половине, и поэтому говорят, что энтропия газа возросла. Аналогично представим себе, что вначале имеются две коробки, в одной из которых молекулы кислорода, а в другой ? молекулы водорода. Если соединить коробки и вынуть общую стенку, то кислород и водород смешаются друг с другом. Наиболее вероятно, что через некоторое время в обеих коробках будет находиться довольно однородная смесь молекул кислорода и водорода. Это будет менее упорядоченное состояние, обладающее, следовательно, большей энтропией, чем начальное, отвечающее двум отдельным коробкам.

      Второй закон термодинамики занимает несколько особое положение среди других законов науки, таких, например, как ньютоновский закон тяготения, потому что он выполняется не всегда, а только в подавляющем большинстве случаев. Вероятность того, что все молекулы газа в первой коробке через некоторое время окажутся в одной половине этой коробки, равна единице, деленной на много миллионов миллионов, но такое событие все же может произойти. Если же поблизости есть черная дыра, то нарушить второй закон, по-видимому, еще проще: достаточно бросить в черную дыру немного вещества, обладающего большой энтропией, например коробку с газом.

      Тогда полная энтропия вещества снаружи черной дыры уменьшится. Разумеется, можно возразить, что полная энтропия, включая энтропию внутри черной дыры, не уменьшилась, но раз мы не можем заглянуть в черную дыру, мы не можем и узнать, какова энтропия содержащегося в ней вещества. Значит, было бы неплохо, если бы черная дыра обладала какой-нибудь такой характеристикой, по которой внешние наблюдатели могли бы определить ее энтропию и которая возрастала бы всякий раз при падении в черную дыру вещества, обладающего энтропией. После того как было открыто, что при падении в черную дыру вещества площадь горизонта событий увеличивается, Джекоб Бикенстин, аспирант из Принстона, предложил считать мерой энтропии черной дыры площадь горизонта событий. При падении в черную дыру вещества, обладающего энтропией, площадь горизонта событий черной дыры возрастает, и поэтому сумма энтропии вещества, находящегося снаружи черных дыр, и площадей горизонтов событий никогда не уменьшается.

      Казалось бы, при таком подходе в большинстве случаев будет предотвращено нарушение второго закона термодинамики. Однако есть одно серьезное возражение. Если черная дыра обладает энтропией, то у нее должна быть и температура. Но тело, у которого есть некоторая температура, должно с какой-то интенсивностью испускать излучение. Все мы знаем, что если сунуть в огонь кочергу, она раскалится докрасна и будет светиться, но тела излучают и при более низких температурах, только мы этого обычно не замечаем из-за слабости излучения. Это излучение необходимо для того, чтобы не нарушался второй закон термодинамики. Итак, черные дыры должны испускать излучение. Но по самому их понятию черные дыры ? это такие объекты, которые не могут испускать излучения. Поэтому создавалось впечатление, что площадь горизонта событий черной дыры нельзя рассматривать как ее энтропию. В 1972 г. мы с Брендоном Картером и нашим американским коллегой Джимом Бардином написали совместную работу, в которой говорилось, что, несмотря на большое сходство между энтропией и площадью горизонта событий, вышеупомянутая трудность существует и представляется неустранимой. Должен признаться, что эта статья писалась отчасти под влиянием раздражения, вызванного работой Бикенстина, который, как я считал, злоупотребил открытым мною ростом площади горизонта событий. Но в конце концов оказалось, что Бикенстин в принципе был прав, хотя наверняка даже не представлял себе, каким образом.

      Будучи в Москве в сентябре 1973 г., я беседовал о черных дырах с двумя ведущими советскими учеными ? Я. Б. Зельдовичем и А. А. Старобинским. Они убедили меня в том, что в силу квантово-механического принципа неопределенности вращающиеся черные дыры должны рождать и излучать частицы. Я согласился с физическими доводами, но мне не понравился их математический способ расчета излучения. Поэтому я занялся разработкой лучшего математического подхода и рассказал о нем на неофициальном семинаре в Оксфорде в конце ноября 1973 г. Тогда я еще не провел расчеты самой интенсивности излучения. Я ожидал получить лишь то излучение, которое Зельдович и Старобинский предсказали, рассматривая вращающиеся черные дыры. Но, выполнив вычисления, я, к своему удивлению и досаде, обнаружил, что даже невращающиеся черные дыры, по-видимому, должны с постоянной интенсивностью рождать и излучать частицы. Сначала я решил, что, вероятно, одно из использованных мной приближений неправильно. Я боялся, что если об этом узнает Бикенстин, то он этим воспользуется для дальнейшего обоснования своих соображений об энтропии черных дыр, которые мне по-прежнему не нравились. Однако чем больше я размышлял, тем больше убеждался в том, что мои приближения на самом деле правильны. Но меня окончательно убедило в существовании излучения то, что спектр испускаемых частиц должен быть в точности таким же, как спектр излучения горячего тела, и что черная дыра должна излучать частицы в точности с той интенсивностью, при которой не нарушался бы второй закон термодинамики. С тех нор многие самыми разными способами повторили мои расчеты и тоже подтвердили, что черная дыра должна испускать частицы и излучение, как если бы она была горячим телом, температура которого зависит только от массы черной дыры ? чем больше масса, тем ниже температура.

      Как же черная дыра может испускать частицы, если мы знаем, что ничто не выходит из нее за горизонт событий? Дело в том, говорит нам квантовая механика, что частицы выходят не из самой черной дыры, а из ?пустого? пространства, находящегося перед горизонтом событий! Вот как это можно понять: то, что мы представляем себе как ?пустое? пространство, не может быть совсем пустым, так как это означало бы, что все поля, такие, как гравитационное и электромагнитное, в нем точно равны нулю. Но величина поля и скорость его изменения со временем аналогичны положению и скорости частицы: согласно принципу неопределенности, чем точнее известна одна из этих величин, тем менее точно известна вторая. Следовательно, в ?пустом? пространстве поле не может иметь постоянного нулевого значения, так как тогда оно имело бы и точное значение (нуль), и точную скорость изменения (тоже нуль). Должна существовать некоторая минимальная неопределенность в величине поля ? квантовые флуктуации. Эти флуктуации можно себе представить как пары частиц света или гравитации, которые в какой-то момент времени вместе возникают, расходятся, а потом опять сближаются и аннигилируют друг с другом. Такие частицы являются виртуальными, как частицы, переносящие гравитационную силу Солнца: в отличие от реальных виртуальные частицы нельзя наблюдать с помощью детектора реальных частиц. Но косвенные эффекты, производимые виртуальными частицами, например небольшие изменения энергии электронных орбит в атомах, можно измерить, и результаты удивительно точно согласуются с теоретическими предсказаниями. Принцип неопределенности предсказывает также существование аналогичных виртуальных пар частиц материи, таких, как электроны или кварки. Но в этом случае один член пары будет частицей, а второй ? античастицей (античастицы света и гравитации ? это то же самое, что и частицы).

      Поскольку энергию нельзя создать из ничего, один из членов пары частица ? античастица будет иметь положительную энергию, а второй ? отрицательную. Тот, чья энергия отрицательна, может быть только короткоживущей виртуальной частицей, потому что в нормальных ситуациях энергия реальных частиц всегда положительна. Значит, он должен найти своего партнера и с ним аннигилировать. Но, находясь рядом с массивным телом, реальная частица обладает меньшей энергией, чем вдали от него, так как для того, чтобы преодолеть гравитационное притяжение тела и удержаться вдали от него, нужна энергия. Обычно энергия частицы все-таки положительна, но гравитационное поле внутри черной дыры так велико, что даже реальная частица может иметь там отрицательную энергию. Поэтому, если имеется черная дыра, виртуальная частица с отрицательной энергией может упасть в эту черную дыру и превратиться в реальную частицу или античастицу. В этом случае она уже не обязана аннигилировать со своим партнером, а покинутый партнер может либо упасть в ту же черную дыру, либо, если его энергия положительна, выйти из области вблизи черной дыры как реальная частица или как античастица (рис. 7.4). Удаленному наблюдателю покажется, что этот партнер испущен из черной дыры. Чем меньше черная дыра, тем меньше расстояние, которое придется пройти частице с отрицательной энергией до превращения в реальную частицу, и, следовательно, тем больше скорость излучения и кажущаяся температура черной дыры.

 


 

      Положительная энергия испускаемого излучения должна уравновешиваться потоком частиц с отрицательной энергией, направленным в черную дыру. Согласно уравнению Эйнштейна Е = mc^2 (где Е ? энергия, m ? масса, а с ? скорость света), энергия прямо пропорциональна массе, а поэтому поток отрицательной энергии, входящий в черную дыру, уменьшает ее массу. Когда черная дыра теряет массу, площадь ее горизонта событий уменьшается, но это уменьшение энтропии черной дыры с лихвой возмещается энтропией испущенного излучения, так что второй закон термодинамики никогда не нарушается.

      Кроме того, чем меньше масса черной дыры, тем выше ее температура. Поэтому, когда черная дыра теряет массу, ее температура и скорость излучения возрастают, и, следовательно, потеря массы идет еще быстрее. Пока еще не совсем ясно, что происходит, когда масса черной дыры в конце концов становится чрезвычайно малой, но наиболее логичным представляется, что черная дыра полностью исчезает в гигантской последней вспышке излучения, эквивалентной взрыву миллионов водородных бомб.

      Температура черной дыры с массой, равной нескольким массам Солнца, должна быть равна всего одной десятимиллионной градуса выше абсолютного нуля. Это гораздо меньше, чем температура микроволнового излучения, заполняющего Вселенную (около 2,7ш выше абсолютного нуля). Следовательно, черные дыры должны излучать даже меньше, чем поглощать. Если Вселенной суждено вечно расширяться, то температура микроволнового излучения в конце концов упадет ниже температуры такой черной дыры и черная дыра начнет терять массу. Но и тогда ее температура будет настолько низкой, что она полностью испарится лишь через миллион миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов (единица с шестьюдесятью шестью нулями) лет. Это значительно превышает возраст Вселенной, который равен всего десяти или двадцати тысячам миллионов лет (единица или двойка с десятью нулями). Но, как говорилось в гл. 6, могли существовать первичные черные дыры с гораздо меньшей массой, образовавшиеся в результате коллапса нерегулярностей на очень ранних стадиях развития Вселенной. Такие черные дыры должны иметь гораздо более высокую температуру и испускать излучение с гораздо большей интенсивностью. Время жизни первичной черной дыры с начальной массой тысяча миллионов тонн должно быть примерно равно возрасту Вселенной. Первичные черные дыры с меньшими начальными массами должны были бы уже полностью испариться, а те, у которых начальные массы чуть-чуть больше, должны продолжать испускать рентгеновское и гамма-излучение. Эти виды излучения аналогичны световым волнам, но имеют гораздо меньшую длину волны. К подобным дырам едва ли подходит название черные: на самом деле они раскалены добела и излучают энергию с мощностью около десяти тысяч мегаватт.

      Одна такая черная дыра могла бы обеспечить работу десяти крупных электростанций, если бы только мы умели использовать ее энергию. А это довольно трудно: наша черная дыра имела бы массу, равную массе горы, сжатую примерно до одной миллион миллионной (единица, деленная на миллион миллионов) сантиметра, т. е. до размеров атомного ядра! Если бы одна из таких черных дыр оказалась на поверхности Земли, то мы никак не могли бы предотвратить ее падение сквозь пол к центру Земли. Она колебалась бы взад-вперед вдоль земной оси до тех пор, пока в конце концов не остановилась бы в центре. Следовательно, единственное место для этой черной дыры, где излучаемую ею энергию можно было бы использовать,  ? это орбита вокруг Земли, а единственный способ привлечь черную дыру на эту орбиту ? буксировать перед ней огромную массу, как морковку перед самым носом осла. Такое предложение выглядит не слишком реальным, по крайней мере в ближайшем будущем.

 


 

      Но даже если мы не сможем использовать излучение этих первичных черных дыр, то велика ли возможность их увидеть? Можно было бы искать гамма-излучение, которое черные дыры испускают на протяжении большей части своей жизни. Несмотря на то что черные дыры в основном находятся далеко и поэтому дают очень слабое излучение, суммарное излучение всех черных дыр могло бы поддаваться регистрации. Мы действительно наблюдаем фон такого гамма-излучения: на рис. 7.5 показано, как интенсивности наблюдаемых гамма-лучей различаются при разных частотах (частота ? это число волн в секунду). Но источником этого фона могли быть, а может быть, и были не первичные черные дыры, а какие-нибудь другие процессы. На рис. 7.5 пунктиром представлена вычисленная зависимость интенсивности от частоты гамма-излучения, испускаемого первичными черными дырами, при плотности 300 черных дыр на кубический световой год. На основании графика можно сделать вывод, что измерение фона гамма-излучения не дает никакой положительной информации о существовании первичных черных дыр, но указывает на то, что во Вселенной не может быть в среднем больше 300 черных дыр в каждом кубическом световом году. Этот предел означает, что первичные дыры могли бы составлять максимум одну миллионную всего вещества во Вселенной.

      При таком скудном количестве черных дыр могло бы показаться неправдоподобным, чтобы какая-нибудь из них оказалась очень близко от нас и ее можно было бы наблюдать как некий отдельный источник гамма-излучения. Но поскольку под действием гравитации первичные черные дыры должны притягиваться к любому веществу, их должно быть гораздо больше внутри и вокруг галактик. Следовательно, хотя вычисленный фон гамма-излучения говорит о том, что в одном кубическом световом году не может быть в среднем больше 300 первичных черных дыр, он не дает никакой информации о том, насколько часто первичные черные дыры встречаются в нашей собственной Галактике. Если бы их было, скажем, в миллион раз больше, то ближайшая к нам черная дыра могла оказаться на расстоянии тысячи миллионов километров, т. е. примерно на уровне Плутона, самой далекой из известных планет. На таком расстоянии все равно очень трудно зарегистрировать постоянное излучение черной дыры, даже если его мощность равна десяти тысячам мегаватт. Для наблюдения первичной черной дыры требуется зарегистрировать несколько гамма-квантов, пришедших с одной и той же стороны, в течение какого-нибудь разумного интервала времени, скажем за неделю. Иначе они могут оказаться просто частью фона. Но по закону Планка каждый гамма-квант обладает большой энергией, так как гамма-излучение имеет высокую частоту, следовательно, для излучения даже десяти тысяч мегаватт потребуется не очень много квантов. А для наблюдения этих нескольких квантов, пришедших с расстояния, равного расстоянию до Плутона, нужен был бы детектор гамма-излучения намного большего размера, чем любой из ныне существующих. Кроме того, этот детектор нужно было бы поместить в космосе, потому что гамма-излучение не проходит через атмосферу.

      Разумеется, если бы черная дыра, находящаяся на расстоянии Плутона, закончив свой жизненный цикл, взорвалась, последний всплеск излучения можно было бы с легкостью зарегистрировать. Но если черная дыра продолжает излучать в течение последних десяти или двадцати тысяч миллионов лет, то шансы на то, что ее гибель придется на ближайшие несколько лет, а не на те несколько миллионов лет, что уже прошли или еще наступят, действительно очень малы! Значит, чтобы иметь реальную возможность увидеть взрыв до окончания финансирования эксперимента, вы должны придумать, как регистрировать взрывы, происходящие на расстоянии порядка одного светового года. Вам все равно будет нужен большой детектор гамма-излучения, чтобы зарегистрировать несколько гамма-квантов из тех, что образуются при взрыве. Но в этом случае отпадает необходимость проверять, что все гамма-кванты приходят с одной и той же стороны: достаточно будет знать, что все они зарегистрированы в течение очень короткого промежутка времени, чтобы быть уверенным в том, что их источником является одна и та же вспышка.

      Один из детекторов гамма-излучения, с помощью которого можно было бы опознавать первичные черные дыры,  ? это вся атмосфера Земли. (Во всяком случае, вряд ли нам удастся построить детектор большего размера!) Когда гамма-квант, обладающий высокой энергией, сталкивается в земной атмосфере с атомами, рождаются пары из электронов и позитронов (антиэлектронов), которые в свою очередь сталкиваются с атомами и образуют новые электронно-позитронные пары. Возникает так называемый электронный ливень. Связанное с ним излучение представляет собой один из видов светового и называется черенковским. Поэтому вспышки гамма-излучения можно регистрировать, следя за световыми вспышками в ночном небе. Существуют, конечно, и другие явления (такие, как молния и отражение света от крутящихся спутников и обращающихся по орбитам ступеней ракет-носителей), которые тоже сопровождаются вспышками на небе. Вспышки, обусловленные гамма-излучением, можно отличить от этих явлений, проводя наблюдения одновременно из двух или большего числа пунктов, сильно удаленных друг от друга. Такие поиски предприняли в Аризоне двое ученых из Дублина, Нил Портер и Тревор Уикс. С помощью телескопов они обнаружили несколько вспышек, но ни одну из них нельзя было с определенностью приписать всплескам гамма-излучения первичных черных дыр.

      Даже если поиск первичных черных дыр даст отрицательные результаты, а он может их дать, мы все равно получим важную информацию об очень ранних стадиях развития Вселенной. Если ранняя Вселенная была хаотической, или нерегулярной, или если давление материи было мало, можно было бы ожидать образования значительно большего числа черных дыр, чем тот предел, который нам дали наблюдения фона гамма-излучения. Объяснить, почему черные дыры не существуют в таком количестве, в котором их можно было бы наблюдать, можно лишь в том случае, если ранняя Вселенная была очень гладкой и однородной, с высоким давлением вещества.

      Вывод о том, что черные дыры могут испускать излучение, был первым предсказанием, которое существенным образом основывалось на обеих великих теориях нашего века ? общей теории относительности и квантовой механике. Вначале этот вывод встретил сильное противодействие, так как шел вразрез с распространенным представлением: ?Как черная дыра может что бы то ни было излучать?? Когда я впервые объявил о своих результатах на конференции в Резерфордовской лаборатории под Оксфордом, все к ним отнеслись недоверчиво. В конце доклада председатель секции Джон Тейлор из Королевского колледжа в Лондоне заявил, что все это чепуха. Он даже написал статью, чтобы доказать, что я не прав. Но в конце концов большинство, в том числе и Джон Тейлор, пришли к выводу, что черные дыры должны излучать как горячее тело, если только верны все остальные представления общей теории относительности и квантовой механики. Таким образом, хотя нам и не удалось отыскать первичную черную дыру, но если бы вдруг это удалось, то, по довольно общему убеждению, черная дыра должна была бы испускать мощное гамма? и рентгеновское излучение.

      Вывод о существовании излучения, испускаемого черными дырами, по-видимому, означает, что гравитационный коллапс не так уж окончателен и необратим, как мы думали раньше. Если астронавт упадет в черную дыру, то ее масса увеличится, но в конце концов количество энергии, эквивалентное этой прибавке массы, вернется во Вселенную в форме излучения. Следовательно, в каком-то смысле астронавт будет ?регенерирован?. Это, конечно, не самый лучший вид бессмертия: собственное представление о времени у астронавта почти наверняка пропадет, когда oн разлетится на клочки внутри черной дыры! Даже частицы, испущенные черной дырой для компенсации массы астронавта, будут не теми, из которых он состоял: единственное свойство астронавта, которое сохранится,  ? это его масса или энергия.

      Приближения, которыми я пользовался в расчетах излучения черных дыр, должны хорошо выполняться, когда масса черной дыры превышает доли грамма, но они неприменимы в конце жизни черной дыры, когда ее масса становится очень малой. По-видимому, наиболее вероятный исход ? это просто исчезновение черной дыры, по крайней мере из нашей области Вселенной. Исчезнув, она унесет с собой и астронавта, и любую сингулярность, которая могла бы в ней оказаться. Это было первое указание на возможность устранения квантовой механикой сингулярностей, предсказываемых общей теорией относительности. Однако те методы, которыми и я, и другие ученые пользовались в 1974 г., не могли дать ответы на такие вопросы, как, например, появятся ли сингулярности в квантовой гравитации. Поэтому начиная с 1975 г. я занялся разработкой более действенного подхода к квантовой гравитации, основанного на фейнмановском суммировании по историям (траекториям). Ответы, полученные при таком подходе, на вопросы о происхождении и судьбе Вселенной и того, что в ней находится, например астронавтов, будут изложены в двух следующих главах. Мы увидим, что хотя принцип неопределенности налагает ограничения на точность всех наших предсказаний, он зато устраняет фундаментальную непредсказуемость, возникающую в сингулярности пространства-времени.

8. Рождение и гибель Вселенной

      В общей теории относительности Эйнштейна, самой по себе, делается вывод, что пространство-время возникло в сингулярной точке большого взрыва, а свой конец оно должно находить в сингулярной точке большого хлопка (если коллапсирует вся Вселенная) и в сингулярности внутри черной дыры (если коллапсирует какая-нибудь локальная область типа звезды). Любое вещество, упавшее в такую дыру, в сингулярности должно разрушиться, и снаружи будет ощущаться лишь гравитационное воздействие его массы. Когда же были учтены квантовые эффекты, то оказалось, что масса и энергия вещества в конце концов должны, по-видимому, возвращаться оставшейся части Вселенной, а черная дыра вместе со своей внутренней сингулярностью должна испариться и полностью исчезнуть. Будет ли столь же большим влияние квантовой механики на сингулярности в точках большого взрыва и большого хлопка? Что в действительности происходит на очень ранних и очень поздних стадиях развития Вселенной, когда гравитационные поля настолько сильны, что нельзя пренебрегать квантовыми эффектами? Есть ли действительно у Вселенной начало и конец? А если есть, то каковы они?

      На протяжении семидесятых годов я в основном занимался исследованием черных дыр, но в 1981 г., когда я был на конференции по космологии, организованной в Ватикане отцами-иезуитами, во мне опять проснулся интерес к вопросу о возникновении и гибели Вселенной. Католическая Церковь совершила большую ошибку в своих взаимоотношениях с Галилеем, когда, пытаясь подчинить закону вопрос науки, объявила, что Солнце обращается вокруг Земли. Теперь, через века, Церковь решила пригласить специалистов и получить у них консультацию по космологии. В конце конференции участники были удостоены аудиенции Папы. Он сказал, что эволюцию Вселенной после большого взрыва изучать можно, но не следует вторгаться в сам большой взрыв, потому что это был момент Сотворения и, следовательно, Божественный акт. Я был очень рад, что Папа не знал темы только что сделанного мной доклада о возможности того, что пространство-время конечно не имеет границ, т. е. что оно не имеет начала, а значит, нет и момента Сотворения. Мне не хотелось разделять судьбу Галилея, с которым, мне кажется, у меня есть что-то общее, хотя бы то, что по странному совпадению я родился точно через 300 лет после его смерти!

      Чтобы было ясно, какими были мои мысли и мысли других о возможном влиянии квантовой механики на наши взгляды на рождение и гибель Вселенной, необходимо сначала напомнить общепринятую картину истории Вселенной, основанную на так называемой горячей модели большого взрыва. В ней считается, что Вселенная от наших дней до большого взрыва описывается одной из моделей Фридмана. В подобных моделях оказывается, что по мере расширения Вселенной вещество и излучение в ней охлаждаются. (С удвоением размеров Вселенной ее температура становится вдвое ниже). Поскольку температура ? это просто мера энергии (т. е. скорости) частиц, охлаждение Вселенной должно сильно воздействовать на вещество внутри нее. При очень высоких температурах частицы движутся так быстро, что могут противостоять любому взаимному притяжению, вызванному ядерными или электромагнитными силами, но при охлаждении можно ожидать, что некоторые частицы будут притягиваться друг к другу и начнут сливаться. Более того, даже типы частиц, существующих во Вселенной, должны зависеть от температуры. При достаточно высоких температурах энергия частиц столь велика, что при любом столкновении образуется много разных пар частица-античастица, и, хотя некоторая доля этих частиц аннигилирует, сталкиваясь с античастицами, их образование происходит все равно быстрее аннигиляции. Но при более низких температурах, когда энергия сталкивающихся частиц меньше, пары частица-античастица будут образовываться медленнее и аннигиляция частиц будет происходит быстрее рождения.

      Считается, что в момент большого взрыва размеры Вселенной были равны нулю, а сама она была бесконечно горячей. Но по мере расширения температура излучения понижалась. Через секунду после большого взрыва температура упала примерно до десяти тысяч миллионов градусов; это примерно в тысячу раз больше температуры в центре Солнца, но такие температуры достигаются при взрывах водородной бомбы. В это время Вселенная состояла из фотонов, электронов, нейтрино (нейтрино ? легчайшие частицы, участвующие только в слабом и гравитационном взаимодействиях) и их античастиц, а также из некоторого количества протонов и нейтронов. По мере того как Вселенная продолжала расширяться, а температура падать, скорость рождения электрон-антиэлектронных пар в соударениях стала меньше скорости их уничтожения за счет аннигиляции. Поэтому почти все электроны и антиэлектроны должны были аннигилировать друг с другом, образовав новые фотоны, так что осталось лишь чуть-чуть избыточных электронов. Но нейтрино и антинейтрино не аннигилировали друг с другом, потому что эти частицы очень слабо взаимодействуют между собой и с другими частицами. Поэтому они до сих нор должны встречаться вокруг нас. Если бы их можно было наблюдать, то у нас появился бы хороший способ проверки модели очень горячей ранней Вселенной. К сожалению, их энергии сейчас слишком малы, чтобы их можно было непосредственно наблюдать. Однако если нейтрино не является безмассовой частицей, а обладает небольшой собственной массой, обнаруженной в неподтвержденном эксперименте советских ученых 1981 г., то мы смогли бы обнаружить их косвенно: они могли бы оказаться одной из форм темной материи, упоминавшейся ранее, гравитационное притяжение которой достаточно для того, чтобы прекратить расширение Вселенной и заставить ее опять сжиматься.

      Примерно через сто секунд после большого взрыва температура упала до тысячи миллионов градусов, что отвечает температуре внутри самых горячих звезд. При такой температуре энергии протонов и нейтронов уже недостаточно для сопротивления сильному ядерному притяжению, и они начинают объединяться друг с другом, образуя ядра дейтерия (тяжелого водорода), которые состоят из протона и нейтрона. Затем ядра дейтерия присоединяют к себе еще протоны и нейтроны и превращаются в ядра гелия, содержащие два протона и два нейтрона, а также образуют небольшие количества более тяжелых элементов ? лития и бериллия. Вычисления показывают, что, согласно горячей модели большого взрыва, около четвертой части протонов и нейтронов должно было превратиться в атомы гелия и небольшое количество тяжелого водорода и других элементов. Оставшиеся нейтроны распались на протоны, представляющие собой ядра обычных атомов водорода.

      Описанная картина горячей Вселенной на ранней стадии развития была предложена ученым Джорджем (Г. А.) Гамовым в знаменитой работе, которую Гамов написал в 1948 г. вместе со своим аспирантом Ральфом Альфером. Обладая прекрасным чувством юмора, Гамов уговорил физика-ядерщика Ганса Бете добавить свою фамилию к списку авторов, чтобы получилось ?Альфер, Бете, Гамов?, что звучит, как названия первых трех букв греческого алфавита ? альфа, бета, гамма, и чрезвычайно подходит для статьи о начале Вселенной! В этой статье было сделано замечательное предсказание о том, что излучение (в виде фотонов), испущенное на очень ранних стадиях развития Вселенной, должно до сих пор существовать вокруг нас, но за это время его температура упала и равна всего лишь нескольким градусам выше абсолютного нуля. Это именно то излучение, которое в 1965 г. обнаружили Пензиас и Вильсон. Когда Альфер, Бете и Гамов писали свою работу, ядерные реакции с участием протонов и нейтронов были плохо изучены. Поэтому предсказанные ими соотношения между концентрациями разных элементов в ранней Вселенной оказались весьма неточными, однако, будучи повторены в свете новых представлений, все вычисления дали результаты, прекрасно согласующиеся с современными наблюдениями. Кроме того, очень трудно объяснить как-то иначе, почему во Вселенной должно быть так много гелия. Поэтому мы совершенно уверены в том, что эта картина правильна, по крайней мере спустя секунду после большого взрыва и позже.

      Всего через несколько часов после большого взрыва образование гелия и других элементов прекратилось, после чего в течение примерно миллиона лет Вселенная просто продолжала расширяться и с ней не происходило ничего особенного. Наконец, когда температура упала до нескольких тысяч градусов и энергии электронов и ядер стало недостаточно для преодоления действующего между ними электромагнитного притяжения, они начали объединяться друг с другом, образуя атомы. Вся Вселенная как целое могла продолжать расширяться и охлаждаться, но в тех областях, плотность которых была немного выше средней, расширение замедлялось из-за дополнительного гравитационного притяжения. В результате некоторые области перестали расширяться и начали сжиматься. В процессе сжатия под действием гравитационного притяжения материи, находящейся снаружи этих областей, могло начаться их медленное вращение. С уменьшением размеров коллапсирующей области ее вращение ускорялось, подобно тому, как ускоряется вращение фигуриста на льду, когда он прижимает руки к телу. Когда наконец коллапсирующая область стала достаточно малой, скорости ее вращения должно было хватить для уравновешивания гравитационного притяжения ? так образовались вращающиеся дискообразные галактики. Те области, которые не начали вращаться, превратились в овальные объекты, называемые эллиптическими галактиками. Коллапс этих областей тоже прекратился, потому что, хотя отдельные части галактики стабильно вращались вокруг ее центра, галактика в целом не вращалась.

      Состоящий из водорода и гелия газ внутри галактик со временем распался на газовые облака меньшего размера, сжимающиеся под действием собственной гравитации. При сжатии этих облаков атомы внутри них сталкивались друг с другом, температура газа повышалась, и в конце концов газ разогрелся так сильно, чти начались реакции ядерного синтеза. В результате этих реакций из водорода образовалось дополнительное количество гелия, а из-за выделившегося тепла возросло давление и газовые облака перестали сжиматься. Облака долго оставались в этом состоянии, подобно таким звездам, как наше Солнце, превращая водород в гелий и излучая выделяющуюся энергию в виде тепла и света. Более массивным звездам для уравновешивания своего более сильного гравитационногопритяжения нужно было разогреться сильнее, и реакции ядерного синтеза протекали в них настолько быстрее, что они выжгли свой водород всего за сто миллионов лет. Затем они слегка сжались, и, поскольку нагрев продолжался, началось превращение гелия в более тяжелые элементы, такие как углерод и кислород. Но в подобных процессах выделяется не много энергии, и потому, как уже говорилось в главе о черных дырах, должен был разразиться кризис. Не совсем ясно, что произошло потом, но вполне правдоподобно, что центральные области звезды коллапсировали в очень плотное состояние вроде нейтронной звезды или черной дыры. Внешние области звезды могут время от времени отрываться и уноситься чудовищным взрывом, который называется взрывом сверхновой, затмевающей своим блеском все остальные звезды в своей галактике. Часть более тяжелых элементов, образовавшихся перед гибелью звезды, была отброшена в заполняющий галактику газ и превратилась в сырье для последующих поколений звезд. Наше Солнце содержит около двух процентов упомянутых более тяжелых элементов, потому что оно является звездой второго или третьего поколения, образовавшейся около пяти миллиардов лет назад из облака вращающегося газа, в котором находились осколки более ранних сверхновых. Газ из этого облака в основном пошел на образование Солнца или был унесен взрывом, но небольшое количество более тяжелых элементов, собравшись вместе, превратилось в небесные тела ? планеты, которые сейчас, как и Земля, обращаются вокруг Солнца.

      Сначала Земля была горячей и не имела атмосферы. Со временем она остыла, а вследствие выделения газа из горных пород возникла земная атмосфера. Ранняя атмосфера была непригодна для нашей жизни. В ней не было кислорода, но было много других, ядовитых для нас газов, например сероводорода (это тот газ, который придает специфический запах тухлым яйцам). Правда, есть и другие, примитивные формы жизни, которые могут процветать в таких условиях. Предполагают, что они развились в океанах, возможно, в результате случайных объединений атомов в большие структуры, называемые макромолекулами, которые обладали способностью группировать другие атомы в океане в такие же структуры. Таким образом они самовоспроизводились и множились. Иногда в воспроизведении могли произойти сбои. Эти сбои большей частью состояли в том, что новая макромолекула не могла воспроизвести себя и в конце концов разрушалась. Но иногда в результате сбоев возникали новые макромолекулы, даже более способные к самовоспроизведению, что давало им преимущество, и они стремились заменить собой первоначальные. Так начался процесс эволюции, который приводил к возникновению все более и более сложных организмов, способных к самовоспроизведению. Самые первые примитивные живые организмы потребляли различные вещества, в том числе сероводород, и выделяли кислород. В результате происходило постепенное изменение земной атмосферы, состав которой в конце концов стал таким, как сейчас, и возникли подходящие условия для развития более высоких форм жизни, таких, как рыбы, рептилии, млекопитающие и, наконец, человеческий род.

      Картина, в которой Вселенная сначала была очень горячей и охлаждалась по мере своего расширения, па сегодняшний день согласуется с результатами всех наблюдений. Тем не менее целый ряд важных вопросов остается без ответа.

      1. Почему ранняя Вселенная была такой горячей?

      2. Почему Вселенная так однородна в больших масштабах? Почему она выглядит одинаково во всех точках пространства и во всех направлениях? В частности, почему температура космического фона микроволнового излучения практически не меняется при наблюдениях в разных направлениях? Когда на экзамене нескольким студентам подряд задается один и тот же вопрос и их ответы совпадают, вы можете быть совершенно уверены в том, что они советовались друг с другом. Однако в описанной модели с момента большого взрыва у света не было времени, чтобы попасть из одной удаленной области в другую, даже если эти области располагались близко друг к другу в ранней Вселенной. Согласно же теории относительности, если свет не может попасть из одной области в другую, то и никакая другая информация тоже не может. Поэтому разные области ранней Вселенной никак не могли выровнять свои температуры друг с другом, если у них не были одинаковые по какой-то непонятной причине температуры прямо с момента рождения.

      3. Почему Вселенная начала расширяться со скоростью, столь близкой к критической, которая разделяет модели с повторным сжатием и модели с вечным расширением, так что даже сейчас, через десять тысяч миллионов лет, Вселенная продолжает расширяться со скоростью, примерно равной критической? Если бы через секунду после большого взрыва скорость расширения оказалась хоть на одну сто тысяча миллион миллионную (1/100.000.000.000.000.000) меньше, то произошло бы повторное сжатие Вселенной и она никогда бы не достигла своего современного состояния.

      4. Несмотря на крупномасштабную однородность Вселенной, в ней существуют неоднородности, такие, как звезды и галактики. Считается, что они образовались из-за небольших различий в плотности ранней Вселенной от области к области. Что было причиной этих флуктуаций плотности?

      Общая теория относительности сама по себе не в состоянии объяснить перечисленные свойства или ответить на поставленные вопросы, так как она говорит, что Вселенная возникла в сингулярной точке большого взрыва и в самом начале имела бесконечную плотность. В сингулярной же точке общая теория относительности и все физические законы неверны: невозможно предсказать, что выйдет из сингулярности. Как мы уже говорили, это означает, что большой взрыв и все события до него можно выбросить из теории, потому что они никак не могут повлиять на то, что мы наблюдаем. Следовательно, пространство-время должно иметь границу ? начало в точке большого взрыва.

      Наука, по-видимому, открыла все те законы, которые в пределах погрешностей, налагаемых принципом неопределенности, позволяют предсказать, как Вселенная изменится со временем, если известно ее состояние в какой-то момент времени. Может быть, эти законы были даны Богом, но с тех пор Он, судя по всему, предоставил Вселенной развиваться в соответствии с ними и теперь не вмешивается в ее жизнь. Но какими он выбрал начальное состояние и начальную конфигурацию Вселенной? Какие ?граничные условия? были в момент ?начала времени??

      Один из возможных ответов ? это сказать, что при выборе начальной конфигурации Вселенной Бог руководствовался соображениями, понять которые нам не дано. Это, безусловно, было во власти Бога, но почему, выбрав такое странное начало, Он все же решил, чтобы Вселенная развивалась но понятным нам законам? Вся история науки была постепенным осознанием того, что события не происходят произвольным образом, а отражают определенный скрытый порядок, который мог или не мог быть установлен божественными силами. Было бы лишь естественно предположить, что этот порядок относится не только к законам науки, но и к условиям на границе пространства-времени, которые определяют начальное состояние Вселенной. Возможно большое число разных моделей Вселенной с иными начальными условиями, подчиняющихся законам науки. Должен существовать какой-то принцип для отбора одного начального состояния и, стало быть, одной модели для описания нашей Вселенной.

      Одну из таких возможностей называют хаотическими граничными условиями. В них молчаливо принимается, либо что Вселенная бесконечна в пространстве, либо что существует бесконечно много вселенных. Согласно хаотическим граничным условиям, вероятность того, что любая выделенная область пространства сразу после большого взрыва окажется в любом заданном состоянии, примерно равна вероятности того, что она окажется в любом другом состоянии: начальное состояние Вселенной выбирается совершенно произвольным образом. Это означало бы, что ранняя Вселенная была, вероятно, очень хаотичной и нерегулярной, потому что хаотических и беспорядочных состояний Вселенной гораздо больше, чем гладких и упорядоченных. (Если все состояния равновероятны, то Вселенная с большой вероятностью возникла в одном из хаотических и беспорядочных состояний просто потому, что таких состояний гораздо больше). Трудно сказать, как подобные хаотические начальные условия могли породить такую гладкую и однородную в больших масштабах Вселенную, как наша сейчас. Можно также ожидать, что в такой модели флуктуации плотности приведут к образованию гораздо большего числа первичных черных дыр, чем верхний предел, вытекающий из наблюдений фона гамма-излучения.

      Если Вселенная в самом деле бесконечна в пространстве или если существует бесконечно много вселенных, то где-то могли бы существовать довольно большие области, возникшие в гладком и однородном состоянии. Вспомним хорошо известный пример со стаей обезьян, барабанящих на пишущих машинках: большая часть их работы пойдет в корзину, но в принципе они могут совершенно случайно напечатать один из сонетов Шекспира. Так и здесь ? не могла ли область Вселенной, в которой мы живем, случайно оказаться гладкой и однородной? На первый взгляд это может показаться крайне маловероятным, потому что таких гладких областей должно быть намного меньше, чем хаотических и неоднородных. Но предположим, что галактики и звезды образовывались только в гладких областях и только там условия были пригодны для развития таких сложных самовоспроизводящихся организмов, как мы, способных задать вопрос: ?Почему Вселенная такая гладкая?? Это пример применения так называемого антропного принципа, который можно сформулировать следующим образом: ?Мы видим Вселенную так, как мы ее видим, потому что мы существуем?.

      Антропный принцип существует в двух вариантах ? слабом и сильном. Слабый антропный принцип утверждает, что во Вселенной, которая велика или бесконечна в пространстве или во времени, условия, необходимые для развития разумных существ, будут выполняться только в некоторых областях, ограниченных в пространстве и времени. Поэтому разумные существа в этих областях не должны удивляться, обнаружив, что та область, где они живут, удовлетворяет условиям, необходимым для их существования. Так богач, живущий в богатом районе, не видит никакой бедности вокруг себя.

      Один из примеров применения слабого антропного принципа ? ?объяснение? того, что большой взрыв произошел около десяти тысяч миллионов лет назад: примерно столько времени требуется разумным существам для их развития. Как уже говорилось, прежде всего должно было образоваться раннее поколение звезд. Эти звезды превращали часть первоначального водорода и гелия в элементы типа углерода и кислорода, из которых мы состоим. Затем звезды взрывались как сверхновые, а из их осколков образовывались другие звезды и планеты, в том числе и входящие в нашу Солнечную систему, возраст которой около пяти тысяч миллионов лет. В первые одну или две тысячи миллионов лет существования Земли на ней было слишком жарко для развития каких бы то ни было сложных организмов. Остальные примерно три тысячи миллионов лет происходит медленный процесс биологического развития, в результате которого простейшие организмы прошли путь до разумных существ, умеющих измерять время, прошедшее с момента большого взрыва.

      Мало кто возражает против справедливости и применимости слабого антропного принципа. Некоторые же идут значительно дальше, предлагая его сильный вариант. Он заключается в том, что существует либо много разных вселенных, либо много разных областей одной вселенной, каждая из которых имеет свою собственную начальную конфигурацию и, возможно, свой собственный набор научных законов. В большей части этих вселенных условия были непригодны для развития сложных организмов; лишь в нескольких, похожих на нашу, вселенных смогли развиваться разумные существа, и у этих разумных существ возник вопрос: ?Почему наша Вселенная такая, какой мы ее видим?? Тогда ответ прост: ?Если бы Вселенная была другой, здесь не было бы нас!?

      Законы науки в том виде, в котором мы их знаем сейчас, содержат много фундаментальных величин, таких, как электрический заряд электрона и отношение массы протона к массе электрона. Мы не умеем, но крайней мере сейчас, теоретически предсказывать значения этих величин ? они находятся только из эксперимента. Может быть, придет день, когда мы откроем полную единую теорию, с помощью которой все эти величины будут вычислены, но может оказаться, что некоторые из них, а то и все изменяются при переходе от вселенной к вселенной или и пределах одной вселенной. Удивительно, что значения таких величин были, по-видимому, очень точно подобраны, чтобы обеспечить возможность развития жизни. Если бы, например, электрический заряд электрона был чуть-чуть другим, звезды либо не сжигали бы водород и гелий, либо не взрывались. Разумеется, могут быть и другие формы разумной жизни, о которых не грезили даже писатели-фантасты. Для поддержания этой жизни не требуются ни свет звезды, как, скажем, наше Солнце, ни тяжелые элементы, синтезирующиеся внутри звезд и разлетающиеся по космическому пространству при взрыве звезды. Тем не менее, по-видимому, ясно, что величины, о которых мы говорим, имеют сравнительно немного областей значений, при которых возможно развитие какой бы то ни было разумной жизни. Большая же часть значений отвечает вселенным, в которых, как бы они ни были прекрасны, нет никого, кто мог бы ими восхищаться. Это можно воспринимать либо как свидетельство божественного провидения в сотворении Вселенной и выборе законов науки, либо как подтверждение сильного антропного принципа.

      Можно выдвинуть несколько возражений против привлечения сильного антропного принципа для объяснения наблюдаемого состояния Вселенной. Во-первых, в каком смысле можно говорить, что все эти вселенные существуют? Если они действительно изолированы друг от друга, то события, происходящие не в нашей Вселенной, не могут иметь наблюдаемых следствий в нашей Вселенной. Поэтому нам следует воспользоваться принципом экономии и исключить их из теории. Если же эти вселенные ? просто разные области одной и той же вселенной, то научные законы должны быть одинаковы в каждой области, потому что иначе был бы невозможен непрерывный переход из одной области в другую. Тогда области отличались бы друг от друга только начальными конфигурациями и сильный антропный принцип сводился бы к слабой формулировке.

      Второе возражение против сильного антропного принципа ? это то, что он направлен против хода всей истории науки. Развитие науки шло от геоцентрических космологии Птолемея и его предшественников через гелиоцентрическую космологию Коперника и Галилея к современной картине мира, согласно которой Земля является планетой среднего размера, обращающейся вокруг обычной звезды внутри обычной спиральной галактики, которая в свою очередь является всего лишь одной из миллиона миллионов галактик в наблюдаемой части Вселенной. Тем не менее, согласно сильному антропному принципу, все это гигантское сооружение существует просто ради нас. В это очень трудно поверить. Наша Солнечная система безусловно является необходимым условием нашего существования; те же самые рассуждения можно распространить на всю нашу Галактику, чтобы учесть звезды раннего поколения, благодаря которым произошел синтез тяжелых элементов. Но, по-видимому, нет никакой необходимости в том, чтобы все эти другие галактики, да и вся Вселенная были такими однородными и одинаковыми в больших масштабах в любом направлении.

      Можно было бы не беспокоиться насчет антропного принципа, особенно в его слабой формулировке, если бы удалось показать, что из разных начальных конфигураций Вселенной лишь некоторые могли развиться во Вселенную, как та, которую мы наблюдаем. Если это правильно, то Вселенная, возникшая из случайных начальных условий, должна содержать в себе гладкие и однородные области, пригодные для развития разумной жизни. Если же для того, чтобы получилось то, что мы видим вокруг, требовался чрезвычайно тщательный выбор начального состояния Вселенной, то вряд ли в ней оказалась бы хоть одна область, в которой могла зародиться жизнь. В горячей модели большого взрыва было слишком мало времени для передачи тепла из одной области в другую. Это значит, что для объяснения того факта, что температура микроволнового фона одинакова в любом направлении наблюдения, необходимо, чтобы в начальном состоянии Вселенной ее температура была везде в точности одинаковой. Кроме того, требовался и очень точный выбор начальной скорости расширения, потому что для избегания повторного сжатия скорость расширения должна оставаться достаточно близкой к критическому значению. Следовательно, выбор начального состояния Вселенной должен производиться очень тщательно, если горячая модель большого взрыва применима до самого момента начала отсчета времени. Почему начало Вселенной должно было быть именно таким, очень трудно объяснить иначе, как деянием Бога, которому захотелось создать таких живых существ, как мы.

      Попытки построить модель Вселенной, в которой множество разных начальных конфигураций могло бы развиться во что-нибудь вроде нашей нынешней Вселенной, привели Алана Гута, ученого из Массачусетского технологического института, к предположению о том, что ранняя Вселенная пережила период очень быстрого расширения. Это расширение называют раздуванием, подразумевая, что какое-то время расширение Вселенной происходило со все возрастающей скоростью, а не с убывающей, как сейчас. Гут рассчитал, что радиус Вселенной увеличивался в миллион миллионов миллионов миллионов миллионов (единица с тридцатью нулями) раз всего за крошечную долю секунды.

      Гут высказал предположение, что Вселенная возникла в результате большого взрыва в очень горячем, но довольно хаотическом состоянии. Высокие температуры означают, что частицы во Вселенной должны были очень быстро двигаться и иметь большие энергии. Как уже говорилось, при таких высоких температурах сильные и слабые ядерные силы и электромагнитная сила должны были все объединиться в одну. По мере расширения Вселенной она охлаждалась и энергии частиц уменьшались. В конце концов должен был бы произойти так называемый фазовый переход и симметрия сил была бы нарушена: сильное взаимодействие начало бы отличаться от слабого и электромагнитного. Известный пример фазового перехода ? замерзание воды при охлаждении. Жидкое состояние воды симметрично, т. е. вода одинакова во всех точках и во всех направлениях. Образующиеся же кристаллы льда имеют определенные положения и выстраиваются в некотором направлении. В результате симметрия воды нарушается.

      Если охлаждать воду очень осторожно, то ее можно ?переохладить?, т. е. охладить ниже точки замерзания (0 град. Цельсия) без образования льда. Гут предположил, что Вселенная могла себя вести похожим образом: ее температура могла упасть ниже критического значения без нарушения симметрии сил. Если бы это произошло, то Вселенная оказалась бы в нестабильном состоянии с энергией, превышающей тy, которую она имела бы при нарушении симметрии. Можно показать, что эта особая дополнительная энергия производит антигравитационное действие аналогично космологической постоянной, которую Эйнштейн ввел в общую теорию относительности, пытаясь построить статическую модель Вселенной. Поскольку, как и в горячей модели большого взрыва, Вселенная уже вращалась, отталкивание, вносимое космологической постоянной, заставило бы Вселенную расширяться со все возрастающей скоростью. Даже в тех областях, где число частиц вещества превышало среднее значение, гравитационное притяжение материи было бы меньше отталкивания, вносимого эффективной космологической постоянной. Следовательно, такие области должны были тоже расширяться с ускорением, характерным для модели раздувающейся Вселенной. По мере расширения частицы материи расходились бы все дальше друг от друга, и в конце концов расширяющаяся Вселенная оказалась бы почти без частиц, но все еще в переохлажденном состоянии. В результате расширения все неоднородности во Вселенной должны были просто сгладиться, как разглаживаются при надувании морщины на резиновом шарике. Следовательно, нынешнее гладкое и однородное состояние Вселенной могло развиться из большого числа разных неоднородных начальных состояний.

      Во Вселенной, скорость расширения которой растет из-за космологической постоянной быстрее, чем замедляется из-за гравитационного притяжения материи, свету хватило бы времени для перехода из одной области ранней Вселенной в другую. Это было бы решением ранее поставленной задачи о том, почему разные области ранней Вселенной имеют одинаковые свойства. Кроме того, скорость расширения Вселенной стала бы автоматически очень близка к критическому значению, определяемому плотностью энергии во Вселенной. Тогда такую близость скорости расширения к критической можно было бы объяснить, не делая предположения о тщательном выборе начальной скорости расширения Вселенной.

      Раздуванием Вселенной можно было бы объяснить, почему в ней так много вещества. В доступной наблюдениям области Вселенной содержится порядка ста миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов миллионов (единица с восьмьюдесятью нулями) частиц. Откуда все они взялись? Ответ состоит в том, что в квантовой теории частицы могут рождаться из энергии в виде пар частица-античастица. Но тогда сразу возникает вопрос: откуда берется энергия? Ответ таков. Полная энергия Вселенной в точности равна нулю. Вещество во Вселенной образовано из положительной энергии. Но все вещество само себя притягивает под действием гравитации. Два близко расположенных куска вещества обладают меньшей энергией, чем те же два куска, находящиеся далеко друг от друга, потому что для разнесения их в стороны нужно затратить энергию на преодоление гравитационной силы, стремящейся их соединить. Следовательно, энергия гравитационного ноля в каком-то смысле отрицательна. Можно показать, что в случае Вселенной, примерно однородной в пространстве, эта отрицательная гравитационная энергия в точности компенсирует положительную энергию, связанную с веществом. Поэтому полная энергия Вселенной равна нулю.

      Поскольку дважды нуль тоже нуль, количество положительной энергии вещества во Вселенной может удвоиться одновременно с удвоением отрицательной гравитационной энергии; закон сохранения энергии при этом не нарушится. Такого не бывает при нормальном расширении Вселенной, в которой плотность энергии вещества уменьшается по мере увеличения размеров Вселенной. Но именно так происходит при раздувании, потому что в этом случае Вселенная увеличивается, а плотность энергии переохлажденного состояния остается постоянной: когда размеры Вселенной удвоятся, положительная энергия вещества и отрицательная гравитационная энергия тоже удвоятся, в результате чего полная энергия остается равной нулю. В фазе раздувания размеры Вселенной очень сильно возрастают. Следовательно, общее количество энергии, за счет которой могут образовываться частицы, тоже сильно увеличивается. Гут по этому поводу заметил: ?Говорят, что не бывает скатерти-самобранки. А не вечная ли самобранка сама Вселенная??

      Сейчас Вселенная расширяется без раздувания. Значит, должен существовать какой-то механизм, благодаря которому была устранена очень большая эффективная космологическая постоянная, а скорость расширения перестала расти и под действием гравитации начала уменьшаться, как продолжает уменьшаться и сейчас. Можно ожидать, что при раздувании в конце концов нарушится симметрия сил, так же как переохлажденная вода в конце концов замерзнет. Тогда лишняя энергия состояния с ненарушенной симметрией должна выделиться, и за счет этого Вселенная разогреется до температуры, чуть-чуть меньшей, чем критическая температура, при которой симметрия сил еще не нарушается. Затем Вселенная опять начнет расширяться и охлаждаться, так же как в горячей модели большого взрыва, но теперь мы уже сможем объяснить, почему скорость ее расширения в точности равна критической и почему разные области Вселенной имеют одинаковую температуру.

      В гипотезе Гута фазовый переход происходил очень быстро, как возникают вдруг кристаллы льда в очень холодной воде. Идея Гута заключалась в том, что внутри старой фазы образуются ?пузырьки? новой фазы нарушенной симметрии, подобно тому, как в кипящей водe зарождаются пузырьки пара. Гут предположил, что пузыри расширяются и сливаются друг с другом до тех пор, пока вся Вселенная не окажется в новой фазе. Но вот в чем беда: Вселенная, на что указали я и еще несколько человек, так быстро расширяется, что даже если бы пузыри росли со скоростью света, они все равно удалялись бы друг от друга и поэтому не могли бы сливаться. Вселенная оставалась бы в очень неоднородном состоянии, и в некоторых областях симметрия между силами сохранялась бы. Такая модель Вселенной не соответствовала бы тому, что мы видим.

      В октябре 1981 г. я приехал в Москву на конференцию по квантовой гравитации. После конференции я сделал доклад о модели раздувающейся Вселенной и связанных с ней проблемах в Астрономическом институте им. Штернберга. Среди слушателей был молодой советский физик Андрей Линде, сотрудник Физического института им. Лебедева. Он сказал, что трудность, связанная с невозможностью объединения пузырей, отпадает, если размеры пузырей столь велики, что вся наша область Вселенной содержится внутри одного пузыря. Для того чтобы это предположение выполнялось, сохранение симметрии внутри пузыря должно очень медленно переходить в ее нарушение, что вполне возможно в теории великого объединения. Мысль Линде о медленном нарушении симметрии была очень хороша, но потом мне стало ясно, что его пузыри должны быть больше нынешней Вселенной! Я доказал, что симметрия должна нарушаться всюду одновременно, а не только внутри пузырей. Только это привело бы к той однородной Вселенной, которую мы сейчас наблюдаем. Я был сильно возбужден своей идеей и поделился ею с одним из своих аспирантов Яном Моссом. Подружившись с Линде, я оказался в некотором замешательстве, когда позднее получил из научного журнала представленную Линде статью с просьбой от редакции дать отзыв о ее пригодности для публикации. В своем ответе я написал, что в статье есть одна ошибка (пузыри должны быть больше Вселенной), но что основная идея медленного нарушения симметрии совершенно правильна. Я рекомендовал статью для публикации в том виде, в котором она была, иначе исправления заняли бы у Линде несколько месяцев, потому что все рукописи, отправляемые из Советского Союза на Запад, должны были проходить через аппарат литературной цензуры, который в то время не проявлял ни особой квалификации, ни скорости в обращении с научными статьями. Мы же с Яном Моссом послали в тот же журнал небольшую статью, в которой указали на сложности, возникающие с большим пузырем, и показали, как их можно преодолеть.

      Через день после возвращения из Москвы я отправился в Филадельфию, где мне должны были вручить медаль Института Франклина. Мой секретарь Джуди Фелла, использовав все свое немалое обаяние, убедила воздушное агентство Великобритании продать нам два билета на ?Конкорд?, пригрозив в противном случае оглаской. Но по дороге в аэропорт меня застал чудовищный дождь, и я опоздал на самолет. Тем не менее я все-таки попал в Филадельфию и получил медаль. Потом меня попросили рассказать о модели раздувающейся Вселенной на семинаре в Университете Дрексела в Филадельфии. Большую часть времени я, как и в Москве, посвятил задачам, связанным с этой моделью, но в конце упомянул об идее Линде медленного нарушения симметрии и о сделанных мной исправлениях. На семинаре присутствовал Пол Стейнхардт, молодой профессор Пенсильванского университета. После семинара мы с ним обсуждали модель раздувания. В феврале он прислал мне статью, написанную им совместно со студентом Андреасом Албрехтом, в которой содержалось нечто очень похожее на идею Линде медленного нарушения симметрии. Позже Стейнхардт сказал мне, что он не помнил мой рассказ о работе Линде и увидел ее, лишь когда они почти закончили свою. На Западе Стейнхардт и Албрехт разделяют сейчас честь открытия модели, которая называется новой моделью раздувания и основана на идее медленного нарушения симметрии. (Старой моделью раздувания Вселенной называют предложенное Гутом быстрое нарушение симметрии с образованием пузырей).

      Новая модель раздувания Вселенной была удачной попыткой объяснить, почему Вселенная стала именно такой, какая она сейчас. Однако я и еще несколько человек показали, что эта модель, по крайней мере в первоначальном виде, предсказывала гораздо большие вариации температуры фона микроволнового излучения, чем наблюдаемые. Последующие работы тоже внушали сомнения по поводу того, мог ли в очень ранней Вселенной произойти подходящий фазовый переход. Сам я считаю, что новая модель раздувания как научная теория уже мертва, несмотря на то что многие, по-видимому, не слышали о ее кончине и продолжают писать статьи, как будто бы эта модель все еще жизнеспособна. В 1983 г. Линде предложил более удачную модель, называемую хаотической моделью раздувания. В ней нет ни фазового перехода, ни переохлаждения, а взамен присутствует бесспиновое поле, которое из-за квантовых флуктуаций принимает большие значения в некоторых областях ранней Вселенной. В таких областях энергия поля будет вести себя как космологическая постоянная. Результатом действия поля будет гравитационное отталкивание, под влиянием которого вышеуказанные области начнут раздуваться. По мере увеличения этих областей энергия поля в них будет медленно уменьшаться, пока раздувание не перейдет в такое же расширение, как в горячей модели большого взрыва. Одна из областей могла бы превратиться в современную наблюдаемую Вселенную. Модель Линде обладает всеми преимуществами ранней модели раздувания, но не требует сомнительного фазового перехода и, кроме того, может дать реальную оценку флуктуаций температуры фона микроволнового излучения, согласующуюся с результатами наблюдений.

      Проведенные исследования моделей раздувания показали, что современное состояние Вселенной могло возникнуть из большого числа разных начальных конфигураций. Это важный вывод, ибо из него следует, что выбор начального состояния той части Вселенной, в которой мы живем, мог быть не очень тщательным. Но вовсе не из всякого начального состояния могла получиться такая Вселенная, как наша. Это можно доказать, предположив, что Вселенная сейчас находится в совершенно другом состоянии, каком-нибудь очень нерегулярном и комковатом. Воспользовавшись законами науки, можно проследить развитие Вселенной назад во времени и определить ее конфигурацию в более ранние времена. По теоремам о сингулярности классической общей теории относительности сингулярность в точке большого взрыва все равно должна была существовать. Если такая Вселенная будет развиваться вперед во времени в соответствии с законами науки, то в конце мы придем к тому комковатому и нерегулярному состоянию, с которого начинали. Следовательно, должны существовать начальные конфигурации, из которых не может получиться такая Вселенная, какой сейчас мы видим нашу. Значит, даже модель раздувания ничего не говорит о том, почему начальная конфигурация оказалась не той, при которой получилась бы Вселенная, сильно отличающаяся от наблюдаемой нами. Следует ли обратиться для объяснения к антропному принципу? Было ли все происшедшее просто счастливой случайностью? Такой ответ выглядел бы как выражение отчаяния, отрицание всех наших надежд понять, какой же порядок лежит в основе Вселенной.

      Для предсказания того, каким должно было быть начало Вселенной, необходимы законы, справедливые в начале отсчета времени. Если классическая общая теория относительности верна, то из доказанных Роджером Пенроузом и мной теорем о сингулярности следует, что в точке начала отсчета времени плотность и кривизна пространства-времени принимают бесконечные значения. В такой точке нарушаются все известные законы природы. Можно было бы предположить, что в сингулярностях действуют новые законы, но их трудно формулировать в точках со столь непонятным поведением, и мы не знали бы, как из наблюдений вывести вид этих законов. Но на самом деле из теорем о сингулярности следует, что гравитационное поле настолько усиливается, что становятся существенными квантовые гравитационные эффекты: классическая теория перестает давать хорошее описание Вселенной. Поэтому при изучении очень ранних стадий развития Вселенной приходится привлекать квантовую теорию гравитации. Как мы потом увидим, в квантовой теории обычные законы науки могут выполняться везде, в том числе и в начале отсчета времени: нет необходимости постулировать новые законы для сингулярностей, потому что в квантовой теории не должно быть никаких сингулярностей.

      Пока у нас еще нет полной и согласованной теории, объединяющей квантовую механику и гравитацию. Но мы совершенно уверены в том, что подобная единая теория должна иметь некоторые определенные свойства. Во-первых, она должна включать в себя фейнмановский метод квантовой теории, основанный на суммах по траекториям частицы (и по ?историям? Вселенной). При таком методе в отличие от классической теории частица уже не рассматривается как обладающая одной-единственной траекторией. Напротив, предполагается, что она может перемещаться по всем возможным путям в пространстве-времени и любой ее траектории отвечает пара чисел, одно из которых дает длину волны, а другое ? положение в периоде волны (фазу). Например, вероятность того, что частица пройдет через некоторую точку, получается суммированием всех волн, отвечающих каждой возможной траектории, проходящей через эту точку. Но попытки произвести такое суммирование наталкиваются на серьезные технические затруднения. Их можно обойти, лишь воспользовавшись следующим специальным рецептом: складываются волны, образующие те истории (траектории) частиц, которые происходят не в ощущаемом нами реальном (действительном) времени, а в так называемом мнимом времени. Мнимое время звучит, возможно, научно-фантастически, но на самом деле это строго определенное научное понятие. Умножив обычное (или действительное) число само на себя, мы получим положительное число. (Например, число 2, умноженное на 2, дает 4, и то же самое получается при умножении ?2 на ?2). Но существуют особые числа (они называются мнимыми), которые при умножении сами на себя дают отрицательный результат. (Одно из таких чисел, мнимая единица i, при умножении само на себя дает ?1, число 2i, умноженное само на себя, дает ?4 и т. д.). Во избежание усложнений технического характера при вычислении фейнмановских сумм по траекториям следует переходить к мнимому времени. Это означает, что при расчетах время надо измерять не в действительных единицах, а в мнимых. Тогда в пространстве-времени обнаруживаются интересные изменения: в нем совершенно исчезает различие между временем и пространством. Пространство-время, в котором временная координата событий имеет мнимые значения, называют евклидовым, в честь древнегреческого ученого Евклида, основателя учения о геометрии двумерных поверхностей. То, что мы сейчас называем евклидовым пространством-временем, очень похоже на первоначальную геометрию Евклида и отличается от нее лишь числом измерений: четыре вместо двух. В евклидовом пространстве-времени не делается различий между осью времени и направлениями в пространстве. В реальном же пространстве-времени, где событиям отвечают действительные значения координаты времени, эти различия видны сразу: для всех событий ось времени лежит внутри светового конуса, а пространственные оси ? снаружи. В любом случае, пока мы имеем дело с обычной квантовой механикой, мнимое время и евклидово пространство-время можно рассматривать просто как математический прием для расчета величин, связанных с реальным пространством-временем.

      Второе условие, которое должна включать в себя любая завершенная теория,  ? это предположение Эйнштейна о том, что гравитационное поле представляется в виде искривленного пространства-времени: частицы стремятся двигаться по траекториям, заменяющим в искривленном пространстве-времени прямые, но, поскольку пространство-время не плоское, эти траектории искривляются, как будто на них действует гравитационное поле. Если фейнмановское суммирование по траекториям соединить с представлением Эйнштейна о гравитации, то тогда аналогом траектории одной частицы станет все искривленное пространство-время, которое представляет собой историю всей Вселенной. Для того чтобы избежать технических затруднений, которые могут встретиться при конкретном вычислении суммы по историям, искривленные четырехмерные пространства надо считать евклидовыми. Это означает, что ось времени мнимая и не отличается от пространственных осей. Для вычисления вероятности того, что действительное пространство-время обладает некоторым свойством, например выглядит одинаково во всех точках и во всех направлениях, надо сложить волны, соответствующие всем тем историям, которые обладают этим свойством.

      В классической общей теории относительности может существовать много разных видов искривленного пространства-времени, и все они отвечают разным начальным состояниям Вселенной. Зная начальное состояние нашей Вселенной, мы знали бы целиком всю ее историю. Аналогично в квантовой теории гравитации возможно много разных квантовых состояний Вселенной, и точно так же, зная, как вели себя в ранние времена искривленные евклидовы четырехмерные пространства в сумме по историям, мы могли бы определить квантовое состояние Вселенной.

      В классической теории гравитации, использующей действительное пространство-время, возможны лишь два типа поведения Вселенной: либо она существовала в течение бесконечного времени, либо ее началом была сингулярная точка в какой-то конечный момент времени в прошлом. В квантовой же теории гравитации возникает и третья возможность. Поскольку используются евклидовы пространства, в которых временная и пространственные оси равноправны, пространство-время, будучи конечным, может тем не менее не иметь сингулярностей, образующих его границу или край. Тогда пространство-время напоминало бы поверхность Земли с двумя дополнительными измерениями. Поверхность Земли имеет конечную протяженность, но у нее нет ни границы, ни края: поплыв по морю в сторону заката, вы не вывалитесь через край и не попадете в сингулярность (я это знаю, сам объехал вокруг света!).

      Если евклидово пространство-время простирается назад по мнимому времени до бесконечности или начинается в сингулярной точке мнимого времени, то, как и в классической теории относительности, возникает вопрос об определении начального состояния Вселенной ? Богу, может быть, и известно, каким было начало Вселенной, но у нас нет никаких оснований мыслить это начало таким, а не иным. Квантовая же теория гравитации открыла одну новую возможность: пространство-время не имеет границы, и поэтому нет необходимости определять поведение на границе. Тогда нет и сингулярностей, в которых нарушались бы законы науки, а пространство-время не имеет края, на котором пришлось бы прибегать к помощи Бога или какого-нибудь нового закона, чтобы наложить на пространство-время граничные условия. Можно было бы сказать, что граничное условие для Вселенной ? отсутствие границ. Тогда Вселенная была бы совершенно самостоятельна и никак не зависела бы от того, что происходит снаружи. Она не была бы сотворена, ее нельзя было бы уничтожить. Она просто существовала бы.

      Я уже упоминал ранее о Ватиканской конференции. Именно на ней я впервые высказал ту мысль, что пространство и время, возможно, образуют вместе некую поверхность, которая имеет конечную протяженность, но не имеет границ и краев. Однако моя статья носила математический характер, и в ту пору, в общем, никому (так же, как и мне) не пришло в голову, что из этого положения могут следовать выводы о роли Бога в сотворении Вселенной. В то время, когда происходила Ватиканская конференция, я не знал еще, как можно использовать условие отсутствия границ, чтобы сделать выводы относительно Вселенной. Но следующее лето я провел в Калифорнийском университете, находящемся в Санта-Барбаре. Там один мой друг и коллега, Джим Хартл, исследовал при моем участии вопрос о том, каким условиям должна удовлетворять Вселенная, если пространство-время не имеет границ. В Кембридже я продолжил эту работу с двумя своими аспирантами, Джулианом Латтрелом и Джонатаном Холлиуэллом.

      Хочу подчеркнуть, что данное положение о том, что время и пространство должны быть конечны без границ, есть всего лишь теоретический постулат:. оно не может быть выведено из какого-либо другого принципа. Как и всякое теоретическое положение, оно может быть первоначально выдвинуто из эстетических или метафизических соображений, но затем должно пройти реальную проверку ? позволяет ли оно делать предсказания, согласующиеся с наблюдениями. В случае квантовой теории гравитации такая проверка затруднена по двум причинам. Во-первых, как будет показано в следующей главе, мы еще не имеем теории, которая успешно объединяла бы общую теорию относительности с квантовой механикой, хотя нам во многом известна форма, которую должна иметь такая теория. Во-вторых, всякая модель, детально описывающая всю Вселенную, несомненно, будет в математическом отношении слишком сложна, чтобы можно было на ее основе выполнять точные вычисления. Поэтому в расчетах неизбежны упрощающие предположения и приближения, и даже при этом задача извлечения предсказаний остается чудовищно сложной.

      Всякая история в сумме по историям будет описывать не только пространство-время, но и все в нем, в том числе все сложныеорганизмы, подобные человеческим существам, которые могут быть наблюдателями истории Вселенной. В этом можно видеть еще одно оправдание антропного принципа, ибо если все истории возможны, то, коль скоро мы существуем в одной из них, мы имеем право им пользоваться для объяснения причин того, что мир таков, каков он есть. Неясно лишь, какой смысл следует вложить в другие истории, в которых нас нет. Но такая картина квантовой теории гравитации была бы гораздо более удовлетворительной, если бы можно было показать, что при методе сумм по историям наша Вселенная отвечает не просто одной из возможных историй, а одной из наиболее вероятных. Для этого мы должны выполнить суммирование но историям для всех возможных евклидовых пространств-времен, не имеющих границ.

 


 

      Если принять условие отсутствия границ, то оказывается, что вероятность развития Вселенной но большинству возможных историй пренебрежимо мала, но существует некоторое семейство историй, значительно более вероятных, чем остальные. Эти истории можно изобразить в виде как бы поверхности Земли, причем расстояние до Северного полюса соответствует мнимому времени, а размеры окружностей, все точки которых равно удалены от Северного полюса, отвечают пространственным размерам Вселенной. Вселенная начинается как точка на Северном полюсе. При движении на юг такие широтные окружности увеличиваются, что отвечает расширению Вселенной с течением мнимого времени (рис. 8.1). Вселенная достигает максимального размера на экваторе, а затем с течением мнимого времени сжимается в точку на Южном полюсе. Несмотря на то, что на Северном и Южном полюсе размер Вселенной равен нулю, эти точки будут сингулярными не более, чем Северный и Южный полюс на поверхности Земли. Законы науки будут выполняться в них так же, как они выполняются на Северном и Южном полюсах Земли.

      Но в действительном времени история Вселенной выглядит совершенно иначе. Десять или двадцать тысяч миллионов лет назад размер Вселенной имел минимальное значение, равное максимальному радиусу истории в мнимом времени. Затем, с течением действительного времени, Вселенная расширялась в соответствии с хаотической моделью раздувания, предложенной Линде (но теперь уже нет необходимости предполагать, что Вселенная была каким-то образом создана в правильном состоянии). Вселенная достигла очень больших размеров, а потом должна опять сжаться в нечто, имеющее в действительном времени вид сингулярности. Поэтому в каком-то смысле все мы обречены, даже если будем держаться подальше от черных дыр. Сингулярностей не будет лишь в том случае, если представлять себе развитие Вселенной в мнимом времени.

      Если Вселенная на самом деле находится в таком квантовом состоянии, то ее история в мнимом времени не будет иметь никаких сингулярностей. Поэтому может показаться, что моими последними работами о сингулярностях полностью зачеркнуты мои же старые работы о сингулярностях. Но, как уже отмечалось, главное значение теорем о сингулярностях таково: они показывают, что гравитационное ноле должно стать очень сильным, так что нельзя будет пренебречь квантовыми гравитационными эффектами. Именно это ведет к выводу, что в мнимом времени Вселенная должна быть конечной, но без границ и сингулярностей. По возвращении же в реальное время, в котором мы живем, обнаруживается, что сингулярности появляются опять. Астронавт, упавший в черную дыру, все равно придет к трагическому концу, и только в мнимом времени у него не было бы встречи с сингулярностями.

      Может быть, следовало бы заключить, что так называемое мнимое время ? это на самом деле есть время реальное, а то, что мы называем реальным временем,  ? просто плод нашего воображения. В действительном времени у Вселенной есть начало и конец, отвечающие сингулярностям, которые образуют границу пространства-времени и в которых нарушаются законы науки. В мнимом же времени нет ни сингулярностей, ни границ. Так что, быть может, именно то, что мы называем мнимым временем, на самом деле более фундаментально, а то, что мы называем временем реальным,  ? это некое субъективное представление, возникшее у нас при попытках описать, какой мы видим Вселенную. Ведь, согласно сказанному в гл. 1, научная теория есть просто математическая модель, построенная нами для описания результатов наблюдений: она существует только у нас в голове. Поэтому не имеет смысла спрашивать, что же реально ? действительное время или время мнимое? Важно лишь, какое из них более подходит для описания.

      Мы можем теперь, пользуясь методом суммирования но историям и предположением об отсутствии границ, посмотреть, какими свойствами Вселенная может обладать одновременно. Например, можно вычислить вероятность того, что Вселенная расширяется примерно с одинаковой скоростью во всех направлениях в то время, когда плотность Вселенной имеет современное значение. В упрощенных моделях, которыми мы до сих пор занимались, эта вероятность оказывается весьма значительной; таким образом, условие отсутствия границ приводит к выводу о чрезвычайно высокой вероятности того, что современный темп расширения Вселенной почти одинаков во всех направлениях. Это согласуется с наблюдениями фона микроволнового излучения, которые показывают, что его интенсивность во всех направлениях почти одинакова. Если бы Вселенная в одних направлениях расширялась быстрее, чем в других, то интенсивность излучения в этих направлениях уменьшалась бы за счет дополнительного красного смещения.

      Сейчас изучаются и другие следствия из условия отсутствия границ. Особенно интересна задача о малых отклонениях плотности от однородной плотности ранней Вселенной, в результате которых возникли сначала галактики, потом звезды и наконец мы сами. В силу принципа неопределенности ранняя Вселенная не может быть совершенно однородной, потому что должны обязательно присутствовать некоторые неопределенности в положениях и скоростях частиц ? флуктуации. Исходя из условия отсутствия границ, мы найдем, что в начальном состоянии во Вселенной действительно должна быть неоднородность, минимально возможная с точки зрения принципа неопределенности. Затем Вселенная пережила период быстрого расширения, как в моделях раздувания. В течение этого периода начальные неоднородности усиливались, пока не достигли размеров, достаточных, чтобы объяснить происхождение тех структур, которые мы видим вокруг себя. В такой расширяющейся Вселенной, в которой плотность вещества слабо меняется от места к месту, расширение более плотных областей под действием гравитации могло замедлиться и перейти в сжатие. Это должно привести к образованию галактик, звезд и, наконец, даже таких незначительных существ, как мы. Таким образом, возникновение всех сложных структур, которые мы видим во Вселенной, можно объяснить условием отсутствия у нее границ в сочетании с квантово-механическим принципом неопределенности.

      Из представления о том, что пространство и время образуют замкнутую поверхность, вытекают также очень важные следствия относительно роли Бога в жизни Вселенной. В связи с успехами, достигнутыми научными теориями в описании событий, большинство ученых пришло к убеждению, что Бог позволяет Вселенной развиваться в соответствии с определенной системой законов и не вмешивается в ее развитие, не нарушает эти законы. Но законы ничего не говорят нам о том, как выглядела Вселенная, когда она только возникла,  ? завести часы и выбрать начало все-таки могло быть делом Бога. Пока мы считаем, что у Вселенной было начало, мы можем думать, что у нее был Создатель. Если же Вселенная действительно полностью замкнута и не имеет ни границ, ни краев, то тогда у нее не должно быть ни начала, ни конца: она просто есть, и все! Остается ли тогда место для Создателя?

9. Стрела времени

      В предыдущих главах мы видели, как менялись наши взгляды на природу времени с течением лет. До начала нынешнего века люди верили в абсолютное время. Это значит, что каждое событие можно единственным образом пометить неким числом, которое называется временем, и все точно идущие часы будут показывать одинаковый интервал времени между двумя событиями. Но открытие, что скорость света одна и та же для любого наблюдателя независимо от того, как он движется, привело к созданию теории относительности, которая отвергла существование единого абсолютного времени. Каждый наблюдатель имеет свое время, которое он измеряет своими часами, и показания часов разных наблюдателей не обязаны совпадать. Время стало более субъективным понятием, связанным с наблюдателем, который его измеряет.

      Попытки объединить гравитацию с квантовой механикой привели к понятию мнимого времени. Мнимое время ничем не отличается от направлений в пространстве. Идя на север, можно повернуть назад и пойти на юг. Аналогично, если кто-то идет вперед в мнимом времени, то он может повернуть и пойти назад. Это означает, что между противоположными направлениями мнимого времени нет существенной разницы. Но когда мы имеем дело с реальным временем, то мы знаем, что существует огромное различие между движением во времени вперед и назад. Откуда же берется такая разница между прошлым и будущим? Почему мы помним прошлое, но не помним будущего?

      Законы науки не отличают прошлого от будущего. Точнее говоря, законы науки не меняются в результате выполнения операций (или симметрий), обозначаемых буквами С, Р и Т. (С ? замена частицы античастицей, Р ? зеркальное отражение, когда левое и правое меняются местами, а Т ? изменение направления движения всех частиц на обратное).

      Законы физики, управляющие поведением материи во всех обычных ситуациях, не изменяются и после выполнения только двух операций С и Р. Другими словами, жизнь будет одинакова и для нас, и для обитателей другой планеты, если они, во-первых, являются нашим зеркальным отражением и, во-вторых, состоят из антиматерии, а не из материи. Если законы науки не изменяет комбинация операций С и Р, а также тройная комбинация С, Р и Т, то эти законы не должны изменяться и при выполнении одной операции Т. Однако в обычной жизни существует огромное различие между движением вперед и назад во времени. Представьте себе, что со стола падает и разбивается на куски чашка с водой. Если снять это падение на пленку, то при просмотре фильма сразу станет ясно, вперед или назад прокручивается пленка. Если она прокручивается назад, то мы увидим, как лежащие на полу осколки вдруг собираются вместе и, сложившись в целую чашку, впрыгивают на стол. Вы можете утверждать, что фильм прокручивается назад, потому что в обычной жизни такого не бывает. Иначе пришлось бы закрыть фаянсовые заводы.

      Чтобы объяснить, почему разбитые чашки никогда не возвращаются целыми обратно на стол, обычно ссылаются на то, что это противоречило бы второму закону термодинамики. Он гласит, что в любой замкнутой системе беспорядок, или энтропия, всегда возрастает со временем. Другими словами, это похоже на закон Мерфи: все в нашем мире происходит не так, как надо. Целая чашка на столе ? это состояние высокого порядка, а разбитая, лежащая на полу, находится в состоянии беспорядка. Нетрудно пройти путь от целой чашки на столе в прошлом до разбитой на полу, но обратный ход событий невозможен.

      Увеличение беспорядка, или энтропии, с течением времени ? это одно из определений так называемой стрелы времени, т. е. возможности отличить прошлое от будущего, определить направление времени. Можно говорить по крайней мере о трех различных стрелах времени. Во-первых, стрела термодинамическая, указывающая направление времени, в котором возрастает беспорядок, или энтропия. Во-вторых, стрела психологическая. Это направление, в котором мы ощущаем ход времени, направление, при котором мы помним прошлое, но не будущее. И в-третьих, стрела космологическая. Это направление времени, в котором Вселенная расширяется, а не сжимается.

      В данной главе я докажу, что, исходя из условия отсутствия границ у Вселенной и из слабого антропного принципа, можно объяснить, почему все три стрелы времени направлены одинаково и, более того, почему вообще должна существовать определенная стрела времени. Я докажу, что психологическая стрела определяется термодинамической и обе эти стрелы всегда направлены одинаково. Предположив, что для Вселенной справедливо условие отсутствия границ, мы увидим, что должны существовать хорошо определенные термодинамическая и космологическая стрелы времени, хотя они не обязаны быть одинаково направленными на протяжении всей истории Вселенной. Но, как я покажу, лишь в том случае, когда направления этих стрел совпадают, могут возникнуть условия для развития разумных существ, способных задать такой вопрос: почему беспорядок увеличивается в том же направления по времени, в котором расширяется Вселенная?

      Сначала рассмотрим термодинамическую стрелу времени. Второй закон термодинамики вытекает из того, что состояний беспорядка всегда гораздо больше, чем состояний порядка. Возьмем, например, картинку на детских кубиках. Имеется только одно взаимное расположение кубиков, при котором составляется нужная картинка. В то же время есть очень много разных беспорядочных расположении, когда картинка не составляется вообще.

      Предположим, что какая-то система вначале находится в одном из немногих состояний порядка. С течением времени состояние системы будет изменяться в полном согласии с законами науки. Через некоторое время система из состояния порядка, скорее всего, перейдет в состояние беспорядка, поскольку состояний беспорядка больше. Следовательно, если система вначале находилась в состоянии высокого порядка, то со временем будет расти беспорядок. Так, если паши кубики сложены в картинку, то при перемешивании изменится их расположение и станет, скорее всего, беспорядочным, потому что состояний беспорядка опять гораздо больше, чем состояний порядка. Картинка, конечно, при этом будет разрушена. Некоторые кубики еще будут удерживаться вместе, образуя куски картинки, но чем больше мы будем их перемешивать, тем с большей вероятностью эти куски рассыплются и все еще больше перепутается. В конце концов никакой картинки у нас не останется. Таким образом, беспорядок будет расти со временем, если в начале было состояние высокого порядка.

      Предположим, однако, что Бог повелел, чтобы развитие Вселенной независимо от начального состояния заканчивалось в состоянии высокого порядка. На ранних стадиях Вселенная, вероятнее всего, находилась бы в состоянии беспорядка. Это означало бы, что беспорядок уменьшается со временем. Тогда вы видели бы, как разбитые чашки собираются из осколков и впрыгивают на стол. Но люди, которые видели бы такие прыгающие чашки, должны быть жителями вселенной, в которой беспорядок уменьшается со временем. Я утверждаю, что психологическая стрела времени этих людей должна быть направлена назад, т. е. они должны помнить события в будущем, но не должны помнить события, происходившие в прошлом. Увидев разбитую чашку, они вспомнили бы, как она стоит на столе, но когда она оказывается на столе, они не помнили бы, что она была на полу.

      Рассуждать о человеческой памяти ? весьма непростое занятие, ибо мы не знаем во всех деталях, как работает наш мозг. Зато мы знаем все о том, как действует память компьютера. Поэтому я буду говорить о психологической стреле времени для компьютеров. Мне кажется вполне логичным предположить, что и у компьютеров, и у людей психологическая стрела одна и та же. Если бы это было не так, то, имея компьютер, который помнил бы завтрашний курс акций, можно было бы прекрасно играть на бирже.

      Память компьютера ? это, грубо говоря, устройство, содержащее элементы, которые могут находиться в одном из двух состояний. Простой пример такого устройства ? абак, древние счеты. В простейшем виде это набор горизонтальных проволочек, на каждую из которых насажена бусинка. Каждая бусинка находится в одном из двух положений. До тех пор пока в память компьютера ничего не введено, она находится в беспорядочном состоянии, в котором оба возможных расположения бусинок равновероятны (бусинки на проволочках распределены случайным образом). После того как память провзаимодействует с системой, состояние которой надо запомнить, ее состояние станет вполне определенным, зависящим от состояния системы. (Каждая бусинка на счетах будет либо в правом, либо в левом конце своей проволочки). Итак, память компьютера перешла из беспорядка в упорядоченное состояние. Но для того, чтобы быть уверенным в том, что память находится в правильном состоянии, надо затратить некоторое количество энергии (например, для перебрасывания бусинок или питания компьютера). Эта энергия перейдет в тепло и тем самым увеличит степень беспорядка во Вселенной. Можно показать, что это увеличение беспорядка будет всегда больше, чем увеличение упорядоченности самой памяти. Необходимость охлаждения компьютера вентилятором говорит о том, что, когда компьютер записывает что-то в память, общий беспорядок во Вселенной все-таки увеличивается.

      Направление времени, в котором компьютер запоминает прошлое, оказывается тем же, в котором растет беспорядок.

      Следовательно, наше субъективное ощущение направления времени ? психологическая стрела времени ? задается в нашем мозгу термодинамической стрелой времени. Как и компьютер, мы должны запоминать события в том же порядке, в котором возрастает энтропия. Второй закон термодинамики становится при этом почти тривиальным. Беспорядок растет со временем, потому что мы измеряем время в направлении, в котором растет беспорядок. Трудно спорить с такой логикой!

      Все же, почему термодинамическая стрела времени должна вообще существовать? Или, другими словами, почему на одном из концов времени, на том его конце, который мы называем прошлым, Вселенная должна находиться в состоянии с высокой упорядоченностью? Почему бы ей не быть в состоянии полного беспорядка? Ведь это выглядело бы более вероятным. Кроме того, почему беспорядок растет во времени в том же направлении, в котором расширяется Вселенная?

      Классическая общая теория относительности не позволяет вычислить, как возникла Вселенная, потому что в сингулярной точке большого взрыва все известные нам законы природы должны нарушаться. Вселенная могла возникнуть в каком-то однородном, сильно упорядоченном состоянии. Это привело бы к четко определенным стрелам времени ? термодинамической и космологической, как это наблюдается сейчас. Однако начальное состояние Вселенной вполне могло бы быть и очень неоднородным, и неупорядоченным. В этом случае Вселенная уже находилась бы в состоянии полного беспорядка и беспорядок не мог бы увеличиваться со временем. Он мог бы оставаться неизменным, тогда не было бы определенной термодинамической стрелы времени, либо мог бы уменьшаться, и тогда термодинамическая стрела времени была бы направлена навстречу космологической стреле. Ни одна из этих возможностей не согласуется с тем, что мы наблюдаем. Как мы, однако, видели, классическая общая теория oтносительности предсказывает свое нарушение. Когда кривизна пространства-времени становится большой, становятся существенными квантовые гравитационные эффекты, и классическая теория перестает служить надежным основанием для описания Вселенной. Чтобы понять, как возникла Вселенная, необходимо обратиться к квантовой теории гравитации. Но, чтобы определить в квантовой теории гравитации состояние Вселенной, необходимо, как мы видели в предыдущих главах, знать, как возможные истории Вселенной вели себя на границе пространства-времени в прошлом. Необходимость знать то, что мы не знаем и знать не можем, отпадает лишь в том случае, если прошлые истории удовлетворяют условию отсутствия границ: они имеют конечную протяженность, но у них нет ни границ, ни краев, ни особенностей. Тогда начало отсчета времени должно было быть регулярной, гладкой точкой в пространстве-времени и Вселенная начала бы свое расширение из весьма однородного и упорядоченного состояния. Оно не могло бы быть совершенно однородным, потому что этим нарушался бы принцип неопределенности квантовой теории. Это значит, что должны существовать небольшие флуктуации плотности и скоростей частиц. Но в силу условия отсутствия границ эти флуктуации должны были быть малы, чтобы согласоваться с принципом неопределенности.

      Вначале Вселенная могла бы экспоненциально расширяться, или раздуваться, в результате чего ее размеры увеличились бы во много раз. Флуктуации плотности, оставаясь сначала небольшими, потом начали бы расти. Расширение тех областей, в которых плотность была чуть выше средней, происходило бы медленнее из-за гравитационного притяжения лишней массы. В конце концов такие области перестанут расширяться и коллапсируют, в результате чего образуются галактики, звезды и живые существа вроде нас. Таким образом, в момент возникновения Вселенная могла находиться в однородном и упорядоченном состоянии и перейти со временем в состояние неоднородное и неупорядоченное. Такой подход мог бы объяснить существование термодинамической стрелы времени.

      Но что произошло бы, когда Вселенная перестала бы расширяться и стала сжиматься? Повернулась бы при этом термодинамическая стрела времени? Начал бы уменьшаться со временем беспорядок? Перед теми, кому посчастливилось бы пережить переход из фазы расширения в фазу сжатия, открылись бы самые фантастические возможности. Может быть, они увидели бы, как осколки разбитых чашек собираются на полу в целые чашки, которые возвращаются обратно на стол? А может быть, они бы помнили завтрашний курс акций и удачно играли на бирже? Правда, беспокойство по поводу того, что случится, если Вселенная опять начнет коллапсировать, кажется несколько преждевременным ? сжатия не будет еще по крайней мере десять тысяч миллионов лет. Однако узнать об этом можно гораздо быстрее. Для этого надо просто прыгнуть в черную дыру. Коллапс звезды в состояние черной дыры аналогичен последним стадиям коллапса всей Вселенной. Поэтому если беспорядок должен уменьшаться на стадии сжатия Вселенной, то он будет уменьшаться и внутри черной дыры. Тогда астронавт, упавший в черную дыру, мог бы там подзаработать, играя в рулетку. Ведь еще не сделав ставки, он бы уже помнил, где остановится шарик. (Правда, игра была бы очень недолгой, лишь до тех пор, пока сам астронавт не превратился бы в спагетти. Не успев сообщить нам о повороте термодинамической стрелы и даже не получив выигрыш, он исчез бы за горизонтом событий черной дыры).

      Вначале я считал, что при коллапсе Вселенной беспорядок должен уменьшаться, потому что, став опять маленькой, Вселенная должна была бы вернуться в исходное гладкое и упорядоченное состояние. Это означало бы, что фаза сжатия эквивалентна обращенной во времени фазе расширения. На стадии сжатия жизнь должна течь в обратном направлении, так что люди умирали бы до своего рождения и по мере сжатия Вселенной становились бы все моложе и моложе.

      Привлекательность такого вывода ? в красивой симметрии между фазой расширения и фазой сжатия. Однако его нельзя рассматривать сам по себе, независимо от других представлений о Вселенной. Возникает вопрос: следует ли этот вывод из условия отсутствия границ или же, напротив, с этим условием несовместим? Как уже говорилось, я считал вначале, что условие отсутствия границ в самом деле означает, что беспорядок должен увеличиваться на стадии сжатия. Отчасти меня ввела в заблуждение аналогия с поверхностью Земли. Положим, что начало Вселенной соответствует Северному полюсу. Тогда конец Вселенной должен быть похож на начало так же, как Южный полюс похож на Северный. Но Северный и Южный полюсы соответствуют началу и концу Вселенной в мнимом времени. В реальном же времени начало и конец могут сколь угодно сильно отличаться друг от друга. Меня еще ввела в заблуждение работа, в которой я рассматривал одну простую модель Вселенной, где фаза коллапса была похожа на обращенную во времени фазу расширения. Но мой коллега, Дон Пейдж из Университета штата Пенсильвания, показал, что условие отсутствия границ вовсе не требует того, чтобы фаза сжатия была обращенной во времени фазой расширения. Затем один из моих аспирантов, Реймонд Лефлемм, установил, что в несколько более сложной модели коллапс Вселенной сильно отличается от ее расширения. Я понял, что ошибся: из условия отсутствия границ следует, что во время сжатия беспорядок должен продолжать увеличиваться. Термодинамическая и психологическая стрелы времени не изменят своего направления на противоположное ни в черной дыре, ни во Вселенной, начавшей сокращаться вновь.

      Что бы вы сделали, обнаружив у себя такую ошибку? Некоторые никогда не признаются в своей неправоте и продолжают поиски новых, часто совершенно необоснованных, аргументов в пользу своих идей. Так поступил Эддингтон, выступив противником теории черных дыр. Другие заявляют, что они никогда и не поддерживали эту неправильную точку зрения, а если и поддерживали, то лишь для того, чтобы продемонстрировать ее несостоятельность. Мне кажется, что гораздо правильнее выступить в печати с признанием своей неправоты. Прекрасный пример тому ? Эйнштейн. О введении космологической постоянной, которая понадобилась ему при построении статической модели Вселенной, он говорил как о своей самой серьезной ошибке.

      Вернемся к стреле времени. У нас остался один вопрос: почему, как показывают наблюдения, термодинамическая и космологическая стрелы направлены одинаково? Или, другими словами, почему беспорядок возрастает во времени в том же направлении, в каком расширяется Вселенная? Если считать, что Вселенная после расширения начнет сжиматься, как, по-видимому, следует из условия отсутствия границ, то наш вопрос звучит так: почему мы должны находиться в фазе расширения, а не в фазе сжатия?

      Ответ на этот вопрос дает слабый антропный принцип: условия в фазе сжатия непригодны для существования таких разумных существ, которые могли бы спросить, почему беспорядок растет в том же направлении во времени, в котором расширяется Вселенная. Условие отсутствия границ предсказывает раздувание Вселенной на ранних стадиях развития. Это означает, что расширение Вселенной должно происходить со скоростью, очень близкой к критической, при которой коллапс исключается, а потому коллапса не будет очень долго. Но тогда все звезды успеют сгореть, а образующие их протоны и нейтроны распадутся на более легкие частицы. Вселенная осталась бы в состоянии практически полного беспорядка, в котором не было бы сильной термодинамической стрелы времени. Беспорядок не мог сильно увеличиваться, ведь Вселенная и так находилась бы в состоянии почти полного беспорядка. Но для существования разумной жизни необходима сильная термодинамическая стрела. Чтобы выжить, люди должны потреблять пищу, которая выступает как носитель упорядоченной формы энергии, и превращать ее в тепло, т. е. в неупорядоченную форму энергии. Следовательно, на стадии сжатия никакой разумной жизни быть не могло. Этим объясняется, почему для нас термодинамическая и космологическая стрелы времени направлены одинаково. Неверно считать, будто беспорядок растет из-за расширения Вселенной. Всему причиной условие отсутствия границ. Из-за него растет беспорядок, но только в фазе расширения создаются условия для существования разумной жизни.

      Подведем итог. Законы науки не делают различия между направлением ?вперед? и ?назад? во времени. Но существуют по крайней мере три стрелы времени, которые отличают будущее от прошлого. Это термодинамическая стрела, т. е. то направление времени, в котором возрастает беспорядок; психологическая стрела ? то направление времени, в котором мы помним прошлое, а не будущее; космологическая стрела ? направление времени, в котором Вселенная не сжимается, а расширяется. Я показал, что психологическая стрела практически эквивалентна термодинамической стреле, так что обе они должны быть направлены одинаково. Из условия отсутствия границ вытекает существование четко определенной термодинамической стрелы времени, потому что Вселенная должна была возникнуть в гладком и упорядоченном состоянии. А причина совпадения термодинамической и космологической стрел кроется в том, что разумные существа могут жить только в фазе расширения. Фаза сжатия для них не подходит, потому что в ней отсутствует сильная термодинамическая стрела времени.

      Прогресс человека на пути познания Вселенной привел к возникновению маленького уголка порядка в растущем беспорядке Вселенной. Если вы запомните каждое слово из этой книжки, то ваша память получит около двух миллионов единиц информации, и порядок в вашей голове возрастет примерно на два миллиона единиц. Но пока вы читали эту книгу, по крайней мере тысяча калорий упорядоченной энергии, которую вы получили в виде пищи, превратились в неупорядоченную энергию, которую вы передали в окружающий вас воздух в виде тепла за счет конвекции и потовыделения. Беспорядок во Вселенной возрастет при этом примерно на двадцать миллионов миллионов миллионов миллионов единиц, что в десять миллионов миллионов миллионов раз превышает указанное увеличение порядка в вашем мозгу,  ? и это произойдет лишь в том случае, если вы запомните все из моей книжки. В следующей главе я попытаюсь навести у нас в головах еще больший порядок. Я расскажу о том, как люди пытаются объединить друг с другом те отдельные теории, о которых я рассказал, стараясь создать полную единую теорию, которая охватывала бы все, что происходит во Вселенной.

10. Объединение физики

      Как уже говорилось в гл. 1, совсем не просто сразу строить полную единую теорию всего, что происходит во Вселенной. Поэтому мы продвигаемся вперед, создавая частные теории, описывающие какую-то ограниченную область событий, и либо пренебрегаем остальными эффектами, либо приближенно заменяем их некоторыми числами. (Например, в химии можно рассчитывать взаимодействия атомов, не зная внутреннего строения атомного ядра). Но можно надеяться на то, что в конце концов будет найдена полная, непротиворечивая единая теория, в которую все частные теории будут входить в качестве приближений и которую не нужно будет подгонять под эксперимент подбором значений входящих в нее произвольных величин. Работа по созданию такой теории называется объединением физики. Последние годы своей жизни Эйнштейн почти целиком посвятил поискам единой теории, но время для этого тогда еще не пришло: существовали частные теории гравитации и электромагнитных взаимодействий, но о ядерных силах было мало что известно. К тому же Эйнштейн отказывался верить в реальность квантовой механики, несмотря на ту огромную роль, которую он сам сыграл в ее развитии. Но принцип неопределенности является, по-видимому, фундаментальным свойством Вселенной, в которой мы живем. Поэтому он обязательно должен быть составной частью правильной единой теории.

      Дальше я покажу, что надежды на построение такой теории сильно возросли, ибо мы сейчас значительно больше узнали о Вселенной. Но не нужно быть чересчур уверенным ? мы уже не раз сталкивались с миражами! Например, в начале века считалось, что все можно объяснить с помощью свойств, характеризующих непрерывное вещество, скажем, таких, как упругость и теплопроводность. Открытие строения атома и принципа неопределенности навсегда покончило с подобным подходом. Затем в 1928 г. физик, лауреат Нобелевской премии Макс Борн, выступая перед гостями Гёттингенского университета, сказал: ?Физика в том смысле, в котором мы ее понимаем, через полгода кончится?. В своей уверенности Борн основывался на недавно открытом Дираком уравнении для электрона. Все думали, что аналогичное уравнение должно существовать и для протона ? второй из двух известных тогда частиц,  ? и тогда теоретическая физика кончится. Но открытие нейтрона и ядерных сил развеяло и эти предсказания. И все же я уверен, что сейчас есть основания для осторожного оптимизма: мы, пожалуй, близки к завершению поисков окончательных законов природы.

      В предыдущих главах я говорил об общей теории относительности, которая представляет собой частную теорию гравитации, и о частных теориях, описывающих слабые, сильные и электромагнитные взаимодействия. Последние три теории могут быть объединены в так называемые теории великого объединения, которые нельзя считать достаточно удовлетворительными, потому что они не включают гравитацию и содержат величины, например относительные массы разных частиц, которые не вычисляются теоретически и должны подбираться из условия наилучшего согласия с экспериментом. Основная трудность построения теории, которая объединяла бы гравитацию с остальными силами, связана с тем, что общая теория относительности представляет собой классическую теорию, т. е. не включает в себя квантово-механический принцип неопределенности. Другие же частные теории существенно связаны с квантовой механикой. Поэтому прежде всего общую теорию относительности необходимо объединить с принципом неопределенности. Мы знаем, что результатом такого объединения станет ряд удивительных следствий: черные дыры перестанут быть черными, а из Вселенной исчезнут сингулярности, и она станет полностью замкнутой и не имеющей границ. Но, как уже объяснялось в гл. 7, здесь возникают затруднения, связанные с тем, что в силу принципа неопределенности даже пустое пространство заполнено парами виртуальных частиц и античастиц. Эти пары обладают бесконечной энергией, а потому в соответствии со знаменитым уравнением Эйнштейна Е = mc^2 их масса тоже должна быть бесконечна. Следовательно, под действием создаваемого ими гравитационного притяжения Вселенная должна, искривляясь, сворачиваться до бесконечно малых размеров.

      Такие же нелепые бесконечности возникают и в других частных теориях, но их всегда можно устранить с помощью процедуры, которая называется перенормировкой. Метод перенормировок предписывает введение новых бесконечностей для компенсации старых. Несмотря на свою неполную математическую обоснованность, этот метод успешно применяется, и полученные с его помощью предсказания частных теорий чрезвычайно точно согласуются с результатами наблюдений. Однако в плане поиска завершенной теории метод перенормировок обладает одним серьезным недостатком: он не позволяет теоретически предсказать действительные значения масс и сил; их приходится подбирать путем подгонки к эксперименту.

      При попытках включить принцип неопределенности в общую теорию относительности имеются только два числа, которые можно подгонять: величина гравитационной силы и космологическая постоянная. Но их изменением невозможно устранить все бесконечности. Значит, мы имеем теорию, согласно которой некоторые величины, например кривизна пространства-времени, должны быть бесконечными, несмотря на то что эти величины можно наблюдать, и из измерений вытекает, что они конечны! Эта проблема, возникающая при объединении общей теории относительности с принципом неопределенности, какое-то время считалась сомнительной, но в конце концов ее реальность была, наконец, подтверждена детальными расчетами в 1972 г. Через четыре года появилось одно из возможных ее решений, названное теорией супергравитации. Суть этой теории в том, что гравитон (частица со спином 2, являющаяся переносчиком гравитационного взаимодействия) объединяется с некоторыми новыми частицами, имеющими спины 3/2, 1, 1/2 и 0. Тогда все эти частицы в каком-то смысле можно рассматривать как разные виды одной и той же ?суперчастицы?, осуществив таким образом объединение частиц материи, имеющих спины 1/2 и 3/2, с частицами ? переносчиками взаимодействия, спины которых равны 0, 1 и 2. Виртуальные пары частица-античастица со спином 1/2 и 3/2 обладают при этом отрицательной энергией, компенсирующей положительную энергию виртуальных пар со спином 2, 1, 0. В результате многие бесконечности будут устранены, но есть подозрения, что какая-то их часть может все же остаться. Однако выяснение того, все ли бесконечности устранены, требовало столь громоздких и сложных расчетов, что ими никто не собирался заниматься. Оценки показали, что даже с помощью компьютера работа заняла бы никак не меньше четырех лет, и при этом очень велика вероятность хоть раз ошибиться. Следовательно, в ответе можно быть уверенным лишь в том случае, если кто-нибудь другой повторил бы все вычисления и получил тот же результат, а на это трудно рассчитывать.

 


 

      Несмотря на все эти проблемы и на то, что частицы в теориях супергравитации, по-видимому, отличались от наблюдаемых частиц, большинство ученых считало, что супергравитация может привести к правильному решению задачи об объединении физики. Но в 1984 г. общее ученое мнение сильнейшим образом изменилось в сторону так называемых струнных теорий. Основными объектами струнных теорий выступают не частицы, занимающие всего лишь точку в пространстве, а некие структуры вроде бесконечно тонких кусочков струны, не имеющих никаких измерений, кроме длины. Концы этих струн могут быть либо свободны (так называемые открытые струны), либо соединены друг с другом (замкнутые струны) (рис. 10.1 и 10.2). Частица в каждый момент времени представляется одной точкой в пространстве. Следовательно, ее историю можно изобразить линией в пространстве-времени (мировая линия). Но струне в каждый момент времени отвечает линия в трехмерном пространстве. Следовательно, ее история в пространстве-времени изображается двумерной поверхностью, которая называется ?мировым листом?. (Любую точку на таком мировом листе можно задать двумя числами, одно из которых ? время, а другое ? положение точки на струне). Мировой лист открытой струны представляет собой полосу, края которой отвечают путям концов струны в пространстве-времени (рис. 10.1). Мировой лист замкнутой струны ? это цилиндр или трубка (рис. 10.2), сечением которой является окружность, отвечающая положению струны в определенный момент времени.

 


 

      Два куска струны могут соединиться в одну струну; в случае открытых струн они просто смыкаются концами (рис. 10.3), а соединение замкнутых струн напоминает соединение двух штанин в брюках (рис. 10.4). Аналогичным образом кусок струны может разорваться на две струны. То, что раньше считалось частицами, в струнных теориях изображается в виде волн, бегущих по струне так же, как бегут волны по натянутой веревке, если ее дернуть за конец. Испускание и поглощение одной частицы другой отвечает соединению и разделению струн. Например, гравитационная сила, с которой Солнце действует на Землю, в теориях частиц изображалась как результат испускания какой-нибудь частицей на Солнце гравитона и последующего его поглощения какой-нибудь частицей на Земле (рис. 10.5). В теории струн этот процесс изображается Н-образным соединением трубок (рис. 10.6). (Теория струн в каком-то смысле подобна технике водопроводчика). Две вертикальные стороны соответствуют частицам, находящимся на Солнце и на Земле, а горизонтальная поперечина отвечает летящему между ними гравитону.

 


 

      Теория струн имеет очень необычную историю. Она возникла в конце шестидесятых годов при попытках построить теорию сильных взаимодействий. Идея была в том, чтобы частицы типа протона и нейтрона рассматривать как волны, распространяющиеся по струне. Тогда сильные силы, действующие между частицами, соответствуют отрезкам струн, соединяющим между собой, как в паутине, другие участки струн. Для того чтобы вычисленная в этой теории сила взаимодействия имела значение, отвечающее эксперименту, струны должны быть эквивалентны резиновым лентам, натянутым с силой около десяти тонн.

      В 1974 г. парижанин Джоэль Шерк и Джон Шварц из Калифорнийского технологического института опубликовали работу, в которой было показано, что теория струн может описывать гравитационное взаимодействие, но только при значительно большем натяжении струны ? порядка тысячи миллионов миллионов миллионов миллионов миллионов миллионов (единица с тридцатью девятью нулями) тонн. В обычных масштабах предсказания такой струнной модели и общей теории относительности совпадали, но начинали различаться на очень малых расстояниях, меньших одной тысяча миллион миллион миллион миллион миллионной доли сантиметра (один сантиметр, деленный на единицу с тридцатью тремя нулями). Однако эта работа не привлекла особенного внимания, потому что как раз в то время многие отказались от первоначальной струнной теории сильного взаимодействия, обратившись к теории кварков и глюонов, результаты которой значительно лучше согласовались с экспериментом. Шерк трагически умер (у пего был диабет, и во время комы рядом не оказалось никого, кто бы сделал ему укол инсулина), и Шварц остался почти единственным сторонником струнной теории, но со значительно более сильным натяжением струн.

      В 1984 г. интерес к струнам неожиданно возродился. На то было, по-видимому, две причины. Во-первых, никто не мог ничего добиться, пытаясь показать, что супергравитация конечна или что с ее помощью можно объяснить существование всех разнообразных частиц, которые мы наблюдаем. Второй причиной была публикация статьи Джона Шварца и Майка Грина из Лондонского Куин-Мэри-колледжа, в которой было показано, что с помощью теории струн можно объяснить существование частиц с левой спиральностью, как у некоторых из тех частиц, что мы наблюдаем. Какими бы ни были побудительные мотивы, вскоре очень многие обратились к теории струн, в результате чего появилась ее новая разновидность ? теория так называемой гетеротической струны, которая дает надежду на объяснение разнообразия видов наблюдаемых частиц.

 


 

      В теориях струн тоже возникают бесконечности, но есть надежда, что в тех или иных теориях гетеротической струны эти бесконечности сократятся (хотя пока это еще не известно). Но струнные теории содержат значительно более серьезную трудность: они непротиворечивы, по-видимому, лишь в десяти илидвадцатишестимерном пространстве-времени, а не в обычном четырехмерном! Лишние измерения ? это обычное дело в научной фантастике; там без них и в самом деле почти невозможно обойтись, потому что иначе, из-за того что, согласно теории относительности, нельзя двигаться быстрее света, путешествия среди звезд и галактик происходили бы немыслимо долго. Идея научной фантастики заключается в том, что можно както сократить путь, пройдя через лишнее измерение. Эту мысль можно следующим образом пояснить на рисунке. Представьте себе, что пространство, в котором мы живем, имеет только два измерения и искривлено, как поверхность бублика, или тора (рис. 10.7). Если вы находитесь в какой-то точке на внутренней стороне тора и хотите попасть в противоположную точку, вам придется обойти тор по внутреннему кольцу. А если бы вы умели перемещаться в третьем измерении, вы могли бы срезать, пойдя напрямик.

      Но почему же мы не замечаем все эти дополнительные измерения, если они действительно существуют?

      Почему мы видим только три пространственных и одно временное измерение? Возможно, причина кроется в том, что другие измерения свернуты в очень малое пространство размером порядка одной миллион миллион миллион миллион миллионной доли сантиметра. Оно так мало, что мы его просто не замечаем: мы видим всего лишь одно временное и три пространственных измерения, в которых пространство-время выглядит довольно плоским. То же самое происходит, когда мы смотрим па поверхность апельсина: вблизи она выглядит искривленной и неровной, а издали бугорки не видны и апельсин кажется гладким. Так же и пространство-время: в очень малых масштабах оно десятимерно и сильно искривлено, а в больших масштабах кривизна и дополнительные измерения не видны. Если это представление верно, то оно несет дурные вести будущим покорителям космоса: дополнительные измерения будут слишком малы для прохода космического корабля. Но возникает и другая серьезная проблема. Почему лишь некоторые, а не все вообще измерения должны свернуться в маленький шарик? На очень ранней стадии все измерения во Вселенной были, по-видимому, очень сильно искривлены. Почему же одно временное и три пространственных измерения развернулись, а все остальные остаются туго свернутыми?

 


 

      Один из возможных ответов дается антропным принципом. Двух пространственных измерений, по-видимому, недостаточно для того, чтобы могли развиться такие сложные существа, как мы. Живя, например, на одномерной Земле, двумерные животные, чтобы разойтись при встрече, были бы вынуждены перелезать друг через друга. Если бы двумерное существо питалось чем-нибудь таким, что не переваривается до конца, то остатки должны были бы выводиться по тому же пути, по которому входит пища, так как при наличии сквозного прохода через все тело животное оказалось бы разделенным на две отдельные половины, и наше двумерное существо развалилось бы на две части (рис. 10.8). Точно так же трудно представить себе, как у двумерного существа происходила бы циркуляция крови.

      Трудности возникали бы и в том случае, если бы число пространственных измерений было больше трех. Гравитационная сила между двумя телами быстрее возрастала бы с расстоянием, чем в трехмерном пространстве. (Когда расстояние удваивается, то в трех измерениях гравитационная сила уменьшается в четыре раза, в четырех измерениях ? в восемь раз, в пяти ? в шестнадцать раз и т. д.). Это значит, что орбиты планет, например, Земли, вращающихся вокруг Солнца, были бы нестабильны: малейшее отклонение от круговой орбиты (возникшее, допустим, изза гравитационного притяжения других планет) привело бы к тому, что Земля стала бы двигаться но спирали либо от Солнца, либо к Солнцу. Мы бы тогда либо замерзли, либо сгорели. На самом деле, если бы зависимость гравитационной силы от расстояния была одинаковой в пространствах с размерностью выше трех, то Солнце не могло бы существовать в стабильном состоянии, в котором сохраняется равновесие между давлением и гравитацией. Оно либо распалось бы на части, либо, сколлапсировав, превратилось в черную дыру. В обоих случаях от него уже было бы мало пользы как от источника тепла и света для поддержки жизни на Земле. На меньших масштабах электрические силы, под действием которых электроны обращаются в атоме вокруг ядра, вели бы себя так же, как гравитационные. Следовательно, электроны либо все вместе вылетели бы из атома, либо по спирали упали бы на ядро. В том и другом случае не существовало бы таких атомов, как сейчас.

      Тогда, казалось бы, очевидно, что жизнь, по крайней мере так, как мы ее себе представляем, может существовать лишь в таких областях пространства-времени, в которых одно временное и три пространственных измерения не очень сильно искривлены. Это означает, что мы имеем право призвать на помощь слабый антронный принцип, если сможем показать, что струнная теория по крайней мере допускает (а она, по-видимому, действительно допускает) существование во Вселенной областей указанного вида. Вполне могут существовать и другие области Вселенной или другие вселенные (что бы под этим ни подразумевалось), в которых либо все измерения сильно искривлены, либо распрямлено больше четырех измерений, но в подобных областях не будет разумных существ, которые могли бы увидеть это разнообразие действующих измерений.

      Кроме определения числа измерений, которыми обладает пространство-время, в теории струн есть еще и другие задачи, которые надо решить, прежде чем провозглашать теорию струн окончательной единой теорией физики. Мы пока не знаем, все ли бесконечности компенсируют друг друга, и не умеем точно находить соответствие между волнами на струне и определенными типами частиц, которые мы наблюдаем. Тем не менее ответы на эти вопросы будут, по-видимому, найдены в ближайшие несколько лет, и к концу века мы узнаем, является ли теория струн той долгожданной единой теорией физики.

      Но может ли единая теория реально существовать? Или мы просто гоняемся за миражом? Возможны, по-видимому, три варианта.

      1. Полная единая теория действительно существует, и мы ее когда-нибудь откроем, если постараемся.

      2. Окончательной теории Вселенной нет, а есть просто бесконечная последовательность теорий, которые дают все более и более точное описание Вселенной.

      3. Теории Вселенной не существует: события не могут быть предсказаны далее некоторого предела и происходят произвольным образом и беспорядочно.

      В пользу третьего варианта некоторые выдвигают тот довод, что существование полной системы законов ограничило бы свободу Бога, если бы он передумал и решил вмешаться в наш мир. Ситуация сродни старому доброму парадоксу: может ли Бог сотворить такой камень, который Он сам не смог бы поднять. Но мысль о том, что Бог может передумать,  ? это пример заблуждения, на которое указывал еще Блаженный Августин; оно возникает, если считать Бога существом, живущим во времени; время же ? свойство только Вселенной, которая создана Богом. Запуская Вселенную, Бог, вероятно, знал что делает!

      С появлением квантовой механики пришло понимание того, что событие невозможно предсказывать абсолютно точно и в любом предсказании всегда содержится некоторая доля неопределенности. При желании эту неопределенность можно было бы отнести на счет вмешательства Бога, но вмешательства, носящего очень странный характер: нет никаких свидетельств его хоть какой-нибудь целевой направленности. Разумеется, оказавшись направленным, оно по своему понятию не было бы случайным. В наш век мы практически исключили третий возможный вариант, предопределив цель, стоящую перед наукой: найти систему законов, которые давали бы возможность предсказывать события в пределах точности, устанавливаемой принципом неопределенности.

      Вторая возможность, связанная с существованием бесконечной последовательности все более и более точных теорий, пока целиком согласуется с нашим опытом. Во многих случаях мы повышали чувствительность аппаратуры или производили эксперименты нового типа лишь для того, чтобы открыть новые явления, которые еще не были предсказаны существующей теорией, и для их предсказания приходилось создавать новую, более сложную теорию. Поэтому не будет ничего особенно удивительного, если окажется неверным предсказание, сделанное в рамках современных теорий великого объединения, о том, что не должно быть никаких существенно новых явлений в промежутке от значения энергии электрослабого объединения 100 ГэВ до энергии великого объединения, равной примерно тысяче миллионов миллионов гигаэлектронвольт. На самом деле можно ожидать, что будут открыты какие-то новые слои структуры, более элементарные, чем кварки и электроны, которые мы сейчас считаем элементарными.

      Но гравитация может, по-видимому, наложить ограничение на эту последовательность вложенных одна в другую ?матрешек?. Если бы существовала частица, энергия которой превышала бы планковское значение ? десять миллионов миллионов миллионов (единица с девятнадцатью нулями) гигаэлектронвольт,  ? то ее масса была бы столь сильно сжата, что частица выдавилась бы из Вселенной, образовав черную дыру. Таким образом, последовательность все более точных теорий должна, по-видимому, иметь предел при переходе ко все более и более высоким энергиям, а потому при каких-то энергиях должна существовать окончательная теория Вселенной.

      Планковская энергия, конечно, отделена пропастью от энергий порядка сотни гигаэлектронвольт ? того максимума, который сейчас можно достичь в лаборатории, и с помощью ускорителей вряд ли удастся возвести мост через эту пропасть в обозримом будущем! Но столь высокие энергии могли возникнуть на очень ранних стадиях развития Вселенной. Мне кажется, что изучение ранней Вселенной и требования математической согласованности приведут к созданию полной единой теории, и произойдет это еще при жизни кого-то из нас, ныне живущих, если, конечно, мы до этого сами себя не взорвем.

      Что бы это означало, если бы нам действительно удалось открыть окончательную теорию Вселенной? Как уже говорилось в гл. 1, мы никогда не могли бы быть уверенными в том, что найденная теория действительно верна, потому что никакую теорию нельзя доказать. Но если открытая теория была бы математически непротиворечива и ее предсказания всегда совпадали с экспериментом, то мы могли бы не сомневаться в ее правильности. Этим завершилась бы длинная и удивительная глава в истории интеллектуальной борьбы человечества за познание Вселенной. Кроме того, открытие такой теории произвело бы революцию в представлениях обычных людей о законах, управляющих Вселенной. Во времена Ньютона образованный человек мог, по крайней мере в общих чертах, охватить весь объем знаний, которыми располагало человечество. Но с тех пор развитие науки происходит в таком темпе, что подобный охват стал невозможным. Теории непрерывно видоизменяются для согласования с результатами наблюдений, и никто не занимается переработкой и упрощением теорий для того, чтобы их могли понять неспециалисты. Даже будучи специалистом, можно надеяться понять лишь малую часть научных теорий. Кроме того, развитие идет так быстро, что все, чему учат в школе или университете, всегда немного устарелое. Лишь единицы могут двигаться вперед наравне с быстро растущим объемом информации. Им приходится посвящать этому все свое время и специализироваться лишь в какой-то узкой области. Остальные мало что знают о том, чего достигла наука и как это переживают ученые. Если верить Эддингтону, семьдесят лет назад лишь два человека понимали общую теорию относительности. Сейчас ее знают десятки тысяч выпускников университетов, а многие миллионы людей по крайней мере знакомы с лежащей в ее основе идеей. Если бы была открыта полная единая теория, то ее систематизация и упрощение, а потом и преподавание в школе, по крайней мере в общих чертах, оказались бы просто делом времени. Тогда все смогли бы получить некоторое представление о законах, управляющих Вселенной и ответственных за наше существование.

      Если нам действительно удастся открыть полную единую теорию, то это не будет означать, что мы сможем предсказывать события вообще. На то есть две причины. Во-первых, наши предсказательные возможности ограничены квантово-механическим принципом неопределенности, и с этим ничего не поделаешь. Правда, на практике второе ограничение сильнее первого. Второе ограничение связано с тем, что, если не считать очень простых случаев, мы не умеем находить точные решения уравнений, описывающих теорию. (Мы не в состоянии точно решить даже уравнения движения трех тел в ньютоновской теории гравитации, а с ростом числа тел и усложнением теории трудности еще более увеличиваются). Мы уже знаем те законы, которым подчиняется поведение вещества во всех условиях, кроме экстремальных. В частности, мы знаем самые важные законы, лежащие в основе химии и биологии. Тем не менее мы, конечно же, не причисляем эти науки к решенным проблемам; мы пока не добились почти никаких успехов в предсказании поведения человека на основе математических уравнений! Таким образом, если мы и найдем полную систему основных законов, перед нами на много лет вперед будет стоять вызовом нашему интеллекту задача разработки новых приближенных методов, с помощью которых мы могли бы успешно предсказывать возможные результаты в реальных сложных ситуациях. Полная, непротиворечивая единая теория ? это лишь первый шаг: наша цель ? полное понимание всего происходящего вокруг нас и нашего собственного существования.

11. Заключение

      Мы живем в удивительном мире. Нам хочется понять то, что мы видим вокруг, и спросить: каково происхождение Вселенной? какое место в ней занимаем мы, и откуда мы и она ? все это взялось? почему все происходит именно так, а не иначе?

      Для ответа на эти вопросы мы принимаем некую картину мира. Такой картиной может быть как башня из стоящих друг на друге черепах, несущих на себе плоскую Землю, так и теория суперструн. Обе они являются теориями Вселенной, но вторая значительно математичнее и точнее первой. Ни одна из этих теорий не подтверждена наблюдениями: никто никогда не видел гигантскую черепаху с нашей Землей на спине, но ведь и суперструну никто никогда не видел. Однако модель черепах нельзя назвать хорошей научной теорией, потому что она предсказывает возможность выпадения людей через край мира. Такая возможность не подтверждена экспериментально, разве что она окажется причиной предполагаемого исчезновения людей в Бермудском треугольнике!

      Самые первые попытки описания и объяснения Вселенной были основаны на представлении, что событиями и явлениями природы управляют духи, наделенные человеческими эмоциями и действующие совершенно как люди и абсолютно непредсказуемо.

      Эти духи населяли такие природные объекты, как реки, горы и небесные тела, например, Солнце и Луну. Полагалось задабривать их и добиваться их расположения, чтобы обеспечить плодородие почвы и смену времен года. Но постепенно люди должны были подметить определенные закономерности: Солнце всегда вставало на востоке и садилось на западе независимо от того, была или не была принесена жертва богу Солнца. Солнце, Луна и планеты ходили по небу вдоль совершенно определенных путей, которые можно было предсказать наперед с хорошей точностью. Солнце и Луна все же могли оказаться богами, но богами, которые подчиняются строгим, по-видимому, не допускающим исключений законам, если, конечно, отвлечься от россказней вроде легенды о том, как ради Иисуса Навина остановилось Солнце.

      Сначала закономерности и законы были обнаружены только в астрономии и еще в считанных случаях. Но по мере развития цивилизации, и особенно за последние триста лет, открывались все новые и новые закономерности и законы. Успешное применение этих законов в начале XIX в. привело Лапласа к доктрине научного детерминизма. Ее суть в том, что должна существовать система законов, точно определяющих, как будет развиваться Вселенная, по ее состоянию в один какой-нибудь момент времени.

      Лапласовский детерминизм был неполным но двум причинам. В нем ничего не говорилось о том, как следует выбирать законы, и никак не определялось начальное состояние Вселенной. И то и другое предоставлялось решать Богу. Бог должен был решить, каким быть началу Вселенной и каким законам ей подчиняться, но с возникновением Вселенной его вмешательство прекратилось. Практически Богу были оставлены лишь те области, которые были непонятны науке XIX в.

      Сейчас мы знаем, что мечты Лапласа о детерминизме нереальны, по крайней мере в том виде, как это понимал Лаплас. В силу квантово-механического принципа неопределенности некоторые пары величин, например, положение частицы и ее скорость, нельзя одновременно абсолютно точно предсказать.

      Квантовая механика в подобных ситуациях обращается к целому классу квантовых теорий, в которых частицы не имеют точно определенных положений и скоростей, а представляются в виде волн. Такие квантовые теории являются детерминистскими в том смысле, что они указывают закон изменения волн со временем. Поэтому, зная характеристики волны в один момент времени, мы можем рассчитать, какими они станут в любой другой момент времени. Элемент непредсказуемости и случайности возникает лишь при попытках интерпретации волны на основе представлений о положении и скорости частиц. Но в этом-то, возможно, и заключается наша ошибка: может быть, нет ни положений, ни скоростей частиц, а существуют одни только волны. И ошибка именно в том, что мы пытаемся втиснуть понятие волны в наши заскорузлые представления о положениях и скоростях, а возникающее несоответствие и есть причина кажущейся непредсказуемости.

      И вот мы поставили иную задачу перед наукой: найти законы, которые позволяли бы предсказывать события с точностью, допускаемой принципом неопределенности. Однако все равно остается без ответа вопрос: как и почему производился выбор законов и начального состояния Вселенной?

      В этой книге я особо выделил законы, которым подчиняется гравитация, потому что, хотя гравитационные силы самые слабые из существующих четырех типов сил, именно под действием гравитации формируется крупномасштабная структура Вселенной. Законы гравитации были несовместимы с еще недавно бытовавшей точкой зрения, что Вселенная не изменяется со временем: из того, что гравитационные силы всегда являются силами притяжения, вытекает, что Вселенная должна либо расширяться, либо сжиматься. Согласно общей теории относительности, в прошлом должно было существовать состояние с бесконечной плотностью ? большой взрыв, который и стал эффективно началом отсчета времени. Аналогичным образом, если вся Вселенная испытает повторный коллапс, то в будущем должно обнаружиться еще одно состояние с бесконечной плотностью ? большой хлопок, который станет концом течения времени. Даже если вторичный коллапс Вселенной не произойдет, во всех локализованных областях, из которых в результате коллапса образовались черные дыры, все равно возникнут сингулярности. Эти сингулярности будут концом времени для любого, кто упадет в черную дыру. В точке большого взрыва и в других сингулярностях нарушаются все законы, а поэтому за Богом сохраняется полная свобода в выборе того, что происходило в сингулярностях и каким было начало Вселенной.

      При объединении квантовой механики с общей теорией относительности возникает, по-видимому, новая, доселе неизвестная возможность: пространство и время могут вместе образовать конечное четырехмерное пространство, не имеющее сингулярностей и границ и напоминающее поверхность Земли, но с большим числом измерений. С помощью такого подхода удалось бы, наверное, объяснить многие из наблюдаемых свойств Вселенной, например, ее однородность в больших масштабах и одновременно отклонения от однородности, наблюдаемые в меньших масштабах, такие, как галактики, звезды и даже человеческие существа. С помощью этого подхода можно было бы объяснить даже существование наблюдаемой нами стрелы времени. Но если Вселенная полностью замкнута и не имеет ни сингулярностей, ни границ, то отсюда вытекают очень серьезные выводы о роли Бога как Создателя.

      Однажды Эйнштейн задал вопрос: ?Какой выбор был у Бога, когда он создавал Вселенную?? Если верно предположение об отсутствии границ, то у Бога вообще не было никакой свободы выбора начальных условий. Разумеется, у него еще оставалась свобода выбора законов, которым подчиняется Вселенная. Но их на самом деле не так уж много; существует, возможно, всего одна или несколько полных единых теорий, например, теория гетеротической струны, которые были бы непротиворечивы и допускали существование таких сложных структур, как человеческие существа, способных исследовать законы Вселенной и задавать вопросы о сущности Бога.

      Даже если возможна всего одна единая теория ? это просто набор правил и уравнений. Но что вдыхает жизнь в эти уравнения и создает Вселенную, которую они могли бы описывать? Обычный путь пауки ? построение математической модели ? не может привести к ответу на вопрос о том, почему должна существовать Вселенная, которую будет описывать построенная модель. Почему Вселенная идет на все хлопоты существования? Неужели единая теория так всесильна, что сама является причиной своей реализации? Или ей нужен создатель, а если нужен, то оказывает ли он еще какое-нибудь воздействие на Вселенную? И кто создал его?

      Пока большинство ученых слишком заняты развитием новых теорий, описывающих, что есть Вселенная, и им некогда спросить себя, почему она есть. Философы же, чья работа в том и состоит, чтобы задавать вопрос ?почему?, не могут угнаться за развитием научных теорий. В XVIII в. философы считали все человеческое знание, в том числе и науку, полем своей деятельности и занимались обсуждением вопросов типа: было ли у Вселенной начало? Но расчеты и математический аппарат науки XIX и XX вв. стали слишком сложны для философов и вообще для всех, кроме специалистов. Философы настолько сузили круг своих запросов, что самый известный философ нашего века Виттгенштейн по этому поводу сказал: ?Единственное, что еще остается философии,  ? это анализ языка?. Какое унижение для философии с ее великими традициями от Аристотеля до Канта!

      Но если мы действительно откроем полную теорию, то со временем ее основные принципы станут доступны пониманию каждого, а не только нескольким специалистам. И тогда все мы, философы, ученые и просто обычные люди, сможем принять участие в дискуссии о том, почему так произошло, что существуем мы и существует Вселенная. И если будет найден ответ на такой вопрос, это будет полным триумфом человеческого разума, ибо тогда нам станет понятен замысел Бога.

Великие физики

Альберт Эйнштейн

      Как был связан Эйнштейн с политикой, основанной на ядерном оружии, хорошо известно: он подписал знаменитое письмо к президенту Рузвельту, которое заставило Соединенные Штаты серьезно оценить положение, а после войны он включился в движение за предотвращение ядерной войны. Это не было отдельными эпизодами в жизни ученого, втянутого в политику. Жизнь Эйнштейна, но его собственным словам, ?делилась между политикой и уравнениями?.

      Ранняя политическая активность Эйнштейна возникла еще во время Первой мировой воины, когда он был профессором и Берлине. Убитый тем, что он считал напрасной потерей человеческих жизней, он примкнул к антивоенным демонстрациям. Его выступления в защиту гражданского неповиновения и публичное одобрение тех, кто отказывался от службы в армии, не могли снискать ему популярности среди коллег. После войны Эйнштейн направил свои усилия на примирение сторон и улучшение международных отношений. Такого рода деятельность тоже не способствовала популярности Эйнштейна и через некоторое время привела к тому, что ему стало трудно посещать Соединенные Штаты даже для чтений лекций.

      Вторым важнейшим делом в жизни Эйнштейна был сионизм (в то время это означало борьбу за государственное объединение евреев, поддержанное ООН, и в частности, СССР.  ? прим. ред.).

      Будучи сам евреем по происхождению, Эйнштейн отрицал библейскую идею Бога. Но нарастающая волна антисемитизма как перед Первой мировой войной, так и после нее постепенно привела Эйнштейна к отождествлению себя с еврейской общиной, и он превратился в полного сторонника сионизма. В который раз падение популярности не остановило Эйнштейна перед открытым высказыванием своих взглядов. Его теории преследовались; возникла даже антиэйнштейновская организация. Один человек был предан суду за подстрекательство к убийству Эйнштейна (и оштрафован всего на шесть долларов). Но Эйнштейн сохранял спокойствие, а когда вышла книга ?Сто авторов против Эйнштейна?, он заметил: ?Хватило бы и одного, если я был бы неправ!?

      В 1933 г. к власти пришел Гитлер. Эйнштейн, который был в это время в Америке, заявил, что не вернется в Германию. Когда нацистские войска окружили его дом, а его банковский счет был конфискован, в одной из берлинских газет появился заголовок: ?Хорошие новости ? Эйнштейн не вернется?. Перед лицом нацистской угрозы Эйнштейн отошел от пацифизма и в конце концов, опасаясь того, что немецкие ученые создадут атомную бомбу, предложил Соединенным Штатам разрабатывать свою собственную бомбу. Но еще до взрыва первой атомной бомбы он публично предупреждал об опасностях ядерной войны и предлагал создать международный контроль за ядерными вооружениями.

      На протяжении всей жизни Эйнштейна его миротворческие усилия не давали, по-видимому, прочных результатов и уж во всяком случае не прибавляли ему друзей. Однако публичные выступления Эйнштейна в защиту сионизма были по достоинству оценены в 1952 г., когда ему было предложено стать президентом Израиля. Эйнштейн отказался, заявив, что, пo его мнению, он слишком наивен в политике. Но действительной причиной отказа, наверное, была другая. Процитируем его еще раз: ?Для меня важнее уравнения, потому что политика нужна настоящему, а уравнения ? это для вечности?.

 

Галилео Галилей

      Галилей, пожалуй, больше, чем кто-либо другой из отдельных людей, ответствен за рождение современной науки. Знаменитый спор с Католической Церковью занимал центральное место в философии Галилея, ибо он одним из первых объявил, что у человека есть надежда понять, как устроен мир, и, более того, что этого можно добиться, наблюдая наш реальный мир.

      Галилей с самого начала верил в теорию Коперника (о том, что планеты обращаются вокруг Солнца), но начал ее публично поддерживать лишь тогда, когда нашел ее подтверждения. Работы, посвященные теории Коперника, Галилей писал по-итальянски (а не на принятой академической латыни), и вскоре его представления распространились далеко за пределы университетов. Это не поправилось приверженцам учения Аристотеля, которые объединились против Галилея, пытаясь заставить Католическую Церковь предать анафеме учение Коперника.

      Взволнованный происходящим, Галилей отправился в Рим, чтобы посоветоваться с церковными авторитетами. Он заявил, что в цели Библии не входит какое бы то ни было освещение научных теорий и что надо принимать за аллегорию те места в Библии, которые вступают в противоречие со здравым смыслом. Но, боясь скандала, который мог помешать ее борьбе с протестантами, Церковь перешла к репрессивным мерам. В 1616 г. учение Коперника было провозглашено ?ложным и ошибочным?, а Галилею было навеки запрещено выступать в защиту или придерживаться этой доктрины. Галилей сдался.

      В 1623 г. один из старых друзей Галилея стал Римским Папой. Галилей сразу начал добиваться отмены указа 1616 г. Он потерпел неудачу, но зато сумел получить разрешение написать книгу, обсуждающую как теорию Аристотеля, так и теорию Коперника. Ему было поставлено два условия: он не имел права принимать ни одну из сторон и должен был сделать вывод, что человек никогда не сможет узнать, как устроен мир, потому что Бог умеет вызывать одни и те же эффекты способами, не доступными воображению человека, который не может налагать ограничения на всемогущество Бога.

      Книга Галилея ?Диалог о двух главнейших системах мира? была завершена и издана в 1632 г. при полном одобрении цензуры и была сразу же отмечена по всей Европе как литературный и философский шедевр. Вскоре, однако, Папа понял, что эта книга воспринимается как убедительная поддержка теории Коперника, и пожалел, что разрешил ее издать. Папа заявил, что, несмотря на официальное благословение цензуры, Галилей все же нарушил указ 1616 г. Галилей предстал перед судом инквизиции и был приговорен к пожизненному домашнему аресту и публичному отречению от учения Коперника. Галилею пришлось покориться опять.

      Оставаясь преданным католиком, Галилей не поколебался в своей вере в независимость науки. За четыре года до смерти, в 1642 г., находясь все еще под домашним арестом, он тайно переправил в голландское издательство рукопись своей второй крупной книги ?Две новые науки?. Именно эта работа, в большей степени, чем его поддержка Коперника, дала рождение современной науке.

 

Исаак Ньютон

      Исаака Ньютона нельзя назвать симпатичным человеком. Широкую известность получили его плохие отношения с другими учеными, и последние годы своей жизни он провел в основном в резких спорах. После издания книги ?Математические начала?, оказавшейся, безусловно, самой влиятельной из всех когда-либо написанных книг по физике, Ньютон быстро приобрел общественное положение. Он был назначен президентом Королевского общества и стал первым ученым, посвященным в рыцарское звание.

      Вскоре Ньютон поссорился с королевским астрономом Джоном Флэмстидом, который раньше снабжал Ньютона данными для ?Математических начал?, а теперь задерживал информацию, которая требовалась Ньютону. Ньютон не потерпел такого положения и сам включил себя в руководство королевской обсерватории, а затем начал добиваться немедленной публикации результатов. В конце концов ему удалось заполучить работу Флэмстида и договориться о ее издании со смертельным врагом Флэмстида Эдмондом Галлеем. Однако Флэмстид передал дело в суд, и суд успел принять решение в его пользу, запретив распространение украденной работы. Ньютона разозлило такое решение, и, чтобы отомстить Флэмстиду, он систематически снимал в более поздних изданиях ?Начал? все ссылки на работы Флэмстида.

      Более серьезный спор разгорелся у Ньютона с немецким философом Готтфридом Лейбницем. Лейбниц и Ньютон независимо друг от друга развили область математики, называемую дифференциальным исчислением, составляющую основу большей части современной физики. Хотя, как мы теперь знаем, Ньютон открыл это исчисление на несколько лет раньше Лейбница, свою работу он опубликовал значительно позже. Возник грандиозный спор по поводу того, кто же был первым. Ученые рьяно защищали обоих соперников. Замечательно, что почти все статьи в защиту Ньютона были написаны им самим и лишь опубликованы под именами его друзей! Спор разгорался, и тут Лейбниц совершил ошибку, обратившись в Королевское общество с просьбой разрешить противоречие. Ньютон, будучи президентом общества, назначил для разбора дела ?незаинтересованную? комиссию, ?случайно? составленную целиком из друзей Ньютона! Но это было еще не все: затем Ньютон сам написал отчет комиссии и заставил общество его опубликовать, официально обвинив таким образом Лейбница в плагиате. Все еще не чувствуя себя удовлетворенным, Ньютон анонимно опубликовал сжатый пересказ этого отчета в газете Королевского общества. Говорят, что после смерти Лейбница Ньютон заявил, что oн получил большое удовлетворение от того, что ему удалось ?разбить сердце Лейбница?.

      Пока шли оба диспута, Ньютон покинул и Кембридж, и кафедру. Он принимал активное участие в антикатолическом движении сначала в Кембриджском университете, а затем в парламенте и был вознагражден за это назначением на доходную должность хранителя Королевского монетного двора. Здесь он нашел более социально оправданное применение своему коварству и желчности, успешно проведя широкомасштабную кампанию по борьбе с фальшивомонетчиками и даже отправив нескольких человек на виселицу.

Словарь терминов

      Абсолютный нуль температуры ? самое низкое из всех возможных значений температуры. При абсолютном нуле вещество не обладает тепловой энергией.

      Аннигиляция ? процесс, при котором частица и ее античастица, сталкиваясь, взаимно уничтожают друг друга.

      Античастица ? у каждой частицы материи есть соответствующая античастица. При соударении частицы и античастицы происходит их аннигиляция, в результате которой выделяется энергия и рождаются другие частицы.

      Антропный принцип ? мы видим Вселенную такой, как она есть, потому что, будь она другой, нас бы здесь не было и мы бы не могли ее наблюдать.

      Атом ? наименьшая частица обычного вещества. Атом состоит из крошечного ядра (составленного из протонов и нейтронов) и обращающихся вокруг него электронов.

      Белый карлик ? стабильная холодная звезда, находящаяся в равновесии благодаря тому, что в силу принципа исключения Паули между электронами действуют силы отталкивания.

      Большой взрыв ? сингулярность в момент возникновения Вселенной.

      Большой хлопок ? сингулярность в конечной точке существования Вселенной.

      Вес ? сила, с которой на тело действует гравитационное поле. Вес тела пропорционален массе тела, но не совпадает с ней.

      Виртуальная частица ? в квантовой механике ? частица которую невозможно зарегистрировать непосредственно, но существование которой подтверждается эффектами, поддающимися измерению.

      Гамма-излучение ? электромагнитное излучение с очень малой длиной волны, испускаемое при радиоактивном распаде или при соударениях элементарных частиц.

      Геодезическая ~ самый короткий (или самый длинный) путь между двумя точками.

      Голая сингулярность ? сингулярность в пространстве-времени, не находящаяся внутри черной дыры.

      Горизонт событий ? граница черной дыры.

      Гравитационное взаимодействие ? самое слабое из четырех фундаментальных взаимодействий, обладающее большим радиусом действия. В гравитационном взаимодействии участвуют все частицы материи.

      Длина волны ? расстояние между двумя соседними гребнями волны или между двумя ее соседними впадинами.

      Закон сохранения энергии ? закон науки, согласно которому энергия (или ее массовый эквивалент) не может ни создаваться, ни уничтожаться.

      Квант ? минимальная порция, которой измеряется испускание или поглощение волн.

      Квантовая механика ? теория, разработанная на основе квантово-механического принципа Планка и принципа неопределенности Гейзенберга.

      Квантово-механический принцип Планка (закон излучения Планка) ? состоит в том, что свет (или любые другие классические волны) может испускаться или поглощаться только дискретными порциями ? квантами ? с энергией, пропорциональной их частоте.

      Кварк ? элементарная (заряженная) частица, участвующая в сильном взаимодействии. Протоны и нейтроны состоят каждый из трех кварков.

      Конфайнмент ? невылетание, удержание цветных кварков и глюонов внутри адронов.

      Координаты ? числа, определяющие положение точки в пространстве и во времени.

      Космическая цензура ? предположение о недопустимости голых сингулярностей.

      Космологическая постоянная ? математическая вспомогательная величина, введенная Эйнштейном для того, чтобы пространство-время приобрело тенденцию к расширению.

      Космология ? наука, занимающаяся изучением Вселенной как целого.

      Красное смещение ? вызванное эффектом Доплера покраснение света, испускаемого удаляющейся от нас звездой.

      Магнитное поле ? поле, создающее магнитные силы. Сейчас магнитное поле и электрическое поле объединяются в электромагнитное поле.

      Масса ? количество вещества, содержащееся в теле. Мера инерции тела или степень его сопротивления ускорению.

      Мнимое время ? время, измеряемое в мнимых единицах.

      Нейтрино ? легчайшая (возможно, безмассовая) элементарная частица вещества, участвующая только в слабых и гравитационных взаимодействиях.

      Нейтрон ? незаряженная частица, очень близкая по свойствам к протону. Нейтроны составляют более половины частиц, входящих в состав большинства атомных ядер.

      Нейтронная звезда ? холодная звезда, существующая вследствие отталкивания нейтронов, обусловленного принципом Паули.

      Общая теория относительности ? созданная Эйнштейном теория, в основе которой лежит предположение о том, что законы науки должны быть одинаковы для всех наблюдателей независимо от того, как движутся эти наблюдатели. В ОТО существование гравитационного взаимодействия объясняется искривлением четырехмерного пространства-времени.

      Первичная черная дыра ? черная дыра, возникшая на очень ранней стадии развития Вселенной.

      Позитрон ? античастица (положительно заряженная) электрона.

      Поле ? нечто, существующее во всех точках пространства и времени, в отличие от частицы, которая существует только в одной точке в каждый момент времени.

      Предел Чандрасекара ? максимально возможная масса стабильной холодной звезды, выше которой звезда должна сколлапсировать в черную дыру.

      Принцип исключения Паули ? две одинаковые частицы со спином 1/2 не могут (в пределах, которые даются принципом неопределенности) обладать одновременно и одинаковыми положениями в пространстве, и равными скоростями.

      Пропорциональность ? утверждение ?X пропорционально Y? означает, что при умножении Y на какое-нибудь число Х умножается на это же число. Утверждение ?Х обратно пропорционально Y? означает, что при умножении Y на какое-нибудь число X делится на это же число.

      Пространственное измерение ? любое из трех пространственно-подобных измерений пространства-времени, т.е. любое измерение, кроме временного.

      Пространство-время ? четырехмерное пространство, точки которого отвечают событиям.

      Протон ? положительно заряженная частица. Протоны образуют примерно половину всех частиц, входящих в состав ядер большинства атомов.

      Радиоактивность ? самопроизвольное превращение одного атомного ядра в другое.

      Световая секунда (световой год) ? расстояние, проходимое светом за одну секунду (за один год).

      Световой конус ? поверхность в пространстве-времени, которая ограничивает возможные направления световых лучей, проходящих через данное событие.

      Сильное взаимодействие ? самое сильное и самое короткодействующее из четырех фундаментальных взаимодействий. Благодаря сильному взаимодействию кварки удерживаются внутри протонов и нейтронов, а протоны и нейтроны, собравшись вместе, образуют атомные ядра.

      Сингулярность ? точка пространства-времени, в которой кривизна его становится бесконечной.

      Слабое взаимодействие ? второе по слабости из четырех известных взаимодействий. Обладает очень коротким радиусом действия. В слабом взаимодействии принимают участие все частицы материи, но в нем не участвуют частицы ? переносчики взаимодействия.

      Событие ? точка в пространстве-времени, которая определяется положением в пространстве и во времени.

      Спектр ? расщепление волны (например, электромагнитной) на частотные компоненты.

      Специальная теория относительности ? теория Эйнштейна, отправная точка которой состоит в том, что законы науки должны быть одинаковы для всех свободно движущихся наблюдателей независимо от их скоростей.

      Спин (spin ? вращаться, вертеться) ? внутреннее свойство частицы, связанное с ее вращением вокруг собственной оси.

      Стационарное состояние ? состояние, не изменяющееся со временем: вращающийся с постоянной скоростью шар находится в стационарном состоянии, потому что, несмотря на вращение, в каждый момент он выглядит одинаково.

      Теорема о сингулярности ? теорема, в которой доказывается, что при определенных условиях сингулярность должна существовать и что, в частности, началом Вселенной должна быть сингулярность.

      Теория великого объединения ? теория, объединяющая электромагнитные, сильные и слабые взаимодействия.

      Ускорение ? скорость изменения скорости какого-либо объекта.

      Ускоритель частиц ? устройство, которое с помощью электромагнитов дает возможность ускорять движущиеся заряженные частицы, постоянно увеличивая их энергию.

      Условие отсутствия границ ? представление, согласно которому Вселенная конечна, но не имеет границ (в мнимом времени).

      Фаза ? для волны ? положение точки в цикле в определенный момент времени: мера того, находится ли точка на гребне, во впадине или где-нибудь в промежутке.

      Фон микроволнового излучения ? излучение, возникшее при свечении горячей ранней Вселенной (называется реликтовым). Оно сейчас испытывает такое сильное красное смещение, что регистрируется не в виде света, а в виде волн микроволнового диапазона (радиоволны с сантиметровыми длинами волн).

      Фотон ? квант света.

      Частично-волновой дуализм ? лежащее в основе квантовой механики представление о том, что не существует различия между частицами и волнами, частицы могут иногда вести себя как волны, а волны ? как частицы.

      Частота ? для волны это число полных циклов в секунду.

     Черенковское излучение ? излучение света заряженной частицей при ее движении в веществе с постоянной скоростью, превышающей скорость распространения света в этом веществе.

      Черная дыра ? область пространства-времени, из которой ничто, даже свет, не может выбраться наружу, потому что в ней чрезвычайно сильно действие гравитации.

      Электрический заряд ? свойство частицы, благодаря которому она отталкивает (или притягивает) другие частицы, имеющие заряд того же (или противоположного) знака.

      Электромагнитное взаимодействие ? взаимодействие, которое возникает между частицами, обладающими электрическим зарядом. Второе по силе из четырех фундаментальных взаимодействий.

      Электрон ? частица, обладающая отрицательным электрическим зарядом и обращающаяся в атоме вокруг ядра.

      Элементарная частица ? частица, которая считается неделимой.

      Энергия теории великого объединения ? энергия, выше которой электромагнитные, слабые и сильные взаимодействия предположительно должны стать неразличимыми.

      Энергия электрослабой теории ? энергия (около 100 ГэВ), выше которой исчезают различия между электромагнитными и слабыми взаимодействиями.

      Эффект Доплера ? изменение частоты волн при движении их источника и наблюдателя относительно дpyг друга.

      Ядерный синтез ? процесс соударения двух ядер и последующего их слияния в одно более тяжелое ядро.

      Ядро ? центральная часть атома, которая состоит только из протонов и нейтронов, удерживаемых в ядре сильным взаимодействием.

Послесловие

      Книга С. Хокинга вышла одновременно в Канаде и США в апреле 1988 г. В мае появился в продаже ее итальянский перевод. В Англии дата была объявлена заранее ? 18 июня. К этому времени уже появились первые рецензии. Так, читатели американского еженедельника ?Newsweek? 13 июня были оповещены, что ?прикованный к инвалидному креслу, лишенный даже дара речи, физик Стивен Хокинг ищет теорию великого объединения, которая объяснит Вселенную??

      А в конце июня Хокинг приехал в Ленинград на конференцию, посвященную 100-летию со дня рождения А. А. Фридмана, и привез свою новую книгу, один из экземпляров которой подарил мне.

      В Ленинграде Хокинг проявлял необычайную активность ? выступил с докладом, участвовал в дискуссии, прочел лекцию в Доме ученых, дал короткое интервью для журнала ?Природа?. При этом Хокинг не говорил: за него четким, но лишенным человеческой теплоты голосом говорил синтезатор речи. То, что он произносил, Хокинг набирал на дисплее маленького компьютера, прикрепленного к его инвалидной коляске. Активность Хокинга вне физики была столь же поразительна. Он совершал экскурсии по городу, ездил в своем кресле по Эрмитажу, общался с друзьями. И старался впитать в себя все, что его окружало.

      Хокинг много путешествует, не раз он приезжал в нашу страну и обрел здесь друзей. Вся его жизнь ? необычайный пример того, как много может сотворить мозг, даже тогда, когда каналы его связи с внешним миром сведены до минимума.

      Книга Хокинга необыкновенная, ее тема ? рассказ о выборе цели его жизни и о трудном пути ее достижения, рассказ о поисках решения самой большой загадки, которая стоит перед естествоиспытателем. ?Моя цель ? добиться полного понимания Вселенной, почему она такая, какая она есть, и почему она вообще существует?,  ? пишет он о своих исканиях.

      Такие вопросы человек задавал себе давно. Варианты ответов есть в мифах почти всех народов. Может быть, и рассуждения ученых нашего века также когда-нибудь будут считать легендами. У новых мифов есть авторы, один из них Хокинг. Его жизнь уже сейчас представляется легендой. Это легенда о человеке, силой мысли побеждающем немощь.

      Хокингу сейчас 48 лет. В начале 60-х годов, когда он уже кончал университет в Оксфорде, появились первые признаки грозной болезни ? бокового амиотрофического склероза. Настроение становилось мрачным, да и научные успехи были в это время не слишком впечатляющими. Д. Сиама, известный физик, руководитель его дипломной работы, заметил, что ?вокруг оказалось не так уж много проблем, достойных человека с такими способностями?. К счастью, проблема все же нашлась ? это была теория черных дыр, которую Хокинг увидел в новом свете после появления работы Р. Пенроуза об особенностях уравнений тяготения.

      В это время изменилась и личная жизнь Хокинга. В 1965 г. он женился на студентке-филологе Джейн Уайлд (ей он посвятил эту книгу). У них есть дочь и два сына.

      1985 год принес новое несчастье. После операции на горле Хокинг потерял способность говорить. На помощь приходят друзья, и одна калифорнийская фирма преподносит ему коммуникационную систему компьютер + синтезатор. Об этом Хокинг сам рассказывает во введении к книге, желая выразить благодарность тем, кто помогает ему жить. ?Эта система изменила все: мне даже стало легче общаться, чем до того, как я потерял голос?,  ? пишет он.

      Существование в таких условиях требует не только воли к жизни, но и чувства юмора. Хокинг рассказывает много истории. Так, занимаясь черными дырами, но не имея пока наблюдательного доказательства их существования, Хокинг заключает пари с Торном. Условия пари подчинялись изысканной логике. Хокинг, веря, что во Вселенной должно быть много черных дыр, делает ставку против их существования. Если дыр не окажется, то в качестве компенсации за потерю смысла главной своей работы он получает четырехлетнюю подписку на английский юмористический журнал ?Private Eye?. Если же черные дыры есть, Торн получает годовую подписку на ?Penthouse?, а Хокинг (вполне вероятно) Нобелевскую премию.

      Сейчас Хокинг ? профессор Кембриджского университета. Он занимает кафедру, которую когда-то занимал Ньютон, а в наше время ? Дирак. С 1974 г. Хокинг член Лондонского Королевского общества.

      Чтобы начать, наконец, разговор о книге, полезно привести слова астронома К. Сагана, написавшего предисловие: ?Книга о Боге? а может быть, об отсутствии Бога?. Слово Бог повторяется часто. Хокинг отправляется на поиски ответа на знаменитый вопрос Эйнштейна, был ли у Бога какой-нибудь выбор, когда он создавал Вселенную. Хокинг стремится ? он говорит об этом прямо ? понять замысел Бога. Поиски приводят к неожиданному заключению, может быть, не окончательному: ??Вселенная без края в пространстве, без начала и конца во времени, без каких-либо дел для Создателя?. Рассуждения о Боге, конечно, не новы. Вспомним Лапласа, который будто бы ответил Наполеону, что не нуждается в этой гипотезе.

      Постепенно раскрывающаяся история Вселенной всегда изумляла естествоиспытателей. Эйнштейн выразил это в своей обычной парадоксальной форме: ?Когда я рассуждаю о физической теории, я спрашиваю себя, создавал ли бы я Вселенную таким же путем, если бы Богом был я?? Его вечный оппонент Нильс Бор ответил так: ?Это совсем не наше дело предписывать Богу, каким образом он должен управлять миром?.

      Вопрос так и остается без ответа: случайно ли история Вселенной оказалась такой, какой она постепенно раскрывается перед человеком? Возможно ли, чтобы история была другой, или история определяется однозначно из принципов, которых мы еще не знаем? И наконец, ?еще не знаем? или мы и не можем их узнать, ибо ответ может лежать за пределами познания человека. И все же чем глубже в прошлое и чем дальше в будущее проникает наука, тем меньше дела остается для мифических сил.

      После того как гипотеза о рождении Вселенной в большом взрыве превратилась в почти общепринятую, вопрос о том, что было до рождения Вселенной, стал как бы незаконным. В этом смысле наука приблизилась ко многим мифам, в том числе и к библейскому варианту создания Вселенной. Поразительным было воображение древних, создававших мифы.

      Прочитаем в первой главе Библии: ?И назвал Бог свет днем, а тьму ночью. И был вечер, и было утро: день один?. Иногда переводят: ?день первый?. Это неверно. Комментаторы канонического текста считают, что не могло быть сказано ?день первый?, так как не было последующего. По-видимому, идея, что время также должно было быть создано, занимала авторов Библии. Не только создание времени, но и конец времени представлялся в осмысленном понятии. В заключительной книге Библии, откровении Иоанна (10:6), ангел, объявляя о грядущем конце мира, говорит: ??и времени уже не будет?.

      Проблема времени привлекала внимание и христианских философов раннего Средневековья. В ?Исповеди? Блаженного Августина мы читаем: ?Если же раньше неба и земли не было времени, зачем спрашивать, что Ты делал тогда. Когда не было времени, не было и тогда?.

      Наш век требует, чтобы мифы обрели математическое обличие. Это свершилось в Ленинграде, когда появилась работа А. А. Фридмана. Вселенная Фридмана начинается с ?особенности? ? мировой точки, в которой обращается в бесконечность кривизна, а с нею и плотность вещества. В этой точке теряют свою силу физические законы, и, оставаясь в рамках обычной модели Вселенной Фридмана, нельзя понять, что происходило в самом начале времени, как возник большой взрыв.

      Это утверждение правильно, и физики не ошиблись, считая, что не имеет смысла сам вопрос о продолжении координаты времени за ?особенность?. Действительно, проблему нельзя даже сформулировать аккуратно на языке математики, если оставаться в рамках классической теории тяготения Эйнштейна. Доказано, что в этих рамках не существует решений уравнений общей теории относительности ? уравнений Эйнштейна ? Гильберта, которые бы не имели ?особенностей?.

      ?Особенности? появляются не только для всей Вселенной, но и для звезд, масса которых столь велика, что вещество не может преодолеть собственного гравитационного поля и падает к ее центру так, что поверхность звезды стягивается в конце концов в математическую точку ? сингулярность. Происходит коллапс звезды, ее ?схлопывание?. Такая звезда и есть черная дыра, привлекшая внимание Хокинга.

      Проблемой сингулярности занимался Р. Пенроуз, который показал, что начавшийся коллапс звезды не может прекратиться. Хокинг пишет, что он очень обрадовался новым идеям, считая их достойными развития. Его подстегивали  и личные обстоятельства. Прогнозы врачей были мрачными.

      Работа над докторской степенью казалась бессмысленной. Но прошло два года, и ухудшения не наступило. ?Напротив,  ? говорит Хокинг,  ? дела мои пошли замечательно. Я стал женихом очаровательной девушки Джейн Уайлд. Но чтобы жениться, нужна была работа, для получения работы нужна была докторская степень. А тут подвернулась хорошая тема?.

      Хокинг увидел, что между задачей о черной дыре и задачей о большом взрыве есть большое сходство. Если черная дыра кончает свое существование в сингулярности, то, повернув в ее истории время, мы получим модель Вселенной, которая в сингулярности рождается. Это подтвердило старые предположения, и в 1970 г. Хокинг с Пенроузом опубликовали работу с доказательством того, что расширяющаяся Вселенная должна начать свою историю в сингулярности.

      Между черной дырой и Вселенной есть принципиальная разница. Точнее, есть различие между положением наблюдателя в одном и другом случае. Коллапс черной дыры мы наблюдаем снаружи, и теория говорит, что для наблюдателя, покоящегося на бесконечности, т. е. в области, где гравитационное поле черной дыры сколь угодно мало, время полного коллапса, время достижения сингулярности, бесконечно велико. Строго говоря, наблюдатель никогда не увидит конца эволюции черной дыры. Во Вселенной наблюдатели находятся внутри, они разбегаются вместе с галактиками, и их возраст (считая от большого взрыва) конечен.

      Но у обоих объектов есть общая черта: процесс коллапса и расширения Вселенной необратимы. Если необратимость расширения Вселенной представляется естественной (диссипативные процессы сопровождают эволюцию), то необратимость коллапса ? теорема Пекроуза-Хокинга ? не столь понятна. Диссипативные процессы приводят к необратимости, к росту энтропии системы. Но можно ли приписать энтропию черной дыре? Как в детективной истории, Хокинг находит улику, она лежала почти на виду.

      Когда вещество или излучение падает на черную дыру, площадь ее поверхности может только увеличиваться. Радиус черной дыры пропорционален ее массе, а поверхность ? квадрату массы. Когда масса растет, растет и поверхность. Далее Хокинг замечает, что если две черные дыры сливаются в одну, то поверхность новой дыры становится больше, чем суммарная поверхность двух исходных. Можно отметить и очевидный факт. Если при коллапсе на черную дыру ничего не падает, т. е. поверхность (ее называют горизонтом) остается постоянной ? поверхность определяется только массой.

      Следующий шаг делает американец Дж. Бикенстин. Он высказывает смелое предположение, что для черной дыры можно ввести понятие энтропии и что энтропия черной дыры пропорциональна ее поверхности. Поверхность растет (или остается постоянной) со временем, хорошо имитируя поведение энтропии. Гипотеза, которая выглядела довольно сомнительной, в работе Хокинга превратилась в строгую теорему. Как выяснилось, она следовала из законов квантовой механики и общей теории относительности.

      Открытие Хокинга повлекло за собой цепочку новых утверждений. Если у черной дыры есть энтропия, то должна быть и температура. Термодинамика позволяет вычислить, что если энтропия определяется квадратом энергии и не зависит, например, еще и от объема, то температура должна быть обратно пропорциональна энергии (или массе) черной дыры.

      Немного подумав, можно понять, что такое заключение не очень согласуется с исходным представлением о черной дыре. Тело, падающее на черную дыру, описывается уравнениями механики (конечно, механики ОТО), и для энтропии в таком описании нет места. Но уравнения механики обратимы во времени, а звезда коллапсирует необратимо. В теории должны были появиться энтропия и температура. Но дальше предъявляет свои обязательные требования термодинамика. Всякое тело, имеющее температуру, должно излучать по закону Стефана-Больцмана (со спектром Планка). Значит, вопреки всему сказанному о безвозвратности коллапса и невозможности ничему вырваться из гравитационного поля, черная дыра излучает, и интенсивность излучения растет, как четвертая степень ее температуры. ?Черные дыры не так уж черны? ? так названа седьмая глава книги.

      В чем физическая природа этого излучения? Было ясно, что ответ на новый вопрос нельзя искать в теории Эйнштейна и надо привлекать вторую королеву физики нашего века ? квантовую механику. Конечно, вторжение квантовой механики было не так уж неожиданно. Уже в формуле для энтропии Бикенстина возникла трудность с размерностью коэффициента, обращающего площадь в безразмерную энтропию. Единственной величиной, с помощью которой разумно ?обезразмерить? площадь, был квадрат планковской длины, равной 10-33 см и составленной из постоянной Планка и постоянной тяготения. Не вовлекая в игру постоянную Планка, написать формулу для энтропии не удается.

      Первый вариант решения был предложен Я. Б. Зельдовичем и А. А. Старобинским: если черная дыра вращается, она должна излучать. Хокинг исследовал эту идею подробно после того, как авторы рассказали ему о ней в 1973 г. (Хороший пример того, как быстро и четко резонирует Хокинг на новые идеи). Выяснилось, что для излучения звезде не обязательно вращаться: излучает вакуум, в который она погружена. Это почти мистическое свойство вакуума ? пространства, в котором ничего нет. Но в квантовой механике ?даже если ничего нет, что-то происходит?, как заметил кто-то из физиков.

      В ?пустом? вакууме есть поля, и хотя величины полей, например магнитного, равны в среднем нулю, их квадраты (или абсолютные значения) в нуль не обращаются даже в среднем (хотя бы потому, что они всегда положительны). Вблизи черной дыры такие флуктуации рождают пары. Масса таких пар почти равна нулю, так как большой (отрицательный) гравитационный потенциал практически компенсирует массу свободных электрона и позитрона.

      У компонентов родившейся пары разные судьбы. Одна из частиц ?проваливается? в черную дыру и перестает существовать для нас. Но частица не зря отдала свою жизнь. Ее энергия передалась второй частице и дала ей возможность вырваться из гравитационного плена. Это и есть излучение Хокинга. Вычисление спектра излучения привело к формуле Планка. Так было опровергнуто мнение, что черные дыры бессмертны. Правда, излучение существенно сокращает жизнь только маленькой черной дыры, черная дыра с радиусом протона (10Е-13 см), возникшая в процессе большого взрыва, не дожила бы до нашего времени. Но продолжительность жизни черной дыры растет, как куб ее радиуса. Для черной дыры с радиусом 3 км (гравитационный радиус Солнца) продолжительность жизни столь велика, что не стоит ее и подсчитывать.

      Но тем не менее черной дыре предстоит исчезнуть. Как это произойдет, наука не знает. Можно лишь сказать, что конечных состояний может быть очень много, и предсказать, как погибнет черная дыра, никто сейчас не в состоянии. Как нельзя предсказать, на какие куски разобьется бутылка, упавшая на камень.

      О черных дырах написано много, и мы можем не продолжать. Но прежде чем оставить эту тему, хотелось бы досказать историю, которую Хокинг упоминает в книге.

      Первый раз речь о черной дыре завел в 1783 г. англичанин Дж. Мичелл, который написал, что если бы тело с плотностью, равной плотности Солнца, имело радиус в 500 раз меньший, то свет, излученный таким телом, должен вернуться обратно из-за собственной тяжести. Мичелл размышлял об этом не просто так. Ему очень хотелось найти способ измерения массы дальних звезд. Для него свет состоял из корпускул, которые, преодолевая гравитационное поле звезды (определяемое ее массой), теряют свою скорость. Именно так он и пришел к своему выводу. Но для него более важным было следствие обнаруженного им явления: чтобы определить массу звезды, надо измерить на Земле скорость света, приходящего к нам от этой звезды.

      Сегодня мы понимаем, что измерять надо не изменение скорости света, а изменение его частоты ? красное смещение. Но для своего времени идея была красивая.

      Размышление о конце черной дыры с неизбежностью приводит к выводу, что без квантовой механики не обойтись. С такими сомнениями и результатами Хокинг в 1981 г. вернулся к попытке объяснить начало Вселенной. Но его занимают не математические вычисления (в уме их делать нелегко), а поиски самых глубоких истин.

      Как установились начальные условия, приведшие к Вселенной, которую мы видим и в которой оказались сами? ?Один возможный ответ ? это сказать, что Бог выбрал начальную конфигурацию Вселенной из соображений, понять которые нам не дано? Но почему, выбрав такое странное начало, он все же решил, чтобы Вселенная развивалась по понятным нам законам?? Поскольку же эти законы понятны, то ?естественно предположить, что этот порядок относится не только к законам науки, но и к условиям на границе пространства-времени, которые определяют исходное состояние Вселенной?.

      Так Хокинг вступает в спор с Богом, отнимая у него роль Создателя. Идея Хокинга носит еще достаточно смутный характер. В книге он совсем не пишет формул ? издатель предупредил его, что одна-единственная формула уполовинит тираж (формула Е = mс^2 все же приводится, но это не помешало книге стать бестселлером). И свою новую идею Хокинг пытается объяснить словами. Кажется, все же в его мозгу есть более четкая картина, которую он просто еще не может передать компьютеру. Когда я говорю об этом, меня не покидает ощущение какого-то фантастического (или сюрреалистического) романа, в который я попал.

      Почему и как возникла Вселенная ? объяснить, оставаясь в рамках классической модели, нельзя, как нельзя объяснить свойства электрона, зная лишь одну-единственную его траекторию (или небольшой ее кусочек). Но квантовая механика благодаря принципу неопределенности имеет дело сразу со многими (или даже со всеми) возможными историями.

      То, с чего начинает современная теория,  ? это некоторым образом определенная сумма по всем историям, которые, интерферируя друг с другом, создают нашу реальную (в каком-то смысле наиболее вероятную) Вселенную. Но математика отказывается реализовать такую идею. Чтобы теория была формально последовательной, надо отказаться от обычного времени. Для описания возможных историй вселенных приходится переходить от реального времени к мнимому, превращая пространство Минковского в более понятное четырехмерное пространство Евклида. В таком евклидовом четырехмерии исчезают особые точки (так полюсы Земли ничем геометрически нс отличаются от точек экватора). У поверхности сферы, как и у любой другой замкнутой поверхности, ?границ нет?. Кавычки здесь поставлены потому, что это есть новое граничное условие. Совсем просто, но, к сожалению, не вполне понятно! Ведь история, начинающаяся с сингулярности, развивается вместе с нами в реальном времени, так что наше психологическое время оказывается не тем, в котором описывается развитие Вселенной. Надо еще думать, как совершить переход от мнимого времени к реальному. Идея кажется заманчивой, но пройдет, наверное, еще немало времени (реального), пока (мы надеемся) она станет понятной.

      Вся книга Хокинга написана им с целью подвести читателя к своей идее. Он не очень много может сказать в ее защиту. Он призывает читателя к раздумьям о самых общих законах, результатом которых (случайным или необходимым) стало появление жизни, читателя (и, конечно, книги Хокинга).

      Есть и еще важный и, несомненно, великий закон ? закон о направлении времени. ?Стрела времени? ? так называется девятая глава книги. Эта глава ? великолепный научный этюд. Непростая для понимания идея о двух сосуществующих четырехмерных пространствах ? евклидовом, в котором отбираются истории, и пространстве Минковского, в котором работают динамические уравнения и в котором протекает наша жизнь. Если в этой ?сумасшедшей? идее есть хоть крупица истины, то мы делаем шаг к совершенно новому этапу познания, но, может, все же идея не настолько сумасшедшая, чтобы стать истиной (по ?критерию? Нильса Бора).

      Здесь еще уместно добавить несколько слов о причинности. Классическая механика дает право утверждать, что будущее можно предсказать с точностью и полнотой не лучшими, чем точность и полнота начальных данных.

      Почти к этому сводится и спор о полноте и вероятности в квантовой механике. Не имеет смысла обсуждать возможности измерения с большими подробностями, если начальные данные ограничены принципом неопределенности. Можно только утверждать, что информация, содержащаяся в начальных данных (по крайней мере для систем, у которых есть только дискретные уровни), не исчезает со временем (если, конечно, в системе нет трения и если система замкнута). Именно такую неопределенность квантовая механика вносит в теорию гравитации.

      Эффектная декларация Лапласа о том, что история предсказуема, если только известен полный набор начальных данных ? координаты и импульсы всех тел (и полей, добавим сейчас), во Вселенной не имеет смысла. Нельзя собрать в конечное время все эти данные ? передача данных требует времени (нет сигналов, распространяющихся со скоростью, большей скорости света), а количество необходимых данных бесконечно. Кроме того, требуются абсолютно точные данные, даже очень маленькие погрешности могут в корне изменить предсказание будущего (как говорят, задача неустойчива). Так что пример Лапласа выходит за рамки реальности.

      Мне хочется закончить словами автора ? неисправимого оптимиста: ?Если мы откроем полную теорию, то со временем ее основные принципы станут доступны пониманию каждого, а не только нескольким специалистам. И тогда мы все, философы, ученые и просто обычные люди, сможем принять участие в дискуссии о том, почему так произошло, что существуем мы и существует Вселенная?.

      Нам может нравиться или не нравиться ход мыслей Хокинга, но от поставленных им вопросов уйти нельзя? В некоем смысле мы подошли к границе познания, и мы смущены самой сутью: может ли система (Вселенная и мы) быть устроена так, что часть ее ? человек ? способна понять все ее законы, включая законы собственного познания. Основное положение науки состоит в том, что мир реален и познаваем. Но очевидно ли, что он познаваем человеком? Сомнения в этом нередко приводят к мысли о могучих разумом, нас изучающих инопланетянах. Нуждаемся ли мы в этой гипотезе? Возможно, на это ответит Хокинг.

      Я. А. Смородинский. Декабрь 1989 г.