<<
>>

2. Физические основы будущей технологии

Фрэнк Вильчек

Достижения фундаментальной физики качественно изменили ее взаимоотношения с технологиями. Надежный фундамент позволяет четко видеть как ограничения, так и возможности.

Перед нами открываются не только блестящие перспективы, но и опасности.

Фундаментальная физика одновременно сдерживает и развивает технологии. В принципе, это очевидная истина: большая часть технологий воплощена в жизнь в виде машин и структур, которые, будучи физическими объектами, подчиняются законам физики. Однако на протяжении большей части истории почти все области техники были довольно слабо связаны с фундаментальной наукой. Рассмотрим, например, некоторые наиболее яркие моменты использования технологий римлянами — их великолепные дороги, акведуки и Колизей. Согласно книге «De Architectura», написанной в I веке до н. э., технология, на которую опираются эти технические чудеса, основана на опыте, накапливавшемся в течение очень долгих лет. Последний и породил ряд эмпирических правил. Например, найдены подробные инструкции по выбору и подготовке строительных материалов, в некотором роде предвосхищающих современные композиты. При этом не нашлось ничего такого, что можно было бы признать систематизированной наукой — материаловедением. Точно так же центральный элемент римского строительства — арка — представлен в виде шаблона, а не как математически выверенное решение проблемы распределения нагрузки и напряжений. Причем этот шаблон, основанный на сегментах круга, не оптимален.

Сегодня связь между фундаментальной физикой и технологией гораздо более тесная. Примечательно, что современные микроэлектроника и телекоммуникация поддерживают обработку и передачу информации со скоростью, всего несколько десятилетий назад казавшейся совершенно фантастической. Эти технологии, предоставляющие массу интереснейших возможностей, были бы невозможны без глубокого, надежного понимания квантовой теории материи и света (включая радио‑, микро‑ и остальные волны электромагнитного спектра).

Без нее невозможны никакие новаторские разработки.

В этом кратком обзоре я намерен исследовать нынешнее состояние фундаментальной физики в той мере, в которой оно актуально для развития технологий, могущих возникнуть в течение последующих 50 лет. Я также рассмотрю будущие направления их развития и открывающиеся возможности.

От тайны к умению

Позвольте мне начать с главного утверждения, которое я буду потом и объяснять, и отстаивать.

Сегодня у нас уже есть точные и полные уравнения, способные лечь в основу ядерной физики, материаловедения, химии и любых важных направлений инженерного дела.

Таким образом, решив соответствующие уравнения, во всех этих областях мы могли бы заменить эксперименты расчетами. Это — качественно новая ситуация в истории человечества, возникшая в XX веке в первую очередь благодаря впечатляющим достижениям в области квантовой механики.

Чтобы получить более ясное представление об этом, следует вернуться в прошлое.

В начале XX века фундаментальная физика еще не могла учесть множество основополагающих и чрезвычайно важных свойств природы. Химики эмпирически пришли к периодической таблице элементов. Они также создали детализированную картину геометрии молекул — в частности, кольцевую структуру бензола и других органических веществ — и успешно использовали ее для разработки новых молекул и реакций. Но известные тогда законы физики не объясняли существование стабильных атомов, не говоря уж об их свойствах или формировании химических связей. Аналогичным образом с законами фундаментальной физики не связывались и основные свойства материалов, такие как электропроводность, прочность и цвет. Ничего не было известно о Солнце как об источнике энергии, а скорость охлаждения светила, рассчитанная лордом Кельвином, была слишком высокой, чтобы соответствовать эволюционной теории Чарлза Дарвина. Открытым оставался вопрос, могли ли основные явления жизни (метаболизм и размножение) и мысли (познание) возникнуть вследствие обычного поведения физической материи, или для этого потребовались дополнительные «жизненно важные» ингредиенты.

За несколько десятилетий все эти проблемы были убедительно решены, для чего понадобилась не прямая атака, а продуманное применение стратегии Исаака Ньютона, носящей название «анализ и синтез» — метода, на который сегодня часто навешивают полупрезрительный ярлык «редукционизм». Согласно этой стратегии, сначала мы добиваемся глубокого понимания свойств и взаимодействия основных элементов (анализ), а затем используем это понимание для математического вычисления свойств более сложных конструкций (синтез).

Оглядываясь назад, в качестве ключевых можно выделить два события на границе начала XX века. Первое — открытие Дж. Дж. Томсоном в 1897 году важного компонента материи — электрона. У него есть отличительные свойства, одинаковые для всех электронов в любом месте и в любое время. В этом отношении они являются архетипическими «элементарными частицами». Поскольку электроны идеально подчиняются простым уравнениям, они и сегодня рассматриваются как элементарные частицы. Их роль в химии и, конечно же, в электронике сложно переоценить.

Другим событием стало открытие Максом Планком в 1900 году неразложимой единицы или кванта действия — постоянной Планка h (технически действие = энергия ? время). Ученый использовал эту постоянную в ходе сложной для понимания дискуссии о термодинамике излучения и оперировал ею исключительно в этом контексте. И лишь Альберт Эйнштейн в 1905 году интерпретировал постоянную Планка, чтобы показать: свет движется в виде потока неразрушимых частиц, которые мы сегодня называем фотонами. Фотон — вторая элементарная частица. Важным философским следствием идей Планка — Эйнштейна является облегчение понимания разницы между светом (состоящим из элементарных частиц) и другими видами материи (также состоящими из частиц). Эти идеи выдержали испытание временем. В дальнейшем под словом «материя» я буду подразумевать все ее виды, включая свет.

Следующим значительным шагом стало получение физически обоснованной модели атомов. Это произошло в 1911–1913 годах. Процесс включал в себя как экспериментальные, так и теоретические компоненты. В 1911 году Ханс Гейгер и Эрнест Марсден по предложению Эрнеста Резерфорда изучали отклонение быстро движущихся альфа‑частиц золотой фольгой. Резерфорд изучал неожиданную способность золота вызывать значительные изменения траекторий частиц. Все указывало на то, что весь положительный электрический заряд и почти вся масса атома золота сосредоточены в крошечном ядре, занимающем примерно миллионную долю от миллиардной части объема атома. Резерфорд предположил, что электрические силы связывают электроны с ядром, образуя атом. Но эту правдоподобную картину нельзя было примирить с известными тогда законами физики. Не было известно ничего, что могло бы предотвратить падение электрона на ядро по спирали. В 1913 году Нильс Бор предположил возможность существования лишь очень ограниченного класса орбит, что вопиюще противоречило ньютоновской картине мира. Критерий Бора, определяющий эти орбиты, включал в описание электронов константу Планка, до тех пор применявшуюся только к фотонам.

Модель Бора была невероятно смелой и простой, а в применении к водороду настолько поразительно успешной, что Эйнштейн даже назвал ее «высшей формой музыкальности в сфере мысли». Тем не менее она не была сформулирована в виде уравнений, что позволило бы применить ее к другим задачам. Поскольку его гипотезы противоречили принципам макроскопической (ньютоновской) механики, было совершенно непонятно, как облечь теорию Бора в математически непротиворечивые и широко применимые уравнения.

Упорные усилия нескольких физиков позволили внести важный вклад в решение этой проблемы. Предельно упрощая картину для нужд настоящего обзора, я хотел бы ограничиться сообщением, что в 1925 году Вернер Гейзенберг получил логичные и непротиворечивые уравнения для электронов, описывающие их как частицы. В 1926 году Эрвин Шредингер получил логичные и непротиворечивые уравнения для электронов, описывающие их в виде волн. Поначалу связь между этими работами была неочевидной, но Поль Дирак — также в 1926 году — показал, что она имеет место, что их следствия математически эквивалентны и оба уравнения могли бы быть получены из общей отправной точки. Математика Дирака может включать и электроны, и фотоны. Его теория взаимодействия электронов и света — квантовая электродинамика (КЭД) — успешно охватывала столь широкий спектр явлений, что уже в 1929 году ученый утверждал:

— Таким образом, полностью известны основные физические законы, необходимые для создания математической теории большей части физики и всей химии. Трудность только в том, что точное применение этих законов приводит к уравнениям, которые слишком сложны, чтобы быть решаемыми.

Из этого утверждения вытекает и наше заявление.

В 1940‑х годах эксперименты в атомной физике стали настолько точными, что для тщательной проверки теории потребовались новые, более строгие методы решения основных уравнений КЭД. И таковые, разработанные Джулианом Швингером, Ричардом Фейнманом, Синъитиро Томонагой и Фрименом Дайсоном, показали: КЭД описывает поведение электронов в широком диапазоне состояний (включая все те, которые имеют отношение к химии и инженерному делу) — и с точностью, большей, чем несколько частиц на миллиард.

С внешними частями атомов все стало понятно, но их ядра остались загадкой. В 1970‑х годах возникла теория субъядерных сил так называемых сильного и слабого взаимодействия. Будучи тщательно проверенной в 1990‑х, она завершила создание «эффективной теории» материи, которую мы используем сегодня. Теперь давайте перейдем от рассказа к описанию.

Система мира

Не‑физики часто с ошеломлением реагируют на то, как физики говорят о «простоте» своих фундаментальных теорий. Ведь на практике их понимает лишь очень небольшая часть человечества, и для этого требуются годы обучения и усердных размышлений. Тем не менее есть точное и принципиальное определение такой простоты.

Уравнения фундаментальной физики можно описать с помощью короткой программы. Следуя ее указаниям, компьютер будет в состоянии (при наличии достаточного времени) однозначно определить все последующие состояния описываемой ими системы.

Насколько я знаю, никто пока не написал такую программу, хотя это было бы интересным упражнением. Полагаю, на таком высокоуровневом компьютерном языке, как Mathematica, для этого потребуется не более нескольких сотен строк кода. (Пожалуйста, обратите внимание на то, что эффективное программирование, позволяющее быстро решать уравнения в интересных приложениях, является совсем другой и, вероятно, пока еще не решенной проблемой.)

Основные принципы

Как мы сегодня понимаем, фундаментальные уравнения физики распределяются в соответствии с четырьмя основными теориями, описывающими четыре основные силы: гравитацию, электромагнетизм, сильное и слабое ядерное взаимодействие. Их совокупность часто называют стандартной моделью. Они воплощают и могут быть получены из трех основных принципов: относительности, калибровочной инвариантности (также называемой локальной симметрией) и квантовой механики.

Первые два из них являются формулировкой симметрии. Это слово в данном контексте используется для обозначения «преобразования без изменений» или, более элегантно, «изменение без изменений». Основную концепцию иллюстрирует круг. Мы можем пытаться преобразовать эту фигуру, вращая ее вокруг ее центра. Каждая точка на окружности движется, так что это истинное преобразование. Но сам круг не меняется. Аналогичным образом основное допущение специальной теории относительности заключается в возможности преобразовать свойства всех объектов физического мира, перемещая их с постоянной скоростью (тем самым изменяя их видимую скорость), но не трансформируя законы, которым подчиняются эти объекты. Калибровочная инвариантность включает в себя другие преобразования, состоящие из гораздо менее знакомых свойств, чем скорость, но обращающихся к той же самой идее. Мы ограничиваем законы, требуя, чтобы они действовали одинаково в самых различных ситуациях.

Третий принцип — квантовая механика. Это скорее не конкретная гипотеза, а широкая структура. В этом аспекте она напоминает классическую (ньютоновскую) механику, которая объясняет, как в результате воздействия определенных сил происходит движение, но не говорит, что это за силы. При более подробном рассмотрении неоднозначность квантовой теории оказывается еще значительнее. (Для специалистов: здесь я намекаю на альтернативные варианты выбора динамических переменных и на принцип неопределенности.) Таким образом, до появления базовых теорий применение квантовой механики к конкретным физическим задачам всегда подразумевало необходимость до некоторой степени строить догадки. Но базовые теории настаивают на уникальном выборе, о чем я буду говорить в следующей главе. Хотя это и не очень приветствуется, полагаю, будет справедливым сказать: что такое квантовая механика, мы понимаем лишь в контексте наших базовых теорий.

Получается, сформулировать уравнения, согласующиеся как с принципом относительности, так и с принципами квантовой механики, довольно сложно. Это смогли обеспечить лишь релятивистские квантовые теории поля, содержащие много основных величин, которые либо плохо определены, либо — формально — бесконечны. При моделировании физического мира могут быть использованы только тщательно подобранные комбинации, в которых бесконечности взаимно уничтожаются. Чтобы их оказалось достаточно, структурой квантовой механики нужно пользоваться очень специфичным образом. Неопределенность при этом полностью устраняется. Поиск теорий, реализующих наши основные принципы, затрудняется тем, что они находятся на грани непротиворечивости. Зато эти теории основательны. Это приводит нас к очень специфическим уравнениям и процедурам, стойкость которых к изменениям обеспечивает их долговечность.

Новые принципы

Два следствия основополагающих законов настолько фундаментальны и важны, что заслуживают упоминания даже в этом кратком обзоре.

Первичными объектами в природе являются заполняющие пространство и постоянные (то есть заполняющие время) поля. Частицы — такие, как электроны — являются возбуждениями соответствующего поля. Таким образом, все электроны обладают одинаковыми свойствами, где бы и когда бы они ни встречались, потому что каждый из них является возбуждением одного и того же поля. Точное сходство всех электронов (и других элементарных частиц) имеет огромное значение. В ходе промышленной революции XIX века важнейшим шагом вперед стала разработка взаимозаменяемых деталей: это обеспечило возможность массового производства, сборки и ремонта. Подобным же образом на изобилие в природе взаимозаменяемых объектов опираются химия, биология и инженерия.

Когда электроны и атомное ядро соединяются в атом, или кварки и глюоны соединяются в протон, получившийся объект имеет неповторимую и стабильную структуру, которая не может быть изменена без применения значительного количества энергии. (Это контрастирует с системами, основанными на классической механике, такими как планетные системы звезд, которые могут произвольно поглощать некоторое количество энергии за счет небольших изменений в их структуре.) Такая «квантовая цензура» означает, что при соответствующих обстоятельствах (когда энергии не так много) мы можем рассматривать атом или протон как черный ящик, внутренняя структура которого от нас скрыта. Так, например, при проектировании транзистора не нужно думать о кварках и глюонах.

Эти два следствия фундаментальных законов позволяют нам поэтапно наращивать наш синтез картины природы и использовать при работе с большим числом неотличимых сущностей статистические методы. Таким образом, они подвели под многие распространенные методики химиков и инженеров прочную базу, позволив рассматривать их как следствия «сокращения» круга используемых понятий.

Строительные блоки

Стандартные элементарные описания материи представляют протоны и нейтроны как строительные блоки атомных ядер. Затем электроны заполняют большую часть атомов, а те, в свою очередь, объединяются в молекулы, молекулы — в различные материалы. Для отображения текущего положения дел эта схема нуждается в нескольких уточнениях.

Во‑первых, как упоминалось ранее, теперь мы понимаем, что неестественно и не нужно отделять свет от материи. Фотоны — такая же материя, как и все остальное.

Во‑вторых, мы должны избавиться от мысли о том, что протоны и нейтроны являются подходящими объектами для фундаментального изучения. Согласно результатам экспериментов, это составные объекты, обладающие сложной внутренней структурой. Базовые частицы, из которых состоят протоны и нейтроны, называются кварками и глюонами. Все имеющиеся данные подтверждают: последние подчиняются идеально простым уравнениям квантовой хромодинамики (КХД). Существуют два важных вида кварков: верхние (или u‑кварки) и нижние (или d‑кварки).

В‑третьих, не следует забывать о нейтрино. Эти частицы испускаются в ходе питающих Солнце ядерных превращений и используются в различных ядерных технологиях (включая медицинскую диагностику, некоторые формы лучевой терапии, ядерные реакторы и ядерное оружие).

Теперь основных ингредиентов — электронов, фотонов, глюонов, u— и d‑кварков и нейтрино — достаточно, чтобы построить «эффективную теорию», которая бы удовлетворяла нашим основным требованиям. Она состоит из гораздо более скромного числа компонентов, чем традиционная периодическая таблица, снабжена гораздо более точным руководством по эксплуатации (фундаментальными уравнениями) и охватывает гораздо более широкий спектр явлений.

Наша эффективная теория имеет известные ограничения, о которых я сейчас расскажу, но в обозримом будущем они не представляются значимыми для любой правдоподобной и широко используемой технологии.

Космические ресурсы

Последние несколько десятилетий стали золотым веком физической космологии. Доказательства удивительно простой истории Вселенной — начиная от Большого взрыва, когда вещество было почти однородным и горячим, до обретения структуры под действием гравитации — стали одновременно точными и ошеломляющими. Здесь не было бы необходимости вспоминать об этом, если бы не два следствия из этой теории, весьма актуальных для нашей основной темы.

В нашей эффективной теории говорится о различных формах, которые может принимать материя, но сама по себе она не в состоянии сообщить нам, какие материалы на самом деле доступны. Гипотеза Большого взрыва, согласно которой образование Вселенной было очень жарким, подразумевает, что ядра собирались из первичной смеси кварков и глюонов, и позволяет вычислить относительные количества различных химических элементов в ранней Вселенной до образования звезд. Результат — радикальное преобладание водорода и гелия над другими элементами. Тяжелые элементы возникали уже внутри звезд, а после смерти последних высвобождались в процессе взрывов сверхновых. Следуя этому сценарию, мы получаем хорошо согласующееся с опытом описание материи, образующую Вселенную сегодня. Это согласие между фундаментальной физической теорией и наблюдениями еще больше укрепляет нашу уверенность в теории — даже применительно к условиям, гораздо более экстремальным, чем в земных химии, биологии или инженерном деле.

Однако астрономы собрали убедительные доказательства того, что обычная материя, основанная на электронах, фотонах, глюонах и кварках, составляет всего около 4 % веса Вселенной. Остальное относится к категориям «темной материи» (около 25 %) и «темной энергии» (около 70 %). Обе пока идентифицируются лишь посредством их слабого (но кумулятивного) гравитационного влияния на обычную материю. Поскольку взаимодействие темной энергии и темной материи с обычной материей крайне слабое, трудно представить, каким образом они могли бы стать полезными для технологий.

Нерешенные проблемы и пробелы

Осложнения: больше материала

Наиболее решительно анализ и синтез, или редукционизм, осуществляется на больших ускорителях, таких как Большой андронный коллайдер (БАК) в Европейском центре ядерных исследований (ЦЕРН). Протоны в нем разгоняются до огромных энергий, а потом им дают столкнуться. При этом кратковременно создается плотность энергии, далеко превосходящая все, что происходит естественным образом на Земле (как, насколько мы знаем, где‑либо еще в современной Вселенной). Это позволяет проверить теории фундаментальных взаимодействий в условиях гораздо более тяжелых, чем встречающиеся в обычной практике.

У наиболее заметного результата этой работы есть два важных для наших целей аспекта.

Для начала плохая новость: наша «эффективная теория» оказывается весьма неполной. Чтобы получить хорошее описание всех обнаруженных на ускорителях явлений, следует добавить еще четыре вида кварков (странный s, очарованный с, прелестный b и истинный t), две тяжелые электроноподобные частицы (мюон µ, тау‑лептон τ), каждая из которых вдобавок вводит собственное нейтрино, двоих тяжелых родственников фотона и глюона (W— и Z‑бозоны) и, наконец, недавно обнаруженный бозон Хиггса.

Смысл плохой новости в том, что столь близкое рассмотрение реальности приводит к неожиданным осложнениям.

Теперь хорошая новость: эти осложнения лишь укрепляют принципы эффективной теории и не ставят под угрозу ее практическое применение. Изучение новых частиц предоставляет массу новых способов проверки общих принципов, лежащих в основе нашей эффективной теории — теории относительности, квантовой теории и локальной симметрии. Действительно, эти принципы предсказывают доли, в которых различные частицы будут производиться при разных условиях, то, на что они будут распадаться, и многое другое. До сих пор прогнозы — все без исключения — подтверждали правильность нашего описания реальности.

Таким образом, мы можем с определенной долей уверенности предположить, что последствия влияния этих частиц на земную среду в обычном (без ускорителя) режиме незначительны.

Смысл хорошей новости в том, что добавляемые элементы легко количественно определить и без нашей эффективной теории. Их наблюдаемое поведение усиливает обоснованность общих принципов. Но их очень трудно производить, и по большей части (за исключением новых нейтрино) они крайне нестабильны. Впрочем, их практическое влияние почти наверняка будет незначительным.

Квантовые сомнения и квантовая гравитация

Многие из пионеров квантовой теории — в частности, Планк, Эйнштейн и Шредингер — были недовольны ее зрелой формой. Им не нравилось пользоваться вероятностными прогнозами, а также упорствованием этих теорий в том, что в субатомном мире «идеальные» измерения — то есть измерения, не влияющие на измеряемую систему, — являются даже не идеализацией, а физической, объективной невозможностью. Эти особенности квантовой теории, похоже, подрывали представление о существовании объективного мира, содержащего объекты с определенными свойствами, которые эволюционируют согласно определенным принципам.

Более поздние поколения физиков по большей части примирились с квантовой теорией. Она привела к появлению многочисленных новых достижений и сумела пережить массу проверок. Кроме того, техническая работа над понятием «декогеренция» прояснила, каким образом стабильное и по существу детерминированное поведение тел в макромире возникает из квантового поведения в микромире. Впрочем, и сегодня некоторые высококвалифицированные физики с трудом воспринимают основы квантовой теории (я к этому числу не принадлежу). При проектировании квантовых компьютеров активно используются самые странные и сложные свойства этой теории. Было бы весьма любопытно, если бы они неожиданно потерпели неудачу.

Поскольку сложность, в частности, полного примирения теории гравитации и общей теории относительности с принципами квантовой механики все же сильно преувеличена, важно спустить эту дискуссию с небес на твердую землю. На практическом уровне проблем нет. Астрофизики и космологи регулярно и успешно рассчитывают развитие физических ситуаций, в которых одновременно действуют гравитационная и квантовая теории. В процессе всей этой работы не возникает никаких существенных неоднозначностей или исключений.

Сложности возникают, если попытаться применить уравнения к таким экстремальным условиям, какие могут возникнуть в самые ранние моменты Большого взрыва, или в глубине черных дыр, где решения становятся сингулярными. Концептуальные головоломки также возникают в квантовой теории малых черных дыр.

Можно было бы говорить о важном достижении и значительном прогрессе, если бы удалось выявить какое‑либо конкретное наблюдаемое явление, несущее в себе характерные черты квантовой гравитации, — и, конечно, понаблюдать за ним. До сих пор, несмотря на повсеместное интенсивное внимание и перспективу славы и премий, это еще никому не удалось.

То, что не происходит

Важная функция фундаментального знания состоит в том, чтобы избавить нас от мыслей, которые, скорее всего, окажутся непродуктивными. Здесь я хотел бы упомянуть о трех потенциальных «технологиях», широко представленных в популярных СМИ, но не слишком хорошо стыкующихся с фундаментальной физикой. Конечно, сюрпризы всегда возможны, и природа — это высший авторитет. Но развитие событий в следующих направлениях потребует от нас отказаться от принципов, которые до сих пор нам очень хорошо служили.

• Передача информации со сверхсветовой скоростью противоречит специальной теории относительности. В экстремальных условиях, при наличии сильных гравитационных полей, пространство‑время может деформироваться. Из‑за этого возникает вероятность образования туннелей в пространстве («кротовых нор») между точками, которые иначе находятся невероятно далеко одна от другой. Но, как я буду размышлять ниже, использование «кротовых нор» выходит далеко за пределы возможностей любой достижимой технологии.

• Воздействие на большом расстоянии, о котором говорила, например, астрология, не является частью нашей стандартной модели. Не случайно это также не согласуется с накопленным наукой опытом. Стоит предпринять несколько обычных мер предосторожности, как даже невероятно тонкие эксперименты дают воспроизводимые результаты, независимые от внешнего мира.

• Ментальное воздействие, явным образом проявляющееся в экстрасенсорном восприятии, телекинез, ясновидение и так далее, оторванные от физического субстрата, являются объектами аналогичных толков. Для них в современной фундаментальной физике нет места. И даже после максимально тщательно проведенных исследований экспериментаторы не сочли нужным беспокоиться о том, что думают люди.

Перспективы

Вычисляя реальность

Можно ожидать, что скоро компьютеры сделают для ядерной физики, астрофизики, материаловедения и химии то, что уже сделали в области авиастроения, дополнив и в конечном счете заменив лабораторные эксперименты вычислениями.

Недавняя разработка КХД — нашей теории сильного взаимодействия — позволяет достаточно четко предвидеть грядущее. Первоначальная проверка теории производилась при помощи точного количественного описания процессов очень высоких энергий, где ее закономерности упрощаются. Но ядерная физика, требующая изучения, в первую очередь, сильных взаимодействий, оказалась крепким орешком. Для решения уравнений КХД аналитическими методами потребовалась значительная изобретательность, а наиболее успешным подходом на сегодняшний день стало представление фундаментальных уравнений в формате, с которым могут работать компьютеры с тем, чтобы дальше действовали они. Теперь мы можем предвидеть будущее, в котором ядерная физика достигнет того же уровня точности и универсальности, которого добилась сегодня атомная. Усовершенствованная ядерная «химия» может дать нам сверхплотные источники энергии — более компактные, более управляемые и более универсальные, чем современные реакторы (или бомбы).

При проектировании полезных катализаторов и препаратов расчет будет все чаще заменять эксперименты, что приведет к значительно большей эффективности и откроет новые возможности для творческих исследований.

Многие технологические проблемы напрямую связаны со свойствами материалов. Создание более производительных аккумуляторных батарей (источников энергии) может привести к революции в области робототехники; повышение эффективности работы фотоэлементов может облегчить переход на широкомасштабное использование солнечной энергии; сверхпроводники, сохраняющие свойства при комнатной температуре, могут облегчить движение железнодорожного транспорта; прочные материалы позволят построить космический лифт, способный дешево и надежно связать Землю с космосом. В каждой из этих — и многих других — важных областей относительно небольшие улучшения ключевых свойств материалов могут кардинально изменить основные правила функционирования объектов. Можно ли это сделать? Ответ скрыт в наших уравнениях, но, чтобы извлечь его, надо произвести вычисления.

Здесь есть две проблемы: аппаратное и программное обеспечение. А 25 циклов закона Мура (глава 4) дали людям в целом и физикам в частности вычислительные средства огромной мощности. Рост, раньше бывший экспоненциальным, замедляется, больше не предполагая удвоения количества компонентов в интегральной схеме каждые два года, поскольку, когда миниатюризация достигает атомных масштабов, начинают действовать другие законы физики. Тем не менее в ближайшие десятилетия мы можем ожидать по крайней мере еще несколько циклов даже без резкого изменения ситуации в существующей полупроводниковой технологии.

Существует и ряд перспективных новых направлений. В основном обработка информации сегодня основана на перемещении электрического заряда, реализуемом как движение электронов. Но электроны движутся гораздо медленнее света, и их трафик порождает тепло, которое хлопотно удалять. Для передачи больших объемов информации на дальние расстояния уже регулярно используется свет — процесс, требующий преобразования из электронного кодирования в световое и обратно. При работе с ним преобразователи быстро становятся более эффективными и универсальными и могут превратиться в самостоятельные «фотонные» компьютеры.

Более революционной является перспектива квантовых компьютеров, использующих для кодирования информации явление квантовой запутанности. В принципе, это явление имеет сложную структуру, что позволяет использовать его для хранения и обработки информации с чрезвычайно высокой плотностью. К сожалению, сложность эту переоценить трудно. Весьма перспективными кажутся несколько возможных технологий для защиты и эксплуатации этого явления, но пока они находятся в зачаточном состоянии. Если большие и практичные квантовые компьютеры могут быть построены, они должны быть очень хороши в решении задач квантовой механики, высвобождая скрытую силу нашей основной темы.

Еще одно направление — возможность черпать вдохновение в биологии. Современные компьютеры в основном двумерны. Они базируются на чипах, которые должны производиться в условиях идеально чистого помещения, поскольку любое отклонение от этого требования может оказаться фатальным для их работоспособности. Если чип поврежден, его уже нельзя восстановить. Мозг человека отличается от чипов во всех отношениях: он трехмерный, создается в грязных условиях, не требуя при этом особого контроля со стороны, и способен восстанавливаться при сбоях и травмах. В системах, сохраняющих плотность записи, скорость и масштабируемость полупроводниковых технологий, существует хорошая возможность достижения этих характеристик, и нет явного физического барьера, не позволяющего реализовать эту идею.

Наиболее эффективные алгоритмы используют особенности задач, для решения которых они предназначены. Их работа — это совершенно творческий процесс, который трудно рассматривать в общих чертах. Здесь я остановлюсь только на одном — наиболее примечательном — аспекте разработки программного обеспечения. Значительная часть работы, проделанной для подкрепления закона Мура (особенно в его самых последних циклах), была основана на современных программных средствах и системах автоматизированого проектирования (САПР). Последние, описывая влияние фундаментальной физики в новых условиях, позволяют инженерам исследовать и уточнять новые пути реализации элементов схемы (например, уменьшая транзисторы) и оптимизировать ее архитектуру. Таким образом, существует мощный цикл обратной связи, благодаря которому успехи в области вычислений приводят к усовершенствованию конструкции компьютера, в свою очередь, способствуя дальнейшему прогрессу в вычислениях. Мы можем предвидеть, что с усложнением искусственного интеллекта возникнут многие другие петли обратной связи такого же рода. В результате открытия, сделанные при помощи наиболее мощных (и все более автономных) компьютеров, приведут к созданию еще более мощных компьютеров.

Расширяя реальность

Фундаментальная физика утверждает, что существуют важные аспекты мира, которые мы могли бы наблюдать, но пока не можем этого сделать. Хочу упомянуть о нескольких наиболее выдающихся из них.

Еще недавно лазерно‑интерферометрическая гравитационно‑волновая обсерватория (еще известная под английской аббревиатурой LIGO), которая работает для нужд Калифорнийского и Массачусетского технологических институтов, была мало кому известна. Она наблюдала сигнал гравитационных волн, вызванных слиянием двух массивных черных дыр, каждая из которых весила в несколько десятков раз больше Солнца. LIGO предназначена для обнаружения совершенно ничтожных изменений расстояния между несколькими парами зеркал. Цифры просто потрясающие. Зеркала расположены в 4 километрах друг от друга, и предполагается, что расстояния между ними должны меняться менее чем на одну тысячную диаметра протона. Зеркала могут смещаться вследствие множества причин, но гравитационные волны создают уникальную картину изменений, поэтому их сигнал можно вычленить из шума. Это стало кульминацией 50‑летних трудов. Конечно, это было бы немыслимо без указания со стороны фундаментальной физики о том, каких сигналов следует ожидать и как измерять такие крошечные расстояния. (Между прочим, тот факт, что подобные колоссальные события производят столь ничтожные изменения в пространстве‑времени, сильно охлаждает наши мечты об искусственно созданных «кротовых норах», двигателях для перемещения в гиперпространстве, машине времени и т. п.)

Гравитационные волны открывают новое окно во Вселенную, позволяя получить доступ к ее скрытым областям, а также ко внезапным и бурным событиям. Чтобы в полной мере использовать их потенциал, нам необходимо развернуть в космосе множество высокоточных приборов, простирающихся на многие миллионы километров в межпланетном пространстве.

Человеческое восприятие оставляет желать много лучшего. Рассмотрим, например, цветовое зрение. В наши глаза поступают электромагнитные волны непрерывного спектра, которые, кроме того, поляризованы. То, что мы воспринимаем при этом как «цвет», является лишь грубой хеш‑функцией, выделяющей из всего спектра одну октаву, распределяющую ее по трем сенсорам, причем поляризация при этом игнорируется. Многие животные реализуют более совершенный алгоритм восприятия, и чувствительность их зрения распространяется на инфракрасный или ультрафиолетовый диапазон. Мы, люди, способны на гораздо более точный частотный анализ звука и можем выделить много различных тонов в аккордах.

Таким образом можно получить ценную информацию об окружающей нас среде, не говоря уже о возможностях для искусства и визуализации данных. Современные микроэлектроника и компьютеры обеспечивают привлекательные возможности для доступа к ней. Путем соответствующих преобразований мы можем закодировать ее таким образом, что она станет доступной для наших органов восприятия в виде своего рода индуцированной синестезии. Это значительно расширит возможности наших органов чувств, раздвинув наши горизонты восприятия.

При наличии более мощных датчиков и приводов опыт познания окружающего мира станет более убедительным. Легко представить себе разнообразные привлекательные возможности: туризм в любом месте и в любое время, не выходя при этом из дома. Хрупкие человеческие тела плохо подходят для освоения глубокого космоса, но наше сознание сможет добираться в самые труднодоступные места. Мы предвидим серьезное развитие астрономии — благодаря увеличению количества автоматизированных межпланетных зондов, виртуальному телеприсутствию и использованию подходящего биологического материала. Это гораздо надежнее и проще, чем отправка хрупких и плохо приспособленных для этого человеческих тел в глубины космоса.

Биология как ресурс и вдохновение

Если взять наше основное заявление в чистом виде, то биология предоставляет такие «доказательства существования» потенциальных возможностей материи, которые в ином случае были бы весьма неочевидны. Я уже упоминал о целесообразности создания сложных трехмерных, самособирающихся и саморегулируемых информационных процессоров. Это могло бы показаться фантазией, но в большинстве человеческих черепов содержатся полностью реализованные примеры подобных устройств. Точно так же нереализуемой мечтой может показаться возможность чрезвычайно быстрой параллельной обработки больших объемов данных с использованием медленных, ненадежных элементов схемы, но это описание реальной деятельности человеческой зрительной системы.

Именно биология вдохновила Джона фон Неймана на новаторские разработки самовоспроизводящихся «универсальных конструкторов» машин. В отличие от его проектов по компьютерной архитектуре, ставших основой технологии, полностью изменившей наш мир, самовоспроизводящиеся (эволюционирующие, а почему бы и нет?) машины в настоящее время остаются интеллектуальным курьезом. Но человеческая раса сама служит доказательством своего потенциала. Наши значительно улучшившиеся понимание того, как действует природа на молекулярном уровне, а также способность управлять потоками вещества и информации — в частности, в 3D‑печати (глава 10) — позволяют вдохнуть жизнь в эту удивительную концепцию.

И наоборот, ничто в самой природе материи не говорит о том, что людям как физическим существам обязательно присущи старение или болезни. Понимание и способность управлять материей и контролировать ее на фундаментальном уровне должны позволить нам преодолеть эти немощи. На практике это поставит перед людьми множество сложнейших проблем и вдохновит на новые открытия в области микроскопии и анализа данных (это позволит проводить сложную диагностику), а также в молекулярной инженерии (это обеспечит возможность проведения лечения).

Резюме: аварийные режимы

По причинам, изложенным выше, я, как физик, уверен: наше глубокое понимание того, как работает мир, открывает вдохновляющие перспективы для достижения новых уровней материального и духовного обогащения.

Однако, прежде чем закрыть тему, следует сделать несколько замечаний о мерах предосторожности.

Поскольку современные технологии обеспечивают создание надежной документации и широкое распространение знаний, можно было бы подумать, что историю технологий (и, следовательно, в конечном счете, человечества) в настоящее время невозможно откатить назад. Прогресс может быть неравномерным, но регресс исключен.

Но так ли это? Особенно тревожными мне кажутся три варианта сбоев, являющихся следствием самых современных технологий: ядерная война, экологическая катастрофа и вооружения, оснащенные искусственным интеллектом.

Некоторое знакомство с темой и 70 лет удачи не должны позволить нам недооценивать ужасающий потенциал ядерного оружия. Оно по‑прежнему существует в большом количестве — многие тысячи единиц — и контролируется девятью отдельными государствами. Посмотрите фильмы «Нити» («Threads»), а затем «Доктор Стрейнджлав» («Dr. Strangelove»). Этим все сказано.

Еще одной потенциальной катастрофой является экологический коллапс вследствие антропогенного изменения климата. Загрязнение атмосферы углекислым газом накапливается медленно, и надлежащая реакция (то есть учет внешних факторов) потребует вложения многих триллионов долларов. Вопрос в том, сможет ли человечество достигнуть зрелости и мудрости для решения этой коварной проблемы.

Ни человек, ни искусственный интеллект не могут избежать влияния открытия Дэвида Юма, заключающегося в том, что никакое моральное «должен» не может возникнуть из совокупности логических или научных «так есть». Вот его заключение: «Разум является, да и должен быть рабом страстей и никогда не может претендовать на какую‑либо другую роль, кроме служения и подчинения им».

Создатели умных автономных существ (таких, как гуманоидные роботы) будут либо явно, путем программирования, либо неявно, путем проектных решений, устанавливать их цели и мотивы — «страсти». Предполагается, что искусственный интеллект предназначен для служения человечеству самым простым и дружественным образом и это намерение лучше всего будет реализовываться автономными существами, цели и мотивы которых так же просты и дружественны. Но тогда весьма проблематичным станет использование искусственного интеллекта для военных задач, скажем, для создания армии роботов или, более обобщенно, высокоэффективных военных систем, вроде машины Судного дня доктора Стрейнджлава, которые будут реагировать на угрозы без вмешательства человека. Можно ожидать, что сверхразумные сущности, специально созданные подозрительными и агрессивными, проявят эти качества совершенно оригинальным и неожиданным образом. Конкурирующие группы таких созданий могли бы развязать уникальную войну, где людям и их цивилизации была бы отведена лишь роль случайных жертв.

Примечание

Эта работа поддерживается Министерством энергетики США по грантовому контракту № DE‑SC0012567.

<< | >>
Источник: Дэниел Франклин. Мегатех. Технологии и общество 2050 года в прогнозах ученых и писателей. 2018

Еще по теме 2. Физические основы будущей технологии:

  1. Багров Н.М.. Основы отраслевых технологий, 2010
  2. Системы автоматизации фундаментального анализа на основе технологии Text Mining
  3. Основы технологии выдачи кредита и организации работы кредитного подразделения банка
  4. Перспективы развития российского рынка ценных бумаг на основе Интернет-технологий
  5. Технология и технологическая система предприятия
  6. Дэниел Франклин. Мегатех. Технологии и общество 2050 года в прогнозах ученых и писателей, 2018
  7. Технология производства бесконтактных микропроцессорных карт
  8. Технология и факторы производства.
  9. Формы и технология кредитования
  10. Технологические пределы и преемственность технологий
  11. Технологии микромаркетинга