En el capítulo 5 de The Grand Design, Hawking y Mlodinow exponen cómo la ciencia ha desarrollado leyes físicas y las ha integrado gradualmente en modelos que las conectan entre sí, en teorías cada vez más ambiciosas y explicativas.
Así, Faraday relacionó la electricidad y el magnetismo, e introdujo la noción de campos de fuerza. Que habría de prosperar en el futuro—puesto que en la física moderna las fuerzas se transmiten por campos. James Clerk Maxwell desarrollo las nociones de Faraday construyendo un modelo físico que explicaba la relación entre electricidad, magnetismo, y luz, con una serie de ecuaciones que describían a las fuerzas eléctricas y a las magnéticas como manifestaciones de la misma entidad física, el electromagnetismo—y descubrió que la luz también es una onda electromagnética. También describen las ecuaciones de Maxwell las microondas, las ondas de radio, los infrarrojos, los rayos X.... como fenómenos con distinta longitud de onda. Y definió la velocidad de la luz como una constante de unos 300.000 km/seg... en relación al "éter". Claro que cuando dejó de existir el éter como una sustancia de base del universo, la luz pasó a ser una constante sin más, en la teoría de Einstein. Esto tras el experimento de Michelson y Morley, que siguiendo una idea del propio Maxwell, intentaron medir la velocidad de la luz respecto al éter y no encontraron constancia experimental de la existencia de éste. En 1905, el artículo de Einstein "Zur Elektrodynamik beweger Körper" hizo una sugerencia "sencilla": que las leyes de la física, y la velocidad de la luz, apareciesen iguales a todos los observadores que se hallen en movimiento constante. Y de ahí se siguió el cálculo relativista del desfase del tiempo para observadores que se muevan uno con respecto al otro—la implicación de espacio y tiempo en un nuevo concepto más integrador, el espacio-tiempo.
(Sobre estas nociones relativistas, y algunas de sus consecuencias epistemológicas, puede leerse la exposición de George Herbert Mead en La filosofía del presente).
Seguidamente, Einstein buscó la manera de hacer que este nuevo modelo fuese compatible con la teoría de la gravitación, para permitir un cálculo que no utilizase el concepto newtoniano de tiempo absoluto:
La teoría de Einstein produce resultados aproximados a la de Newton en entornos de baja gravedad, pero hay unos pequeños desfases que son cruciales en según que tipo de entornos—o para el cálculo de distancias con GPS, sin más, cosa que sería imposible de hacer sin tener en cuenta las distorsiones que sí tiene en cuenta la relatividad general. Pero para Hawking & Mlodinow, las nuevas físicas de Maxwell y Einstein, a pesar de sus innovaciones, siguen siendo, como la de Newton, "teorías clásicas. Es decir, son modelo en los que el universo tiene una única historia" (103). Para cálculos de física subatómica, necesitamos otro tipo de teoría más integradora todavía, "una versión cuántica de la teoría de la teoría del electromagnetismo de Maxwell; y si queremos entender el universo temprano, cuando toda la materia y energía del universo estaban comprimidas en un pequeño volumen, debemos tener una versión cuántica de la teoría de la relatividad general" (103). Las cuatro fuerzas conocidas de la naturaleza son la gravedad, el electromagnetismo, la fuerza nuclear débil y la fuerza nuclear fuerte:
Las QED son teorías que requieren complejos cálculos matemáticos, pero que se ajustan con precisión a los resultados experimentales. A nivel cuántico, deben incluirse en cada intercambio de partículas todas las historias por las cuales podría ocurrir dicha interacción, y eso complica las matemáticas. Feynman simplificó la cuestión introduciendo una manera de visualizar la suma de historias—los diagramas de Feynman, una de las herramientas más importantes de la física moderna. Que en principio pueden representarse y calcularse, y permiten visualizar los distintos tipos de interacción—pero que son infinitos en número. Y esto lleva a resultados absurdos o imposibles de calcular. Los procedimientos matemáticos para tratar con estos absurdos (las "renormalizaciones") son dudosos, quizá puedan considerarse trucos de matemáticos trampeando sus propios cálculos para obtener el resultado deseado....
(Y esta situación no parece considerarla Hawking como un problema realmente serio para la teoría, sino como una molesta cuestión de principio que sin embargo con un leve parcheo de arbitrariedad no impide a la teoría el realizar predicciones válidas).
El éxito (si así puede llamársele....) de la "renormalización" llevó a los cientifícos a intentar desarrollar teorías de campo cuántico que explicasen las demás fuerzas: la tesis es que las cuatro fuerzas deben ser en última instancia la misma, formulable a través de una teoría de todo, una vez se disipe nuestro conocimiento imperfecto de las relaciones entre ellas—
En 1967 Abdus Salam y Steven Weinberg desarrollaron cada cual por su lado una teoría unificada del electromagnetismo y de la fuerza débil, capaz de predecir la existencia y comportamiento de partículas llamadas W+, W- y Zº. La fuerza nuclear fuerte se renormalizó en una teoría llamada QCD, o cromodinámica cuántica—que atribuye "colores" por así decirlo a los quarks que componen las anteriormente consideradas partículas elementales (protones, neutrones). Los quarks y antiquarks se combinan para formar bariones, que son esas partículas estables, y sus antipartículas, así como otras partículas inestables llamadas mesones. Los quarks no son observables, "pero aceptamos el modelo por lo bien que funciona al explicar el comportamiento de los protones, neutrones y otras partículas de materia" (110). Se intentó demostrar que los protones tienen una vida media de 1032 años, así que se podría detectar su desintegración, pero unos experimentos de 2009 resultaron negativos, malas noticias para las GUTs o Grandes Teorías Unificadas. Así que los físicos optaron por una teoría más "chapucera", el modelo estándar compuesto por la teoría unificada de las fuerzas electromagnéticas y débiles, más la QCD.
El chiste que incluye el libro es revelador: un científico mira una pizarra con unas complejas ecuaciones rodeadas por un cuadrado, y una colega le dice: "Ponerle una caja alrededor, me temo, no lo convierte en una teoría unificada".
El principio de incertidumbre de Heisenberg no permite realizar una teoría cuántica de la gravedad. Según ese principio, el espacio nunca puede considerarse vacío totalmente, pues aunque puede tener un estado de mínima energía que llamamos el vacío, pueden darse en él unos tembleques cuánticos, o fluctuaciones cuánticas, por las que aparecen y desaparecen brevemente de la existencia partículas y campos. Las concibe Hawking como pares de partículas que se separan y se vuelven a juntar anulándose unas a otras. Y vuelven a producir problemas de imposibilidad al no poderse calcular su potencialmente infinita energía. La renormalización no puede aplicarse en este caso. En 1976 se proporcionó la solución de la supergravedad—basada en la noción de supersimetría, según la cual fuerza y materia serían dos caras de lo mismo, e irían en pares de partículas asociadas. Se espera que la existencia de esas partículas asociadas a las partículas observables pueda demostrarse con el LHC de Ginebra. La supersimetría se gestó en el seno de las Teorías de Cuerdas, según la cual el espacio-tiempo tiene diez dimensiones, algunas de ellas operativas a una escala que se nos escapa.
"En la teoría de cuerdas las dimensiones adicionales están enrolladas en lo que se llama el espacio interno, en oposición al espacio tridimensional que experimentamos en la vida cotidiana" (116)—pero tendrían importantes consecuencias físicas. "Y luego, en 1994, la gente empezó a descubrir dualidades—que las diferentes teorías de cuerdas, y las diferentes maneras de enrollar las dimensiones adicionales, son sencillamente maneras diferentes de describir los mismos fenómenos en cuatro dimensiones" (116). Las teorías de cuerdas y la supergravedad se consideran hoy versiones aptas para distintos contextos de lo que sería la Teoría M (teoría maestra, quizá, o misteriosa, o milagrosa).
(Me parece que estas cuestiones que a Hawking le parecen portentosas a nivel matemático y subatómico son simplemente una manera de enfrentarse a las propiedades emergentes de los fenómenos— y que algo parecido sucede con fenómenos a nivel cultural, cuando encontramos que no es posible unificar perfectamente, o "reducir", una teoría del comportamiento humano a cuestiones formuladas en el lenguaje de la sociobiología, pero vemos que es descriptible con el lenguaje de otras disciplinas. Sobre la cuestión de la reducción unificadora de las ciencias, y el problema de la emergencia, ver "Gell-Mann: Consciencia, reducción y emergencia". Por tanto hay que tomar cum grano salis las afirmaciones con las que Hawking & Mlodinow concluyen este capítulo, y que llevarían a una multiplicidad de universos. Me temo que la manera más sencilla de explicarlo es que son universos teóricos, productos del lenguaje matemático—y que en el "lenguaje" que utilizamos para movernos por nuestro universo cotidiano, seguiremos huérfanos con un único universo donde, eso sí, hay matemáticos generando activamente muchos universos matemáticos distintos para explicar ciertos fenómenos que escapan a la experiencia ordinaria. Hay otros espacios internos... pero estan en éste).
"La Teoría M tiene soluciones que permiten muchos espacios internos, quizá hasta 10500, lo cual significa que prevé hasta 10500 universos distintos, cada cual con sus propias leyes (...)" La cuestion es, entonces, "cómo acabamos estando precisamente en éste, y con las leyes que en él se manifiestan?" (119) —(Y la respuesta quizá sea que no acabamos, sino que empezamos en éste...).
"¿Y qué sucede con esos otros mundos posibles? (119).
Por resolver la cuestión o mejor dicho por dar una posible respuesta a la pregunta, con una analogía literaria, creo que estos mundos posibles de Hawking son comparables con los mundos virtuales imaginados por Olaf Stapledon en Star Maker. Allí, el creador de universos, el Hacedor de Estrellas, experimenta con un mundo tras otro, creaciones torpes unas, elegantes otras, simétricas algunas, absurdas otras... ante la mirada atónita del narrador de la novela, que ha llegado a un nivel de percepción cósmica tal que le ha permitido ver al Hacedor de Estrellas. Es una ficción sugestiva. Pero, descendiendo a la tierra en una perspectiva a la que no podemos renunciar, el Hacedor de Estrellas no es otro que un personaje de una novela de Olaf Stapledon, creado en un universo emergente dentro de nuestra experiencia humana—el universo literario de una novela concreta, que además debe su imaginario creativo particular a relatos míticos y filosóficos preexistentes. De modo similar, una importante característica de los multiversos de Hawking, una que no se formula nunca con claridad, es la medida en que son fenómenos emergentes dentro de una disciplina del conocimiento llamada la física matemática.
A fin de cuentas, busquemos como busquemos, vivimos en un mundo humano lleno de rincones creados y diseñados por los humanos, cada cual con sus propias normas y reglas de aplicación local que no valen un poco más allá. No habrá una superteoría, sino una colección de teorías dispersas, parcialmente traducibles, para tratar con fenómenos que sólo en circunstancias muy específica tienen sentido o existencia siquiera. Igual que sólo en un sentido muy general, o en contextos muy concretos, hay una Historia de Todo, por mucho que las cosas sean concebibles en el seno de esa historia. La Historia de Todo no puede prescindir de otras modalidades de historia más locales y específicas, que sólo parcialmente se ubican respecto de ella, o se plantean en los términos de una historia de todo.
No hay comentarios:
Publicar un comentario
Se aceptan opiniones alternativas, e incluso coincidentes: