Hamming, que no estaba tan convencido, a pesar de la solidez de sus propios argumentos, señaló que:
Si se toma como edad de la ciencia 4.000 años, se obtiene generalmente un límite superior de 200 generaciones. Considerando los efectos de la evolución mediante la selección de pequeñas variaciones aleatorias, no me parece que la evolución sea capaz de explicar más que una pequeña parte de la eficacia inexplicable de la matemática.
Raskin sostenía que «los fundamentos de la matemática se habían establecido mucho antes de la llegada de nuestros antepasados, probablemente a lo largo de millones de generaciones
[286]
». Pero debo decir que este argumento no me parece especialmente convincente. Aunque la lógica esté firmemente arraigada en los cerebros de nuestros antepasados, es difícil ver cómo este hecho puede haber conducido a la aparición de teorías matemáticas abstractas del mundo subatómico (como la mecánica cuántica o los formalismos conocidos como teorías «gauge») de fabulosa precisión.
Es sorprendente constatar que Hamming concluía su artículo admitiendo que «todas las explicaciones que he ofrecido, una vez unidas, no bastan para aclarar lo que pretendía» (la eficacia inexplicable de la matemática).
Entonces, ¿debemos concluir que esta eficacia sigue siendo igual de enigmática que al principio?
Antes de rendirnos, vamos a intentar llegar a la esencia del misterio de Wigner; para ello vamos a examinar lo que se denomina método científico. En primer lugar, los científicos averiguan, a través de una serie de experimentos y observaciones, hechos acerca de la naturaleza. Estos hechos se utilizan inicialmente para desarrollar una especie de «modelos» cualitativos de los fenómenos (por ejemplo, la Tierra atrae las manzanas, la colisión de partículas subatómicas puede producir otras partículas, el universo se expande, etc.). En muchas de las ramas de la ciencia, las teorías incipientes pueden incluso no ser matemáticas. Uno de los mejores ejemplos de una teoría de este tipo con una inmensa capacidad para explicar los fenómenos es la teoría de la evolución de Darwin. Aunque la selección natural no está basada en formalismo matemático alguno, es notable su éxito en la explicación del origen de las especies. En física fundamental, por el contrario, el paso siguiente suele consistir en intentar construir teorías cuantitativas,
matemáticas
(por ejemplo, la relatividad general, la electrodinámica cuántica, la teoría de cuerdas, etc.). Finalmente, los investigadores utilizan esos modelos matemáticos para predecir nuevos fenómenos, nuevas partículas y resultados de experimentos y observaciones nunca realizados. Lo que confundía a Wigner y a Einstein era la increíble precisión del resultado de estos dos últimos procesos. ¿Cómo es posible que, una y otra vez, los físicos puedan hallar herramientas matemáticas que no sólo expliquen los resultados experimentales y las observaciones anteriores, sino que lleven a descubrir nuevos criterios y efectuar nuevas predicciones? Voy a intentar dar respuesta a esta versión de la pregunta a partir de un ejemplo del matemático Reuben Hersh. Hersh proponía que, en el espíritu del análisis de muchos de estos problemas de la matemática (y, desde luego, de la física teórica), se debía examinar el más simple de los casos posibles.
[287]
Pensemos en el experimento aparentemente trivial de introducir guijarros en un jarrón opaco. Supongamos que metemos primero cuatro guijarros blancos y luego siete guijarros negros. En algún momento de la historia, los humanos aprendieron que, en algunos casos, podían representar un grupo de guijarros de cualquier color mediante un concepto abstracto que habían inventado: un número natural. Es decir, el conjunto de guijarros blancos se podía asociar con el número 4 (o IIII, IV o cualquiera que fuese el símbolo utilizado en la época) y el de guijarros negros, con el número 7. A través de experimentos como el descrito, los seres humanos descubrieron que otro concepto inventado (la adición aritmética) representaba correctamente el acto físico de acumular. Dicho de otra forma, el resultado del proceso abstracto denotado simbólicamente por 4 + 7 puede predecir de forma no ambigua el número final de guijarros en el jarrón. ¿Qué significa todo esto? ¡Significa que los seres humanos han desarrollado una increíble herramienta matemática, capaz de predecir de forma fiable el resultado de
cualquier
experimento de este tipo! Esto puede parecer una trivialidad, pero no lo es, porque esta misma herramienta no sirve, por ejemplo, con gotas de agua. Si se vierten cuatro gotas de agua en el jarrón una a una y, a continuación, otras siete gotas, no se obtienen once gotas de agua independientes. De hecho, para poder efectuar predicciones en experimentos similares con líquidos o gases, los seres humanos tuvieron que inventar conceptos completamente distintos (como el de peso) y darse cuenta de que era necesario pesar cada gota de agua o volumen de gas de forma individual.
La conclusión es clara: las herramientas matemáticas no se han elegido de forma arbitraria, sino precisamente por su capacidad para predecir de forma correcta los resultados de los experimentos u observaciones pertinentes. De manera que, al menos en este caso tan simple, su eficacia estaba garantizada. Los seres humanos no tuvieron que adivinar a priori cuáles eran las matemáticas correctas: la Naturaleza tuvo la gentileza de permitirles utilizar el ensayo y error para determinar qué era lo que funcionaba. Tampoco tenían que utilizar obligatoriamente las mismas herramientas para todas las circunstancias. A veces, el formalismo matemático apropiado para determinado problema no existía y alguien tuvo que inventarlo (es el caso de Newton y su invención del cálculo, o de las diversas ideas en geometría y topología surgidas en el contexto de los actuales estudios en teoría de cuerdas). En otros casos, el formalismo ya existía, pero era necesario descubrir que se trataba de una solución en espera del problema adecuado (como en el caso del uso de la geometría de Riemann por Einstein, o de la teoría de grupos en física de partículas). La cuestión es que su extraordinaria curiosidad, su perseverancia, su imaginación creativa y su intensa determinación han permitido a los seres humanos hallar los formalismos matemáticos relevantes para crear modelos de un gran número de fenómenos físicos.
Una de las características de la matemática que ha resultado esencial para lo que he venido denominando su eficacia «pasiva» ha sido su validez esencialmente eterna. La geometría euclidiana sigue siendo tan correcta en la actualidad como lo era en el año 300 a.C. Ahora comprendemos por qué sus axiomas no son inevitables y, en lugar de representar verdades absolutas acerca del espacio, representan verdades dentro del universo particular que los seres humanos percibimos y de su formalismo asociado. Sin embargo, una vez que hemos comprendido que su contexto es más limitado, todos sus teoremas siguen siendo ciertos. Dicho de otro modo, las distintas ramas de la matemática se incorporan a ramas más amplias (por ejemplo, la geometría euclidiana es sólo una de las posibles versiones de la geometría), pero la corrección se conserva dentro de cada rama. Esta longevidad indefinida ha permitido que los científicos de cada época buscasen las herramientas adecuadas dentro del arsenal de formalismos desarrollados.
De todos modos, el ejemplo sencillo de los guijarros en el jarrón deja en el aire dos de los elementos del enigma de Wigner. En primer lugar se halla la siguiente cuestión: ¿por qué en algunos casos parece que, en términos de exactitud, obtenemos de la teoría más de lo que hemos puesto? En el experimento de los guijarros, la exactitud de los resultados «predichos» (la acumulación de otros conjuntos de guijarros) no es mejor que la exactitud de los experimentos que condujeron a la formulación inicial de la teoría (la adición aritmética). Por otro lado, se ha demostrado que la exactitud de las predicciones de la teoría de la gravitación de Newton supera en gran medida la de los resultados observacionales que motivaron la formulación de la teoría. ¿Por qué? Vamos a recapitular brevemente sobre la historia de la teoría de Newton.
El modelo geocéntrico de Ptolomeo fue el dominante durante unos quince siglos. Aunque el modelo no pretendía ser universal (el movimiento de cada planeta se trataba de forma individual) y no mencionaba nada acerca de causas físicas (como fuerzas o aceleraciones), se ajustaba razonablemente a las observaciones. Nicolaus Copernicus (1473-1543) publicó su modelo heliocéntrico en 1543, y Galileo le proporcionó una base sólida. Galileo estableció también los fundamentos de las leyes del movimiento. Pero fue Kepler quien dedujo las primeras leyes matemáticas (aunque sólo fenomenológicas) del movimiento planetario a partir de observaciones. Kepler utilizó una colosal cantidad de datos recopilados por el astrónomo Tycho Brahe (1546-1601) para determinar la órbita de Marte.
[288]
A los centenares de páginas de cálculos que tuvo que llevar a cabo los denominó «mi guerra personal con Marte». Salvo por un par de discrepancias, las observaciones se ajustaban a una órbita circular. Sin embargo, Kepler no quedó satisfecho con esta solución, y más adelante describió así sus cavilaciones: «Si hubiese pensado que podía hacer caso omiso de esos ocho minutos [de arco, alrededor de una cuarta parte del diámetro de la luna llena], hubiese modificado mis hipótesis … en consecuencia. Pero no era aceptable ignorarlos, de modo que esos ocho minutos señalaron el camino de una reforma total de la astronomía». Las consecuencias de esta meticulosidad fueron fenomenales. Kepler dedujo que las órbitas de los planetas no son circulares, sino elípticas, y formuló dos leyes cuantitativas adicionales que podían aplicarse a todos los planetas. Unidas a las leyes de movimiento de Newton, se convirtieron en la base para la ley de la gravitación universal. Recordemos, no obstante, que Descartes había propuesto antes su teoría de los vórtices, en la que los planetas eran transportados alrededor del Sol por vórtices de partículas en movimiento circular. Esta teoría no tuvo demasiado predicamento, ni siquiera antes de que Newton demostrase que era incoherente, porque Descartes no había desarrollado un tratamiento sistemático de los vórtices.
¿Qué lección podemos extraer de esta breve historia? No cabe duda de que la ley de la gravitación de Newton fue la obra de un genio. ¡Pero este genio no se encontraba aislado en el vacío! Una parte de los cimientos habían sido establecidos anteriormente con gran meticulosidad por otros científicos. Como ya señalé en el capítulo 4, matemáticos de un nivel mucho menor que el de Newton, como el arquitecto Christopher Wren y el físico Robert Hooke, habían sugerido de forma independiente la ley de atracción del cuadrado inverso. La grandeza de Newton consistió en su capacidad única para ligarlo todo en forma de una teoría unificada y su terquedad para hallar demostraciones matemáticas de las consecuencias de su teoría. Podemos preguntarnos por qué este formalismo resultó ser tan preciso. En parte se debió a que trataba el problema más fundamental: las fuerzas entre dos cuerpos graves y el movimiento resultante, sin otros factores que complicasen el escenario. Newton sólo obtuvo una solución completa para este problema. Así, la teoría fundamental era extraordinariamente precisa, pero sus implicaciones tuvieron que sufrir una continua corrección. El sistema solar se compone de más de dos cuerpos. Cuando se incluyen los efectos de otros planetas (siguiendo igualmente la ley del cuadrado inverso), las órbitas dejan de ser simples elipses. Por ejemplo, se ha hallado que la órbita de la Tierra cambia lentamente su orientación en el espacio (un movimiento denominado
precesión),
algo parecido a lo que sucede con el eje de una peonza en rotación. De hecho, los estudios más modernos han mostrado que, en contradicción con las expectativas de Laplace, es posible que las órbitas de los planetas acaben convirtiéndose en caóticas.
[289]
La propia teoría fundamental de Newton fue, desde luego, destronada por la relatividad general de Einstein, y esa misma teoría apareció después de una serie de salidas en falso y de «casi» dianas. Esto demuestra que no es posible prever la exactitud. Para probar el pastel es necesario comérselo: hasta obtener la precisión deseada, se efectúan todas las correcciones y modificaciones necesarias. Los casos en los que se logra una exactitud superior en un solo paso parecen milagros.
En segundo plano tenemos, parece claro, un hecho esencial que hace que la búsqueda de leyes fundamentales valga la pena. Se trata del hecho de que la naturaleza ha sido tan amable de obedecer leyes universales, en lugar de simples normas locales. Un átomo de hidrógeno
se comporta exactamente del mismo modo
en la Tierra, en el otro extremo de la Vía Láctea o en una galaxia a diez mil millones de años luz de distancia. Y esto se cumple en todas las direcciones y momentos.
Los matemáticos y físicos han inventado un término para referirse a estas propiedades: se denominan
simetrías,
y dan cuenta de la inmunidad a los cambios en la ubicación, en la orientación o el momento en que se pone en marcha el reloj. Si no fuese por estas (y otras) simetrías, la esperanza de descifrar algún día el gran plan de la naturaleza se hubiese perdido, porque los experimentos deberían haberse repetido en todos los lugares del espacio (si es que hubiese sido posible la aparición de la vida en un universo así). Otra de las propiedades del cosmos que subyace tras las teorías matemáticas es lo que se ha venido en llamar
localidad.
Esta propiedad refleja nuestra capacidad para construir la «imagen global» como si fuese un rompecabezas, empezando por una descripción de las interacciones más básicas entre partículas elementales.
Y ahora llegamos al último elemento del enigma de Wigner: ¿qué es lo que garantiza que deba existir siquiera una teoría matemática? En otras palabras: ¿por qué existe, por ejemplo, una teoría de la
relatividad general?
¿Podría ser que
no
existiese una teoría matemática de la gravedad?
La respuesta, en realidad, es más simple de lo que podría parecer.
[290]
¡No hay garantía alguna! Hay multitud de fenómenos para los que
ni siquiera en principio
es posible efectuar predicciones precisas. En esta categoría se hallan, por ejemplo, una amplia gama de sistemas dinámicos que desarrollan comportamientos caóticos, en los que un cambio nimio en las condiciones iniciales puede provocar resultados finales completamente distintos. Entre los fenómenos con este tipo de comportamientos se encuentran el mercado de valores, el tiempo atmosférico sobre las Montañas Rocosas, una bola rebotando en una ruleta, el humo que sale de un cigarrillo y, por supuesto, las órbitas de los planetas en el sistema solar. Esto no significa que los matemáticos no hayan desarrollado formalismos ingeniosos para tratar aspectos importantes de estos problemas, pero no existe una teoría determinista predictiva para ellos. Los campos de la probabilidad y la estadística se han creado precisamente para abordar las cuestiones en las que no se dispone de una teoría que permita obtener resultados más allá de las observaciones. De forma similar, el concepto denominado
complejidad computacional
delimita nuestra capacidad para resolver problemas mediante algoritmos prácticos, y los teoremas de incompletitud de Gödel determinan ciertas limitaciones dentro de la propia matemática. Así, aunque la matemática es extremadamente eficaz para ciertas descripciones, en especial las que tienen que ver con la ciencia, es incapaz de describir nuestro universo en
todas
sus dimensiones. Hasta cierto punto, los científicos han
seleccionado
los problemas en los que trabajan basándose en cuáles pueden recibir un tratamiento matemático.