Read Introducción a la ciencia I. Ciencias Físicas Online
Authors: Isaac Asimov
Evidentemente había aparecido una especie insólita de energía sin relación alguna con la energía química. Por fortuna los físicos no tardaron mucho en conocer la respuesta.
Una vez más la dio Einstein con su
Teoría especial de la relatividad
.
El tratamiento matemático einsteniano de la energía evidenció que se podía considerar la masa como una forma de energía, y por cierto muy concentrada, pues una ínfima cantidad de masa se convertía en inmensas cantidades de energía.
La ecuación de Einstein, relacionando masa y energía, figura hoy entre las más famosas del mundo. Dice así:
e = m c
2
Aquí,
e
representa la energía (en ergios);
m
, la masa (en gramos), y
c
, la velocidad de la luz (expresada en centímetros por segundo).
Puesto que la luz se traslada a treinta mil millones de centímetros por segundo, el valor de c
2
es 900 mil millones de millones. Ello significa que la conversión de 1 gramo de masa en energía producirá 900 mil millones de ergios. El ergio es una pequeña unidad de energía inexpresable en términos corrientes, pero podemos imaginar su significado si sabemos que la energía contenida en 1 g de masa basta para mantener encendida una bombilla eléctrica de 1.000 W durante 2.850 años. O, expresándolo de otra forma, la conversión completa de 1 g de masa en ergio dará un rendimiento equivalente al de 2.000 toneladas de gasolina.
La ecuación de Einstein destruyó una de las sagradas leyes científicas de conservación. En efecto, la «ley de conservación de masas», establecida por Lavoisier, decretaba que no se podía crear ni destruir la materia. A decir verdad, toda reacción química liberadora de energía transforma una pequeña cantidad de masa en energía: si pudiéramos pesar con absoluta precisión sus productos, la suma total de éstos no sería igual a la materia original. Pero la masa perdida en las reacciones químicas ordinarias es tan ínfima, que los químicos del siglo XIX no habrían podido detectarla con sus limitados procedimientos técnicos. Sin embargo, ahora los físicos afrontaron un fenómeno totalmente distinto: la reacción nuclear de la radiactividad, y no la reacción química del carbón combustible. Las reacciones nucleares libraron tanta energía, que la pérdida de masa fue lo suficientemente grande como para hacer mediciones.
Abogando por el intercambio de masa y energía, Einstein fundió las leyes de conservación de energía y de masa en una sola ley: La conservación de masa-energía.
La primera ley de termodinámica no sólo se mantuvo incólume, sino que fue también más inexpugnable que nunca.
Francis W. Aston confirmó experimentalmente la conversión de masa en energía mediante su espectrógrafo de masas. Éste podía medir con gran precisión la masa de núcleos atómicos tomando como base la magnitud de su deflexión por un campo magnético. Lo que realmente hizo Aston fue demostrar que los diversos núcleos no eran múltiplos exactos de las masas de neutrones y protones incorporados a su estructura.
Consideremos por un momento las masas de esos neutrones y protones. Durante un siglo se han medido generalmente las masas de átomos y partículas subatómicas dando por supuesto, como base, que el peso atómico del oxígeno es exactamente de 16,00000 (véase capítulo 6). Sin embargo, en 1929, William Giauque demostró que el oxígeno estaba constituido por 3 isótopos: el oxígeno 16, el oxígeno 17 y el oxígeno 18, y que su peso atómico era el peso promedio de los números másicos de esos tres isótopos.
A buen seguro, el oxígeno 16 era el más abundante de los tres, con el 99,759 % en todos los átomos de oxígeno. Ello significaba que si el oxígeno tenía un peso atómico general de 16,00000, el isótopo oxígeno 16 debería tener un número másico de
casi
16. (Las masas de las cantidades menores de oxígeno 17 y oxígeno 18 completaban al valor total, hasta 16.) Una generación después del descubrimiento, los químicos siguieron comportándose como si no existiera, ateniéndose a la antigua base, es decir, lo que se ha dado en llamar «pesos atómicos químicos».
Sin embargo, la reacción de los físicos fue distinta. Prefirieron asignar exactamente el valor 16,0000 a la masa del isótopo oxígeno 16 y determinar las restantes masas sobre tal base. Ésta permitiría especificar los «pesos atómicos físicos». Tomando, pues, como base el oxígeno 16 igual al patrón 16, el peso atómico del propio oxígeno, con sus indicios de isótopos más pesados, fue 16,0044. En general, los pesos atómicos físicos de todos los elementos serían un 0,027 % más elevados que los de sus sinónimos, los pesos atómicos químicos.
En 1961, los físicos y los químicos llegaron a un compromiso. Se acordó determinar los pesos atómicos sobre la base del isótopo carbono 12, al que se daría una masa 12,0000. Así, los números atómicos se basaron en un número másico característico y adquirieron la mayor solidez fundamental posible. Por añadidura, dicha base mantuvo los pesos atómicos casi exactamente como eran antes con el antiguo sistema. Por ejemplo, sobre la base del carbono 12 igual al patrón 12, el peso atómico del oxígeno es 15,9994.
Bien. Comencemos entonces por el átomo del carbono 12, cuya masa es igual a 12,0000. Su núcleo contiene 6 protones y 6 neutrones. Por las medidas espectrográficas de masas resulta evidente que, sobre la base del carbono 12 igual al patrón 12, la masa del protón en 1,007825, y la de un neutrón, 1,008665. Así, pues, 6 protones deberán tener una masa de 6,046950 y 6 neutrones, 6,051990. Los 12 nucleones juntos tendrán una masa de 12,104940. Pero la masa del carbono 12 es 12,00000. ¿Dónde ha ido a parar esa fracción de 0,104940?
La masa desaparecida es el «defecto de masa», el cual, dividido por el número másico, nos da el defecto de masa por nucleón o la «fracción empaquetadora». Realmente la masa no ha desaparecido, claro está. Se ha convertido en energía según la ecuación de Einstein y, por tanto, el defecto de masa es también la «energía aglutinadora» del núcleo. Para desintegrar el núcleo en protones y neutrones individuales se requiere una cantidad entrante de energía igual a la energía aglutinadora, puesto que se deberá formar una cantidad de masa equivalente a esa energía.
Aston determinó la «fracción empaquetadora» de muchos núcleos, y descubrió que ésta aumentaba desde el hidrógeno hasta los elementos próximos al hierro y luego disminuía con lentitud en el resto de la tabla periódica. Dicho de otra forma: la energía aglutinadora por nucleón era más elevada en el centro de la tabla periódica. Ello significaba que la conversión de un elemento situado en un extremo u otro de la tabla en otro próximo al centro, debería liberar energía.
Tomemos por ejemplo el uranio 238. Este núcleo se desintegra mediante una serie de eslabones en plomo 206. Durante tal proceso emite 8 partículas alfa. (También cede partículas beta, pero éstas son tan ligeras, que se las puede descartar.) Ahora bien, la masa del plomo 206 es 205,9745, y las 8 partículas alfa dan una masa total de 32,0208. Estos productos juntos totalizan 237,9953 de masa. Pero la del uranio 238, de donde proceden, es 238,0506. La diferencia o pérdida de masa es 0,0553. Esta pérdida de masa tiene la magnitud suficiente como para justificar la energía liberada cuando se desintegra el uranio.
Al desintegrarse el uranio en átomos todavía más pequeños, como le ocurre con la fisión, libera una cantidad mucho mayor de energía. Y cuando el hidrógeno se convierte en helio, tal como se encuentra en las estrellas, hay una pérdida fraccional aún mayor de masa y, consecuentemente, un desarrollo más rico de energía.
Por entonces, los físicos empezaron a considerar la equivalencia masa-energía como una contabilidad muy fiable.
Citemos un ejemplo. Cuando se descubrió el positrón en 1934, su aniquilamiento recíproco con un electrón produjo un par de rayos gamma cuya energía fue precisamente igual a la masa de las dos partículas. Por añadidura, se pudo crear masa con las apropiadas cantidades de energía. Un rayo gamma de adecuada energía, desaparecería en ciertas condiciones, para originar una «pareja electrón-positrón» creada con energía pura. Mayores cantidades de energía proporcionadas por partículas cósmicas o partículas expulsadas de sincrotones protón (véase capítulo 7), promoverían la creación de más partículas masivas, tales como mesones y antiprotones.
A nadie puede sorprender que cuando el saldo contable no cuadre, como ha ocurrido con la emisión de partículas beta poseedoras de una energía inferior a la esperada, los físicos inventen el neutrino para nivelar las cuentas de energía en vez de atropellar la ecuación de Einstein (véase capítulo 7).
Y si alguien requiriera una prueba adicional sobre la conversión de masa en energía, bastaría con referirse a la bomba atómica, la cual ha remachado ese último clavo.
En la década de los años veinte de nuestro siglo, el dualismo reinó sin disputa sobre la Física. Planck había demostrado que la radiación tenía carácter de partícula y onda a partes iguales. Einstein había demostrado que la masa y energía eran dos caras de la misma moneda y que espacio y tiempo eran inseparables. Los físicos empezaban a buscar otros dualismos.
En 1923, el físico francés Louis-Víctor de Broglie consiguió demostrar que así como una radiación tenía características de partículas, las partículas de materia tal como los electrones presentaban características de ondas. Las ondas asociadas a esas partículas —predijo Broglie— tendrían una longitud inversamente proporcional al momento de la partícula. Las longitudes de onda asociadas a electrones de velocidad moderada deben hallarse, según calculó Broglie, en la región de los rayos X.
Hasta esa sorprendente predicción pasó a la historia en 1927. Clinton Joseph Davisson y Lester Halbert Germer, de los «Bell Telephone Laboratories», bombardearon níquel metálico con electrones. Debido a un accidente de laboratorio que había hecho necesario el calentamiento del níquel durante largo tiempo, el metal había adoptado la forma de grandes cristales, una estructura ideal para los ensayos de difracción porque el espacio entre átomos en un cristal es comparable a las cortísimas longitudes de onda de los electrones. Y, efectivamente, los electrones, al pasar a través de esos cristales, no se comportaron como partículas, sino como ondas. La película colocada detrás del níquel mostró esquemas de interferencia, bandas alternativas opacas y claras, tal como habrían aparecido si hubieran sido rayos X y no electrones los que atravesaron el níquel.
Los esquemas de interferencias eran precisamente los que usara Young más de un siglo antes para probar la naturaleza ondulatoria de la luz. Ahora servían para probar la naturaleza ondulatoria de los electrones. Midiendo las bandas de interferencia se pudo calcular la longitud de onda asociada con los electrones, y esta longitud resultó ser de 1,65 unidades Angstróm (casi exactamente lo que había previsto Broglie).
Durante aquel mismo año, el físico británico George Paget Thomson, trabajando independientemente y empleando métodos diferentes, demostró asimismo que los electrones tienen propiedades ondulatorias.
De Broglie recibió el premio Nobel de Física en 1929; Davisson y Thomson compartieron ese mismo galardón en 1937.
El descubrimiento, totalmente inesperado, de ese nuevo dualismo, recibió casi inmediata aplicación en las observaciones microscópicas. Según he mencionado ya, los microscopios ópticos ordinarios pierden toda utilidad cuando se llega a cierto punto, porque hay un límite dimensional más allá del cual las ondas luminosas no pueden definir claramente los objetos. Cuanto más pequeños sean los objetos, más indistintos serán sus perfiles, pues las ondas luminosas empezarán a contornearlos —algo señalado, en primer lugar, por el físico alemán Ernst Karl Abbe en 1878—. (Por idéntica razón; la onda larga radioeléctrica nos transmite un cuadro borroso incluso de grandes objetos en el cielo.) Desde luego, el remedio consiste en buscar longitudes de onda más cortas para investigar objetos ínfimos. Los microscopios de luz corriente pueden distinguir dos franjas de 1/5.000 de milímetro, pero los microscopios de luz ultravioleta pueden distinguir franjas separadas de 1/10.000 de mm. Los rayos X serían más eficaces todavía, pero no hay lentes para rayos X. Sin embargo, se podría solventar este problema usando ondas asociadas con electrones que tienen más o menos la misma longitud de onda que los rayos X, pero se dejan manejar mucho mejor, pues, por lo pronto, un campo magnético puede curvar los «rayos electrónicos» porque las ondas se asocian con una partícula cargada.
Así como el ojo humano ve la imagen amplificada de un objeto si se manejan apropiadamente con lentes los rayos luminosos; una fotografía puede registrar la imagen amplificada de un objeto si se manejan apropiadamente con campos magnéticos las ondas electrónicas. Y como quiera que las longitudes de ondas asociadas a los electrones son mucho más pequeñas que las de la luz ordinaria, es posible obtener con el «microscopio electrónico» una enorme amplificación, y, desde luego, muy superior a la del microscopio ordinario (fíg. 8.5).
Fig. 8.5. Diagrama del microscopio electrónico. El condensador magnético dirige los electrones en rayos paralelos. El objetivo funciona como una lente convexa, produciendo una imagen amplificada que aumenta aún más el proyector magnético. La imagen se proyecta sobre una pantalla fluorescente de observación o placa fotográfica.