Premios Nobel – Química 1911 (Marie Skłodowska-Curie) | El Tamiz

Premios Nobel – Química 1911 (Marie Skłodowska-Curie)

Puedes suscribirte a El Tamiz a través de Twitter (@ElTamiz) por correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!
En la serie de los Premios Nobel recorremos estos galardones desde su nacimiento, en 1901, en las categorías de Física y Química. De este modo somos testigos, poco a poco, de los descubrimientos más importantes del siglo XX en estas dos ciencias y, de paso, de los de finales del XIX ya que, como has visto si llevas tiempo con nosotros –sucede con el premio de hoy–, muchos de los galardones de principios del XX son realmente para descubrimientos realizados en el último tercio del XIX.
El premio de hoy es especial, entre otras cosas, porque no voy a dedicarle mucho espacio aparte del discurso de entrega por parte de E. W. Dahlgren, el Presidente de la Real Academia Sueca de las Ciencias; básicamente hablaré de algunos aspectos relacionados con el descubrimiento, como casi siempre, escribiendo sin saber dónde acabaré, de modo que seguramente será una diatriba sin mucho sentido, para variar.
Se trata del Premio Nobel de Química de 1911, entregado a Marie Skłodowska-Curie, en palabras de la Academia,
En reconocimiento a sus servicios al avance de la química con el descubrimiento de los elementos radio y polonio, por el aislamiento del radio y el estudio de la naturaleza de los compuestos de este elemento notable.
Si has seguido esta serie desde el principio, esto debería resultarte muy familiar. El Premio Nobel de Física de 1903 fue entregado conjuntamente a Henri Becquerel, Pierre y Marie Curie. En el caso de Becquerel,
En reconocimiento a los servicios extraordinarios que ha proporcionado su descubrimiento de la radioactividad espontánea.
Y en el caso de los dos Curie,
En reconocimiento a los servicios extraordinarios que han proporcionado mediante su investigación conjunta sobre los fenómenos descubiertos por el Profesor Henri Becquerel.
Esa investigación conjunta, como ya vimos en aquel artículo, se dedicó fundamentalmente al estudio del radio y el polonio. De manera que Marie Skłodowska-Curie recibió dos Nobel, uno de Física y uno de Química, básicamente por la misma cadena de descubrimientos. Mi recomendación, desde luego, es que dediques la mayor parte del tiempo a releer el primero de los dos, ya que allí describimos casi todo por lo que se premió de nuevo a Curie.
Ésta es la segunda razón por la que este premio es especial: fue la primera vez en la cual una misma persona ganó Nobel siendo ya poseedora de uno antes. El hecho de que fuera una mujer en una época en la que la comunidad científica estaba aún más dominada por hombres que ahora atestigüa el genio de Curie.
¿Cambió el doble Nobel de Maria la actitud de los hombres de ciencia hacia las mujeres? Si crees que fue así es que tienes más fe en la naturaleza humana de la que merece. El mismo año que recibió el Nobel de Química, la Académie des sciences francesa rechazó aceptarla como miembro por dos votos, y eligió en su lugar a Édouard Branly, que no tenía ni el talento, ni la inteligencia, ni los conocimientos ni el historial de Curie, pero sí una característica mucho más importante, al parecer, que todo eso: era un varón. En fin.
Marie y Pierre Curie
Marie (1867-1934) y Pierre (1859-1906) Curie.
Desde luego, de haber estado vivo, Pierre Curie indudablemente hubiera sido galardonado con ella. Desgraciadamente, Pierre había muerto cinco años antes, en 1906. Se encontraba cruzando una calle de París en un día lluvioso cuando resbaló en los adoquines y cayó frente a un carro de caballos, con tan mala suerte que una de las ruedas le pasó por encima de la cabeza y lo mató instantáneamente. Maria nunca se recuperó de la terrible soledad causada por la muerte de Pierre y el resto de su vida sufrió repetidos episodios de depresión.
Sin embargo, como dijimos al hablar del premio de 1903, Pierre estaba seguramente condenado a morir de todos modos, como la propia Marie, debido a las inmensas cantidades de radiación ionizante que ambos recibieron durante años mientras estudiaban elementos radioactivos. Marie murió de anemia aplástica en 1934 debido a las enormes dosis de radiación recibidas a lo largo de los años, cuando aún no se conocían los peligros de la exposición a radiación ionizante.
Los propios Curie fueron conscientes bastante pronto de los peligros a corto plazo de la radiación emitida por el radio y elementos similares, ya que sufrieron quemaduras al llevar trozos de radio en los bolsillos. Ya dijimos en el artículo sobre ellos que el propio Pierre ya temió desde el principio que alguien pudiera usar la radioactividad natural como arma (¿qué hubiera pensado de haber vivido hasta la Segunda Guerra Mundial?). Sin embargo, por entonces no se conocían los peligros a largo plazo relacionados con el cáncer, de modo que las dosis ligeras pero repetidas de radiación no se consideraban peligrosas.
Para que te hagas una idea, las notas tomadas por Marie Curie durante la década de 1890, mientras realizaba junto con Pierre la mayor parte de sus investigaciones con polonio, radio y uranio, al haber pasado tanto tiempo en la habitación junto con las muestras de esos elementos, son radioactivas incluso hoy en día. Tanto es así que para consultar esas notas hace falta llevar un traje de protección.
Curie en Solvay
Conferencia de Solvay en 1911. Si eres tamicero añejo, conoces bastante bien al menos a cinco de ellos, ¿eres capaz de identificarlos sin buscar nada en la red?
Finalmente, este premio es especial porque pone de manifiesto la unión entre la Física y la Química y el desdibujamiento de líneas que tantas veces hemos repetido a lo largo de la serie: el final del XIX supuso la fusión entre ambas ciencias al observar el mundo subatómico. El hecho de que una científica recibiera un Nobel de Física y otro de Química por el mismo descubrimiento lo hace evidente.
¿Por qué recibir dos reconocimientos diferentes por las mismas investigaciones? Sí, en parte se debe a que se trató de descubrimientos relevantes para ambas ciencias. Sin embargo, también porque estamos en 1911, ocho años después del primer Nobel de Curie en 1903, y durante esos años descubrimos cosas que antes no sabíamos, y que hacían de los elementos radiactivos –especialmente del radio– algo mucho más allá de una simple curiosidad científica.
Prácticamente desde el mismo descubrimiento del primer signo de radioactividad espontánea, los rayos de Röntgen, varios médicos se plantearon su utilización como herramienta de diagnóstico e incluso de tratamiento. Creo que su utilidad como método de diagnóstico es evidente: como el propio Röntgen hizo con la mano de su mujer, es posible ver el interior del cuerpo sin abrirlo, lo cual supuso una auténtica revolución en medicina y ha llevado, finalmente, a logros como la Tomografía Axial Computarizada.
La primera radiografía
La primera radiografía: la mano de Anna Röntgen, el 22 de diciembre de 1895.
Sin embargo, cuando se vio que los rayos X podían producir graves quemaduras si la intensidad era suficientemente grande, los médicos empezaron a experimentar con ellos como tratamiento contra tumores y lupus. Así, prácticamente al mismo tiempo, justo antes del cambio de siglo, nacieron dos disciplinas relacionadas, la radiología y la radioterapia: la primera utilizaba la radioactividad para el diagnóstico y la segunda para el tratamiento de distintas enfermedades.
Desde luego, por entonces nadie tenía ni idea de cómo funcionaban exactamente ni la una ni la otra. Nikola Tesla, por ejemplo, pensaba que los rayos X producían quemaduras en la piel por la formación de ozono en el aire, en vez de por la acción de los propios rayos X. Pero poco a poco, experimento a experimento, fue posible determinar que era la propia radiación ionizante la responsable de los efectos, y más importante aún: qué dolencias era posible tratar y cómo hacerlo produciendo el menor daño posible al paciente.
El principal impulsor de las dos nuevas ramas de la medicina y, si tuviésemos que dar un nombre, su fundador, fue el austríaco Léopold Freund. Un año después de que Röntgen publicase su artículo sobre los rayos X, Freund estaba ya tratando lo que probablemente eran casos de melanoma utilizando rayos X para quemar el tejido maligno. Eso sí, tiemblo al pensar en los primeros pacientes que recibían este tipo de tratamientos, y en los propios doctores presentes en la habitación al hacerlo.
Epitelioma y rayos X
Tratamiento de un epitelioma usando rayos X en 1915.
De hecho, durante un tiempo –ignorantes además de los efectos de la radiación ionizante a largo plazo– hubo una especie de moda estúpida, como suele pasar con las cosas nuevas, por la que algunos pretendían curar prácticamente todo utilizando rayos X. Poco a poco, sin embargo, se fueron clarificando los peligros y las condiciones en las que podían resultar útiles.
El descubrimiento del radio por parte de los Curie en 1898 supuso una nueva y potentísima fuente de radioactividad natural, y la medicina se fijó en ella, una vez más, prácticamente desde el principio. En 1901, Henri Becquerel prestó cierta cantidad de sales de radio al doctor Henri-Alexandre Danlos, del Hospital de San Luis, en París. Danlos trató con ellas varios casos de lupus, y se comprobó su eficacia con bastante rapidez. Sin embargo, había un problema con el radio que no existía con las fuentes de rayos X utilizadas por Röntgen y similares; como vimos al hablar del descubrimiento del radio, los Curie necesitaban toneladas de pechblenda para producir pequeñas cantidades del peligroso elemento. Por lo tanto, las sales de radio eran carísimas.
La ventaja del radio respecto a los rayos X externos era que, usando sales de radio, era posible introducirlas en el cuerpo en el lugar deseado de un modo que no era factible con una fuente externa de radiación X. Es más, al principio se llevó esto hasta sus últimas consecuencias: en Alemania se trataron casos de tuberculosis haciendo a los pacientes inhalar radón, ya que ese gas radiactivo era emitido de manera espontánea por el radio y, al ser gaseoso, era posible respirarlo. ¡Glup!
Pero las sales de radio tenían una gran versatilidad: era posible meterlas en pequeños recipientes metálicos e introducir éstos en algún orificio del cuerpo, era posible disolverlas en agua y bebérsela, o bañarse en ella… era posible hacer todo tipo de cosas que, con el conocimiento actual, nos parecen descabelladas, pero que por entonces se consideraban saludables y magníficas.
Es más, antes de ser conscientes de los peligros terribles de la radiación ionizante, no existía la menor regulación sobre el uso de sustancias radioactivas, y lo mismo que hoy venden imanes que ayudan a dormir mejor y cosas parecidas –afortunadamente, en general inocuas–, era posible encontrarse cosas como ésta (traducción debajo):
Terapia radioactiva
Anuncio de radioterapia de 1915.
Terapia de radio.
El único aparato científico para la preparación de agua radiactiva en el hospital o en el hogar del propio paciente. Este aparato proporciona una dosis, elevada y medida, de agua radioactiva para el tratamiento de gota, reumatismo, artritis, neuralgias, ciática, tabes dorsalis, catarro de los senos maxilar y frontal, arteriosclerosis, diabetes, glicosuria y nefritis, como se describe en el discurso del Dr. Saubermann ante la Sociedad Röntgen, impreso en este número de los “Archivos”.
Descripción:
El “activador” de loza perforada en el recipiente de vidrio contiene una preparación insoluble impregnada con radio. Emite constantemente emanaciones de radio [es decir, radón, tal como se denominaba por entonces] a un ritmo fijo, y mantiene el agua del recipiente cargada con una intensidad fija y medible de entre 5000 y 10000 unidades de Maché [una unidad obsoleta de cantidad de radón, equivalente a unos 13,45 Bq/L] por litro y día.
De modo que la gente, así como lo oyes, bebía agua radioactiva para curar prácticamente cualquier cosa. Sin embargo, a pesar de nuestro ignorante atrevimiento, la radiología y la radioterapia cambiaron la medicina, y la hicieron avanzar a pasos agigantados. Incluso en 1911 se había hecho evidente la importancia revolucionaria de los elementos radioactivos naturales, y esa relevancia práctica, creo, fue la responsable de que Marie Curie recibiera su segundo Nobel.
Así, el diez de diciembre de 1911, el Dr. E. W. Dahlgren, Presidente de la Real Academia Sueca de las Ciencias, ante el público reunido en la gran sala de la Academia –entre ellos la familia real sueca casi al completo, además de la propia Curie, por supuesto–, anunció:
Su Majestad, Sus Altezas Reales, damas y caballeros.
La Real Academia de las Ciencias ha decidido, en la sesión del siete de noviembre de este año, otorgar el Premio Nobel de Química de 1911 a Madame Marie Curie, catedrática en la Facultad de Ciencias de París, en reconocimiento al papel que ha desempeñado en el desarrollo de la química:
Por el descubrimiento de los elementos químicos radio y polonio.
Por la determinación de las propiedades del radio y el aislamiento del radio en estado metálico puro.
Y, finalmente, por sus investigaciones sobre los compuestos de este elemento notable.
En 1896, Becquerel observó que los compuestos del elemento uranio emitían rayos con la propiedad de producir cambios en placas fotográficas y de hacer del aire un conductor eléctrico. Este fenómeno se conoce con el nombre de radioactividad, y las sustancias que lo producen se denominan radiactivas.
Algo después se observó que los compuestos de otro elemento, el torio, descubierto anteriormente por Berzelius, poseían propiedades similares.
La Academia de las Ciencias otorgó el Premio Nobel de Física de 1903 conjuntamente a Henri Becquerel y Pierre y Marie Curie por el descubrimiento y el estudio de estas radiaciones, denominadas rayos uránicos o de Becquerel.
Durante sus investigaciones sobre la radiactividad de un gran número de compuestos del uranio y el radio, Madame Curie se dio cuenta de que la intensidad de la radiactividad estaba relacionada con la proporción de estos elementos en los compuestos. Sin embargo, algunos minerales existentes en la naturaleza eran una extraña excepción a esta regla, como por ejemplo la pechblenda, cuya radioactividad era mucho mayor que el valor calculado a partir de su contenido en uranio; de hecho, era aún mayor que la del propio uranio elemental.
La conclusión lógica era que estos minerales debían contener un elemento desconocido hasta entonces e intensamente radioactivo; y, de hecho, Marie y Pierre Curie consiguieron extraer, mediante el uso de procesos químicos sistemáticos, de larga duración y muy complejos, a partir de varias toneladas de pechblenda, mínusculas cantidades de las sales de dos nuevos elementos muy radioactivos, que llamaron polonio y radio.
El radio, el único de estos dos elementos que ha sido aislado en estado puro hasta el momento, se parece al metal bario en sus propiedades químicas, y se diferencia de él por un espectro de emisión muy característico. Su peso atómico fue determinado por Madame Curie y es de 226,45. Ha sido tan sólo el año pasado (1910) que Madame Curie, con la ayuda de uno de sus colaboradores, ha conseguido obtener radio puro en estado metálico, demostrando claramente su carácter elemental, a pesar de la existencia de varias hipótesis que sostenían lo contrario.
El radio es un metal plateado, brillante, que reacciona violentamente con el agua y quema la materia orgánica con la que entra en contacto. Se funde a 700 ºC y es más volátil que el bario.
Desde el punto de vista químico, la propiedad más notable del radio y sus derivados es que, sin ser afectados por las condiciones ambientales, producen constantemente una emanación, una sustancia gaseosa radiactiva que puede condensarse para formar un líquido a bajas temperaturas. Esta emanación, para la que se ha propuesto el nombre de nitón, parece tener las caracterísicas de un elemento químico, y se parece químicamente a los denominados gases nobles, cuyo descubrimiento supuso en su momento el Premio Nobel de Química.
Pero esto no es todo. La emanación sufre, a su vez, una descomposición espontánea; y uno de los productos de esta descomposición, de acuerdo con Sir William Ramsay, ganador de un Premio Nobel, y de otros científicos de renombre, es el elemento gaseoso helio. Este elemento ya había sido observado en el espectro solar y en pequeñas cantidades en la propia Tierra.
Este hecho ha dejado claro por primera vez en la historia de la química que un elemento puede realmente transmutarse y convertirse en otro; y es esto lo que, más que cualquier otra cosa, proporciona al descubrimiento del radio una importancia que puede decirse revolucionará la química y señalará una nueva etapa.
La teoría de la inmutabilidad absoluta de los elementos químicos ya no se sostiena, ahora que la ciencia ha logrado desentrañar parte del misterio que, hasta ahora, ocultaba la evolución de los elementos.
La teoría de la transmutación, muy querida de los alquimistas, ha vuelto a la vida de manera inesperada, esta vez en una forma exacta, carente de cualquier elemento místico; y la piedra filosofal, capaz de inducir estas transformaciones, ya no es un elixir misterioso y eolusivo, sino lo que la ciencia moderna denomina energía.
El sistema de partículas de las que, debemos suponer, se componen los átomos de radio, está cargado con una cantidad extraordinaria de energía. Cuando el átomo se rompe, esta energía se revela en la emisión espontánea de luz y calor que es característica del radio.
Además, ya no estamos tratando con un fenómeno único o incluso inusual. El descubrimiento del radio y el polonio, un elemento aún más radioactivo, ha traído con él el descubrimiento de muchos otros elementos radiactivos con vidas medias más largas o maś cortas, mediante los cuales nuestro conocimiento de la química y nuestra comprensión sobre la naturaleza de la materia han aumentado considerablemente.
Efectivamente, las investigaciones sobre el radio han producido, en los últimos años, una nueva rama de la ciencia, la radiología, que ya posee institutos y revistas propios en los países científicamente relevantes.
Esta ciencia, importante en sí misma, ha adquirido una importancia adicional por sus numerosos puntos de contacto con otras ciencias naturales, como la física, la meteorología, la geología y la fisiología. Sabemos que el radio, por sus efectos fisiológicos, ha encontrado usos en la medicina, y a juzgar por numerosos experimentos, la radioterapia promete importantes resultados, especialmente en el tratamiento de tumores cancerosos y del lupus.
A razón de la enorme importancia del descubrimiento del radio, primero para la química y luego para muchas otras ramas del conocimiento y la actividad humanos, la Real Academia de las Ciencias se considera plenamente justificada al otorgar el Premio Nobel de Química a la única superviviente de los dos científicos a quienes debemos este descubrimiento, a Madame Skłodowska-Curie.
Madam. En 1901, la Academia Sueca de las Ciencias tuvo el honor de otorgarle el Premio Nobel de Física por la parte que usted, junto con su difunto marido, desempeñó en el importantísimo descubrimiento de la radioactividad espontánea.
Este año, la Academia ha decidido otorgarle el premio de Química, en reconocimiento a los importantes servicios que ha proporcionado a esta ciencia con su descubrimiento del radio y el polonio, por su descripción de las características del radio y por su aislamiento en estado metálico, además de sus investigaciones sobre los compuestos de este notable elemento.
Durante los once años que se han entregado los Premios Nobel, ésta es la primera vez que la distinción se ha otorgado de nuevo al ganador de un premio anterior. Le pido, Madame, que vea en esta circunstancia la prueba de la importancia que nuestra Academia da a sus descubrimientos más recientes; y la invito, Madame, a recibir el premio de manos de su Majestad el Rey, que ha accedido graciosamente a entregárselo.


Para saber más (esp/ing cuando es posible):

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Química 1910 (Otto Wallach)

Premios Nobel – Química 1910 (Otto Wallach)

Puedes suscribirte a El Tamiz a través de Twitter (@ElTamiz) por correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!



La última entrega de la serie sobre los Premios Nobelestuvo dedicada a Johannes Diderik van der Waals, ganador del Nobel de Física de 1910 por su trabajo en la ecuación de estado que lleva su nombre. Allí fuimos testigos de una de las tendencias que me parecen fundamentales en el cambio de siglo XIX-XX, y pido disculpas si soy pesado al repetirlo: el desdibujar de líneas entre cosas que se habían considerado muy diferentes anteriormente. Lo mismo nos había sucedido al hablar de algún Nobel de Química anterior al de hoy, con la diferencia entre lo vivo y lo no vivo; hoy volveremos a ver la misma tendencia al hablar del Nobel de Química de 1910, otorgado al alemán Otto Wallach, en palabras de la Real Academia Sueca de las Ciencias,

En reconocimiento a sus servicios a la química orgánica y la industria química por su trabajo pionero en el campo de los compuestos alicíclicos.

Sé que la descripción del Premio no resulta fascinante –y que me perdonen los químicos orgánicos–, y no será éste uno de los artículos más largos de la serie. Sin embargo, intentaré por una parte que cuando termines de leer tengas una idea de qué son los terpenos –el tipo de compuestos alicíclicos en los que trabajó fundamentalmente Wallach– y por qué son importantes biológica e industrialmente, y por otra soltar un par de opiniones personales relacionadas con esto y con el momento que estamos viviendo (como siempre, cuando vaya a dar mi opinión avisaré, para que puedas tratarla como lo que es: la diatriba de un bocazas).
Como siempre repito en esta mitad de la serie, yo no soy químico, de modo que corregidme sin piedad cuando meta la pata, sobre todo con los nombres, porque mis fuentes suelen estar en inglés (mis libros de química lo están, y si tengo que consultar Wikipedia intento evitar la versión en español porque en inglés es muchísimo más completa), con lo que aunque intento traducir bien los nombres de compuestos, a veces meto cada anglicismo que tira para atrás.
Dicho esto, conozcamos a los terpenos y a su “padre”, el barbudo Otto Wallach.

Desde tiempo inmemorial se habían conocido unas sustancias oleosas generalmente llamadas aceites esenciales (el vago nombre te dice ya lo poco que se sabía sobre su naturaleza). Desde luego, la definición no era rigurosa, pero solían tener unas características similares: eran comúnmente volátiles y como consecuencia de fuerte olor –a veces agradable, a veces terrible– y provenían de distintas especies vegetales. Algunos eran empleados con fines medicinales, otros simplemente por el olor, y otros por sus propiedades químicas.
De todos estos aceites, el más conocido de todos era el aguarrás o aceite de trementina. El nombre de trementina proviene del griego terebinthine, un árbol que en castellano llamamos cornicabra pero cuyo nombre científico es Pistacia terebinthus (y que está, por cierto, relacionado con el árbol del que vienen los pistachos). Los antiguos griegos destilaban la resina de ese árbol para obtener un aceite volátil muy útil como disolvente (seguro que lo conoces como disolvente de pintura, por ejemplo): la trementina. Posteriormente se obtuvo trementina también de la resina de otros árboles y creo que hoy en día no es siquiera el mismo compuesto químico aunque se siga llamando así, porque se obtiene del petróleo. Cuento esto del nombre de la trementina porque, como veremos luego, es relevante. El caso es que, si has olido resina de pino alguna vez, se trata de uno de estos aceites esenciales (luego veremos de qué está hecha exactamente la resina).
Resina de pino
Resina de pino (Meanos/CC 3.0 Attribution-Sharealike License).
Sin embargo, aunque se utilizaban muchos de estos aceites esenciales de intenso olor por su naturaleza volátil, su composición química era un misterio. Había varios problemas: en primer lugar, durante mucho tiempo la química orgánica ni siquiera se consideró una opción. Como hemos dicho alguna otra vez en la serie, las sustancias provenientes de los seres vivos se consideraban completamente diferentes de las sustancias inorgánicas, con reglas distintas y en muchos casos no sometidos a reglas — el “milagro de la vida” y esas cosas.
En segundo lugar, una vez la química orgánica empezó a despegar en el XIX, estos compuestos eran endiabladamente difíciles de estudiar por su inestabilidad. No sólo eran muy volátiles –como digo, por eso huelen tanto– sino que además reaccionaban con muchas sustancias cotidianas y cambiaban su composición con bastante facilidad. Y, para rizar el rizo, el misterio principal: muchos de estos compuestos tenían carbono e hidrógeno en exactamente las mismas proporciones. No sólo eso, sino que muchos tenían el mismo número de átomos de cada uno –es decir, la misma fórmula empírica– pero situados de diferentes maneras.
De modo que, durante décadas, aunque existían en los laboratorios, estos compuestos fueron en su mayor parte ignorados por los químicos teóricos. Así estaban las cosas, de hecho, cuando Otto Wallach entra en escena.
Otto Otto_Wallach
Otto Wallach (1847-1931).
Wallach era ya un químico orgánico de nivel. Se había doctorado en la Universidad de Göttingen con una tesis sobre los isómeros del tolueno, había trabajado nada más y nada menos que con Friedrich August Kekulé, uno de los químicos más importantes de la segunda mitad del siglo XIX, y había obtenido una cátedra en la Universidad de Bonn. Allí estaba hacia 1880, trabajando precisamente con Kekulé, que en ciertos aspectos parece haber sido su mentor, cuando Kekulé le señaló un armario que guardaba botellas casi olvidadas con diferentes aceites esenciales.
Imagino a Wallach, que por entonces tenía unos treinta y tres años, abriendo el viejo armario y echando un vistazo a las botellas cubiertas de polvo llenas de esos malditos aceites volátiles, docenas de ellos, que habían sido descartados como objeto de investigación por tantos químicos antes que él. No era un asunto, como sucede otras veces en la génesis de un Nobel, que constituyera un enorme misterio al que todos dedican atención: se me ocurren pocos campos de investigación en un principio tan poco atractivos.
Sin embargo, Wallach aceptó el desafío y empezó a experimentar.
Al hacerlo, obligando a estos compuestos a reaccionar con cloruro y bromuro de hidrógeno entre otros reactivos, Wallach se dio cuenta de que era en primer lugar posible clasificar estos compuestos según su fórmula empírica, es decir, según el número de átomos de cada tipo que los constituían. Como decíamos antes, muchos de ellos tenían las mismas proporciones de carbono y oxígeno, pero no la misma cantidad. Por ejemplo, un grupo de ellos tenía la fórmula empírica C10H16, mientras que otro grupo tenía C15H24. Como ves, la misma proporción, pero en el segundo caso había 1,5 veces el número de átomos que en el primero. Otro grupo, por el contrario, era de fórmula C20H32, justo el doble que el primero que hemos mencionado pero, una vez más, en la misma proporción.
De modo que estaba bastante claro que todos ellos estaban formados por una especie de “unidad básica” que se repetía un número determinado de veces. Sin embargo, como puedes ver al comparar C10H16 con C15H24, esa unidad básica debe ser aún menor que el primero: debe ser C5H8.
Todos estos compuestos, que hoy denominamos terpenos por el nombre alemán del aguarrás, terpentin, eran por lo tanto una especie de construcciones de Lego formadas por un número determinado de “piezas” C5H8, a veces complicadas por la adición de algún grupo funcional determinado.
Isopreno
Isopreno (Brools/CC 3.0 Attribution-Sharealike License).
Esa unidad básica es el isopreno, o más técnicamente, 2-metil-1,3-butadieno, formado naturalmente por cinco átomos de carbono y ocho de hidrógeno. El isopreno, por cierto, está por todas partes, no sólo en los terpenos. Parece ser una “pieza de Lego” muy versátil y utilizada en muchos sistemas biológicos. Aunque por sí solo, en piezas “sueltas” es un líquido incoloro muy volátil, puede formar polímeros muy largos y estables. Puedo asegurarte que lo has tocado alguna vez en su forma polimerizada, porque la goma de borrar no es otra cosa que isopreno polimerizado y hemos hablado de él por esa razón en El Tamiz hace bastante tiempo.
Sin embargo, los polímeros de isopreno que Wallach fue clasificando no tenían tantos eslabones de isopreno. Los formados por un solo isopreno se denominan hemiterpenos, pero claro, sólo hay uno, el propio isopreno, porque pocas combinaciones se pueden hacer con uno solo. Sin embargo, cuando se añaden otros eslabones de isopreno, pueden lograrse moléculas con una geometría realmente complicada: el isopreno puede unirse a sí mismo y la molécula convertirse en un anillo (una molécula cíclica) o no hacerlo, de modo que se tiene simplemente una cadena larga (una molécula lineal).
Así, con dos isoprenos se tienen los denominados monoterpenos, cuya fórmula empírica es C10H16. Pero claro, como tantas veces en química orgánica, la fórmula empírica dice muy poco: la geometría y dónde están los enlaces determinan las propiedades de la sustancia. De hecho, Wallach comprobó que el aguarrás no era sino una mezcla de monoterpenos, fundamentalmente alfa-pineno y beta-pineno, los dos isómeros del pineno (formado, claro está, por dos isoprenos).
Y es que la resina del pino es, en su mayor parte, una mezcla de monoterpenos (una vez más, fundamentalmente pineno, que se llama así por el pino). Pero seguro que has oído alguna vez el nombre de otros compuestos que son derivados de monoterpenos; al ser derivados de un terpeno se los denomina terpenoides, pues tienen algún otro grupo funcional. Algunos monoterpenoides muy conocidos son el mentol, el eucaliptol o el alcanfor.
Los terpenos de tres isoprenos se llaman sesquiterpenos (son los de fórmula empírica C15H24), y los de cuatro isoprenos diterpenos. El diterpenoide –derivado de un diterpeno– más famoso es seguramente el retinol, una forma de vitamina A. Pero también hay terpenos con más unidades de isopreno que seguro que conoces; por ejemplo, el licopeno del tomate es un tetraterpeno, es decir, un terpeno de ocho isoprenos, como también lo son los carotenos. Finalmente, como dijimos antes, el caucho natural es un politerpeno, un terpeno de muchas unidades de isopreno.
No voy a seguir nombrando terpenos, no te preocupes: mi intención es mostar la importancia del descubrimiento y análisis de Wallach. El alemán identificó una unidad básica de construcción de multitud de compuestos orgánicos, muchos de ellos esenciales para la vida. Además, nos libró del término “aceite esencial” con una definición nada rigurosa para dar una mucho más concreta: compuestos formados por una o más unidades de isopreno.
Entre otras cosas, Wallach pudo identificar cuántas unidades de isopreno había en multitud de aceites esenciales; tras su trabajo, en vez de haber docenas y docenas de nombres inconexos, normalmente nombres de plantas, la lista se redujo muchísimo, ya que muchos de esos aceites no eran más que una mezcla de varios terpenos que él pudo identificar sin problemas. Un campo que antes era caótico, borroso y muy confuso se convirtió en algo asequible y racional. Tras el paso de Wallach fue posible no sólo analizar terpenos, sino manipularlos y hacerlos reaccionar para conseguir moléculas concretas: el alemán no sólo nos había hecho comprender las cosas y entender aspectos biológicos, sino que había abierto la puerta a la industria química de los terpenos en particular y los compuestos alicíclicos en general.
Aquí es donde te aviso: este párrafo va a ser un sermón de opinión personal. No voy a repetir “en mi opinión” en cada frase porque todo el párrafo lo es. En una época en la que, desgraciadamente, las patentes de software están a la orden del día, Otto Wallach –como lo hizo Wilhelm Röntgen– nos sirve como un ejemplo del pasado que sigue siendo relevante. A lo largo de sus investigaciones en el laboratorio, Wallach descubrió multitud de procesos con los que obtener compuestos concretos; procesos muy útiles para el desarrollo de la industria química de la época y, por lo tanto, muy valiosos. Y el alemán no patentó absolutamente ninguno de ellos, sino que los dejó libres de forma gratuita para que cualquiera pudiera beneficiarse de ellos, haciendo así avanzar la química de principios del siglo XX de una manera imposible de otro modo.
El caso es que en 1909, un año antes de recibir el Nobel, Wallach publicó un tocho de 600 páginas titulado Terpene und Campher (Terpeno y alcanfor) que se convertiría en la Biblia de sus alumnos. Y esos alumnos, que habían trabajado con él en el laboratorio realizando los experimentos necesarios para identificar y modificar todos esos compuestos, una vez salidos de la Universidad se convirtieron en otro enorme impulso para la industria química alemana relacionada con este asunto. En poco más de una década la cantidad de aceites esenciales producidos en Alemania se cuadruplicó, en gran parte gracias al trabajo de Wallach.
El alemán no fue un brillante teórico, ni descubrió secretos del Universo que revolucionasen nuestra visión del mundo. Sin embargo, era un experimentador meticuloso y perseverante, y logró solventar los obstáculos –como la reactividad y volatilidad de estos compuestos– que otros antes que él habían sido incapaces de superar. No sólo consiguió desvelarnos la naturaleza de multitud de sustancias a nuestro alrededor e incluso en nuestro organismo, sino que impulsó nuestra industria química a un ritmo impresionante. Por eso hemos decidido concederle el más alto honor que nuestra Academia pued… ¡ah, no, que yo no otorgo el Nobel! Mejor cedo la palabra al Profesor Montelius, que el diez de diciembre de 1910 anunció:

Su Majestad, Sus Altezas Reales, Damas y Caballeros.
En la reunión del 12 de noviembre, la Real Academia Sueca de las Ciencias ha decidido otorgar el Premio Nobel de Química de este año al Geheimrat [un título del Sacro Imperio Romano Germánico, algo así como consejero] Otto Wallach, catedrático de la Universidad de Göttingen, por los servicios que ha proporcionado en el desarrollo de la química orgánica y la industria química con su trabajo pionero en el campo de los compuestos alicíclicos.
Como es bien conocido, las plantas contienen compuestos de olor más o menos fuerte, que desempeñan un importante papel en sus funciones vitales y particularmente en su fecundación. Estos compuestos fueron siempre agrupados, desde tiempo antiguo, bajo el nombre de “aceites esenciales” a causa de su volatilidad. Desde muy pronto se aislaron a partir de estos aceites esenciales ciertos hidrocarburos, denominados terpenos porque el aguarrás [aceite de trementina, en alemán terpentin] está formado por una mezcla de estos hidrocarburos.
Estos hidrocarburos ocupaban una posición especial en cuanto al aspecto químico en comparación con otros. Todos tenían la misma composición centesimal y casi todos tenían incluso el mismo peso atómico [hoy en día, masa atómica], alcanzaban el punto de ebullición más o menos a la misma temperatura; sin embargo, mostraban ciertas diferencias en el olor, las propiedades ópticas y las reacciones químicas, de modo que no podían considerarse la misma sustancia. A lo largo del tiempo se han descrito casi un centenar de estos terpenos en la literatura química y normalmente se les ha dado el nombre a partir de la planta de la que fueron aislados. Por su inestabilidad, eran particularmente difíciles de manejar y la teoría química no podía acomodar tan enorme cantidad de isómeros; por tanto, un estudio profundo de este campo parecía prácticamente imposible.
En esas circunstancias, el hecho de que este campo antes tan misterioso se nos presente ahora tan claramente en los aspectos teórico y experimental debe considerarse uno de los mayores triunfos de las ciencias químicas en los últimos años. El honor pertenece, principalmente, a Otto Wallach, quien no sólo fue un pionero de este campo desde sus comienzos sino que además ha continuado, a lo largo del tiempo, a liderarlo en cierta medida.
Wallach empezó a trabajar en este campo en 1884. Tras seis años, compiló los resultados obtenidos hasta entonces en una publicación. Había logrado encontrar métodos de caracterizar de manera distintiva los diversos terpenos, de modo que era posible reconocerlos en mezclas y separar unos de otros en esas mezclas. Con estos métodos había sido también capaz de reducir el número de los terpenos conocidos hasta entonces a un número sorprendentemente bajo –ocho– al que se añadieron posteriormente unos pocos más descubiertos desde ese momento. Además, logró demostrar que los compuestos terpenoides sufren cambios muy fácilmente al ponerse en contacto con los reactivos más comunes y se transforman de unos en otros, lo que hace especialmente difícil y delicada la investigación en el campo de la química de los terpenos. Al investigar tantos compuestos como le fue posible, consiguió determinar qué condiciones excluían la isomerización; también desarrolló la técnica general para realizar estas investigaciones.
A través de este trabajo pionero, Wallach abrió un nuevo campo de investigación, que podía ser desarrollado a partir de entonces con esperanzas de éxito. Y es cierto que este campo fue inmediatamente atacado por un gran número de investigadores de distintos países. Durante la década siguiente, la química orgánica se caracterizó por el estudio de los así llamados compuestos alicíclicos, de los que los terpenos y el alcanfor y sus compuestos derivados constituyen la parte más importante.
El propio Wallach, superando dificultades considerables con un éxito admirable gracias a su perseverancia, realizó progresos continuos en el campo que él mismo había abierto. Logró preparar un número extraordinario de compuestos nuevos y determinó su estructura. Además de los terpenos propiamente dichos, también investigó y caracterizó científicamente diversos productos naturales ya conocidos o descubiertos recientemente, como alcoholes, cetonas, sesquiterpenos y politerpenos que pertenecen al grupo de los terpenos, y que tienen gran importancia por razones biológicas y técnicas. Por esta razón la serie de los compuestos alicíclicos ha ganado, desde los años ochenta, un tamaño e importancia que la convierten en un igual de las otras tres series principales de la química orgánica. Wallach ha contribuido más a este hecho que cualquier otro investigador.
Las investigaciones que Wallach no sólo influenciaron decisivamente la química teórica, sino también la industria química, principalmente por la rama de esa industria que procesa los aceites esenciales. De acuerdo con las estadísticas recientemente publicadas, la producción anual de estos preparados únicamente en Alemania ha crecido desde los 12 millones de marcos en 1885 hasta unos 45-50 millones de marcos. El trabajo científico de Wallach ha contribuido a esto directa e indirectamente — directamente al convertir los terpenos y sus derivados en algo conocido y determinable analíticamente, con lo que la tecnología dispone de nuevos métodos de manufactura y es posible evitar las adulteraciones que antes sucedían tan comúnmente; e indirectamente por el hecho de que un gran número de sus alumnos han sido contratados por esa industria y aplicado sus métodos de trabajo y su preciso modo de realizar investigaciones. El propio Wallach nunca ha patentado sus descubrimientos, sino que siempre ha puesto sus conclusiones a la disposición de la industria de manera gratuita.
La Real Academia Sueca de las Ciencias ha querido rendir tributo a este trabajo, que desde el principio ha sido planeado cuidadosamente, ejecutado con gran habilidad y una enorme energía, y se ha convertido a lo largo del tiempo en algo cada vez más profundo y rico, mediante el que la ciencia ha conquistado nuevos campos y se ha logrado un trabajo pionero en el desarrollo de la industria química, otorgando el Premio Nobel de Química del año 1910 al Doctor Otto Wallach.
Profesor Wallach. La Real Academia Sueca de las Ciencias le ha concedido el Premio Nobel de Química de este año en reconocimiento a los importantes servicios que ha proporcionado usted al desarrollo de la química orgánica y de la industria química mediante su trabajo pionero en el campo de los compuestos alicíclicos.
Se ha demostrado una vez más que los resultados obtenidos mediante la investigación científica, que en un principio parecerían ser tan sólo de interés teórico, pueden tener en realidad una importancia práctica enorme.
Puesto que usted nos ha llevado a un campo esencial en la química orgánica que era antes prácticamente desconocido, recibirá usted el Premio Nobel, el mayor honor que nuestra Academia puede conceder.


Para saber más (esp/ing cuando es posible):

Print Friendly

Premios Nobel – Física 1910 (Johannes Diderik van der Waals)

Premios Nobel – Física 1910 (Johannes Diderik van der Waals)

Puedes suscribirte a El Tamiz a través de Twitter (@ElTamiz) por correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Como sabéis los viejos del lugar, en la serie sobre los Premios Nobel vamos recorriendo, pasito a pasito, la historia de estos galardones en sus vertientes de Física y Química desde sus comienzos en 1901. En la última entrega de la serie hablamos sobre el Premio Nobel de Química de 1909, otorgado a Wilhelm Ostwald por su trabajo sobre la velocidad de reacción y los catalizadores. Hoy llegamos a 1910 y el premio de Física correspondiente, otorgado al holandés Johannes Diderik van der Waals, en palabras de la Real Academia Sueca de las Ciencias,

Por su trabajo en la ecuación de estado para gases y líquidos.

Como suele suceder, esta breve descripción no basta para comprender el alcance de las investigaciones de van der Waals, de modo que tengo que hacer lo de siempre: pedirte paciencia para retroceder en el tiempo antes de llegar al héroe del artículo de hoy. Se trata, por cierto, de un héroe inusual; lo habitual en Física es que los descubrimientos teóricos suelan ser realizados por científicos jóvenes, y que una vez pasada cierta edad los avances del científico (si los hay) sean de carácter experimental. No es el caso de hoy, pero tiempo al tiempo…

Antes de que la Termodinámica adquiriese todo el aparato teórico que la propulsó como ciencia “de verdad” en el siglo XIX, diversos científicos habían obtenido ya leyes y ecuaciones de carácter empírico que predecían el comportamiento de sistemas termodinámicos simples en condiciones muy específicas. Durante los siglos XVII y XVIII, científicos como Robert Boyle, Edme Mariotte, Jacques Charles y otros habían logrado un buen puñado de leyes de este tipo, muchas de las cuales hemos estudiado en el bloque [Termodinámica I].
Naturalmente, la ciencia es siempre empírica en último término, pero según madura una ciencia obtiene principios más profundos y básicos de los que deducir un gran número de comportamientos; en otras palabras, de un puñado de ecuaciones desconectadas se obtiene una teoría, algo a lo que aún no había llegado la Termodinámica. Por ejemplo, tanto Robert Boyle como Edme Mariotte llegaron a la misma conclusión tras diversos experimentos con gases: si la temperatura se mantenía constante, al aumentar la presión sobre el gas éste disminuía su volumen, y ambas variables –presión y volumen– eran inversamente proporcionales. Ahora bien, ¿por qué? A eso eran incapaces de responder tanto el uno como el otro.
Benoit Paul Emile Clapeyron
Benoît Paul Émile Clapeyron (1799-1864).
Incluso ya en 1834, la cosa seguía más o menos igual. El francés Benoît Paul Émile Clapeyron combinó muchas de las ecuaciones empíricas del XVII y XVIII en una sola, la ecuación de los gases ideales, que seguro que has visto alguna vez:
PV = nRT
En la ecuación de Clapeyron aparecían la presión P, el volumen V, la temperatura T, la cantidad de gas n y una constante universal, R. Como puedes ver, se trata de una ley muy simple que establece básicamente una serie de proporcionalidades, directas o inversas, entre las distintas variables que definen el estado de un gas: manteniendo lo demás igual, cuanto mayor es la presión, menor es el volumen, etc. Eso sí, puesto que se trata de una agregación de leyes empíricas anteriores, ésta también lo es — los gases se comportan así porque eso es lo que hemos visto, diría Clapeyron.
El primero en vislumbrar lo que había detrás de estas leyes fue el holandés-suizo Daniel Bernoulli en 1738, quien sugirió algo que a muchos de sus coetáneos les sonó a cuento chino: los gases, según Bernoulli, estaban formados por un inmenso número de diminutas partículas que se movían aleatoriamente, muy separadas unas de otras comparado con el tamaño que ocupaba cada una. Según esas pequeñas partículas chocaban contra las paredes que contenían el gas, los minúsculos pero frecuentísimos choques producían lo que denominamos presión. Ya sé que esto resulta evidente hoy en día, pero en su época era una afirmación tremendamente osada.
Rudolf Clausius
Durante muchos años hubo una gran controversia al respecto, hasta que, un par de décadas después de que Clapeyron propusiera su ley de los gases ideales, dos científicos alemanes dejaron al mundo con la boca abierta. Se trataba de August Krönig y Rudolf Julius Emanuel Clausius (a la derecha, no he podido encontrar una foto de Krönig) y ambos hicieron prácticamente lo mismo con un año de diferencia –Krönig en 1856 y Clausius en 1857–. Krönig y Clausius partieron de la hipótesis de Bernoulli, es decir, que los gases están formados por multitud de pequeñas partículas en movimiento constante. A continuación, definieron las variables macroscópicas que podemos medir, como la presión o la temperatura, en función de las variables microscópicas de esas pequeñas partículas, como su energía cinética.
Clausius y Krönig trataron entonces de encontrar una relación matemática entre la presión, la temperatura, etc., dadas sus definiciones a partir de las propiedades microscópicas de las partículas que componen el gas –en términos modernos, de sus moléculas–, y tanto el uno como el otro obtuvieron la misma ecuación que había deducido Clapeyron. La ley de los gases ideales había dejado de ser una ley empírica sin base teórica para ser la expresión de un principio más profundo; a partir de ahí, otros genios como James Clerk Maxwell y Ludwig Boltzmann desarrollaron las ideas anteriores hasta crear una auténtica teoría cinético-molecular de los gases: una teoría que podía predecir su comportamiento partiendo de la idea de moléculas en movimiento (de ahí el nombre de la teoría) utilizando la estadística. Se trata de uno de los mayores logros de la Termodinámica y una de las razones de que la segunda mitad del siglo XIX la catapultara como ciencia.
Ahora bien, por más maravillosa que fuera, la ley de los gases ideales de Clapeyron, Krönig y Clausius no funcionaba bien siempre: dependiendo de las condiciones del gas predecía exactamente su comportamiento o se daba de narices con la realidad. Para ser más específicos, si el gas se comprimía más de la cuenta, el comportamiento se alejaba más y más de la ecuación de los gases ideales. Si Clapeyron se hubiera topado con esto –no sé si en su época se sabía que a veces la ley fallaba o no–, tal vez simplemente hubiera modificado la ecuación y listo, puesto que era una expresión matemática de los experimentos realizados, pero para los científicos del XIX esto no era la solución. La Termodinámica había avanzado demasiado.
El problema, creo, es evidente: Clausius y Krönig habían establecido un modelo que predecía una ecuación (la de Clapeyron), pero esa ecuación no se cumplía siempre. Por lo tanto, el modelo –la imagen teórica de la naturaleza molecular de los gases– no podía ser correcto. Pero, por otra parte, si la hipótesis de Bernoulli y el modelo cinético-molecular posterior fueran una estupidez, ¿por qué en determinadas condiciones predecían con casi total exactitud el comportamiento de los gases?
Y aquí es donde llegamos, por fin, al héroe de la historia de hoy. Johannes Diderik van der Waals había nacido en Leiden, en Holanda, en 1837, tres años después de que Clapeyron obtuviera su ecuación, y nadie pensaría que algún día el chaval se dedicara a la ciencia. La razón era que van der Waals era el hijo de un carpintero, y en la Holanda de la época eso significaba que era casi imposible que tuviera una educación universitaria. Sin embargo, la inteligencia y el tesón del joven van der Waals, junto con los cambios sociales del siglo XIX, vencerían a las circunstancias.
Johannes Diderik van der Waals
Un joven Johannes Diderik van der Waals (1837-1923).
Tras terminar el colegio, el joven se convirtió en ayudante de profesor y luego en profesor de Educación Primaria –algo para lo que no era necesario un título universitario–. Después consiguió asistir a algunas clases en la Universidad de Leiden aunque fuera sin opción a obtener un título, gracias a nuevos programas iniciados por el gobierno holandés. Finalmente se modificó una regla que exigía el conocimiento de las lenguas clásicas –latín y griego, que van der Waals no había estudiado– para entrar en la Universidad, y con unos treinta años logró por fin estudiar en Leiden mientras trabajaba como profesor.
Por entonces, la Termodinámica estaba sufriendo la revolución teórica que la convertiría en una ciencia sólida gracias a los genios que hemos mencionado antes; en 1857, cuando van der Waals tenía aún veinte años y acababa de empezar como profesor, lejos aún de tener un título universitario, había leído un artículo de Rudolf Clausius, Über die Art der Bewegung, welche wir Wärme nennen (Sobre el tipo de movimiento que denominamos calor), que lo impresionó de tal modo que se dedicó a leer todo lo que pudo encontrar de Termodinámica, especialmente los artículos teóricos que constituían “la cresta de la ola” en su desarrollo. Van der Waals se empapó de textos de Clausius, Maxwell, Boltzmann, Gibbs, etc., maravillado por la construcción teórica que permitía predecir el comportamiento macroscópico de los gases a partir de propiedades microscópicas.
De manera que, cuando llegó la hora de elegir un asunto para su tesis doctoral, ya como un talludito treintañero, van der Waals se decidió por el estudio de los fluidos y su comportamiento y, entre otras cosas, el problema tremendo de por qué la ley de los gases ideales no funcionaba siempre, y cuáles eran los errores del modelo de Krönig y Clausius que suponían esa imprecisión en la ecuación.
Unos años antes de que van der Waals realizara su tesis había surgido una nueva divergencia entre teoría y experimentación relacionada con el mismo asunto. El británico Thomas Andrews se había dedicado a realizar multitud de experimentos con distintos gases y líquidos a muchas presiones y temperaturas, especialmente en las regiones presión-temperatura en las que la ecuación de los gases ideales funcionaba peor, estudiando los cambios de estado. Y se había encontrado con algo muy, muy raro.
Lo normal era lo siguiente: si se tiene un sólido, es posible proporcionarle energía térmica hasta alcanzar la temperatura de fusión, fundirlo, y luego seguir proporcionándole energía hasta que alcance la temperatura de ebullición, hierva y se convierta en gas. También existían, y eran bien conocidas, sustancias que pasaban directamente de sólido a gas, es decir, se sublimaban, como el dióxido de carbono, cuya fase sólida se conoce como hielo seco por esa misma razón.
Sin embargo, Andrews había comprobado que esta diferencia de comportamiento entre sustancias no era absoluta, sino que era posible obtener una fase líquida del dióxido de carbono, como también era posible sublimar agua: la diferencia no era que unas sustancias pasaran por la fase líquida y otras no, sino que existían unos valores críticos de temperatura y presión que determinaban el comportamiento en los cambios de fase de las sustancias.
Por ejemplo, si el agua se encontraba a una temperatura mayor que unos 374 ºC, por más que se comprimiese nunca se condensaba a la fase líquida, mientras que por debajo de esa temperatura, a la que Andrews denominó temperatura crítica, era posible condensar agua aumentando la presión sobre ella. Pero también pasaba lo contrario: si la presión se aumentaba hasta superar las 218 atmósferas –218 veces la presión atmosférica típica–, por más que se calentase agua líquida, no rompía a hervir.
La mayor parte de los experimentos de Andrews se realizaron con dióxido de carbono, para el cual la temperatura crítica era de unos 31 ºC y la presión crítica era de unas 72 atmósferas. Como cualquier otra sustancia, por encima de esos dos valores era imposible distinguir líquido de gas, y era imposible lograr una condensación o una ebullición propiamente dichas.
De hecho, según Andrews realizaba experimentos de este tipo, se dio cuenta de que por encima de esos valores no existía una distinción propiamente dicha entre “líquido” y “gas”, contrariamente a las teorías de la época: al enfriar o comprimir este “líquido-gas”, su comportamiento se parecía más al de un líquido propiamente dicho, y al calentarlo o expandirlo, se parecía más a un gas como Dios manda, pero se trataba de un cambio gradual, no una transición brusca como solía suceder. Nadie se había percatado antes simplemente porque los valores críticos solían ser muy alejados de las condiciones cotidianas.
Van der Waals se dio cuenta de que los experimentos de Andrews mostraban que un gas con una presión muy baja se comportaba como un gas “de verdad”, mientras que al comprimirlo por encima de la presión crítica, era una especie de mezcla entre líquido y gas. Sin embargo, era precisamente al hacer eso –al tener un gas muy comprimido– que la ecuación de los gases ideales dejaba de funcionar bien. ¿No habría una relación entre ambas cosas? De modo que el holandés se dedicó a examinar el modelo teórico de Clausius y Krönig a partir del cual se había obtenido la ecuación de los gases ideales.
Ese modelo teórico partía de una serie de premisas, aunque aquí voy a hablar de las que son relevantes para el razonamiento de van der Waals:

  • Un gas está formado por moléculas cuyo tamaño, comparado con el que ocupa el gas, es despreciable.
  • Las moléculas que componen el gas no ejercen fuerza alguna unas sobre otras.

Esas dos premisas, naturalmente, son muy diferentes de las condiciones de un líquido: para él, el espacio que ocupa el líquido es prácticamente elque ocupan sus moléculas, que están “tocándose”, y las moléculas del líquido pueden deslizarse unas sobre otras pero mantienen sus distancias fijas pues están “pegadas”.
De modo que el holandés se planteó lo siguiente: ¿y si las moléculas del gas sí interaccionan entre sí? ¿y si consideramos que el espacio que ocupan no es despreciable? ¿tendría entonces la ecuación de Clapeyron la misma forma?
Van der Waals consideró, por una parte, que cada molécula ocupaba un volumen pequeño pero no despreciable. Por lo tanto, el volumen real ocupado por el gas era algo mayor que el volumen ideal de la ley de Clapeyron: Vreal = Videal + Vmoléculas. Y el volumen ocupado por las moléculas sería el producto del volumen de cada molécula por el número de moléculas.
Por otro lado, si las moléculas no eran completamente independientes, sino que ejercían fuerzas de atracción unas sobre otras, la presión real del gas sería menor que la presión ideal: Preal = Pideal – Pmoléculas. Esta presión intermolecular dependería de la densidad del gas, es decir, de lo alejadas que estuvieran las moléculas entre sí, ya que de haber muy pocas moléculas en un volumen muy grande, la interacción entre ellas sería muy pequeña.
Con estas dos variaciones sobre el modelo de gases ideales pero manteniendo el resto de las bases teóricas, van der Waals dedujo una ecuación equivalente a la de Clapeyron pero con dos “factores de corrección” que contrarrestaran los dos efectos del tamaño molecular y las interacciones entre moléculas. Dicho mal y pronto, según van der Waals era posible utilizar la ecuación de Clapeyron en términos del volumen y la presión “ideales”, pero despejando ambos de sus relaciones respectivas con los valores reales que he puesto arriba: Videal = Vreal – Vmoléculas y Pideal = Preal + Pmoléculas.
El holandés se dedicó a estimar tanto Vmoléculas como Pmoléculas en términos de constantes propias de cada gas. Sustituyendo ambos factores, van der Waals obtuvo una ecuación parecida a la del francés pero no igual:
(P + n2a/V2)(V – nb) = nRT
Donde los factores n2a/V2 y nb eran las correcciones a la presión y volumen medidos en los experimentos. Tanto a como b eran constantes propias de cada sustancia, y estimaban la interacción intermolecular en un caso y el volumen molecular por otro. Ni qué decir tiene que, al aplicar su nueva ecuación a gases a grandes presiones, los resultados se ajustaban estupendamente a la realidad, mucho mejor que la ecuación de los gases ideales.
Pero lo más interesante no era la precisión de la nueva ecuación, sino la modificación al modelo teórico: los gases no estaban formados por partículas puntuales, sino con cierto volumen. Y más interesante aún: las moléculas de un gas, por razones completamente misteriosas –recuerda que estamos en una época anterior al conocimiento de protones, electrones y fuerzas eléctricas entre moléculas– se atraían unas a otras con una fuerza leve, pero no despreciable. Estas fuerzas intermoleculares se han denominado desde entonces, por cierto, fuerzas de van der Waals en honor a este hijo de carpintero.
Van der Waals viejo
Van der Waals en la época posterior al Nobel.
Cuando se encerraban muchas moléculas de un gas en un volumen muy pequeño, la nueva ecuación divergía muchísimo de la antigua, ya que el volumen ocupado por las moĺéculas era casi todo el volumen disponible para el gas, y las fuerzas entre moléculas disminuían muchísimo la presión real ejercida sobre las paredes. Lo que se tenía entonces, de acuerdo con la ecuación de van der Waals, era un gas muy raro: un gas con moléculas casi pegadas unas a otras y que se atraían fuertemente unas a otras pero apenas ejercían presión sobre el exterior como consecuencia de esa atracción entre ellas.
Lo que se tenía era un líquido.
La tesis doctoral de van der Waals, publicada en 1873 cuando el holandés tenía 36 años, se tituló Over de Continuïteit van den Gas- en Vloeistoftoestand (Sobre la continuidad de los estados líquido y gaseoso). En ella, nuestro personaje no sólo deducía su ecuación partiendo de las dos premisas que hemos descrito antes, sino que mostraba cómo era posible, a través de ella, mirar a los líquidos y los gases como dos caras de la misma moneda: de hecho, era posible tener condiciones en las que el cambio de uno a otro era tan gradual que no tenía siquiera sentido hablar de “líquido” y “gas”, sino más bien de “fluido” en general, espeso y cuasi-líquido en un caso y rarificado y cuasi-gaseoso en el otro pero sin poder señalar con el dedo un punto en el que se produjera la transición entre estados.
En otras palabras, van der Waals había explicado los resultados experimentales de Thomas Andrews de una manera elegantísima, a una edad a la que los descubrimientos teóricos son muy infrecuentes, y superando dificultades que a casi cualquier otro –desde luego, a mí mismo– le hubieran quitado las ganas de dedicarse a la ciencia. La tesis de nuestro buen Diderik era clara y meridiana, y dejó a los grandes termodinámicos boquiabiertos (el propio James Clerk Maxwell la elogió con entusiasmo). Pero el holandés aún no había guardado el lápiz.
Como dijimos antes, las constantes a y b eran propias de cada sustancia, y medían la atracción y el volumen moleculares. Van der Waals se dedicó primero a intentar predecir los valores de esas dos constantes a partir de los de la temperatura y presión críticas de los experimentos de Andrews. Una vez logrado eso y ajustados los valores a los experimentos ya realizados, el holandés fue capaz de hacer justo lo contrario: predecir los valores críticos a partir de las constantes de la ecuación.
Haciendo eso, van der Waals se percató de algo crucial que espero poder explicar con claridad. Era posible seguir un proceso como el siguiente: en primer lugar, tomar un gas con el que es fácil obtener todos los estados posibles, como el dióxido de carbono, y determinar todas las constantes que determinan su comportamiento. A continuación, fijarse en un segundo gas del que sólo se conocen algunas constantes ya que no se han podido realizar todos los cambios de fase posibles con él, como por ejemplo, el helio.
Y, finalmente, era posible realizar una simple proporción entre las constantes de un gas y el otro y estimar las constantes desconocidas del segundo gas, es decir, predecir su comportamiento en situaciones nunca antes experimentadas. Pero permite que traduzca esto al lenguaje de los físicos experimentales de la época, obsesionados con una cosa en concreto: era posible predecir a qué presión y temperatura condensar gases como el hidrógeno o el helio.
Van der Waals y Heike Onne
Heike Kamerlingh Onne (izquierda) y Johannes Diderik van der Waals (derecha) en el laboratorio.
Utilizando las predicciones de van der Waals, dos científicos lograron exactamente eso: en 1898, James Dewar logró hidrógeno líquido, y en 1908 Heike Kamerlingh Onne obtuvo helio líquido. Hablaremos de ambos en esta misma serie, por cierto, ya que Dewar fue galardonado con un Nobel por conseguir precisamente eso, mientras que Onne obtuvo el Premio por un logro diferente, relacionado con la superconductividad.
Sin embargo, lo que más me maravilla de la historia de van der Waals, aparte de su tesón, es algo que se repite a lo largo de la historia de la ciencia: el descubrimiento de que dos cosas que considerabamos completamente distintas no son sino dos caras de la misma moneda. Ha sucedido así no sólo con gases y líquidos, sino con ondas y partículas, electricidad y magnetismo, física y química, vida y no-vida… la comprensión paulatina de que las distinciones están muchas veces en nuestra cabeza al pensar sobre las cosas, y no en las cosas mismas.
También me enorgullece, como tantas otras veces, el proceso mismo: la comprobación de que una teoría no se ajusta a la realidad en determinados casos; el examen riguroso de los postulados de esa teoría, y la modificación de alguno de ellos hasta adecuar las predicciones a la experimentación y, finalmente, la evolución de la teoría hacia algo más efectivo en la comprensión del Universo. En otros casos, desde luego, hace falta una revolución, pero el ejemplo de van der Waals es un clásico de proceso evolutivo en ciencia, de refinamiento de ideas anteriores. Ay, que se me hincha el pecho de felicidad…
Finalmente, como siempre, os dejo con el discurso de entrega de este Premio Nobel al profesor de Educación Primaria, pronunciado el 10 de diciembre de 1910 por el Presidente de la Real Academia Sueca de las Ciencias, el doctor Montelius:

Su Majestad, Sus Altezas Reales, damas y caballeros.
La Academia de las Ciencias ha decidido otorgar el Premio Nobel de Física de este año al mundialmente famoso físico holandés Johannes Diderik van der Waals por sus estudios sobre el estado físico y líquidos y gases.
Ya en su disertación inaugural, “Sobre la relación entre los estados líquido y gaseoso”, van der Waals señaló el problema al que dedicaría su vida y que aún reclama su atención hoy en día. En la disertación a la que me refiero trató de dar cuenta de las discrepancias entre las leyes simples de los gases y la realidad cuando la presión es razonablemente alta. Llegó a la conclusión de que estas discrepancias tienen que ver en parte con el espacio que ocupan las propias moléculas del gas, y en parte por la atracción que unas moléculas ejercen sobre las otras, de modo que la presión que actúa en el interior del gas es mayor que la presión externa.
Estos dos factores se hacen más y más importantes cuando se aumenta la presión sobre el gas. A una presión suficientemente grande, sin embargo, el gas se convierte en un líquido salvo que la temperatura exceda un valor determinado, la denominada temperatura crítica. Van der Waals demostró que es posible emplear las mismas consideraciones y los mismos cálculos a los líquidos que a los gases. Cuando la temperatura de un líquido supera la temperatura crítica sin permitir que el líquido se volatilice, se convierte de forma suave de líquido a gas; y cerca de la temperatura crítica es imposible distinguir entre el estado líquido y el gaseoso.
La fuerza que impide la separación entre las moléculas de un líquido es su atracción mutua, debido a la cual se mantiene una gran presión en el interior del líquido. Van der Waals calculó esta presión –la existencia de la cual había sido vagamente intuida por Laplace– para el caso del agua. Se trata de un valor de nada menos que 10 000 atmósferas a presión normal. En otras palabras, la presión interna, como se denomina, de una gota de agua sería unas diez veces mayor que la presión del agua en las regiones más profundas del océano que conocemos.
Sin embargo, éste no es el resultado más importante de los estudios de van der Waals. Sus cálculos lo llevaron a considerar el hecho de que, una vez comprendemos el comportamiento de un tipo determinado de gas y su líquido correspondiente, por ejemplo, el dióxido de carbono, a todas las temperaturas y presiones, podemos emplear proporciones simples para realizar los mismos cálculos para cualquier otro líquido o gas a cualquier presión y temperatura, siempre que conozcamos su estado a una temperatura determinada, la temperatura crítica.
Sobre la base de esta ley, que denominamos de los “estados correspondientes”, aplicada a varios líquidos y gases, van der Waals fue capaz de proporcionar una descripción completa del estado físico de gases y, más importante aún, líquidos bajo diversas condiciones externas. Comprobó que ciertas regularidades que habían sido descubiertas anteriormente pueden explicarse teóricamente, y descubrió varias leyes nuevas y desconocidas hasta entonces sobre el comportamiento de los líquidos.
Sin embargo, resultó que no todos los líquidos se regían exactamente por las leyes simples formuladas por van der Waals. Surgió una larga controversia sobre estas discrepancias, hasta que se descubrió que se debían al hecho de que las moléculas en estos líquidos no eran todas de la misma naturaleza; las primeras leyes de van der Waals sólo son válidas para líquidos de composición homogénea. Van der Waals extendió su trabajo entonces a mezclas de dos o más tipos de moléculas, y allí también fue capaz de descubrir las leyes correspondientes, las cuales son, por supuesto, más complejas que las que se aplican a las sustancias compuestas por moléculas de un solo tipo. En la actualidad, van der Waals sigue trabajando en los detalles de esta gran investigación. En cualquier caso, ha conseguido superar los obstáculos que existían inicialmente en su camino.
La teoría de van der Waals también se ha mostrado brillante en las predicciones que han hecho posible calcular las condiciones de la transición entre gases y líquidos. Hace dos años, el alumno más avanzado de van der Waals, Kamerlingh Onnes, logró de este modo obtener helio líquido — el último gas que no había sido aún condensado.
Ahora bien, los estudios de van der Waals no han sido de la mayor importancia únicamente para la investigación pura. La ingeniería de la refrigeración moderna, que es hoy en día un poderoso factor en nuestra economía e industria, basa sus métodos fundamentales en los estudios teóricos de van der Waals.
Doctor van der Waals. La Real Academia Sueca de las Ciencias le ha concedido el Premio Nobel de Física de este año en reconocimiento a sus estudios pioneros sobre el estado físico de líquidos y gases.
Las leyes de Hammurabi y de Moisés son antiguas y de gran importancia. Las leyes de la Naturaleza son aún más antiguas e importantes. Se aplican no sólo a ciertas regiones de la Tierra, sino a todo el Universo. Sin embargo, son difíciles de interpretar. Usted, Doctor, ha conseguido descifrar unos cuantos párrafos de estas leyes. Como consecuenciá, recibirá usted el Premio Nobel, el máximo honor que nuestra Academia puede concederle.

En la próxima entrega de la serie, el Premio Nobel de Química de 1910.
Para saber más (esp/ing cuando es posible), y aprovecho para avisar de que la página sobre este científico genial en la Wikipedia en castellano es pobre, pobre:

Print Friendly

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Química 1909 (Wilhelm Ostwald) | El Tamiz

40 Users Online

Premios Nobel – Química 1909 (Wilhelm Ostwald)

Puedes suscribirte a El Tamiz a través de Twitter (@ElTamiz) por correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

En la última entrega de la serie sobre los Premios Nobel hablamos sobre el galardón de Física de 1909, otorgado a Gulglielmo Marconi y Karl Ferdinand Braun por el desarrollo de la telegrafía sin hilos. Hoy seguimos nuestro recorrido por estos premios con el Premio Nobel de Química del mismo año, 1909, otorgado en este caso a Wilhelm Ostwald, en palabras de la Real Academia Sueca de las Ciencias,

En reconocimiento a su trabajo sobre catalizadores y sus investigaciones acerca de los principios fundamentales que gobiernan los equilibrios químicos y las velocidades de reacción.

Como nos ha pasado otras veces, seguramente leer la descripción del Premio no revela la tremenda importancia de lo que hay detrás, aunque en este caso mi impresión es que Ostwald tal vez no merecía el Nobel tanto más que otros investigadores en este campo (luego veremos por qué). Y, como también nos ha pasado otras veces –casi todas– no podemos hablar de Ostwald y su descubrimiento sin retroceder unas cuantas décadas para comprender la situación antes de que llegara el alemán. Como siempre, no supongo que tengas conocimientos de Química, pero sí que tienes paciencia y comprensión — dicho esto, viajemos a principios del siglo XIX, cuando la Química estaba aún en pañales.

Por entonces se habían estudiado ya de manera concienzuda multitud de reacciones químicas; se sabía que algunas sustancias, al ponerse en contacto entre sí, formaban otras nuevas, mientras que otras parecían no reaccionar en absoluto. También se sabía que, en algunos casos, la reacción era rápida y violenta, y en otros lenta y suave. Nadie se había preocupado aún de cuantificar estas características, pero los químicos se habían percatado ya de algo muy curioso: había algunos compuestos que no parecían reaccionar entre sí pero, sin embargo, si se añadía un compuesto nuevo determinado a la fiesta como “invitado”, entonces sí reaccionaban con entusiasmo… pero, al terminar la reacción, aunque los compuestos originales se habían gastado, el compuesto nuevo seguía ahí, igual que antes.
También pasaba a veces que varios compuestos sí reaccionaban entre sí, pero muy lentamente… salvo que se añadiese una vez más un compuesto “invitado”; al hacerlo, la reacción era mucho más violenta y, una vez más, cuando terminaba, el compuesto “invitado” seguía ahí, como si tal cosa, sin haberse consumido como los demás. Como puedes comprender, se trata de algo que puede resultar muy útil para la industria, ya que en muchos casos se quieren realizar reacciones químicas para producir algo como resultado final, y cuanto más rápida sea la reacción más cantidad se produce en un tiempo determinado.
Muchos químicos consideraron esto como una mera curiosidad y, puesto que no se conocían muchos casos de este fenómeno, los calificaron de excepciones y a otra cosa, mariposa. La industria, sin embargo, aunque no entendiera por qué sucedía esto, utilizó los casos contados en los que funcionaba. Por ejemplo, al producir ácido sulfúrico –que empezaba a ser ya un compuesto fundamental en la industria química naciente– si se utilizaba platino era posible, sin gastar el platino, que era el “compuesto invitado” producir el ácido mucho más rápido que sin él. El resultado final era igual, pero la rapidez mucho mayor lo hacía un método mucho más eficaz; claro, hacía falta una inversón extra para conseguir el platino, pero el metal no se gastaba porque era un mero “invitado”, con lo que no hacía falta estar comprándolo todo el tiempo.
Como digo, eran casos sueltos, curiosidades. Algunos químicos estudiaron varios de estos casos concretos en más detalle, y uno de los padres de la Química moderna tuvo la suficiente visión como para fijarse en todos esos casos concretos y extraer la clave del fenómeno. Ese químico era el sueco Jöns Jacob Berzelius, quien es probablemente merecedor de uno o más Premios Nobel, pero murió cincuenta años antes de que estos galardones nacieran. A pesar de tener la apariencia del malo en una novela de Dickens, era un auténtico genio: no sólo descubrió los elementos silicio, torio, cerio y selenio, sino que a él debemos los términos proteína, catálisis, isómero, polímero, alótropo, así como la distinción entre compuestos orgánicos e inorgánicos y muchos logros más.
Jons Jacob Berzelius
Jöns Jacob Berzelius (1779-1848).
Berzelius, que fue Secretario de la Real Academia Sueca de las Ciencias durante cuarenta años, desde 1808 hasta 1848, leía prácticamente todos los artículos de Química publicados en Europa, con lo que se había topado con referencias a estas reacciones con “compuesto invitado” en artículos de Kirchhoff, Döbereiner, Thénard o Humphry Davy. Por razones que desconozco parece haberse dejado un artículo sin leer –o no comprendió su importancia–, publicado en 1806 por dos científicos franceses… pero de ese artículo hablaremos después.
Tal vez lo que disparó el interés de Berzelius fue un experimento realizado por uno de sus propios alumnos, Eilhard Mitscherlich, que estaba estudiando la transformación de alcohol en éter. Mitscherlich había observado que, si se añadía ácido sulfúrico a la reacción, ésta se producía mucho más deprisa; además, sí, lo has adivinado — al terminar, el ácido seguía ahí como si no hubiera roto un plato, sin consumirse como el alcohol. Berzelius se dio cuenta, por tanto, de que tantos “casos raros” no podían ser simplemente eso, sino que había una propiedad química común a todos ellos.
Explicado con una analogía estúpida y absurda –mía , no de Berzelius, claro–, la cosa es algo así. Imagina que invitas a una serie de personas a una fiesta para intentar emparejarlas (no me preguntes por qué quieres formar parejas). Sin embargo, la fiesta no tiene mucho éxito y casi todo el mundo charla un poco pero cada uno acaba yéndose solo a su casa. Se forma alguna pareja, pero nada espectacular. Pero, en otra ocasión, montas una segunda fiesta y, en este caso, invitas a tu primo Eulalio. Y esa noche, ¡sorpresa!, con la presencia de Eulalio, todo cambia. La gente empieza a hablar y reírse rápidamente, forman relaciones de forma impetuosa y todos se vuelven a casa emparejados. Todos, menos Eulalio, que termina tan solo como empezó la fiesta.
También se daba el caso contrario: montas una fiesta y unas cuantas personas acaban emparejadas. Sin embargo, si a la fiesta invitas a tu prima Bruna, la cosa cambia. La gente apenas habla, hay un ambiente raro, y al final todos se vuelven a casa solos –incluida Bruna, por supuesto–. Y lo más interesante de todo, desde la Química de esta época, incluida la del propio Berzelius: nadie tenía ni idea de cuál era la razón, ni cuál era la influencia de Bruna o Eulalio –o las sustancias que fuesen– sobre la reacción. ¿Por qué la presencia de platino al producir ácido sulfúrico aceleraba la producción del ácido? ¿Cómo se producía esa aceleración? Si el platino no formaba parte de ella, ya que al final se quedaba como al principio, ¿qué había hecho exactamente?
En 1836, Berzelius publicó sus conclusiones sobre todos estos procesos. El sueco los denominó procesos catalíticos y al fenómeno catálisis, del griego καταλύειν, “desatar”. Las sustancias que actuaban de este modo –Eulalia, Bruno, el platino, lo que fuese– eran entonces catalizadores, y su efecto era el de desencadenar, acelerar o ralentizar una reacción química sin ser ellos mismos modificados en modo alguno durante la reacción. En palabras de Berzelius,

La fuerza catalítica parece consistir en la capacidad de determinadas sustancias para activar las afinidades potenciales a esta temperatura por su mera presencia y afinidad, y como resultado, los elementos se estructuran de una manera diferente de modo que se produce una mayor neutralización electroquímica.

Berzelius no sabía cuál era la naturaleza del mecanismo catalítico: su definición era una simple descripción de lo que se notaba macroscópicamente, y era consciente de que hacía falta avanzar para lograr una explicación racional y empírica de lo que pasaba microscópicamente. Sin embargo, otro químico, el alemán Justus von Liebig, cuya reputación era muy grande por sus trabajos en Química orgánica, era de diferente opinión. Von Liebig pensaba que lo que sucedía era que una sustancia se descomponía por ser inestable y, al hacerlo, inducía a otras sustancias a descomponerse a su vez, como si la imitasen, de modo que se desencadenaba la reacción que, de otro modo, no se hubiera producido. No sé cómo explicaba von Liebig los catalizadores negativos, estilo prima Bruna, ni por qué su explicación fue aceptada de manera generalizada frente a la de Berzelius.
Sí sabemos que von Liebig era un científico extraordinario, y sus aportaciones a la Química orgánica, fundamentales. Berzelius y él estaban en desacuerdo en muchas cosas, y la verdad es que en la mayoría de los casos el joven alemán tenía razón; Berzelius pensaba, por ejemplo, que había una diferencia esencial entre los procesos orgánicos e inorgánicos, y que nunca sería posible formar sustancias orgánicas en un laboratorio, mientras que von Liebig pensaba que no existía tal diferencia esencial, sino que sería posible formar sustancias orgánicas artificialmente. Con el paso de los años, las ideas de von Liebig –más avanzadas, en general, que las de Berzelius– fueron ganando aceptación, y su reputación creció a la par que decrecía la de Berzelius.
Justus von Liebig
Justus von Liebig (1803-1873).
Sin embargo, en este caso particular, Berzelius tenía razón y von Liebig no, y tal vez ese factor hizo que venciese el concepto de von Liebig frente al del sueco. La definición de Berzelius era menos concreta y ambiciosa que la del alemán: se limitaba a describir el fenómeno. Sin embargo, von Liebig daba una explicación más concreta –la descomposición que induce otras descomposiciones–, pero errónea, aunque no se supiese entonces. Y es mejor no tener una explicación de un fenómeno que tener una mala explicación, ya que en el primer caso sigues buscando, pero en el segundo tal vez no, de modo que la cosa se estanque con una explicación incorrecta. Y eso fue exactamente lo que pasó en el caso de la catálisis: la explicación errónea de von Liebig ganó, y las cosas se quedaron prácticamente paradas durante mucho tiempo.
Berzelius era consciente de esto, y no le gustaba un pelo la explicación de von Liebig:

Obtenemos así una explicación ficticia mediante la que creemos haber entendido lo que todavía no podemos comprender, y de este modo la atención se desvía de este asunto aún por explicar, con lo que permanece inexplicado más tiempo. Me gustaría repetir una vez más lo que ya he dicho a menudo en el pasado: que en la Ciencia, las explicaciones ficticias y prematuras llevan invariablemente a desviarse del camino, y que el único método de obtener conocimiento positivo es dejar lo incomprensible sin explicar hasta que, tarde o temprano, la explicación aparezca por sí misma a partir de hechos tan obvios que sea muy difícil que aparezcan opiniones divididas sobre ellos.

El sueco tenía razón: aún no era posible explicar correctamente los fenómenos catalíticos, porque hacía falta desarrollar conceptos que áun no existían. El concepto clave era tan obvio que parece una tontería que no existiese aún, pero nadie había formulado aún una definición rigurosa de él: se trataba de la velocidad de reacción, una magnitud que midiese la rapidez con la que se produce una reacción química y algo esencial para explicar la catálisis, que no era sino la modificación de esa velocidad de reacción mediante la presencia de determinadas sustancias.
El primero en atacar el problema fue el alemán Ludwig Ferdinand Wilhelmy, que estudió de manera cuantitativa la velocidad con la que se producía la conversión de sacarosa en fructosa y glucosa modificando diversos factores: aumentando la concentración de sacarosa, cambiando la temperatura y añadiendo un ácido como catalizador. Wilhelmy fue capaz de construir una ecuación que describía la velocidad de la reacción en función de estos factores y, con ello, dio el primer paso hacia una verdadera cinética química, sin la que la catálisis era algo inexplicable, como había predicho Berzelius.
A pesar de que Wilhelmy incluyó la concentración de ácido en la velocidad de reacción de descomposición de la sacarosa, no mencionó la palabra catalizador ni trató de explicar la razón de que el ácido acelerase la reacción sin, aparentemente, tomar parte en ella. Su artículo sobre la velocidad de reacción, por cierto, no despertó demasiado interés al principio: harían falta décadas para comprender su importancia. Para ello haría falta la llegada de nuestro galardonado de hoy – Wilhelm Ostwald.
Wilhelm Ostwald
Wilhelm Ostwald (1853-1932).
Ostwald nació en 1853 en Riga –en la actual Letonia, aunque por entonces era parte del Imperio Ruso–, aunque sus padres eran prusianos. Sus padres no tenían formación universitaria, pero el joven Ostwald se graduó en la Universidad de Tartu, en Estonia, y obtuvo su doctorado en la misma Universidad en 1878. Tras pasar su juventud en las orillas del Báltico, enseñando durante unos años en Tartu y en el Instituto Politécnico de Riga, en 1887 se mudó a Leipzig, donde permanecería hasta su muerte.
El principal interés de Ostwald era la Química física, de la que hemos hablado ya varias veces en esta serie, ya que el final del siglo XIX fue el momento en el que nació como disciplina. De hecho, se considera a Wilhelm Ostwald como uno de los tres padres de la Química física; los otros dos ya son viejos conocidos nuestros, Svante Arrhenius y Jacobus Henricus van ‘t Hoff. Como ya mencionamos al hablar de Arrhenius, la relación entre los tres científicos era excelente, y colaboraron juntos en diversas ocasiones. De hecho, aunque no dudo de la capacidad de Ostwald, sospecho que su Nobel se debe más a la influencia de Arrhenius que a ningún otro factor, ya que el sueco tenía un gran poder en la organización por entonces.
Wilhelm Ostwald y Svante Arrhenius
Svante Arrhenius (izquierda) y Wilhelm Ostwald (derecha).
Ostwald estaba particularmente interesado en los ácidos y bases y la teoría de Arrhenius para explicar su naturaleza y comportamiento mediante la disociación en iones libres –algo de lo que ya hablamos en el artículo dedicado a su Nobel–. Era ya conocido el hecho de que había ácidos más fuertes –como el sulfúrico– y otros más débiles –como el cítrico–, pero Ostwald quería obtener un modo de medir cuantitativamente esa fuerza. Para ello realizó diversos experimentos con distintos ácidos en reacciones en las que tomaban parte, entre ellas algunas en las que actuaban como catalizadores.
Cuanto más fuerte era un ácido, independientemente de cuál fuera en concreto el ácido, más intensa parecía ser su acción como catalizador. De modo que a Ostwald se le ocurrió que sería posible cuantificar la fuerza de los ácidos midiendo la velocidad con la que se producían las reacciones catalizadas por ellos, entre otros métodos. Para ello hacía falta el concepto de velocidad de reacción de Wilhelmy, pero ampliado y detallado más allá de donde había llegado él. De modo que Ostwald se dedicó a pulir y ampliar el concepto de velocidad de reacción definido por el alemán hasta crear una auténtica cinética química, es decir, un aparato conceptual capaz de describir cuantitativamente y en detalle todos los aspectos relacionados con el ritmo con el que se producen las reacciones.
Al aplicar estos conceptos a multitud de reacciones químicas, y de manera “lateral”, ya que su interés inicial había sido el estudio de ácidos y bases, Ostwald se dio cuenta de que las ideas de Justus von Liebig, aunque hubieran derrotado a las de Berzelius, no eran correctas. Von Liebig sostenía que las reacciones catalizadas se acababan produciendo porque la descomposición de una sustancia inducía la descomposición de otras, de modo que sin la descomposición de la primera no se producía la de las otras. Sin embargo, Ostwald había medido la velocidad de reacción de muchos procesos diferentes de manera muy meticulosa, y se había dado cuenta de algo interesante.
Wilhelm Ostwald en su laboratorio
Wilhelm Ostwald en el laboratorio.
No existía ni una sola reacción en la que el catalizador desencadenase el proceso. Dicho de otro modo, si la reacción no se producía, la presencia de un catalizador no hacía que se produjese — no cambiaba nada, ni se inducía la descomposición de nadie. Lo que sí sucedía era que una reacción que ya se estaba produciendo sin la presencia del catalizador se produjera más rápidamente. Pero entonces ¿de dónde había sacado von Liebig la idea del desencadenamiento de la reacción?
La razón era simple una vez las medidas se hacían con el suficiente cuidado: había algunas reacciones químicas tan lentas que era casi imposible percibir que se estaban produciendo. Al añadir el catalizador, la reacción se aceleraba lo suficiente para ser perceptible con facilidad, con lo que a primera vista el catalizador era quien la desencadenaba. Pero claro, la realidad era otra bien distinta: el catalizador simplemente la aceleraba hasta que podíamos percibirla, ¡la reacción ya estaba produciéndose antes!
Jöns Jacob Berzelius, con su definición de catálisis más modesta y limitada conscientemente, tenía razón, y von Liebig había metido la pata. Y habían hecho falta unos 50 años para que nos diésemos cuenta, gracias a la introducción del concepto de velocidad de reacción creado por Wilhelmy y perfeccionado por Ostwald. Se trató casi del cumplimiento de la profecía de Berzelius cuando decía que era mejor esperar a que las cosas estuvieran claras antes de dar una explicación errónea y aventurada.
Wilhelm Ostwald y Jacobus Henricus van 't Hoff
Jacobus Henricus van ‘t Hoff (izquierda) y Wilhelm Ostwald (derecha).
La nueva definición de catalizador de Ostwald, basada en la velocidad de reacción, era parecida a la de Berzelius: un catalizador es una sustancia que produce un aumento o disminución de la velocidad de reacción y que al terminar ésta permanece como estaba al principio. Sin embargo, el carácter cuantitativo de la definición de Ostwald permitió a los científicos avanzar en la cinética química y el estudio de los procesos catalíticos de un modo que había sido imposible antes.
Pero esto no resolvía el principal problema: ¿qué hacía un catalizador para acelerar o ralentizar una reacción, si parecía no tomar parte en ella? Curiosamente, para responder a esa pregunta no debemos continuar avanzando en la historia, sino que debemos retroceder.
Como recordarás, Berzelius había hecho acopio de multitud de publicaciones sobre procesos que podrían ser catalíticos para extraer conclusiones sobre ellos. Por alguna razón, entre esos estudios no estaba uno realizado por dos franceses, Charles Bernard Desormes y su yerno Nicolas Clemént. Estos dos científicos franceses son conocidos fundamentalmente porque lograron determinar experimentalmente el valor de la constante adiabática del aire, pero en 1806 estos dos individuos postularon una posible explicación de los fenómenos catalíticos aplicados a un caso concreto. Berzelius no conocía estas conclusiones, o no las consideró importantes, pero tras la base establecida por Ostwald fue posible realizar experimentos que demostraron que Desormes y Clément tenían razón: en 1806 habían conseguido lo que ni von Liebig ni el propio Berzelius habían podido lograr — explicar la naturaleza de los procesos catalíticos, lo mismo que voy a intentar hacer yo aquí pero de un modo bastante más vulgar.
No he podido encontrar, por cierto, qué experimentos concretos demostraron la existencia de las reacciones intermedias por primera vez; en el discurso del propio Ostwald en 1909, el prusiano afirma que la explicación de Clément y Desormes parece la más sólida, pero no parece haber sido demostrada por entonces más allá de toda duda.
La clave de la cuestión según los dos franceses estaba en que, aunque la reacción pareciese la misma con el catalizador o sin él, salvo en la velocidad a la que se producía, la reacción no era igual. Aunque el catalizador permaneciese igual que al principio, como si hubiese sido un mero espectador de todo el proceso, el catalizador sí formaba parte de la reacción. ¿Cómo era posible entonces que todo empezase y acabase igual pero que todo fuese más rápido o lento? La razón, de acuerdo con Clemént y Desormes, era que la reacción original se producía por un camino distinto, con reacciones intermedias más favorables que la original. Veámoslo con Eulalio, nuestro primo en la fiesta.
Antes dijimos simplemente que con Eulalio en la fiesta se formaban más parejas, pero nunca nos fijamos exactamente en qué hacía Eulalio. La realidad, aunque fuéramos incapaces de verlo, es que Eulalio se ponía a hablar con alguien, establecía una relación con él y, cuando ambos estaban ya hablando animadamente, Eulalio le presentaba a su interlocutor a otro invitado de la fiesta y lo hacía todo con tal soltura que los otros dos, sin darse cuenta, empezaban a hablar como si se conocieran de toda la vida… ¡y acababan yéndose juntos a casa! Entonces, Eulalio se fijaba en algún otro invitado solitario, se ponía a hablar con él y después le presentaba a otro invitado… y así una y otra vez. Claro, al final Eulalio seguía solo, como al principio, pero no había estado solo todo el tiempo: se había juntado y separado varias veces con unos y otros, acelerando enormemente el proceso por el que llegaban a conocerse y emparejarse los demás.
Tal vez lo veas mejor con un ejemplo pseudo-matemático. Imagina que tenemos dos sustancias, A y B, y queremos que reaccionen para formar AB. Sin embargo, la reacción
A + B → AB
es lentísima. De modo que añadimos a Eulalio –quiero decir, la sustancia E–, que reacciona muy rápidamente con A:
A + E → AE
Pero la sustancia AE, al estar cerca de B, reacciona también rápidamente con ella:
AE + B → AB + E
¡Hemos obtenido AB muy rápidamente! Pero en vez de hacerlo en un paso lento, lo hemos hecho en dos muy rápidos. Si los escribimos juntos y sumamos ambas ecuaciones, de modo que AE aparezca en ambos lados –formándose y descomponiéndose– y podamos descartarlo para ver el resultado neto de la reacción total,
A + E → AE
AE + B → AB + E


A + B + E → AB + E
Tanto al principio como al final vemos E solo, como si no tuviera nada que ver con esto, ¡pero es porque no estamos percibiendo el paso intermedio en el que se forma y luego se descompone AE! Como puedes ver, E sí participa en la reacción, ¡ya lo creo que participa! Lo que pasa es que sufre dos “reacciones contrarias”, de modo que termina igual que empezó.
Lo maravilloso de esto, como dijimos antes, es que es posible acelerar o ralentizar reacciones sin gastar E, ya que siempre lo tenemos ahí al final, listo, como Eulalio, para emparejar a alguien más. Se trata de algo tan útil y, aunque nos costara tanto verlo, tan sencillo, que era inevitable que hiciera su aparición en la química de los seres vivos. Eso es, al fin y al cabo, lo que es una enzima: una proteína que actúa de catalizador de una o varias reacciones en el metabolismo. Por ejemplo, la lactasa cataliza la hidrólisis de la lactosa de la leche (y las personas que no producen lactasa suelen beber leche sin lactosa o no beber leche).
No olvides tampoco que los catalizadores pueden ser positivos –acelerando reacciones– pero también negativos: por ejemplo, es muy común utilizar catalizadores negativos de oxidaciones y putrefacciones en los alimentos envasados, de modo que cambien su composición química más lenta en vez de más rápidamente y de este modo duren más. Así, muchos conservantes son catalizadores negativos. Y es gracias a Wilhelm Ostwald, entre otros, que comprendemos este aspecto de las reacciones químicas y el ritmo al que se producen.
Eso sí, como puedes ver, hay multitud de nombres en la historia de la catálisis, y no tengo claro que Ostwald sea el principal. Si has leído toda la serie hasta ahora, te habrás dado cuenta de que no se me cae la baba con él como con otros científicos ganadores de un Nobel, pero es indudable que era un investigador de primera. El caso es que, si nos ha servido de excusa para pasar un buen rato hablando de estas cosas, bienvenido sea.
No quiero terminar, como siempre, sin dejar aquí el discurso de entrega del Premio Nobel de Química de 1909, pronunciado por el Doctor H. Hildebrand, Presidente de la Real Academia Sueca de las Ciencias el 10 de diciembre de ese mismo año:

Su Majestad, Sus Altezas Reales, damas y caballeros.
La Real Academia de las Ciencias ha decidido otorgar al ex-catedrático de la Universidad de Leipzig y Geheimrat, Wilhelm Ostwald, el Premio Nobel de Química de 1909 en reconocimiento a su trabajo sobre la catálisis y los estudios fundamentales asociados a él y centrados en los equilibrios químicos y las velocidades de reacción.
Ya en la primera mitad del siglo anterior se había observado en ciertos casos que podían inducirse reacciones químicas en sustancias que no parecían tomar parte en la reacción ellas mismas, y que en cualquier caso no sufrían alteraciones de ningún tipo. Esto llevó a Berzelius, en sus famosos informes anuales sobre el progreso de la Química de 1835 a realizar una de sus brillantes y no infrecuentes conclusiones, a partir de las que observaciones aisladas se agrupaban de acuerdo con un criterio común y se introducían nuevos conceptos en la Ciencia. Denominó este fenómeno catálisis. Sin embargo, el concepto de catálisis pronto recibió la oposición de otro bando igualmente eminente, que lo catalogó de inútil, y gradualmente cayó en un descrédito absoluto.
Unos cincuenta años más tarde, Wilhelm Ostwald realizó una serie de estudios para determinar la fuerza relativa de ácidos y bases. Intentó resolver este importantísimo asunto para la Química de diversas maneras, y todas ellas proporcionaron resultados consistentes. Entre otras cosas, descubrió que la velocidad con la que se producen diferentes procesos bajo la acción de ácidos y bases puede emplearse para determinar las fuerzas relativas de los últimos. Realizó multitud de medidas en esta línea, y al hacerlo estableció los cimientos del procedimiento de estudio de las velocidades de reacción, y examinó todos los casos típicos. Desde entonces, la teoría de las velocidades de reacción se ha convertido en algo más y más importante en la Química teórica; sin embargo, estos experimentos también proporcionaron una nueva luz sobre la naturaleza de los procesos catalíticos.
Después de que Arrhenius hubiese formulado su bien conocida teoría de que los ácidos y bases en disolución acuosa se disocian en iones y que su fuerza depende de su conductividad eléctrica o, más correctamente, de su grado de disociación, Ostwald comprobó la validez de esta idea midiendo la conductividad y, con ella, la concentración de los iones hidrógeno e hidroxilo con los ácidos y bases que había empleado en sus experimentos anteriores. Comprobó que la teoría de Arrhenius era correcta en todos los casos que investigó. Su explicación del hecho de que siempre encontrase los mismos valores para la fuerza relativa de ácidos y bases independientemente del método utilizado era que, en todos estos casos, los iones hidrógeno de los ácidos y los hidroxilo de las bases actuaban catalíticamente, y que la fuerza relativa de ácidos y bases estaba determinada únicamente por la concentración de estos iones.
Ostwald decidió, por tanto, realizar un estudio más profundo de los fenómenos catalíticos y extendió su campo de estudio también a otros catalizadores –como eran llamados–. Tras una investigación continua y consistente, logró formular un principio que describía la naturaleza de los catalizadores y que es satisfactoria para el estado actual de nuestro conocimiento, es decir, que la acción catalítica consiste en la modificación, por parte de la sustancia activa, de la velocidad a la que se produce una reacción química, sin que esa sustancia sea parte de los productos formados. La modificación puede ser un aumento, pero también una disminución, del ritmo al que se produce la reacción. Una reacción que de otro modo se produciría a un ritmo muy lento, tal vez necesitando años antes de alcanzar el equilibrio, puede ser acelerada mediante catalizadores hasta que se complete en un tiempo comparativamente corto, en algunos casos en uno o unos pocos minutos, o incluso en menos de un minuto, o viceversamente.
La velocidad de reacción es un parámetro medible y por lo tanto también son medibles todos los parámetros que la afectan. La catálisis, que anteriormente parecía ser un secreto escondido, se ha convertido por tanto en lo que se denomina un problema cinético y es accesible al estudio científico exacto.
El descubrimiento de Ostwald ha sido profusamente explotado. Además del propio Ostwald, un gran número de investigadores eminentes han entrado recientemente en este campo y el progreso es continuo y con cada vez mayor entusiasmo. Los resultados han sido verdaderamente admirables.
La mejor manera de revelar lo significativo de esta nueva idea es mediante el papel importantísimo –mencionado por primera vez por Ostwald– de los procesos catalíticos en todos los campos de la Química. Los procesos catalíticos son algo muy común, especialmente en la síntesis orgánica. Algunos sectores clave de la industria como, por ejemplo, la fabricación de ácido sulfúrico, la base de prácticamente toda la industria química, y la manufactura del añil que ha florecido de tal modo en los últimos diez años, se basan en la acción de catalizadores.
Sin embargo, un factor de incluso mayor peso, tal vez, es el conocimiento de que las denominadas enzimas, de una importancia extraordinaria en los procesos químicos en el interior de los organismos vivos, actúan como catalizadores y por lo tanto las teorías sobre el metabolismo animal y vegetal caen de pleno dentro del campo de la química catalítica. Como un ejemplo, los procesos químicos involucrados en la digestión son catalíticos, y pueden simularse paso a paso empleando catalizadores puramente inorgánicos. Además, la capacidad de varios órganos de transformar nutrientes de la sangre de modo que sean adecuados para las tareas específicas de cada órgano puede explicarse, sin ninguna duda, mediante la existencia de distintos tipos de enzimas dentro del órgano, capaces de realizar acciones catalíticas adaptadas a su propósito particular.
Aparte de esto, es extraño que algunas sustancias como el ácido cianhídrico, el cloruro mercúrico, el sulfuro de hidrógeno y otras que actúan como venenos extremadamente potentes sobre el organismo, también han sido observados neutralizando o “envenenando” catalizadores puramente inorgánicos como, por ejemplo, platino finamente pulverizado. Incluso mediante estas breves referencias debería quedar claro que, con la ayuda de la teoría catalítica de Ostwald, hemos adquirido una nueva manera de atacar complicados problemas en los procesos fisiológicos. Dado que estos procesos están relacionados con la acción enzimática en los organismos vivos, este nuevo campo de investigación es de una importancia para la humanidad que aún no puede ser comprendida completamente.
A pesar de que el Premio Nobel de Química es otorgado al Profesor Ostwald en reconocimiento a su trabajo con los catalizadores, es un hombre a quien el mundo químico debe mucho por otras razones. Mediante la palabra hablada y escrita él, más que tal vez cualquier otro, ha llevado a las teorías modernas a una rápida victoria, y durante varias décadas ha desempeñado un papel de liderazgo en el campo de la Química general. De otras maneras ha ayudado también al avance de la Química mediante su versátil actividad con numerosos descubrimientos y refinamientos en las esferas teórica y experimental.


Para saber más (esp/ing cuando es posible):

Print Friendly

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Física 1908 (Gabriel Lippmann)

Premios Nobel – Física 1908 (Gabriel Lippmann)

Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Tras disfrutar juntos con el Premio Nobel de Química de 1907, concedido a Eduard Buchner por su descubrimiento de la fermentación no celular, hoy continuamos nuestro largo periplo por los Premios Nobel de Física y de Química a lo largo de la Historia. Se trata en este caso de un premio de esos en los que se demuestran las vueltas que da la vida, un galardón de “múltiples ironías”: como Premio Nobel, el descubrimiento en cuestión se consideró en su momento como de una enorme relevancia… para luego ser casi olvidado ante otros más prácticos que él. Sin embargo, el uso de los mismos fenómenos físicos –y alguno más– reivindicaría unas décadas después el mismo descubrimiento, haciéndolo relevante una vez más como precursor de algo más grande.
Estoy hablando, por cierto, del descubrimiento realizado por el franco-luxemburgués Jonas Ferdinand Gabriel Lippmann, que obtuvo el Premio Nobel de Física de 1908, en palabras de la Real Academia Sueca de las Ciencias,

Por su método de reproducción fotográfica en color basado en el fenómeno de la interferencia.

A diferencia de otros años, en este caso queda clarísima la razón de otorgar el galardón, puesto que es algo muy concreto. Sin embargo, como siempre, volvamos hacia atrás en el tiempo para comprender el contexto y la relevancia del descubrimiento de Lippmann.

La fotografía tenía ya unas cuantas décadas aunque, por supuesto, en blanco y negro. Las primeras que conservamos, creadas por el francés Nicéphore Niépce, son de alrededor de 1825. Niépce, un genio que consiguió también crear el primer motor de combustión interna de la historia, el pireolóforo, denominó a sus primitivas fotografías heliografías, por escritura mediante el Sol y, aunque no eran de una gran calidad y requerían de un tiempo de exposición enorme, se trata de un logro excepcional y las bases de la técnica de Niépce son esencialmente las mismas que la de la fotografía posterior.
Nicéphore Niépce
Nicéphore Niépce (1765-1833).
La idea es bien sencilla: introducir una placa cubierta de ciertos compuestos químicos en una cámara oscura abierta al exterior por un agujero que puede taparse a voluntad, y elegir compuestos químicos que sufren algún tipo de cambio al ser expuestos a la luz, de modo que pueda registrarse en qué puntos hubo mayor intensidad luminosa y en qué puntos menor. Una vez fijados los compuestos tras la exposición, de modo que no se siga produciendo ningún cambio químico ante la luz, basta volver a mirar la placa revelada para ver la escena a la que se expuso la placa originalmente: se ha logrado entonces “fijar” la escena permanentemente sobre un sustrato físico.
En el caso de las heliografías de Niépce, el compuesto químico era una disolución de betún y aceite de lavanda. Con él, el francés cubría una placa metálica, que introducía en la cámara oscura. Después exponía la placa a la escena a heliografiar, aprovechando una peculiaridad del betún así disuelto en aceite de lavanda: que se endurecía paulatinamente al recibir la luz debido a un cambio en su estructura química. Una vez había pasado el tiempo suficiente, Niépce lavaba la placa con más aceite de lavanda, que se llevaba consigo el betún aún viscoso pero que dejaba pegado a la lámina el endurecido debido a la luz. Así, se obtenía una placa en la que algunas partes mostraban el metal que había bajo la capa de betún –donde había desaparecido el compuesto– y en otras seguía habiendo betún.
Vista desde la ventana en Le Gras, de Nicéphore Niépce
Vista desde la ventana en Le Gras, una de las primeras heliografías de Niépce (c. 1826). Observa la luz blanca sobre las caras izquierda y derecha de los edificios debido al tiempo de exposición.
El resultado tenía “relieve”, y era posible luego crear grabados a partir de él. En fin, algo realmente maravilloso. El principal problema del método de Niépce era que el tiempo de exposición necesario era de unas ocho horas, ¡como para posar para una heliografía! De ahí que el retraro de arriba sea eso, un retrato, y que no dispongamos de heliografías del propio Niépce ni de ninguna persona. Eso sí, para tomar imágenes de objetos inanimados, como otros grabados o edificios, era estupenda… excepto que al tomar heliografías de exteriores, el tiempo de exposición era tan largo que las sombras iban cambiando a lo largo del tiempo según el movimiento aparente del Sol en el cielo, claro.
Pero, limitaciones aparte, el inventor francés había abierto el camino, y otros lo seguirían gustosos, probando con otros compuestos químicos que requiriesen de un tiempo de exposición menor. El propio Niépce era consciente de que su método del betún no era muy práctico por esa misma razón, y colaboró durante años con otro francés, Louis Daguerre, para conseguir tiempos más cortos. Unos años tras la muerte de Niépce, Daguerre consiguió un método más eficaz que empleaba, en vez de betún y aceite de lavanda, sales de plata y vapores de mercurio.
El sistema de Daguerre se hizo mucho más famoso que el de Niépce –injustamente olvidado–, y sus daguerrotipos causaron sensación. Para crearlos, Daguerre primero cubría una lámina de cobre con una sal de plata –yoduro de plata primero, posteriormente bromuro de plata–, y luego la exponía a la escena a registrar. En las zonas expuestas a la luz, parte de la plata se reducía a plata metálica en un proceso mucho más rápido que el endurecimiento del betún de Niépce –unos 30 minutos en vez de ocho horas–. Posteriormente se situaba la placa sobre mercurio caliente, de modo que el vapor de mercurio formaba una amalgama con la plata y se adhería a la placa metálica; finalmente, se disolvían las sales de plata que no habían sufrido ningún cambio químico, y se tenía un registro visual de la escena daguerrotipada.
El principal avance de Daguerre, el menor tiempo de exposición, supuso que uno de sus daguerrotipos contenga la primera imagen registrada directamente de un ser humano. Claro, media hora es bastante tiempo, pero en una de sus imágenes de 1838 del Boulevard du Temple, en París, el francés tuvo la fortuna de que, mientras exponía su placa a esa calle parisina, un transeúnte decidiese utilizar los servicios de un limpiabotas. La limpieza de las botas duró lo suficiente para que ambos, limpiador y limpiado, quedaran inmortalizados para siempre.
Boulevard du Temple, de Daguerre
Boulevard du Temple (1838).
Posteriormente se desarrollarían métodos más eficaces que el de Daguerre, que obtenían negativos que luego se revelaban para producir la fotografía propiamente dicha, pero no quiero detenerme en eso, porque la base físico-química de todo el asunto es la misma que en el caso de los dos franceses Niépce y Daguerre: el cambio químico de una sustancia fotosensible. Sin embargo, aunque con los años se fue disminuyendo más y más el tiempo de exposición requerido, haciendo de la fotografía algo mucho más práctico, los sistemas posteriores seguían teniendo una limitación fundamental, idéntica a la de las heliografías y daguerrotipos.
Una sustancia fotosensible como el betún disuelto o las sales de plata podía no sufrir cambios –si no era expuesto a la luz o se correspondía con una zona oscura de la escena fotografiada–, sufrir cambios limitados si la intensidad luminosa no era grande, o sufrir un cambio muy notable si la intensidad era grande; idealmente, esto sucedía de manera razonablemente rápida y tenía una gradación suficiente para producir muchos matices entre la oscuridad total y una intensidad luminosa enorme… pero eso era todo. Se producían imágenes registradas en tonos de gris, es decir, lo que solemos llamar “en blanco y negro”. No había manera, si no se estrujaba uno la cabeza, de conseguir no sólo grados entre oscuridad y luz, sino calidades de luz, es decir, distinguir longitudes de onda para reproducir lo que realmente ve el ojo humano. Y a eso se dedicaron otros pioneros desde bastante pronto en la historia de la fotografía.
Existen varias maneras de obtener fotografías en color, pero la más evidente, la primera en ser planteada y la que, básicamente, utilizamos hoy en día, es lo que voy a denominar aquí fotografía tricrómatica para contraponerla a la maravillosa de Lippmann, de la que hablaremos en un momento. El primero en proponerla fue el genio escocés James Clerk Maxwell en 1855, pero muchos otros tuvieron la misma idea, parece que de manera independiente, en años posteriores.
Maxwell había estado estudiando, entre muchísimas otras cosas relacionadas, el fenómeno de la visión. Thomas Young había ya postulado a principios del siglo la existencia de tres tipos de fotorreceptores en nuestra retina, y Hermann von Helmholtz refinó la idea a mediados de siglo, de modo que Maxwell conocía bien la existencia de los tres tipos de receptores. Supongo que conoces más o menos de qué va este asunto, pero si no es así, puedes echar un ojo a la entrada sobre la visión de los toros, en la que abordamos la cuestión de la visión en color en algo más de detalle.
El caso es que Maxwell se planteó la siguiente posibilidad: a pesar de que los compuestos fotosensibles utilizados en fotografía sólo pueden responder a la intensidad de luz, y no su longitud de onda, sería posible fotografiar una escena no una vez, sino tres. Superponiendo un filtro de cada longitud de onda a la que tienen su sensibilidad máxima nuestros fotorreceptores, podríamos obtener tres fotografías en rojo, verde y azul, de modo que cada punto de la fotografía registraría algo parecido a lo que registrarían nuestros conos al ver la misma imagen. Si luego se superponían las tres placas fotográficas, como si fueran diapositivas semitransparentes, y una persona las miraba, vería otra vez la combinación de intensidad relativa de los tres colores primarios sobre cada punto, reproduciéndose así la imagen fotografiada, con sus colores, en el ojo.
El método de Maxwell no registraba, por tanto, todas las longitudes de onda de la escena, sino sólo tres, una nimiedad comparado con el total… pero una nimiedad suficiente para nuestro ojo, ya que funcionamos básicamente de la misma manera. Al ser nosotros seres tricrómatas, la “fotografía tricrómatica”, aunque no registre toda la información cromática de la escena, nos basta de sobra. El caso es que, aunque parece que la sugerencia del buen escocés fue olvidada en poco tiempo, en los años posteriores muchos otros tuvieron la misma idea –porque es de cajón, y no hace falta ser James Clerk Maxwell para que se te ocurra–, y diversos intentos de llevarla a cabo con mayor o menor éxito se fueron produciendo.
Al principio, claro, los fotógrafos hacían exactamente eso: tomar tres fotos diferentes de la misma escena con cámaras equipadas con filtros. Uno de los avances más obvios, ideado por el alemán Adolf Miethe, fue emplear una sola cámara con placas y filtros sobre rieles, de modo que pudiera bajarse la “placa que fotografiará el verde” junto con el filtro verde, ¡zas!, foto, luego subir ese y bajar el azul, luego el rojo, y así conseguir las tres fotografías en el menor tiempo posible. Porque el problema al principio, claro, es que si algo se movía entre una foto de un color y otra de otro, todo quedaba fatal…
Alim Khan, de Prokudin-Gorskii
Alim Khan, Emir de Bukhara, fotografiado por Prokudin-Gorskii, con las tres fotografías en cada longitud de onda a la derecha (1911).
De hecho, a principios del siglo XX un discípulo de Miethe, el ruso Sergei Mikhailovich Prokudin-Gorskii, se dedicó a recorrer el Imperio Ruso y documentar gráficamente sus viajes con fotografías tricromáticas, absolutameente maravillosas, aunque requiriesen, por supuesto, de un largo tiempo combinado de exposición, con lo que sólo se pudieran fotografiar personas que estuvieran posando cuidadosamente. Para llegar a la fotografía en color actual hacía falta tomar las tres fotos “a la vez”, claro… y eso es algo que lograron los hermanos Lumière con su Autocromo.
El Autocromo Lumière fue patentado por los geniales hermanos franceses en 1903, y aunque no me gusta tanto como el sistema ideado por nuestro héroe de hoy –a quien te prometo que llegamos en un par de párrafos, ¡paciencia!–, es innegable su genio. En vez de exponer tres placas fotográficas con sendos filtros a la escena a fotografiar, con el error inevitable que eso supone si algo se mueve entre unas y otras, los Lumière empleaban una sola placa y una sola fotografía en vez de tres.
Los hermanos empleaban una lámina de vidrio y una sal de plata… hasta aquí, nada sorprendente. Ahora bien, entre el vidrio y la plata interponían una capa de gránulos de almidón coloreados. Alrededor de un tercio de ellos estaban tintados de rojo anaranjado, otro tercio de azul violáceo y otro tercio de verde, y estaban mezclados aleatoriamente, de modo que la superficie del vidrio quedaba cubierta por una mezcolanza de minúsculos granitos de los tres colores. ¿Ves el genio de los franceses? Al tomar una fotografía, la luz debía atravesar los gránulos de almidón antes de llegar al sustrato químico que registraría la imagen, con lo que cada punto de la fotografía tenía su propio filtro minúsculo: dependiendo de qué gránulo tuviera delante, registraba la intensidad relativa de un color u otro.
Gránulos de almidón del autocromo Lumière
Gránulos de almidón del Autocromo vistos al microscopio.
Dicho de otro modo, cada punto era realmente una fotografía monocromática, pero todos juntos eran una mezcla de la misma escena fotografiada en tres longitudes de onda diferentes. Al mirar luego la placa a través de la misma lámina con los mismos gránulos de almidón, el ojo percibía cada punto de un color determinado, y todos juntos producían una imagen en color maravillosa en la que se había registrado la información de los tres colores de manera simultánea, a diferencia de las fotografías de Miethe y Prokudin-Gorskii que los guardaban secuencialmente.
Margate Beach, de John Cimon Warburg
Margate Beach, autocromo de John Cimon Warburg (c. 1908).
El método de los Lumière se emplearía durante unas décadas hasta ser sucedido por otros que llevarían hasta la fotografía moderna. Como puedes ver, la fotografía tricromática venció, pues partía de una idea simple y eficaz, y era fácil de producir y, eventualmente, de copiar. Pero existía otro modo de producir color sin utilizar pigmentos de ningún tipo, ni filtros, ni nada parecido, con una sola fotografía… mas, ¡ay!, para dar con ese otro modo hacía falta saber mucha, mucha Física y, sobre todo, mucha teoría ondulatoria de la luz, una disciplina aún en ciernes. Volvamos, pues, unos años atrás, para conocer la otra rama de la fotografía en color.
Tenemos que retroceder hasta mediados de siglo y hasta investigaciones bien diferentes de las de Daguerre y compañía, ya que los descubridores de este “segundo método” de producir fotografías en color no estaban intentando eso en absoluto: se trató, como tantas otras veces, de pura suerte. El físico francés Alexandre-Edmond Becquerel –padre de un viejo conocido de esta serie, Antoine Henri Becquerel– se encontraba entonces realizando estudios de fotoquímica, es decir, cambios químicos producidos en distintos compuestos al exponerlos a la luz. Fue así como, por cierto, descubrió el fenómeno fotovoltaico que utilizamos hoy en día en las placas solares de ese nombre pero, como siempre, me voy por las ramas.
Becquerel estaba utilizando láminas de plata cubiertas con una capa de cierto grosor de una sal del mismo metal, cloruro de plata (AgCl), exponiéndolas a la luz. Al exponer estas láminas ante una escena determinada, el francés observó que no sólo se producían cambios químicos en la sal, sino que sobre la lámina aparecían los colores de la escena frente a la lámina. Sin embargo, cuando la lámina se llevaba a otra parte, o se dejaba de exponerla a la luz, los colores cambiaban o desaparecían — no se trataba de algo permanente. Becquerel no supo explicar la razón de este extraño fenómeno, ni consiguió hacer permanente el cambio.
Aunque otros físicos intentaron, en los años posteriores, explicar la razón de que apareciesen colores sobre las láminas de Becquerel, la cosa no estaba nada clara y, sobre todo, no parecía posible emplear el fenómeno para nada práctico. Hasta que, por supuesto, un individuo de inteligencia tan aguda como sus bigotes hizo su aparición en escena, levantó sus tupidas cejas y se puso a pensar en el asunto en 1886.
Gabriel Lippmann
Gabriel Lippmann (1845-1921).
Gabriel Lippmann era por entonces profesor de Física en la Sorbonne de París, y acababa de ser nombrado miembro de la Académie des sciences francesa. Se trataba de un tipo interesado prácticamente en casi todo; entre otras cosas, ideó un electrómetro que empleaba el fenómeno de la capilaridad para detectar diferencias de potencial tan minúsculas que se empleó en el primer aparato de electrocardiograma de la historia, además de un dispositivo para observar los astros durante largo tiempo que compensaba el movimiento de rotación de la Tierra, de modo que los objetos en el firmamento mantuviesen su posición relativa durante horas.
Como puedes ver por sus descubrimientos, no se trataba de un físico teórico que se plantease responder a preguntas fundamentales sobre la naturaleza del Universo: era un tío práctico, que se proponía resolver un problema y aguzaba el ingenio hasta hacerlo así. En lo que a nosotros respecta en este artículo, el problema que intentaba resolver era el de registrar el espectro de la luz solar, con todas sus longitudes de onda, sobre una lámina fotográfica. Lippmann no deseaba conseguir una imagen tricromática, sino una imagen realmente multicromática, es decir, que registrase todas las longitudes de onda, no sólo algunas.
Para ello, el físico se fijó en los experimentos de Becquerel, y se puso a trabajar en dos aspectos fundamentales: por un lado, comprender cómo se habían formado los colores que veía el francés y, por otro, cómo conseguir fijar esos colores de manera permanente. Afortunadamente para él, en los años transcurridos entre el descubrimiento de Becquerel y 1886 la comunidad científica había alcanzado un conocimiento parcial de lo que sucedía en aquellas láminas coloreadas, y parecía claro que la interferencia tenía algo que ver. Lippmann avanzó aún más en el entendimiento del fenómeno, y en unos años alcanzó una respuesta que, si eres fiel seguidor de El Tamiz, seguro que te suena.
Lo que sucedía, de acuerdo con el luxemburgués, era que la luz estaba produciendo un cambio químico sobre el cloruro de plata, de un modo parecido al de las placas fotográficas normales, pero la luz no incidía sobre la capa de sal una vez, sino dos. La luz penetraba en la capa de AgCl, luego se reflejaba en la lámina de plata metálica que había detrás y que actuaba de espejo, y luego volvía a salir otra vez a través de la capa de AgCl. Pero mientras volvía tras reflejarse, se encontraba con la luz que estaba entrando en la lámina antes de rebotar: la luz estaba interfiriendo consigo misma, es decir, se estaban produciendo ondas estacionarias en la capa de sal.
Creo que la primera vez que hablamos de ondas estacionarias en El Tamiz fue al estudiar el pozo de potencial infinito pero, por si no leíste aquel artículo (no se trata de algo que pueda leerse sin bucear antes en otros, con lo que no doy por sentado que lo hagas), permite que te dé una breve explicación de este fenómeno ondulatorio. Cuando una onda se refleja en alguna parte y vuelve por donde vino, interfiere consigo misma. Como consecuencia, en algunos puntos se produce una interferencia constructiva, mientras que en otros hay una interferencia destructiva. De estos dos tipos de interferencia sí hemos hablado ya en esta misma serie al hacerlo de A. A. Michelson, con lo que no repito aquí los conceptos.
Onda estacionaria
Onda estacionaria (en negro), resultado de la interferencia entre la onda incidente (azul) y la reflejada (roja).
El caso es que hay puntos, denominados nodos, en los que la interferencia es destructiva y no hay luz de ningún tipo. En esos puntos, por tanto, la capa de sal permanece intacta y no se produce ningún cambio químico en ella; por el contrario, en las crestas en las que la interferencia es constructiva, la intensidad luminosa será el doble que la inicial, debido a la suma de la onda incidente y la reflejada. Y la distancia entre un nodo y el siguiente (o entre una cresta y la siguiente) es la mitad de la longitud de onda de la onda inicial. Todo esto puede sonar a trabalenguas, pero el quid de la cuestión es el siguiente: en la lámina se forma una especie de “libro” con “hojas” alternas, paralelas, en las que hay plata metálica en una y no en la siguiente, sí en una y no en la siguiente, etc., y la distancia entre una hoja y la siguiente idéntica a ella es la mitad de la longitud de onda inicial.
Como ves, a diferencia de una placa fotográfica normal, hace falta pensar en tres dimensiones: sí, en unos puntos de la lámina habrá más luz que en otros y la exposición de la sal será mayor, pero además, para cualquiera de esos puntos, habrá una serie de “sub-puntos” dentro de la capa de sal en los que ha habido una mayor y menor exposición alterna. Pensemos en esto en términos de información de la imagen: la información de luz/sombra está ahí, igual que en las fotografías normales, en el hecho de que un punto sobre la superficie ha recibido más o menos luz. Pero, además, en las placas de Becquerel –y luego en las de Lippmann– hay una dimensión de información adicional — la distancia entre las “hojas” con puntos de luz y sombra alternos almacena la longitud de onda recibida, es decir, el color de la luz que incidió sobre la lámina.
Es más, ¡esta información está almacenada para cada color que incide sobre la lámina simultáneamente! Si nos fijamos en un punto determinado de la lámina, cuando éste recibe luz de varias longitudes de onda diferentes, unas no interfieren con otras –pues sus longitudes de onda son distintas–, pero cada una interfiere consigo misma tras reflejarse en la lámina, produciendo así su propia onda estacionaria. Si sobre un punto de la lámina incide luz de veinticinco longitudes de onda distintas, se producirán veinticinco series de “hojas” de luz y sombra –es decir, de mayor y menor cambio químico–, cada una de las cuales almacena la información sobre su longitud de onda particular.
Gabriel Lippmann en el laboratorio
Gabriel Lippmann en el laboratorio.
Una vez Lippmann hubo comprendido esto, se dedicó a intentar mostrar de nuevo esa información cromática almacenada en la lámina y a almacenarla de manera permanente. Registrarla permanentemente requería, básicamente, realizar un proceso de revelado que asegurase que el cambio químico producido no se volviera a deshacer al dejar de recibir luz, lo cual requirió de varios intentos con distintas sustancias y sustratos químicos. La visualización era, sin embargo, enormemente fácil: tan fácil que el propio Becquerel, sin comerlo ni beberlo, había visto los colores en sus propias láminas a pesar de no estar intentándolo.
El fenómeno se parece bastante, como seguro que recuerdas si eres un viejo del lugar, a cómo se ve un holograma. Cuando se hace incidir luz blanca sobre la placa de Lippmann –porque así se llaman estas placas, por supuesto–, la luz penetra en la lámina, se refleja en el metal que hay detrás y luego sale otra vez hacia tu ojo… pero no antes de toparse con las “hojas” alternas dejadas allí por el proceso de exposición original. Lo que pasa entonces, como sucede en un holograma, es que lo mismo que el patrón de interferencia produjo un patrón de cambios químicos sobre el sustrato, ahora el patrón físico sobre el sustrato produce un patrón de interferencia en la luz.
Al volver a tu ojo, la luz ya no es blanca: en cada punto de la lámina, sólo la luz que tenía la longitud de onda adecuada –la que coincidía con la correspondiente a las “hojas de luz y sombra” originales– vuelve a salir hacia tu ojo, con lo que en cada punto ves luz de las mismas longitudes de onda que produjeron el patrón de cambios químicos sobre la placa de Lippmann. En otras palabras, estás viendo de nuevo los mismos colores que recibió la placa al tomar la fotografía; al menos, idealmente, ya que en la práctica el bueno de George no tenía los medios físicos y químicos para conseguir el ideal, pero sí el mecanismo teórico para conseguirlo.
Loro, de Lippmann
Loro, una de las primeras placas de Lippmann (1891).
Cinco años después de empezar a trabajar en ello, Lippmann produjo sus primeras placas en color. Los resultados pueden no parecer demasiado espectaculares, pero la relevancia del descubrimiento es extraordinaria. En 1891 anunció su logro a la Academia francesa, aunque seguiría perfeccionando el sistema durante años y, por supuesto, en 1908 recibiría el Premio Nobel de Física en honor a su descubrimiento.
Fíjate en dos cosas importantes: en ningún momento hemos hablado de pigmentos, ni tintes, ni filtros, ni nada. No hay “tinta de colores” ni nada parecido en la placa de Lippmann, sino que su estructura física microscópica –pues las longitudes de onda involucradas son minúsculas– hace que la luz blanca que llega a ella salga sólo en determinadas longitudes de onda. En esto se diferencia del Autocromo de los Lumière –que, por cierto, colaboraron con él para mejorar el sistema de Lippmann y producir mejores colores y mayor resolución– y de casi cualquier otro sistema de producir fotografía en color posterior.
Flores, de Lippmann
Naturaleza muerta (entre 1892 y 1899).
Pero más importante aún es la segunda diferencia: el método de Lippmann no registra los colores “como los ve el ojo”, sino “como son de verdad”. Dicho de otro modo, no es fotografía tricrómata, sino multicrómata, y todas las longitudes de onda son almacenadas, no sólo tres. Aunque cuando la mires con tu ojo la imagen se parezca mucho a la de una fotografía contemporánea de ella en tres colores, la cantidad de información almacenada en una placa de Lippmann es enormemente mayor.
¿Por qué, entonces, seguramente nunca has oído hablar del pobre Lippmann? Pues porque sus placas tenían un par de problemas prácticos enormes. Por una parte, los tiempos de exposición a finales del siglo XIX para las fotografías “convencionales” eran ya muy cortos, y era posible tomar retratos de personas sin que tuvieran que posar durante mucho tiempo. Sin embargo, las placas de Lippmann requerían más tiempo: unos 15 minutos al principio, reducidos hasta alrededor de un minuto cuando recibió el Nobel. Harían falta mejoras que redujesen este tiempo de exposición necesario aún más; en palabras del propio Lippmann,

Sin embargo, aún queda por perfeccionarse [este sistema] en algunos aspectos. El tiempo de exposición (un minuto a la luz del Sol) es aún demasiado largo para un retrato. Era de quince minutos cuando empecé mi trabajo. El progreso puede continuar. La vida es corta y el avance lento.

El segundo problema es muy parecido al de los hologramas: debido al mecanismo de formación de la imagen al mirar una placa de Lippmann y al hecho de que los cambios químicos sobre la placa tienen una estructura tridimensional, con profundidad, son casi imposibles de copiar. Esto, seguramente más que la razón anterior, hizo que pronto se abandonase el método del luxemburgués en favor de los convencionales, y que este genio experimental quedase un poco olvidado. Sin embargo, al igual que los hologramas tienen valor práctico precisamente por la dificultad de copiarlos, tal vez se utilicen algún día imágenes de Lippmann como medidas de seguridad.
Saint Maxime, de Lippmann
Saint Maxime (entre 1891 y 1899).
Los paralelismos entre los hologramas y las placas de Lippmann, por cierto, no acaban aquí. Una vez logró su propósito de registrar el espectro luminoso “completo”, este físico se planteó otro problema práctico: almacenar la imagen desde varios puntos de vista, de modo que al mirarla, por efecto de paralaje, el espectador pudiera percibir profundidad. El método que sugirió Lippmann era utilizar una multitud de pequeñas lentes que tomasen la imagen desde diversos puntos, pero no me dirás que no es interesante el hecho de que los hologramas resolvieran precisamente este problema.
El ideal de fotografía de Lippmann, por tanto, sería una “imagen completa” en cuanto al almacenaje de información sobre la escena se refiere: sus placas eran completas en cuanto a las longitudes de onda, mientras que nuestros hologramas lo son en cuanto a los puntos de vista. ¿Es posible combinar ambas técnicas para registrar una escena en todas sus longitudes de onda y desde todos los puntos de vista? El resultado sería impresionante, un almacenaje completo de la información visual de un lugar o un objeto. Tal vez algún día…
Como siempre, aquí tenéis el discurso de entrega del Premio, pronunciado el 10 de diciembre de 1908 por K. B. Hasselberg, por entonces Presidente de la Real Academia Sueca de las Ciencias:

Su Majestad, Sus Altezas Reales, damas y caballeros.
La Real Academia Sueca de las Ciencias ha otorgado el Premio Nobel de Física de 1908 al Profesor Gabriel Lippmann de la Sorbona por su método, basado en el fenómeno de la interferencia, que permite la reproducción de color en fotografía.
Antes incluso de 1849, cuando el arte de la reproducción fotográfica fue descubierto por esos pioneros de la Ciencia, Niepce, Daguerre, Talbot y otros, el problema de cómo registrar y fijar colores sobre una placa fotográfica estaba ya presente. Parecía que la respuesta estaba cerca cuando Edmond Becquerel mostró que una lámina de plata cubierta con una fina capa de cloruro de plata se coloreaba bajo la acción de la luz, con un color que se correspondía con el color de la luz utilizada. Esta observación no fue más allá. Becquerel no disponía de una explicación para el origen de los colores, ni consiguió un medio de fijarlos sobre la lámina. En poco tiempo desaparecían, con lo que su método, desprovisto de un uso práctico, no consiguió la atención que sin duda merecía.
Una explicación del origen de las imágenes en color de Becquerel fue proporcionada en 1868 por el alemán Wilhelm Zenker, y fue llevada más allá por el ganador del Premio Nobel, Lord Rayleigh. De acuerdo con esta explicación, los colores se deben a ondas de luz estacionarias que, mediante una acción química, forman gránulos de plata metálica a partir del cloruro de plata. El color es un fenómeno de interferencia producido por la reflexión de la luz sobre esta capa de plata.
El fenómeno se convirtió entonces en uno de interés teórico. Si podía confirmarse esta hipótesis, el trabajo de Becquerel nos proporcionaría más pruebas sobre la veracidad de nuestro concepto de luz considerada como el resultado de un movimiento vibratorio, ya que uno de los fenómenos fundamentales del movimiento vibratorio –la onda estacionaria– se habría verificado en el caso de la luz. Sin embargo, no fue hasta 1890 que Otto Wiener, mediante un experimento particularmente cuidadoso, consiguió pruebas concluyentes de que la hipótesis de Zenker era correcta.
Era entonces posible reproducir imágenes con colores más o menos exactos, pero no estables. También se había encontrado una explicación para el origen de estas imágenes. Aún no era el momento de hablar de la reproducción fotográfica de objetos con colores y de su fijación. Así estaban las cosas cuando el Profesor Lippmann, en 1891, comunicó a la Academia Parisiense de las Ciencias su trabajo sensacional sobre fotografía en color.
Las características principales del método de Lippmann son, sin duda, bastante bien conocidas. Se cubre una lámina de vidrio con una capa sensible a la luz, formada por una emulsión de gelatina, nitrato de plata y bromuro potásico. Sobre esta capa fotosensible se añade otra capa de mercurio, que forma un espejo. Esta lámina se expone dentro de una cámara oscura de manera que el lado de vidrio [el lado de la lámina que no ha sido cubierto con nada] se enfrenta al objetivo. Durante la exposición, la luz atraviesa primero el vidrio, luego penetra en la capa de la emulsión y finalmente se encuentra con la superficie reflectante del mercurio, que la devuelve hacia atrás.
La onda de luz incidente y la reflejada forman lo que se denominan ondas estacionarias, caracterizadas por una serie de máximos y mínimos de iluminación, separados unos de otros por media longitud de onda de la luz incidente. Una vez que se revela la placa, se fija y se seca mediante los procesos normales, se encontrarán en la lámina de gelatina planos de plata reducida cuyas distancias entre sí dependen de la longitud de onda — es decir, del color de la luz que produjo la imagen. Supongamos que se hace incidir luz blanca de la manera normal sobre una lámina fotográfica como las que acabamos de describir [después de haberla revelado, es decir, cuando ya tiene la fotografía fijada en ella]. El rayo será reflejado por los diferentes planos de plata y, siguiendo las leyes de la interferencia de la luz en láminas finas ya conocidas, la lámina aparecerá coloreada — y el color será el mismo que el de la luz que generó la impresión fotográfica original.
La reproducción de los colores se está llevando a cabo, por tanto, de la misma manera que sucede en las burbujas de jabón y las láminas delgadas en general, con un reforzamiento adicional del fenómeno por la existencia de planos sucesivos. El efecto del color en los experimentos de Lippmann no aparece, por tanto, como consecuencia de la existencia de pigmentos. Tenemos que conformarnos con lo que se denominan colores virtuales, inalterables en su composición y vívidos mientras la placa fotográfica esté intacta. Así, las fotografías de Lippmann salen favorecidas al compararlas con intentos posteriores de resolver el problema de la reproducción del color –las fotografías de los Lumière–, así llamadas fotografías de tres colores, obtenidas utilizando pigmentos, un descubrimiento extraordinario que, debido a lo simple del método involucrado, ha obtenido una gran popularidad bien merecida.
Una simple mirada a los trabajos de ilustración de nuestros días, tanto en el dominio de la ciencia como en el del arte y la industria, es suficiente para mostrar la importancia de la reproducción fotográfica en nuestros días. La fotografía en color de Lippmann supone otro paso adelante, de gran importancia, en el arte de la fotografía, ya que su método ha sido el primero en proporcionarnos los medios para mostrar a la posteridad, mediante imágenes inalterables, no sólo la forma de un objeto con sus luces y sombras, sino también sus colores.
A través de sus constante esfuerzo dirigido hacia este fin, y de su comprensión completa de todos los recursos que puede ofrecer la Física, el Profesor Lippmann ha creado este elegante método de obtener imágenes que combinan la estabilidad con el esplendor del color. La Real Academia de las Ciencias ha considerado este logro digno del Premio Nobel de Física de 1908.

Para saber más (esp/ing cuando es posible):

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Química 1907 (Eduard Buchner) | El Tamiz

Premios Nobel – Química 1907 (Eduard Buchner)

Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Eduard Buchner
Os traigo hoy la contrapartida al Premio Nobel de Física de 1907 con el que conocimos algunos de los logros menos famosos de A. A. Michelson, pero no por ello menos importantes (como veremos en unas semanas al hablar de una aplicación muy interesante de los conceptos utilizados en su interferómetro). Esta vez haremos lo propio con el Premio Nobel de Química del mismo año, otorgado al bávaro Eduard Buchner (a la izquierda), en palabras de la Real Academia Sueca de las Ciencias,

Por sus investigaciones bioquímicas y su descubrimiento de la fermentación no celular.

Se trata, como ha sucedido otras veces en esta misma serie, de una descripción que tal vez te deje frío al principio, pero el descubrimiento de Buchner es de una relevancia extraordinaria, no ya sólo para la Química, sino para la ciencia y nuestra concepción de la vida y de nosotros mismos. Y no es un descubrimiento aislado, sino que forma parte de una tendencia que hemos mencionado varias veces en artículos anteriores al hablar de premios en Química. Buchner consiguió uno de esos pasos tras los cuales no hay marcha atrás, que callan muchas bocas y cambian paradigmas… y lo hizo, dicho mal y pronto, haciendo vino. ¿He despertado al menos tu curiosidad?

Para comprender el “¡zas, en toda la boca!” a ciertas ideas anteriores propinado por el descubrimiento de Buchner hace falta antes, como nos pasa tantas veces en esta serie, retroceder en el tiempo para ser conscientes de cómo eran las cosas cuando llegó el alemán. La cuestión es que hay cosas que hoy en día nos sorprenden poco y nos parecen obvias, pero que hace tiempo no eran tan evidentes; no sólo eso — algunas eran tan controvertidas que las principales eminencias científicas las consideraban una estupidez.
Durante casi toda la historia de la ciencia, hubo una distinción radical entre los procesos biológicos y todos los demás. Desde Aristóteles en adelante se consideraba que las leyes simples que rigen casi todo el Universo no son aplicables a los seres vivos, sino que éstos son “algo diferente”. El comportamiento de plantas y animales y los procesos biológicos se consideraban algo casi milagroso, y se pensaba que todo lo relacionado con los seres vivos se debía a la “fuerza vital” que había en ellos. Hoy en día conocemos esta concepción como vitalismo. Si has seguido esta serie hasta ahora –especialmente en los Premios de Química– sabes exactamente a lo que me refiero, porque este vitalismo científico se fue desmoronando durante el siglo XIX y ya hemos visto ejemplos de ello.
Friedrich Wöhler
Observa que digo vitalismo científico, y no vitalismo a secas, porque el vitalismo sigue vivo, aunque no en círculos científicos. Lo siento si me pongo pesado a veces, pero no puedo evitarlo: amo la Ciencia. No porque sea perfecta, ni muchísimo menos –estamos hablando ahora, precisamente, de una concepción científica absolutamente falsa y que se sostuvo milenios–, sino precisamente porque es consciente de que no lo es, y los hechos y la experimentación son los que mandan incluso cuando no nos gusta el resultado. Y, si no, que se lo pregunten a Wöhler (a la derecha).
El “milagro de la vida”, cualitativamente diferente del Universo no vivo, tenía como consecuencia el hecho de que las sustancias orgánicas eran absolutamente independientes de las inorgánicas, ya que era imposible generar la “fuerza vital” a partir de lo no vivo. Sin embargo, en 1828 el alemán Friedrich Wöhler consiguió producir urea (un compuesto hasta entonces únicamente producido por los seres vivos) a partir de moléculas inorgánicas, algo absolutamente contrario no sólo a lo que el propio Wöhler –y prácticamente todo el mundo– pensaba, sino a la manera en la que consideraba que “debían ser las cosas”. En palabras de Wöhler, al mirar los cristales de urea que había producido, estaba siendo testigo de “la gran tragedia de la ciencia, la destrucción de una bella hipótesis por un feo hecho”. Pero esa “tragedia”, en mi opinión, no es otra cosa que la grandeza de la ciencia: y el propio Wöhler, aunque no le gustara la conclusión, no se aferró a su idea preconcebida, sino que aceptó la bofetada que la realidad acababa de dar a su concepción de la vida. Pero me voy por las ramas.
El caso es que el vitalismo científico no murió con la producción de urea de Wöhler, ni mucho menos. Seguía habiendo muchos fenómenos incomprensibles mediante la química, y la mayor parte de los científicos seguían considerando una barrera insuperable entre lo vivo y lo no vivo. Si llevas mucho tiempo con nosotros has leído ya sobre Louis Pasteur y su demostración de la inexistencia de la generación espontánea aristotélica, con la que hizo avanzar muchísimo la ciencia de la época y, sobre todo, la antisepsia. ¡Qué irónica es la vida! Pasteur demostró empíricamente que un caldo en el que no había vida no la producía espontáneamente — a partir de lo no vivo no aparecía vida. Esto era cierto, desde luego, pero el francés lo llevó hasta un grado erróneo –Pasteur era, como casi todos, vitalista–.
Louis Pasteur
Pasteur en su laboratorio. Cuadro de Albert Albert Edelfelt, 1885.
Como dijimos en aquel artículo, Pasteur demostró que la fermentación no era un proceso químico independiente de la vida, sino que estaba producido por organismos vivos, ¡una vez más, separación entre vida y no vida! Pero, eso sí, el francés era un científico de primera, con lo que no se contentó con esto: intentó producir la fermentación sin la presencia de células vivas, pero no tuvo éxito. Su conclusión, una vez más vitalista, fue que las fermentaciones eran un ejemplo de procesos no regidos por la química, sino por la “fuerza vital” de las células, ya que sin esa fuerza vital, la fermentación no se producía. Era inútil, por tanto, tratar de estudiar esos procesos químicamente, ya que la vida se escapaba a los límites de la química. Todo esto, por supuesto, es falso, pero Pasteur era Pasteur, y su opinión tenía un gran peso.
Y aquí entra en escena, por fin, Eduard Buchner; nació en la capital de Bavaria, Munich, en 1860, unos treinta años después de que Wöhler fuera testigo de la “tragedia de la ciencia”. Creo que gran parte de la culpa de que Buchner ganara el Nobel la tuvo su hermano mayor Hans, un conocido bacteriólogo de la época: fue gracias a él, tras la muerte de su padre, que Eduard pudo estudiar Química en la Politécnica de Munich y, como veremos en un momento, siguió siendo su mentor y lo ayudó mucho a seguir sus sueños. En la Politécnica, Eduard Buchner estudió en el laboratorio de Erlenmeyer, y posteriormente bajo Alfred von Baeyer, quien ya ha hecho su aparición en esta misma serie ya que ganó el Nobel de Química sólo dos años antes que Buchner.
Eduard Buchner
Eduard Buchner (1860-1917).
Sin embargo, Buchner amplió sus conocimientos estudiando también las ciencias biológicas, especialmente botánica en el Instituto Botánico de Munich. Allí fue donde empezó a estudiar la fermentación, un fenómeno que empezaba por entonces a conocerse: no fue hasta 1838 que se demostró que la fermentación de la levadura era un proceso biológico, y Pasteur mostró en las décadas de 1850-60 que muchos otros fenómenos de fermentación, como la del ácido láctico en la leche, estaban causados por organismos vivos, como bacterias. Inicialmente, las investigaciones de Buchner fueron “al uso”, es decir, separando claramente la parte química de la parte biológica, pero ya publicó, bajo la tutela de su hermano Hans, su primer artículo sobre el asunto,“Der Einfluss des Sauerstoffs auf Gärungen” (”La influencia del oxígeno en las fermentaciones”) en 1885.
Unos años más tarde, Buchner se doctoró en la Universidad de Munich y obtuvo un puesto allí, en el laboratorio de von Baeyer –quien parece también haber apoyado mucho, como Hans, al joven Buchner–. Con la ayuda de von Baeyer, en 1893 el joven Eduard estableció su propio laboratorio de investigación sobre las fermentaciones… y empezó a intentar producirlas sin la presencia de células vivas, tratando de extraer los compuestos químicos relevantes de las células de levadura. ¡Anatema! La Universidad consideraba que esto era un esfuerzo inútil, ya que el gran Pasteur no había sido capaz de lograrlo, y le cortó las alas a Buchner. Durante tres años, Eduard no pudo seguir investigando lo que quería.
¿Quién consiguió que pudiera seguir su camino? ¡Hans, por supuesto! El Buchner mayor formaba parte del Consejo de Administración del Institut für Hygiene de Munich, y con su ayuda y la financiación del Instituto, Eduard Buchner pudo montar una vez más un laboratorio en 1896 y seguir sus intentos de extraer los fermentos de las células de levadura y producir así una fermentación sin la presencia de células vivas, algo imposible, claro, ya que la fermentación era una expresión de la fuerza vital de la levadura y se producía en el interior de la célula.
Pero lo consiguió.
Eduard Buchner
Buchner utilizó células de levadura seca (seca por fuera, claro), que pulverizó junto con cuarzo y diatomita para romper las paredes celulares. Como consecuencia, la mezcla se volvía húmeda, ya que el interior de las células de levadura se vertía en ella al romperse las paredes. Posteriormente, Buchner empleó prensas para “exprimir” esta mezcla y tener así únicamente el líquido, sin restos de células –que estaban todas muertas en cualquier caso, al haberse roto las paredes, pero bueno–. Como resultado final del proceso, el bávaro tenía una especie de “jugo de levadura sin levadura”, en el que esperaba que se encontrarían la sustancia o sustancias químicas responsables de la fermentación.
A continuación, Buchner mezcló este líquido con las sustancias orgánicas que la levadura era capaz de fermentar, como distintos azúcares. Y la fermentación se produjo. Empezó a producirse dióxido de carbono, y tras la fermentación, los azúcares se habían convertido en alcoholes, exactamente igual que cuando las células de levadura realizaban el proceso, ¡pero sin las células!
Buchner había realizado, en un laboratorio, una reacción química considerada hasta entonces fuera del alcance de esta disciplina, ya que era parte del “milagro de la vida”. ¡Zas! En toda la boca. Pero, en términos algo más modernos, ¿qué había conseguido Buchner?
Saccharomyces cerevisiae
Saccharomyces cerevisiae al microscopio (dominio público).
Había partido de células de Saccharomyces cerevisiae, la levadura comúnmente empleada para fermentar cerveza y vino. Este hongo unicelular utiliza diversos compuestos para catalizar determinadas reacciones químicas que emplea en su nutrición, es decir, distintas enzimas. Una mezcla de ellas es la que convierte la glucosa (C6H12O6) en etanol (C2H5OH), el alcohol del vino; ese conjunto de enzimas recibe el nombre de zimasa, y fue eso lo que Buchner extrajo al triturar la levadura y luego exprimir la mezcla. La reacción química viene a ser algo así:
C6H12O6 + zimasa → 2C2H5OH + 2CO2
El resultado es, por un lado, alcohol etílico (etanol), y por otro, dióxido de carbono. Y esta reacción es la que empleamos cuando queremos una cosa, la otra o las dos. Por ejemplo, en el caso de la cerveza, queremos ambas cosas, mientras que en el vino sólo queremos el etanol y nos libramos del CO2. Tal vez te estés preguntando con todo esto, por cierto, por qué diablos no nos emborrachamos al comer pan, ya que la masa sube por esta misma reacción, que genera burbujas de CO2… y bastante alcohol, claro. La razón es que el etanol tiene una temperatura de ebullición bastante baja, y en el horno se evapora prácticamente todo: en el pan, al final, no hay ni etanol ni dióxido de carbono, puesto que la razón de que empleemos levadura es simplemente “estructural” (ahuecar el pan con burbujas) y no nos interesan las sustancias formadas.
Pero la importancia del trabajo de Buchner va mucho más allá de la posibilidad de producir etanol de manera “artificial” (aunque fuera con enzimas procedentes de seres vivos): se trata, como en Premios de Química anteriores, del desmoronamiento de las barreras entre lo biológico y lo no biológico. Buchner continúa la desmitificación de la vida como misterio: no sólo porque, tras él, podamos explicar en términos químicos algo que antes se debía a la “fuerza vital”, sino porque lleva a la conclusión de que, incluso lo que no conocemos aún –en tiempos del propio Buchner, los detalles de la misma fermentación, que no se conocían–, podemos conocerlo. Hay una diferencia radical entre “no conocemos tal cosa aún” y “no podemos conocer tal cosa porque se escapa de los límites del conocimiento científico”.
Como sucedió en el caso del premio de Física, el Premio Nobel de Química no tuvo una ceremonia al uso debido a la muerte del rey Óscar de Suecia unos días antes, pero disponemos del discurso escrito, que hubiera sido leído por el Presidente de la Real Academia Sueca de las Ciencias, K. A. H. Mörner, el 10 de diciembre de 1907. Como siempre, te recomiendo que lo leas aunque se haga un poco pesado por el lenguaje:

El Premio Nobel de Química de este año ha sido otorgado al Profesor Eduard Buchner por su trabajo en la fermentación.
Durante mucho tiempo, tanto los químicos como los biólogos han considerado un logro particularmente significativo el hecho de conseguir abrir a la investigación química un nuevo tipo dentro de los procesos químicos que tienen lugar en los organismos vivos. Con cada paso en esta dirección, el carácter desconcertante de los procesos biológicos disminuye, mientras que por otro lado las leyes químicas adquieren una aplicación más amplia. Cada vez que el campo de investigación se expande en esta dirección, más estrecho se vuelve el territorio cuya frontera no podemos traspasar, ya que, como solía decirse, los fenómenos en ese territorio estaban gobernados por leyes especiales, no visibles aún para nosotros y controladas por un tipo particular de la llamada “fuerza vital”.
Durante mucho tiempo, los investigadores más preclaros en el campo de la química se han opuesto a la idea de que los procesos químicos en los seres vivos tengan una posición tan excepcional, y han otorgado por tanto su pleno reconocimiento a los trabajos de este tipo, ya que ofrecen un apoyo directo a sus posturas.
En este aspecto nosotros, en Suecia, nos sentimos obligados a hacer énfasis en las afirmaciones realizadas por Berzelius. Además de su actividad creativa en la química general, Berzelius estaba muy interesado en los procesos químicos en los organismos vegetales y animales. Respecto a éstos era de la opinión de que eran más complejos y más difíciles de comprender que las reacciones químicas independientes de los seres vivos. Sin embargo, de ningún modo se sumaba a la postura prevalente en la época de que su naturaleza era diferente y que, por tanto, deben seguir leyes completamente diferentes de los anteriores.
Berzelius tenía también especial predilección por tomar parte en el trabajo en este campo de la química cuando tenía tiempo. Daba gran importancia a los logros de otros. Como ejemplo de esto, recuerdo la respuesta de Berzelius a Wohler, cuando este último mencionó su desaliento al no haber sido el primero en descubrir el vanadio, un descubrimiento del que estuvo cerca pero que no consiguió realizar, ya que no completó el trabajo que había empezado. Berzelius lo consoló con palabras amistosas. Al mismo tiempo, señaló el mérito de Wohler en la explicación de la formación de sustancias orgánicas, algo por entonces aún en ciernes. Al referirse a un artículo de Wohler y Liebig que acababa de aparecer sobre el ácido ciánico y la urea, Berzelius afirmó que cualquiera que hubiera publicado algo así podría permitirse perfectamente no descubrir ningún elemento. Podría, escribe Berzelius, haber descubierto diez elementos desconocidos sin necesitar tanta genialidad como para producir el trabajo al que se refería.
Desde 1813, cuando se escribieron esas palabras, este campo se ha expandido enormemente en muchas direcciones; se ha descubierto que es posible retirar el velo que había cubierto hasta ahora los fenómenos de la vida orgánica. Así, un gran número de sustancias, que en la época en cuestión se suponía que podían ser producidas únicamente por organismos vivos, pueden ahora prepararse sintéticamente. Cuando nos referimos, sin embargo, a los procesos internos que tienen lugar durante la formación y conversión de estas sustancias en los organismos vivos, debemos admitir que nuestro conocimiento está muy lejos de ser completo. Es ciero que ya no se dice que los seres vivos estén gobernados por una “fuerza vital” especial, pero muy a menudo tenemos que conformarnos, incluso hoy en día, con otra expresión que, en su significado literal, no difiere mucho de la primera. Se dice frecuentemente en la actualidad que este proceso o aquél deben considerarse “fenómenos vitales” o “expresión vital” en ciertas células. Desgraciadamente, debemos reconocer el hecho de que, en esto, estamos fundamentalmente proporcionando un término en vez de una explicación más profunda. Es cierto, desde luego, que los territorios fronterizos en los que la investigación química intenta penetrar hoy día los fenómenos complejos y místicos relacionados con la vida están mucho más allá de donde estaban en 1813. Mientras tanto, sigue siendo un hecho que debemos un reconocimiento incondicional y considerable a los trabajos en el que este campo ha llevado la investigación química un paso más allá.
Esto es aplicable al trabajo que es objeto del Premio Nobel que nos ocupa; intentaré explicar de qué se trata en pocas palabras.
Durante mucho tiempo, los químicos han prestado gran atención a los fenómenos que hoy llamamos fermentación. Bajo este nombre incluimos un gran número de procesos químicos que tienen lugar en los organismos vivos, y por los que son de la mayor importancia. Normalmente se trata de procesos de descomposición en los que sustancias complejas se rompen bajo la influencia de agentes que llamamos fermentos. Estos fermentos actúan, por así decirlo, por su mera presencia. Sin ser transformados ellos mismos, causan determinados cambios en otras sustancias, y el efecto de cada fermento está limitado a una cierta sustancia o aun cierto grupo de sustancias. Una propiedad importante de los fermentos es el hecho de que bajo ciertas condiciones, como las que existen en los seres vivos, tienen una acción muy poderosa, mientras que en otras frecuente y fácilmente se vuelven ineficaces. Puesto que, por otro lado, con ayuda de la química, pueden producirse procesos químicos que se parecen a la acción de los fermentos –muchos ejemplos de lo cual están disponibles– a menudo sucede que, para este propósito, son necesarios agentes cuya naturaleza los hace completamente ajenos a, y a menudo incompatibles con, las condiciones en los seres vivos.
En los últimos tiempos, particularmente, el avance en nuestro conocimiento ha hecho probable que haya procesos fermentativos en un alto grado, que producen la transformación de las sustancias en los seres vivos y por tanto controlan esta condición de la vida. Igual que la ciencia química ha adquirido, durante el último siglo, un extenso conocimiento de la composición y estructura de las sustancias orgánicas, es esencial ahora un conocimiento profundo de la naturaleza y acción de los fermentos, de modo que esta ciencia pueda estar en posición de dominar las leyes de la formación y disociación de sustancias en el organismo.
Mientras tanto, conocemos estos fermentos hasta ahora sólo por los efectos que producen. Su naturaleza última y su constitución interna aún nos son desconocidas. Esperamos, sin embargo, que la solución a este enigma sea objeto de un futuro Premio Nobel.
Se han observado un gran número de fermentaciones. Esto sucede, por ejemplo, con los fermentos que existen en estado disuelto en las secreciones descargadas en el sistema digestivo y que ejercen tan gran influencia allí. Ha sido así posible obtener una experiencia empírica considerable acerca de estas fermentaciones.
Sin embargo, otro grupo de fermentaciones sólo se ha observado en presencia de células vivas. A este grupo pertenece, entre otras, la descomposición del azúcar en alcohol y dióxido de carbono, bajo la acción de levadura ordinaria. La conexión entre esta fermentación y la presencia de células vivas de levadura parecía tan irresoluble que este fenómeno de fermentación se consideraba una “expresión vital” de las células. Este proceso parecía, por tanto, inaccesible a una investigación más detallada.
Hasta Pasteur, esta postura era aceptada y generalmente adoptada en los círculos científicos.
El servicio inolvidable proporcionado por Pasteur fue mostrar que hay organismos vivos que originan la putrefacción y la fermentación y otros procesos de gran relevancia. Pasteur, que se distinguía no sólo por el genio de sus ideas sino también por un gran talento como experimentador, intentó también –especialmente en lo que se refiere a la fermentación del alcohol común– investigar la relación intrínseca entre el proceso y los organismos en este caso. En particular, trató de responder a la pregunta de si la fermentación del alcohol se debía fundamentalmente a un fermento producido por las células de levadura, en cuyo caso este fermento debe poder ser separado de ellas y funcionar independientemente de la presencia de células vivas de levadura. Sin embargo sus experimentos, como los de otros, sobre la existencia de un fermento soluble de este tipo dieron resultados negativos. Se consideró por tanto confirmada la opinión de Pasteur de que el proceso químico de la fermentación del alcohol era una expresión vital de las células de levadura y estaba, por tanto, inextricablemente unido a la vida. Esta opinión prevaleció durante décadas.
Por tanto, aunque Pasteur adquirió fama inmortal por su brillante descubrimiento sobre la relevancia de los seres vivos como la causa última de estos procesos, puso freno al progreso científico en este campo al establecer el concepto vitalista en el proceso de la fermentación. Mientras la fermentación se consideró una “expresión vital”, y por tanto un fenómeno inseparable de la vida, no había mucha esperanza de poder penetrar más profundamente en la cuestión de su mecanismo de acción. Debe además recordarse que esto es de gran importancia, ya que no sólo concierne a la fermentación alcohólica sino a un gran grupo de procesos muy importantes.
Bajo estas circunstancias, puede comprenderse fácilmente la gran sensación causada cuando E. Buchner, tras muchos años de trabajo, consiguió probar que la fermentación alcohólica podía producirse a partir de los jugos extraídos de las células de levadura, sin la presencia de dichas células. Demostró así de manera fehaciente que esta fermentación se debía a un fermento químico producido por las células de levadura, de las que podía separarse. La fermentación no es una expresión vital directa de las células de levadura; las células pueden destruirse, pero el fermento permanece.
A partir del trabajo de Buchner, la fermentación mencionada y otros procesos análogos se han liberado de los grilletes que los retenían y que impedían el progreso en la investigación. Hoy en día no se encuentra particular dificultad en obtener, a partir de las células de levadura y otras, una amplia variedad de sustancia celular activa independiente de células vivas. Se han realizado muchas investigaciones clarificadoras sobre sus propiedades, en parte por el propio Buchner y en parte por otros. Territorios hasta ahora inaccesibles han entrado ahora en el campo de la investigación química, y se abren vastas expectativas a la ciencia química.

También disponemos del discurso de Eduard Buchner, pronunciado el 11 de diciembre en la ceremonia privada en la que se le entregó el Premio, y puedes leerlo aquí: buchner.pdf.
En la próxima entrega de la serie, el Premio Nobel de Física de 1908.

Para saber más (esp/ing cuando es posible):

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Física 1907 (A. A. Michelson) | El Tamiz

Premios Nobel – Física 1907 (A. A. Michelson)

Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Tras saborear los Premios Nobel de Física y Química de 1906 (uno concedido a J. J. Thomson y otro a Henri Moissan), hoy continuamos con la serie pero, naturalmente, un año más tarde. Nos encontramos ya en 1907 y el receptor del Nobel de Física de ese año fue Albert Abraham Michelson –más conocido simplemente como A. A. Michelson–, en palabras de la Real Academia Sueca de las Ciencias,

Por sus instrumentos ópticos de precisión y las investigaciones espectroscópicas y metrológicas realizadas con ayuda de éstos.

Albert Michelson
Es muy probable que hayas oído hablar ya de A. A. Michelson en relación con la relatividad einsteiniana por el experimento de Michelson-Morley, y de él hablamos en ese contexto hace ya mucho tiempo en El Tamiz. Aunque sigue sin estar claro si Einstein conocía los resultados del experimento de Michelson y Morley cuando elaboró su teoría, hoy en día se considera el experimento de estos dos físicos como de una relevancia tremenda como uno de los “flecos” de la Física clásica que el buen Albert destruyó con sus postulados… pero, aunque el experimento se produjo en 1887, el Nobel que recibió Michelson en 1907 no se debió a ese experimento, sino a su trabajo general en interferometría. De hecho, como verás al final cuando leas el discurso de presentación del Premio, el experimento por el que casi todo el mundo conoce a Michelson no es siquiera mencionado –de hecho, muchos lo consideraban un fracaso– entre sus logros.
Pero, sin embargo, tan injusto era entonces no darle importancia a ese experimento como lo es ahora hablar sólo de él e ignorar el resto de logros de Michelson, tal vez no espectaculares desde el punto de vista teórico, pero sí como fundamento experimental para una enorme cantidad de descubrimientos posteriores. ¿Qué es más provechoso para la humanidad, un descubrimiento concreto y espectacular, o uno no tan impresionante pero que actúa de “semilla” para muchos otros? Mi objetivo hoy, por tanto, es tratar de poner de manifiesto la importancia del cuidado, el ingenio y la minuciosidad de Michelson como físico experimental y, de paso, disfrutar con el cambio filosófico en cuanto a la metrología se refiere que se venía dando por la época, y cómo Michelson contribuyó a llevar ese cambio a la práctica.

Albert Michelson nació en 1852 en Strzelno, en lo que entonces era Prusia y hoy es Polonia. Sus padres emigraron a los Estados Unidos cuando el pequeño Albert sólo tenía dos años, y allí fue donde creció y se educó. Estudió Física en general, y bastante óptica en particular, en la Academia Naval de la Marina estadounidense, y posteriormente recibió formación adicional en Europa. Desde bastante pronto se interesó especialmente por la medición de la velocidad de la luz –un asunto del que no vamos a hablar hoy, ya que no tiene que ver con el Nobel que recibió en 1907– y, para lograr ese y otros objetivos, por la interferometría, de la que sí hablaremos largo y tendido hoy: el Nobel lo recibió en parte por la construcción de los interferómetros más precisos, con mucha diferencia, de los que habían existido hasta entonces –que permitieron realizar multitud de nuevos descubrimientos a lo largo del siglo XX–, y en parte por el trabajo que él mismo consiguió realizar con esos interferómetros. Pero ¿qué demonios es un interferómetro?
Si llevas tiempo con nosotros, ya tienes una idea de lo que es, puesto que hablamos del asunto al describir el experimento mental del detector de bombas de Elitzur-Vaidman hace unos meses. Dicho mal y pronto, un interferómetro es un instrumento óptico que se aprovecha de las interferencias para medir o detectar cosas que, de otra manera, nos sería imposible ver. De modo que, para entender cómo funciona uno, hay que tener una cierta idea de lo que es una interferencia. ¡Ay, algún día llegará un bloque de óptica, pero por ahora lo explicamos de pasada! Puedes leer el artículo del detector de bombas y, luego, seguir con éste, ya que en ambos mencionamos el tema y si no lo entiendes bien con uno, espero que los dos juntos te aclaren las cosas.
Una onda es básicamente el viaje de algún tipo de perturbación por el espacio. Por ejemplo, si tú sujetas el extremo de una cuerda y un amigo el otro extremo, y le das un buen golpe de arriba a abajo a la cuerda, creas una “cresta” que viaja desde ti hacia tu amigo. Lo que se mueve de uno a otro no es, naturalmente, la cuerda, que al final termina en el mismo sitio que estaba al principio: lo que viaja es energía en forma de una perturbación sobre la cuerda, que se van pasando unas partículas de la cuerda a las otras. En otras palabras: la onda es el “empujón” que le has dado a la cuerda, viajando por ella (más estrictamente, has generado un pulso de onda, pero eso es lo de menos ahora mismo).
Pero ¿qué pasa si tú le das un golpe así a la cuerda, creando una onda que viaja desde ti hacia tu amigo, y él hace lo mismo hacia ti? Entonces, tu amigo recibe la onda que tú has generado, y tú recibes la que ha generado él. Pero, puesto que una y otra viajan en sentidos contrarios, hay algún momento en el que se cruzan. Y, en ese lugar y en ese instante, ambos pulsos ocupan el mismo punto y sus efectos sobre la cuerda se solapan: se ha producido una interferencia entre los dos pulsos de onda. Lo que sucede ahí puede tomar muchas formas dependiendo de la naturaleza de las dos ondas. Por ejemplo, si ambos le proporcionáis el mismo empujón a la cuerda, creando pulsos de onda idénticos, y lo hacéis exactamente a la vez, las dos crestas se encontrarán justo en el centro de la cuerda: una de ellas “empuja la cuerda hacia arriba”, y la otra hace exactamente lo mismo y a la vez, con lo que la cresta se hace “doble”; es lo que se denomina interferencia constructiva. Mejor que mis pobres palabras es verlo con tus propios ojos:
Naturalmente, una vez las dos ondas siguen su camino, cada una se comporta como antes. En el vídeo de arriba puede parecer que las dos ondas “se chocan” y vuelven por donde vinieron, pero no es así: tras el encuentro siguen su camino como si nada hubiera pasado, puesto que, al fin y al cabo, no ha habido ninguna interacción entre ellas, sino más bien una superposición de sus efectos sobre la cuerda. En cualquier caso, también podríais hacer lo mismo pero, en vez de dar ambos empujones hacia arriba, hacerlo uno hacia arriba y el otro hacia abajo. En ese caso, los efectos son justo contrarios y, al encontrarse ambas ondas, empujan la cuerda en sentidos contrarios y en ese punto no hay cresta; se ha producido una interferencia destructiva:
Es mucho más fácil visualizar estas interferencias en cuerdas, pero se producen en cualquier tipo de ondas: sonoras, luminosas, lo que sea. Naturalmente, lo que en el caso de la cuerda es la altura de la cresta está relacionada con otras cosas en diferentes tipos de ondas: en el sonido, con el volumen, en la luz, con la intensidad luminosa, etc., pero el fenómeno es básicamente el mismo. Y es un fenómeno muy interesante en sí mismo, pero Michelson lo empleó con un propósito específico, que tal vez no sea evidente así, de primeras: medir distancias con una precisión extraordinaria.
Para entender cómo es posible medir distancias empleando interferencias, imagina que hacemos algo parecido a los ejemplos de arriba con la cuerda, pero en vez de dar un simple empujón, generando una sola cresta, subes y bajas la cuerda de forma continua, formando una serie de crestas y valles que avanzan constantemente por la cuerda, es decir, una onda como Dios manda. Y tu amigo del otro extremo, por supuesto, hace lo mismo. Si lo hacéis como en el primer ejemplo, es decir, subiendo y bajando simultáneamente, y la cuerda tiene la longitud adecuada, pasa algo bastante intuitivo. Si nos fijamos en el centro de la cuerda (cosas parecidas pasan en otros lugares, pero observemos sólo el centro, que es más sencillo), allí veremos una “onda doble”, con gran altura, debido a la interferencia constructiva entre ambas ondas.
Si le ponemos un lacito rojo a ese punto de la cuerda, el lacito rojo subirá y bajará como un poseso, sometido a la superposición constructiva de ambas ondas. He dibujado en azul la onda que hace tu amigo y en amarillo la tuya, y pido disculpas por el patético dibujo del lacito. Debajo ves el resultado, con el lacito subiendo y bajando violentamente:
Interferom 1, constructiva
Ojo avizor al siguiente párrafo, porque aquí está la clave de la cuestión. Es esencial que lo entiendas y lo imagines antes de poder comprender los instrumentos ópticos de Michelson.
Imagina que dejamos todo como está: el lacito rojo no lo tocamos, y tu amigo y tú seguís haciendo exactamente lo mismo… pero alargamos un poco la cuerda por tu extremo. Según tu amigo y tú subís y bajáis la cuerda simultáneamente… el pobre lacito rojo ahora recibe la onda de tu amigo justo arriba cuando la tuya llega justo abajo (la suya en cresta, la tuya en valle):
Interferom 2, destructiva
El lacito sufre una interferencia destructiva. Y la razón es que ahora la onda de tu amigo y la tuya, aunque empezaron haciendo lo mismo, ya no recorren la misma distancia, sino que la tuya recorre un poco más: justo la distancia entre una cresta y un valle.
Hemos pasado de una interferencia constructiva a una destructiva alargando la cuerda un poco. Y, si volviéramos a alargar la cuerda la misma distancia otra vez –de valle a cresta–, entonces volveríamos a estar exactamente igual que al principio. El lacito, desde luego, no estaría en el centro de la cuerda, pero le llegaría una cresta de tu amigo junto con una cresta tuya, de modo que la interferencia sería una vez más constructiva y los efectos se sumarían. ¿Ves cómo podrías medir distancias así?
Imagina, por ejemplo, que las ondas que generáis tu amigo y tú tienen una distancia de 50 cm entre cresta y valle; por usar términos un poco más técnicos, entre cresta y cresta habría 1 metro, es decir, la longitud de onda de las ondas que generáis sería de 1 m. Por tanto, cada vez que tú te alejes de tu amigo 50 cm, el lacito rojo pasará de interferencia constructiva a destructiva y viceversa. Un cambio de 1 metro, naturalmente, deja las cosas como están. Si en el suelo ponemos una marca en un punto determinado y otra más alejada de tu amigo en otro sitio distinto, puedes medir la distancia entre ambos puntos alejándote lentamente de tu amigo y simplemente mirando lo que hace el lacito rojo.
El lacito, inicialmente, sube y baja como loco, con interferencia constructiva. Te alejas unos pasitos… y el lacito no se mueve: interferencia destructiva. Eso significa que te has alejado 50 cm. Sigues andando hacia atrás, soltando más y más cuerda tras de ti, y ves como el lacito se agita más y más hasta volver al máximo de oscilación, y luego se hace menos y menos violento hasta pararse, y así unas cuantas veces. Contando el número de veces que sucede el ciclo completo (constructiva-destructiva-constructiva) estás contando longitudes de onda. Y, puesto que la longitud de onda es de 1 metro, puedes así conocer la distancia entre las dos marcas del suelo. “Hay siete longitudes de onda”, podrías decir, lo cual es una manera un tanto extravagante de decir que hay siete metros en este caso, claro.
Y, antes de que protestes: sí, medir siete metros de este modo es una estupidez, puesto que basta con medir la distancia con la misma cuerda o con un metro y punto. La interferometría que empleaba Michelson no servía para medir el tamaño de habitaciones, ni las ondas que empleaba tenían una longitud de onda de un metro, ni mucho menos. Recuerda: las interferencias las pueden sufrir todas las ondas, y conocemos algunas muy, muy pequeñas. Por ejemplo, una luz monocromática determinada puede tener una longitud de onda de 500 nanómetros, es decir, 0,000 000 005 metros. Si midieras una distancia de siete longitudes de onda con ella, estarías midiendo una distancia de 0,000 000 035 metros, ¡toma castaña! ¿Podrías medir una distancia así con un metro?
Pues ahí está el genio de todo esto: en que las ondas son muy sensibles a cambios del tamaño de su longitud de onda, y los efectos de esos cambios se hacen muy evidentes incluso para seres de sentidos tan burdos como los nuestros. Basta tomar ondas de longitud minúscula y realizar pequeños cambios sobre ellas — las ondas, por decirlo mal y pronto, “amplifican” esos cambios y nos hacen conscientes de que se han producido, incluso aunque no seamos capaces de percibirlos directamente… y todo esto con una precisión numérica increíble.
Michelson construyó interferómetros que empleaban luz de una longitud de onda conocida y dividían el haz de luz en dos, que viajaban en direcciones diferentes y podían recorrer distancias distintas en su viaje. De este modo, observando la alternancia entre brillo máximo y mínimo en la interferencia entre ambos haces (interferencia constructiva y destructiva), podía medir distancias como múltiplos de la longitud de onda empleada, que era minúscula al tratarse de luz, claro. Aquí tienes el diagrama de uno de sus interferómetros realizado por el propio Michelson, con algunas líneas añadidas por mí para la explicación:
Interferómetro de Michelson
La luz entra en el interferómetro tras pasar por la rendija d, y llega a la superficie semiespejada e. Allí el haz de luz se divide: parte de él (más o menos la mitad, que he dibujado en rojo) atraviesa e, se refleja en el espejo g, vuelve a e y luego se refleja en él y alcanza el detector h. La otra mitad, que he dibujado en azul, se refleja en e, sube hasta f, se refleja allí y luego baja atravesando e y llegando al detector h.
Puede parecer complicado pero, si lo piensas, es básicamente la misma situación que la de tu amigo, la cuerda y tú. En aquel caso decíamos que tu amigo y tú batíais la cuerda exactamente a la vez, pero la clave del genio de Michelson era precisamente la precisión casi obsesiva: ¿cómo estar seguros de que es exactamente a la vez? ¡Haciendo que sea la misma fuente! Utilizamos el mismo haz de luz inicialmente y lo dividimos en dos –en el dibujo, rojo y azul–. Luego, el espejo f puede moverse hacia arriba o hacia abajo. Según lo movamos hacia arriba, el camino del haz de luz rojo seguirá siendo exactamente el mismo que al principio, pero el azul recorrerá más. De hecho, el azul recorrerá el doble de la distancia que movamos el espejo (pues tiene que ir y volver, recorriendo el exceso dos veces).
Además de la precisión extrema en la construcción del aparato, hace falta una fuente de luz adecuada, claro: en el ejemplo de la cuerda, tu amigo y tú hacíais ondas de una longitud determinada, y aquí hace falta lo mismo. Para lograrlo, en los interferómetros suele emplearse luz emitida con una longitud de onda concreta y conocida –por ejemplo, calentando algún elemento químico– o absorbiendo la mayor parte de las longitudes de onda excepto la que nos interesa antes de que la luz llegue al interferómetro.
Interferómetro moderno de Michelson
Interferómetro de Michelson moderno (Falcorian/CC 3.0 License).
Michelson no fue el descubridor del fenómeno de interferencia ni de la interferometría, pero sí fue capaz de desarrollar un interferómetro de una precisión y utilidad sin precedentes hasta entonces. Hoy en día suelen ser más útiles otros tipos de interferómetros, pero el suyo supuso, en sí mismo, un gran avance en el instrumental óptico disponible para los físicos. Este tipo de aparato es el que empleó, junto con Morley, en el famoso intento de determinar la velocidad de la Tierra a través del éter luminífero, e interferómetros conceptualmente idénticos se siguen empleando hoy en día, por ejemplo, para tratar de detectar ondas gravitacionales.
El caso es que, empleando sus aparatos ópticos de precisión –el interferómetro que hemos descrito aquí y otros conceptualmente similares–, entre otras cosas Michelson fue capaz de traer paz a las mentes de los físicos de todo el mundo, que tenían –y siguen teniendo en otro caso, como veremos luego– un grave problema.
Metro patrón
El Sistema Internacional de Unidades, por el que se definen las unidades de medida empleadas en ciencia, utilizaba como patrón de longitud para definir el metro una barra metálica guardada en París (a la derecha). “Un metro” era “la longitud de esta barra”. Pero claro, ¿y si la barra sufría alguna alteración al cabo de los años? ¿Y si en una guerra o por cualquier otra razón alguien la destruía o se perdía? ¿Era una buena idea dejar el objeto que definía una unidad en manos de un país determinado? Desde luego, había copias del metro prototipo, pero sólo tenían cierta precisión, y todas estaban sometidas a la autoridad última de El Metro.
De modo que Michelson empleó luz emitida por cadmio metálico incandescente para determinar cuántas longitudes de onda había en el “metro estándar”. Su resultado: 1 553 393,3 longitudes de onda. Al realizar esta medida en otros lugares y por otros investigadores, entre ellos científicos franceses que midieron “El Metro” con mayúsculas, el error era tan pequeño que era aceptable dentro de los límites de los aparatos de medida y la longitud de onda empleada. Si no miramos más allá, Michelson simplemente había confirmado que el metro patrón medía lo mismo que la copia de la que él disponía, y que la calidad de las réplicas empleadas por los científicos era muy grande.
Pero miremos más allá.
Michelson había encontrado un procedimiento universal por el cual en cualquier momento, cualquier científico que tomase cadmio metálico, lo calentase hasta brillar y luego emplease la interferometría y contase el número adecuado de alternancias entre luz y sombra podría crear un objeto de un metro con tal precisión que, si luego sustituyera El Metro por esta copia, ningún científico del mundo podría detectar la diferencia.
No había ya peligro de perder el metro estándar y, de hecho, era posible definir el metro a partir de conceptos universales, como la longitud de onda de emisión del cadmio metálico. Si lo piensas, tras Michelson la definición del metro tradicional suena patéticamente primitiva. No hay comparación posible en elegancia y coherencia entre “un metro es 1 553 393,3 veces la longitud de onda emitida por el cadmio metálico” y “un metro es esta barra guardada en este sótano de París”. De hecho, muchos –Michelson entre ellos– lucharon largo y tendido por cambiar la definición del metro en el Sistema Internacional aunque, como siempre, hubo quien se resistió a cambiar.
En la práctica, la interferometría se empleó para crear réplicas del patrón físico del metro desde relativamente pronto, pero lo creas o no, hubo que esperar hasta 1960 para abandonar esa barra guardada en un sótano. En ese año se adoptó una definición conceptualmente idéntica a la de Michelson: un número de longitudes de onda de una línea de emisión del kriptón. Posteriormente, en 1983, se cambió la definición a una basada en la velocidad de la luz en el vacío, pero el cambio filosófico –el abandono de un primitivo patrón material disponible sólo para algunos por una relación física universal– fue posible gracias al bueno de Albert Abraham Michelson. ¿Merece o no el Nobel, aunque no descubriese nada espectacular?
Por cierto, aunque parezca mentira, en 2010 seguimos todavía utilizando una de estas definiciones para una unidad del Sistema Internacional –afortunadamente, la última en mantenerse–: el kilogramo sigue siendo “la masa de este objeto guardado en el sótano”. Es ya tan evidente la limitación de esta definición –el kilogramo patrón ya no parece tener la misma masa que hace muchos años, para empezar– que inevitablemente, y tal vez pronto, utilicemos un sistema más á la Michelson y sustituyamos el kilogramo patrón por una definición basada en la constante de Planck… pero aún no lo hemos hecho. ¡Si Albert levantara la cabeza!
Pero la cosa no acaba aquí… Michelson también realizó aportaciones de las que crean un antes y un después a la espectroscopía. Años atrás, los físicos Hendrik Antoon Lorentz y Pieter Zeeman ya habían obtenido el Premio Nobel de Física de 1902 por el descubrimiento de lo que hoy llamamos efecto Zeeman, y que no voy a volver a explicar aquí porque ya lo hicimos en aquel artículo. Zeeman y Lorentz habían descubierto algo extraordinario –y que tenía consecuencias que ellos ni imaginaban, pero de eso hablaremos en su momento–, pero no habían podido ir más allá porque, desgraciadamente para ellos, no tenían a Michelson diseñando y fabricando sus instrumentos ópticos.
Aunque no voy a entrar en detalles, Michelson fabricó pequeñas redes de difracción con una precisión extraordinaria, empleando puntas de diamante y tornillos y engranajes para grabar líneas paralelas sobre láminas de vidrio con espacios de meras micras entre ellas. Además, se le ocurrió añadir pequeñas láminas de vidrio de tamaños distintos, en forma de escalera, de modo que la luz que incidiese sobre ellas en un punto u otro tuviera que recorrer distancias diferentes dentro del vidrio, con lo que al salir por el otro lado llegaría antes la parte del haz de luz que tuviera que recorrer menos vidrio, y más tarde la parte que tuviera que recorrer más vidrio:
Escalera
Utilizando este tipo de rejillas, Michelson era capaz de tomar líneas espectrales como las observadas por Zeeman y “hacer zoom”, separándolas más y más si ponía el suficiente número de laminillas escalonadas. Para que te hagas una idea, fíjate en la línea marcada “A” en la primera figura (hay otras líneas, pero fijémonos en A), tras el paso de la luz por distintos instrumentos diseñados por Michelson; primero se hace evidente que A está formada por dos líneas que antes no se veían, A1 y A2, y con mayor resolución se ve que tanto A1 como A2 son realmente dobles líneas:
Líneas espectrales
Al emplear los aparatos de Michelson era posible ver con una nitidez y profundidad nunca logradas la naturaleza de la luz emitida y absorbida por los átomos. Estaba a nuestro alcance, por tanto, la manera de conocer los secretos más íntimos de las transiciones electrónicas en ellos, el comportamiento de las cargas eléctricas subatómicas y, conociendo estas cosas, la naturaleza del átomo. Hacían falta años todavía para que este conocimiento floreciese y diera lugar, entre otras cosas, a la mecánica cuántica, pero Michelson tuvo una parte, aunque no sea la más brillante o conocida, en todo ello.
Porque Michelson no elaboró leyes, ni postuló hipótesis revolucionarias. Podríamos decir que otros, como Einstein, fueron nuestro cerebro, mientras que Michelson fue nuestros ojos. Antes de él éramos miopes, veíamos un mundo borroso y poco claro, y él refinó nuestra visión hasta conseguir que viéramos detalles que nunca hubiéramos podido adivinar sin él, y mediante esos detalles descubrimos cosas que no encajaban y que revelaban, irónicamente… un mundo más borroso de lo que nunca hubiéramos imaginado cuando no lo veíamos con nitidez; si no sabes de lo que hablo, hala, a leer.
Michelson y Einstein
Fotografía tomada en 1931, poco antes de la muerte de Michelson. De izquierda a derecha, Milton Humason, Edwin Hubble, Charles St. John, Albert Michelson, Albert Einstein, W. W. Campbell y Walter S. Adams.
A diferencia de otros años, en este caso no hubo una ceremonia pública en la que el Presidente de la Academia pronunciase un discurso elogiando al receptor del Nobel. La razón es que apenas dos días antes de la fecha planeada para la ceremonia, el Rey Óscar II de Suecia murió, con lo que los fastos se cancelaron y Michelson recibió su Nobel en una pequeña recepción privada. Sin embargo, sí disponemos de lo que hubiera sido el discurso del Presidente; como siempre, es una delicia anticuada que merece la pena leer con un poco de calma:

La Real Academia de las Ciencias ha decidio otorgar el Premio Nobel de Física de este año al profesor Albert A. Michelson de Chicago, por sus instrumentos ópticos de precisión y las investigaciones que ha realizado con ayuda de éstos en los campos de la metrología de precisión y la espectroscopía.
Con un ánimo incansable y, puede decirse verdaderamente, con brillantes resultados, se está realizando ahora mismo trabajo en todos los campos de investigación en las Ciencias Naturales, y se está adquiriendo información nueva de importancia gradualmente mayor cada día que pasa, con una profusión sin precedentes. Esto es especialmente cierto en el caso de aquellas Ciencias Exactas –la Astronomía y la Física– en cuyos campos estamos obteniendo ahora la solución a problemas la mera mención de los cuales, hasta hace muy poco, se consideraba tan irreal como la propia Utopía. La razón de este avance tan gratificante se encuentra en el desarrollo de los métodos y mecanismos de realizar observaciones y experimentos, y también en el aumento en la precisión proporcionada por estos avances en la medición cuantitativa de los fenómenos observados.
La Astronomía, la ciencia de precisión por excelencia, no sólo ha adquirido así ramas totalmente nuevas, pero también ha sufrido en sus partes más antiguas una transformación de significación mucho mayor que cualquier otra desde los tiempos de Galileo; respecto a la Física, se ha desarrollado notablemente como ciencia de precisión, de tal manera que podemos afirmar justificadamente que la mayor parte de los últimos grandes descubrimientos en Física se deben fundamentalmente al alto grado de precisión que puede obtenerse hoy en día al realizar medidas durante el estudio de los fenómenos físicos. Podemos juzgar el nivel que han alcanzado nuestros estándares a partir del hecho de que, por ejemplo, a comienzos del siglo pasado, una precisión de dos o tres centésimas de milímetro en la medición de una longitud se hubiera considerado fantástica. Hoy en día, sin embargo, la investigación científica no sólo exige sino que logra una precisión desde diez a cien veces mayor. Es obvio, por tanto, la importancia fundamental que debe reconocerse en cada paso en esta dirección, pues es la misma raíz, la condición esencial, de nuestra penetración más y más profunda en el interior de las leyes de la Física — nuestro único camino a nuevos descubrimientos.
Un avance de este tipo es al que la Academia desea dar reconocimiento con el Premio Nobel de Física de este año. Todo el mundo está familiarizado con la significación y el alcance de los usos del telescopio y el microscopio como instrumentos de medida en la Física de precisión; pero se ha alcanzado un límite en la eficacia de estos instrumentos, un límite que no puede excederse de forma apreciable, tanto por razones teóricas como prácticas. La brillante adaptación del profesor Michelson de las leyes de la interferencia luminosa, sin embargo, ha perfecionado un grupo de instrumentos de medida, los así llamados interferómetros, basados en dichas leyes, las cuales anteriormente sólo se habían empleado para usos ocacionales, hasta tal punto que ahora está en nuestra mano un aumento en la precisión de entre veinte y cien veces la que puede obtenerse con los mejores microscopios.
Esto se debe al hecho de que, debido a la naturaleza peculiar de los fenómenos de interferencia, el valor deseado –normalmente una medida de longitud– puede obtenerse como un múltiplo de longitudes de onda del tipo de luz empleada en el experimento, directamente mediante la observación en el interferómetro de los cambios en la imagen causados por la interferencia. Mediante este método puede obtenerse una precisión de hasta 1/50 de una longitud de onda –alrededor de 1/100000 de un milímetro–. Si recordamos ahora que las cantidades cuya medida se ha hecho posible por este aumento en la precisión –es decir, pequeñas distancias y ángulos– son precisamente aquellos que hace falta determinar más a menudo en las investigaciones de Física de precisión, se hace obvio entonces cuán poderosa ayuda se ha presentado al físico en la forma del interferómetro de Michelson — una ayuda inestimable, no sólo por su eficacia, sino también por la multiplicidad de sus usos.
Para ilustrar este último punto, basta mencionar avances como, por ejemplo, la medición del calor de expansión de los sólidos, la investigación sobre su comportamiento elástico bajo tensión y torsión, la determinación del margen de error de un tornillo micrométrico, la medición del grosor de láminas finas de sólidos o líquidos transparentes, la obtención de la constante gravitacional, la masa y la densidad medias de la Tierra, mediante el uso de balanzas ordinarias y de torsión. Entre los usos más recientes del interferómetro, mediante los cuales pueden medirse pequeñas desviaciones angulares con una precisión de una minúscula fracción de segundo de arco, puede mencionarse la construcción galvanométrica de Wadsworth, con la que pueden medirse corrientes eléctricas de intensidades prácticamente inapreciables con una precisión hasta ahora desconocida. Sin embargo, aunque estos usos del interferómetro son importantes e interesantes, son de importancia relativamente menor si se comparan con la investigación fundamental realizada por el propio profesor Michelson en los campos de la metrología y la espectroscopía con la ayuda de estos instruemntos y las cuales, a la vista de la tremenda influcencia a largo plazo sobre la Física de precisión en su conjunto, merece sin duda ser reconocida con un Premio Nobel.
La metrología se interesa con nada más y nada menos que encontrar un método de controlar la constancia del metro prototipo internacional, la base de todo el sistema métrico, con tal precisión que no sólo sea posible detectar cualquier cambio, independientemente de su magnitud, sino que también sea posible, si el prototipo se perdiera de algún modo, reproducirlo con tal exactitud que ningún microscopio pueda jamás encontrar diferencia alguna con el prototipo original. La significación de este hecho no necesita de mayor énfasis, pero no está de más un esbozo, aunque sea breve, del desarrollo de esta investigación y sus resultados.
Ya he hecho énfasis anteriormente en el hecho de que, con la ayuda del interferómetro, pueden realizarse medidas de pequeñas longitudes con un grado de precisión extraordinario, y que pueden expresarse utilizando la longitud de onda de un tipo de luz como unidad. Además, es posible medir de este modo longitudes de hasta 0,1 metros o más, en condiciones adecuadas, sin que sufra la precisión. De este modo, la investigación de Michelson ha preparado el camino para la medida de un valor de longitud estándar de 10 cm como múltiplo de la longitud de onda de una radiación particular en el espectro del cadmio. A partir del valor obtenido de este modo para el estándar de 10 cm, con un error probable de, como máximo, ± 0,00004 mm, Michelson fue capaz, también utilizando el interferómetro, obtener con esa base la longitud del metro estándar, diez veces mayor, y obtuvo para esta longitud un valor de 1 553 164,03 longitudes de onda de este tipo para un metro. El error probable de esta medida puede ser, en las condiciones menos favorables, de sólo ± 0,000 04 mm –es decir, menos de una longitud de onda–, un valor tan pequeño que no puede detectarse directamente con un microscopio.
Las medidas subsiguientes realizadas en la Oficina Internacional de Pesos y Medidas en París por diferentes observadores, siguiendo un método completamente distinto, mostró que el error era de hecho considerablemente menor. Estas medidas dan para la longitud del metro un valor de 1 553 164,13 longitudes de onda de este tipo — un resultado que difiere del de Michelson en tan sólo 0,1 longitudes de onda, o 0,000 06 mm. Es evidente por tanto que la medida de Michelson de la longitud del metro prototipo debe ser exacta al menos con un error de 0,000 1 mm y, además, que esta longitud puede verificarse por el uso de sus métodos, o en caso de pérdida del prototipo, reproducido éste, con el mismo grado de precisión en cada ocasión. Finalmente, también se obtiene de esto el hecho de que durante el intervalo de 15 años que ha existido entre ambos grupos de medidas, no se ha producido una variación mensurable en el prototipo. El gran cuidado con el que se ha preservado y cuidado el prototipo le ha proporcionado, al menos, la apariencia de un alto grado de constancia, pero nada más; sólo era posible obtener una prueba real de su constancia si se podía comparar el metro con una medida absoluta de longitud, independiente de cualquier elemento físico que lo defina, la constancia del cual parece, bajo determinadas conciones, garantizada más allá de cualquier sombra de duda. Hasta donde llega nuestro conocimiento actual, ése es el caso de la longitud de onda. Supone para Michelson un honor eterno el hecho de que su investigación clásica fue la primera en proporcionar dicha prueba.
A partir del valor obtenido de este modo para el metro como longitudes de onda de una radiación determinada, es posible ahora obtener, viceversa, valores para estas longitudes de onda en una escala de medida absoluta, con el grado correspondiente de precisión. Esta precisión es excepcionalmente alta, y es de hecho unas cincuenta veces mayor que cualquier cosa obtenida mediante los métodos absolutos en uso hasta ahora para determinar longitudes de onda. La convicción que había ido ganando peso durante mucho tiempo, de que el sistema de longitudes de onda de Rowland, en todo lo demás bastante preciso, y que se ha venido tilizando durante los últimos veinte años como la base exclusiva de toda investigación espectroscópica, tiene sin embargo errores considerables al estudiar los valores absolutos, ha recibido así una confirmación plena; se ha hecho así evidente que es necesaria una valoración cuidadosa de esos valores, utilizando el método de Michelson o cualquier otro método de interferencia similar.
Y así alcanzamos el campo de la espectroscopía, en el que es claro que el interferómetro de Michelson es capaz de ser utilizado de una forma no menos significativa que las que hemos considerado hasta el momento. Éste no es, sin embargo, su único uso. Considerando la claridad casi perfecta con la que aparecen la mayor parte de las líneas espectrales en los espectros de emisión producidos con los potentes espectrocopios de red de difracción de nuestros días, había una buena base para considerar que estas líneas espectrales eran únicas e indivisibles; sin embargo, ése no es el caso. Haciendo uso de su interferómetro, Michelson ha demostrado de hecho que son, por el contrario, en su mayor parte grupos más o menos complejos de líneas muy densamente agrupadas, para cuya resolución la potencia de los espectrómetros más poderosos era totalmente inadecuada. El descubrimiento de esta estructura interna de las líneas espectrales ha llevado a la investigación más cuidadosa con la que Michelson ha contribuido posteriormente, en la forma de la red de difracción inventada por él mismo, una forma de investigación aún más fina que el interferómetro, pertenece sin duda al grupo de los avances más importantes en la historia de la espectroscopía, más aún ya que la naturaleza y condición de la estructura molecular de los cuerpos luminosos está estrechamente relacionada con esta estructura de líneas espectrales. Nos encontramos aquí en el umbral de campos de investigación completamente nuevos, sobre cuyos abismos inexplorados los experimentos de Michelson nos han propoorcionado nuestra primera mirada, y sus experimentos pueden servir al mismo tiempo como guía para aquéllos capaces de llevar su trabajo al siguiente nivel.
Además de la estructura más o menos complicada que se encuentra en las líneas espectrales como consecuencia de la naturaleza interna de los cuerpos luminosos, también es posible dividirlas bajo la influencia de una fuerza magnética en grupos de varias componentes más o menos densamente agrupadas. Hace unos años esta Academia se encontró en la posición de reconocer con el Premio Nobel la primera investigación exhaustiva de este fenómeno, realizada por el profesor Zeeman, de una importantia extraordinaria para las Ciencias Físicas. Mediante el uso de un espectroscopio de gran potencia es posible estudiar este fenómeno en sus aspectos generales; como regla, sin embargo, los detalles son tan sutiles y tan difíciles de detectar que el poder de resolución de ese instrumento no es adecuado para una investigación completa. En este caso el interferómetro –o la red de difracción de Michelson– puede utilizarse con mayor eficacia, como el propio Michelson ha demostrado. No puede quedar resto de duda de que a través de este instrumento será posible facilitar de manera sustancial la investigación del Efecto Zeeman.
Sólo he podido dar aquí una breve descripción de los numerosos e importantes problemas cuya solución se nos ha acercado tanto gracias a la poderosa ayuda a la investigación, con su grado de precisión sin precedentes, que hemos recibido en la forma de los instrumentos ópticos de precisión de Michelson. Esta descripción estaría sin duda incompleta si no mencionásemos aquellos usos encontrados de esos instrumentos que se han encontrado ya, y seguro se seguirán encontrando, en el campo de la Astronomía, casi tan importantes como en el caso de la Física. Entre éstos cabe mencionar la serie de medidas de los diámetros de los satélites de Júpiter, que han sido realizadas en parte por el propio Michelson en el Observatorio de Lick, y en parte utilizando la interferometría por parte de Hamy en París — una serie dentro de la cual hay un acuerdo mucho mayor del que había sido posible alcanzar con observaciones micrométricas normales utilizando los telescopios de refracción más potentes del momento.
De manera similar, no puede haber ninguna duda de que será posible obtener valores considerablemente más precisos al medir el tamaño de los pequeños planetas entre Marte y Júpiter que los que se han obtenido utilizando el método fotométrico de observación, el único disponible hasta el momento, pero que es extremadamente impreciso. El método interferométrico puede ser también de importancia en el estudio de estrellas dobles y múltiples, y de este modo podremos dejar de considerar ese problema como insoluble, como también se ha considerado durante mucho tiempo insoluble el de determinar el diámetro real de al menos las estrellas más brillantes. La Astronomía ha recibido así de la Física, en el interferómetro –como antes con el espectroscopio–, una nueva ayuda a la investigación que parece particularmente adecuada para atacar problemas cuya resolución era hasta ahora imposible, ya que no había ningún instrumento adecuado para ello.
Lo anterior basta, no sólo para explicar a aquellos que no están involucrados estrechamente en estos problemas la naturaleza fundamental de la investigación de Michelson en uno de los campos más difíciles de la Física de precisión, sino también cuán plenamente justificada está la decisión de esta Academia al recompensarla con el Premio Nobel de Física.

Disponemos también de las palabras pronunciadas por el Presidente de la Academia en la pequeña ceremonia privada en la que pudo dirigirse directamente a Michelson:

Profesor Michelson, la Academia Sueca de las Ciencias le ha otorgado el Premio Nobel de Física de este año en reconocimiento a los métodos que ha descubierto para asegurar la exactitud en la medición, además de las investigaciones en espectrometría que ha realizado usted en conexión con aquéllos.
Su interferómetro ha hecho posible obtener un estándar no material de longitud, con un grado de precisión nunca antes alcanzado. Mediante él podemos ahora asegurar que el prototipo del metro ha permanecido inalterado en longitud, y restablecerlo con infailibilidad absoluta, si por alguna razón se perdiera.
Sus contribuciones a la espectrometría abarcan métodos para la determinación de longitudes de onda de un modo más exacto que ninguno conocido hasta el momento. Además, ha descubierto usted el hecho importantísimo de que las líneas del espectro que se consideraban hasta ahora perfectamente únicas, son en la mayor parte de los casos realmente grupos de líneas. Nos ha proporcionado además la manera de investigar cuidadosamente este fenómeno, tanto en su forma espontántea como en la producida por influencia magnética, como sucede en los interesantes experimentos de Zeeman.
La Astronomía también ha obtenido una gran ayuda, y seguirá obteniéndola en el futuro, en la forma de sus métodos de medición
Al otorgarle el Premio Nobel de Física, la Academia de las Ciencias desea señalar como merecedores de especial honor las investigaciones eminentemente exitosas que ha realizado usted. Los resultados que ha obtenido son excelentes en sí mismos, y son de tal naturaleza que abren el camino al futuro avance de la Ciencia.


Para saber más:

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premio Nobel de Química 2010

El Premio Nobel de Química 2010 fue designado a los científicos Richard F. Heck (EE.UU.), Ei-ichi Negishi (Japón), y Akira Suzuki (Japón), por el desarrollo de la catálisis por medio del paladio de uniones cruzadas en las síntesis orgánicas, una importante herramienta para la química orgánica actual.
image
Las aplicaciones de esta herramienta alcanza numerosos campos de acción para la química, como la medicina, la electrónica, y la tecnología. Desarrolla la posibilidad de los científicos para crear sofisticados productos químicos como, por ejemplo, la elaboración de moléculas basadas en carbono tan complejas como las mismas que se encuentran en la naturaleza.
La química orgánica aplicada estudia la forma de crear compuestos basados en carbono, como los plásticos y los medicamentos. Para lograrlo, los químicos tienen que ser capaces de unir los átomos de carbono para formar moléculas funcionales. Sin embargo, el carbono es un elemento estable, que no reacciona fácilmente con otros.
image
Por eso, los primeros métodos para forzar al carbono a unirse estaban basados en hacerlo más reactivo a través de sustancias. Ese tipo de soluciones funcionaban cuando se trataba de crear moléculas simples, pero al sintetizar otras más complejas el método fallaba.
La unión cruzada catalizada a través del paladio resolvió ese problema y proveyó a los químicos de una nueva herramienta para trabajar, más eficiente. En las reacciones producidas por Heck, Negishi, y Suzuki, los átomos de carbono se encuentran con átomos del paladio (rico en electrones y, por lo tanto, un “imán” para el carbono) provocando una rápida reacción química (es decir, una catálisis).
Actualmente, la catálisis por medio del paladio de uniones cruzadas de síntesis orgánicas es utilizada en las investigaciones de todo el mundo, en la elaboración de importantes medicamentos para combatir el cáncer o poderosos virus, o también en la producción comercial de, por ejemplo, farmacéuticos y moléculas utilizadas en la industria electrónica.
image
Ninguno de los tres científicos trabajó conjuntamente, pero sus trabajos experimentales por separado lograron el desarrollo de esta importante herramienta química y la posibilidad de utilizarla en la actualidad.
Heck, nacido en 1931 en Springfield (EEUU), se doctoró en 1954 por la Universidad de Los Angeles, California, y es profesor emérito de la Universidad de Delaware, en Nueva York.
El japonés Negishi nació en 1935 en Changchun (actualmente, China) y se doctoró en 1963 en la Universidad de Pensilvania, para ejercer posteriormente en la Purdue University (West Lafayette, EEUU).
Suzuki, nacido en Japón en 1930, se doctoró en 1959 por la Universidad de Hokkaido, de la que es actualmente profesor.
Los tres compartirán el Premio Nobel 2010 otorgado por la La Real Academia de Ciencias Sueca, un premio de cerca de 1 millón de euros que se les otorgará en una pomposa ceremonia dirigida por el Rey de Suecia el 10 de diciembre, día en que se recuerda la muerte de Alfred Nobel.
Fuente: Nobel Prize
Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Física 1906 (J. J. Thomson) | El Tamiz

Premios Nobel – Física 1906 (J. J. Thomson)

Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Continuamos hoy nuestro camino, largo pero espero que interesante, a través de los Premios Nobel de Química y de Física desde su primera entrega en 1901. En la entrada anterior hablamos sobre el galardón de Química de 1905, otorgado a Adolf von Baeyer por su síntesis del índigo, pero antes de ella nos dedicamos al premio de Física del mismo año, que recibió Philipp Lenard por su estudio de los misteriosos rayos catódicos: y el premio de hoy está íntimamente relacionado con aquél, tanto que es en cierto sentido la contrapartida y la conclusión de aquella entrada. De modo que, si no leíste el artículo sobre Lenard o no lo recuerdas bien, te recomiendo que lo leas (o releas, según el caso) para saborear éste de verdad.
Y es que hoy disfrutaremos juntos del Premio Nobel de Física de 1906, otorgado a Joseph John Thomson (más conocido simplemente como J. J. Thomson), en palabras de la Real Academia Sueca de las Ciencias,

En reconocimiento a los grandes méritos de sus investigaciones teóricas y experimentales sobre la conducción de la electricidad por los gases.

Lo cual suena menos impresionante de lo que es en realidad, salvo que lo traduzcamos libre e irresponsablemente: por su descubrimiento del electrón. Pero recorramos, porque es una verdadera maravilla, el camino teórico y experimental –pues es una cadena de razonamientos y experimentación meticulosa– que llevó a Thomson a revelar la verdadera naturaleza de los “mágicos” rayos catódicos.

J. J. Thomson
Aunque no voy a repetir aquí toda la historia acerca del descubrimiento de los rayos catódicos y los primeros experimentos relacionados con ellos, porque ya hablamos de todo ello en el artículo dedicado a Lenard, espero que recuerdes la situación básica a finales del siglo XIX y la división fundamental en dos grupos por parte de los científicos que los estudiaban… pero, mejor que te lo recuerde yo, lees la descripción de la situación por parte del propio J. J. Thomson en su artículo del Philosophical Magazine de 1897 dedicado precisamente a sus investigaciones sobre los rayos:

Los experimentos descritos en este artículo fueron realizados con la esperanza de obtener información sobre la naturaleza de los rayos catódicos. Existen las opiniones más diversas sobre estos rayos; de acuerdo con la opinión casi unánime de los físicos alemanes, se deben a algún proceso en el éter al que no es análogo –al menos en el hecho de que en un campo magnético uniforme su trayectoria es circular y no rectilínea– ningún fenómeno observado hasta el momento: otra visión de estos rayos es que, muy lejos de ser completamente etéreos, son de hecho completamente materiales, y trazan las trayectorias de partículas de materia cargadas con electricidad negativa. Podría parecer, a primera vista, que no debería ser difícil discriminar entre visiones tan distintas, pero la experiencia nos muestra que éste no es el caso, ya que pueden encontrarse defensores de ambas teorías entre los físicos que han estudiado este fenómeno en gran profundidad.

Thomson era el principal adalid de la “hipótesis material” de los rayos catódicos frente a la “hipótesis etérica” de Lenard y compañía… algo que es de una ironía apabullante, como veremos al llegar en su momento al Premio Nobel de Física de 1937 –y cuando llegue el momento puedes tener por seguro que enlazaremos a este artículo–. Sin embargo, aunque durante un tiempo ambos bandos estuvieran más o menos igualados en su debate, el bando británico tenía dos ventajas que lo llevarían, finalmente, a llevarse el gato al agua: por un lado, tenían razón y, por otro, tenían a Thomson en vez de a Lenard, algo que tal vez haya sido aún más determinante.
Lenard, como vimos en el artículo dedicado a su premio, era un experimentador muy bueno, pero Thomson era al menos su igual en el laboratorio, y muy superior a él –en mi opinión– como teórico. Si albergas la menor duda sobre ello, espera a escuchar el proceso que siguió el inglés para desentrañar los misterios de los rayos catódicos.
Como menciona en el párrafo citado arriba, Thomson tenía muy claro que si los rayos catódicos eran realmente una ondulación del éter –dicho en términos más modernos, una onda electromagnética–, se trataba de un fenómeno muy diferente de cualquier otro similar, pues ninguna onda etérica se desviaba al exponerla a un campo magnético, y los rayos catódicos sí. Es más, al exponerlos a un campo magnético lo suficientemente fuerte, se hacía evidente que los rayos se convertían en arcos de circunferencia, algo que no estaba predicho por ninguna teoría acerca de las “ondas etéricas”… pero sí para las partículas cargadas eléctricamente.
Thomson en su laboratorio
Thomson, en su laboratorio (dominio público).
Las maravillosas ecuaciones de Maxwell, publicadas en 1861, describían con una elegancia y precisión extraordinarias el comportamiento del campo eléctrico, el campo magnético, la carga y las corrientes eléctricas, y las ondas electromagnéticas. Y en esas ecuaciones se ve claramente que una carga eléctrica sometida a un campo magnético uniforme, si las condiciones son las adecuadas, realiza una trayectoria circular exactamente del mismo modo que los rayos catódicos hacían en determinados experimentos. De ahí que Thomson y otros físicos pensaran, al contrario que Lenard, que estos rayos eran realmente partículas materiales con carga.
Sin embargo, había algo que no encajaba con esta hipótesis, algo que había sido puesto de manifiesto por los experimentos de Lenard: los rayos catódicos eran capaces de atravesar láminas de metal, algo que parecía imposible para un cuerpo material, aunque fuera pequeño, ya que debería rebotar como si fuera contra una pared. De ahí que, aunque ahora nos parezca evidente la solución al problema, no lo fuera por entonces y gente muy sabia no tuviera las cosas nada claras.
De hecho, muchos partidarios de la hipótesis etérica sostenían que había dos fenómenos mezclados: los rayos catódicos en sí, que eran ondas del éter, y partículas materiales que eran emitidas como consecuencia de los rayos y que eran las desviadas por el campo magnético. De modo que Thomson se dedicó en primer lugar a determinar si esto era cierto, o si eran de veras los propios rayos catódicos los desviados por los imanes. Hacerlo no era demasiado difícil –desde luego, infinitamente más fácil que otros experimentos realizados por Thomson más adelante–, ya que había una manera muy sencilla de detectar los rayos catódicos, que ya mencionamos en el artículo anterior: creaban un brillo fosforescente muy característico sobre las paredes de los tubos.
Thomson construyó entonces un tubo de Crookes “modificado”: añadió un electrómetro, un aparato capaz de detectar el impacto de carga eléctrica… pero no lo puso frente al emisor de los rayos catódicos como habían hecho otros antes que él, sino tras una “curva”; en el dibujo de abajo los rayos parten de A y el electrómetro está al final del tubo inferior. Al encender el emisor, la pared frente al “cañón” de rayos catódicos brillaba como siempre sucedía, pero el electrómetro, lógicamente, no detectaba nada. Cuando Thomson sometió el tubo a un campo magnético cada vez más intenso, el brillo se fue desplazando por la pared hasta que alcanzó el electrómetro: y en ese momento, el aparato empezó a detectar el impacto constante de una gran cantidad de carga eléctrica negativa. Cuando el campo magnético fue tan intenso que el brillo siguió avanzando por la pared y abandonó el electrómetro por el otro lado, se dejó de detectar carga completamente.
Experimento de Thomson 1
Experimento de Thomson para identificar los rayos catódicos con la carga eléctrica (dominio público).
De modo que Thomson llegó a su primera conclusión: los rayos catódicos no eran un fenómeno separado de la carga eléctrica, y no había manera de obtener una cosa sin la otra. Pero esto llevaba, inevitablemente, a otras preguntas: si eran realmente partículas con carga, ¿cuál era el valor de esa carga? Si tenían masa, ¿cuánta masa? Y si todo esto era cierto, ¿cómo demonios podían atravesar una lámina de aluminio como si no estuviera ahí?
Para contestar a estas preguntas, lo siguiente que hizo Thomson fue, una vez más, algo razonablemente lógico: una de las propiedades más características de las cargas eléctricas es que se atraen o repelen entre sí dependiendo de su signo, como muy bien sabes si has leído [Electricidad I]. Dicho en términos de las ecuaciones de Maxwell, las cargas sufren una fuerza debida a los campos eléctricos. Así que Thomson sometió los rayos catódicos en el tubo a un campo eléctrico bastante intenso… y los rayos se doblaron.
Experimento de Thomson 2
Experimento de Thomson para determinar la desviación debida al campo eléctrico (dominio público).
Es más: cuanto mayor era el campo eléctrico, mayor la desviación –el científico, naturalmente, puso una serie de marcas sobre la superficie del tubo para medir el grado en el que se desviaban los rayos, que puedes ver a la derecha en el dibujo–, y cuando se cambiaba la polaridad del campo, la desviación se producía en sentido inverso. Todo concordaba exactamente con las predicciones de Maxwell para el comportamiento de partículas con carga eléctrica en movimiento.
Pero el genio de Thomson, a estas alturas, estaba simplemente cogiendo carrerilla, y aquí empezamos ya con los experimentos de quitarse el sombrero. A continuación, este individuo de adorables bigotes preparó el siguiente experimento, mezcla de los dos anteriores: si tanto un campo eléctrico como uno magnético podían “doblar” los rayos, era entonces posible preparar las cosas con los dos campos a la vez y con sus efectos actuando en sentidos contrarios, de modo que uno desviase los rayos “hacia la derecha” y el otro “hacia la izquierda”, y que los rayos catódicos siguieran rectos, sin desviarse, al cancelarse ambos efectos.
La clave de la cuestión está en que tanto un efecto como otro dependen, además de la intensidad del campo en cuestión –que Thomson conocía porque los estaba encendiendo él mismo–, de la carga de la partícula –algo completamente desconocido–… pero el efecto debido al campo magnético depende también de la velocidad de la partícula1. Con lo que, midiendo ambos campos “equilibrados” cuando los rayos salían rectos, era posible calcular la velocidad de los rayos catódicos, ya que la contribución de la carga eléctrica, aunque fuese desconocida, era exactamente igual para ambos campos eléctrico y magnético con lo que se cancelaba en las ecuaciones y no hacía falta utilizarla. Thomson había conseguido medir la velocidad de los rayos catódicos, una hazaña porque es un valor tan enorme que no era factible medirla a partir de la distancia recorrida y el tiempo empleado.
Había varias cosas curiosas acerca de esa velocidad. Para empezar, cuanto mayor era el voltaje del tubo, más rápidos llegaban los rayos de un extremo a otro… pero las ondas electromagnéticas no variaban su velocidad de este modo, sino que siempre se movían a la velocidad de la luz. Además, los rayos catódicos eran realmente lentos, relativamente hablando: su velocidad dependía del grado de vacío dentro del tubo (cuanto menos denso el gas, más veloces), pero algunos iban al paso de tortuga de 8 000 km/s, inimaginablemente más lentos que las ondas del éter. Incluso los más rápidos obtenidos por Thomson, utilizando bombas de vacío muy eficaces, sólo alcanzaban unos 100 000 km/s, una tercera parte de la velocidad de la luz.
Llegado este momento, imagino que Thomson no tenía ya duda alguna acerca de la naturaleza material de los rayos, que no eran otra cosa que la trayectoria de partículas minúsculas y muy rápidas, que el inglés denominó corpúsculos. El resto de su trabajo se dedicó, por tanto, a determinar las propiedades de esos peculiares corpúsculos más allá del hecho de que tenían carga negativa y viajaban muy rápido por los tubos de Crookes en los que se producían.
Ecuaciones de Maxwell
Poesía en estado puro… quiero decir, “Ecuaciones de Maxwell”.
¿Pero no hemos dicho antes que eran lentos? ¿Ahora son rápidos? Pues sí, porque todo depende de con qué se compare… aunque los corpúsculos fueran muy lentos para ser ondas electromagnéticas, eran rapidísimos para ser partículas; no existía partícula material alguna conocida que fuera a velocidades tan gigantescas, algo muy raro. Pero las buenas noticias son que, si se conoce la velocidad de una partícula y el campo magnético que la afecta, es posible determinar la relación entre su carga eléctrica y su masa de manera relativamente sencilla, utilizando las ecuaciones de Maxwell y las Leyes de Newton. ¡Ojo! Fíjate en que las ecuaciones, utilizadas de este modo, no permiten calcular ni la masa ni la carga, pero sí la relación entre ellas (por ejemplo, la carga es cien veces la masa, o la décima parte, o lo que sea). No es perfecto, pero es un paso más en el conocimiento sobre la partícula, y a ello se dedicó el ínclito J. J.
Cuando Thomson realizó sus cálculos, obtuvo un resultado sorprendente: los corpúsculos tenían una relación carga-masa unas 1 700 veces superior a la del átomo de hidrógeno, la fracción conocida de materia más fuertemente cargada en relación a su masa. Había dos explicaciones posibles, aunque no necesariamente incompatibles: o bien estos corpúsculos eran muchísimo más ligeros que el átomo de hidrógeno –que era la cosa más ligera conocida entonces–, o bien tenían una carga eléctrica brutalmente mayor que el átomo de hidrógeno, o ambas cosas a la vez.
Inicialmente, Thomson pensó que la respuesta era que los corpúsculos tenían una carga eléctrica muchísimo mayor que la del átomo de hidrógeno, pero se dedicó a intentar determinar si tenía razón o no experimentalmente. Para conseguirlo hacía falta, básicamente, medir una de las dos magnitudes: o la masa de los corpúsculos o su carga, ya que la otra magnitud podía ser calculada a partir de la proporción conocida entre ellas. Pero ¿cómo diablos medir la masa o la carga de algo tan ridículamente pequeño? Muy fácil: siendo un genio como Joseph John. Eso sí, el experimento es enrevesado, así que tengo que pedirte paciencia.
Thomson en el Cavendish Physical Laboratory
Thomson en el Cavendish Physical Laboratory de Cambridge (dominio público).
El inglés echó mano de una propiedad curiosa de la condensación de un gas, de la que desgraciadamente sólo puedo dar aquí unas pinceladas: el hecho de que los gases, como el vapor de agua, se condensan más fácilmente cuando existen pequeñas partículas en suspensión que sirvan de núcleos para las gotas líquidas que van a formarse. Dicho de otro modo, a una temperatura determinada era posible tener una mayor concentración de vapor si no existían pequeños núcleos sobre los que formar gotas que si esos pequeños núcleos estaban presentes. El polvo en el aire, por ejemplo, era un excelente agente de nucleación de este tipo, y si se eliminaba el polvo era posible alcanzar grandes concentraciones de vapor de agua sin que se produjera la condensación –o, en otros términos, era posible enfriar el vapor de agua por debajo de límites que lo hubieran condensado si había polvo en el ambiente–.
¿Qué tiene que ver esto con los corpúsculos de Thomson? ¡Mucho! Todo el asunto de la nucleación había sido estudiado, investigado a fondo y probado experimentalmente por un meteorólogo escocés extraordinario, Charles Thomson Rees Wilson, al que volveremos en esta misma serie porque parte de esas investigaciones le proporcionaron un Nobel propio años más tarde… pero, por ahora, Wilson otorgó a Thomson la clave para resolver su propio problema. El escocés había determinado con gran precisión el efecto de pequeñas partículas en el aire como núcleos de condensación del vapor de agua, dependiendo de la naturaleza de esas partículas: el polvo, por ejemplo, era un mejor agente de nucleación que partículas cargadas como los corpúsculos de Thomson. Con las ecuaciones y cálculos de Wilson, Thomson conocía detalladamente el comportamiento dependiendo del número y naturaleza de los posibles núcleos de condensación.
De modo que Thomson construyó un recipiente de vidrio que contenía vapor de agua y aire, con un émbolo que podía subir y bajar a voluntad, comprimiendo o expandiendo el contenido del recipiente. Al comprimir los gases, la temperatura aumentaba, mientras que al expandirlos, la temperatura disminuía. Antes de nada, Thomson subió el émbolo lo suficiente como para que el polvo presente dentro del recipiente actuase de centros de nucleación, y se formaron gotitas como ya se sabía que sucedería exactamente a esa temperatura, y las gotitas cayeron al fondo del tubo, limpiando el aire de polvo.
A continuación, Thomson llenó el recipiente de sus pequeños corpúsculos y subió el émbolo hasta que se formaron gotitas de nuevo, que cayeron otra vez al fondo del tubo. Puesto que la Termodinámica estaba ya perfectamente desarrollada por entonces, Thomson sabía perfectamente, a partir del movimiento del émbolo, la disminución de temperatura en el aire saturado de vapor y –muy importante– la cantidad de agua depositada como consecuencia: sabía cuánta agua se había condensado, en forma de gotitas, por la presencia de los corpúsculos en el aire del tubo. Y sabía otra cosa más, de una importancia tremenda.
Medir la carga eléctrica de un solo corpúsculo era casi imposible, pero el agua que había caído al fondo del recipiente estaba cargada –ya que cada gotita se había formado alrededor de un corpúsculo con carga eléctrica–, y su carga eléctrica era suficientemente grande para medirla sin problemas. Pero ¿cuánta de esa carga correspondía a cada corpúsculo? Eso sí era difícil de saber, porque el número de gotitas que habían caído era inmenso, y era imposible contarlas una a una en el tiempo que tardaban en caer al fondo y mezclarse.
Sin embargo, era posible estimar el tamaño de cada gotita de forma indirecta: mediante su velocidad terminal, es decir, la velocidad máxima que alcanzaban al caer debido a la presencia del aire. Para objetos grandes, la velocidad terminal puede ser enorme, pero la velocidad terminal de las gotitas era suficientemente pequeña como para que pudiera medirse con una gran precisión. La mecánica de fluidos permitía, a partir del valor de la velocidad terminal, determinar el radio de las gotitas suponiendo que fueran esféricas, y con el radio de una gota esférica de agua era posible calcular su masa.
Y, cuando Thomson dividió la cantidad total de agua por la de cada gotita, pudo conocer el número de gotitas: y, con ese número, dividir la carga total del agua depositada entre el número de gotitas, y obtener así la carga de cada corpúsculo: en términos modernos, alrededor de 10-19 culombios. Sí, sí… la carga real es más parecida a 1,6·10-19 culombios. Pero si esto no es para quitarse el sombrero ante Sir John Joseph, me como el susodicho sombrero. ¡Calcular la carga del electrón contando indirectamente el número de gotitas cargadas que se forman en un tubo! ¡Olé!
El resultado, por cierto, era completamente distinto del esperado por Thomson: como recordarás, el inglés había supuesto que la enorme proporción carga-masa de los corpúsculos se debía a una enorme carga comparada con la del átomo de hidrógeno, pero este resultado era idéntico a las mejores estimaciones de la época sobre la carga del átomo de hidrógeno. La conclusión estaba bien clara; si la carga-masa de un corpúsculo era unas 1 700 veces la del átomo de hidrógeno, pero las cargas de uno y otro eran idénticas, es que la masa de un corpúsculo era 1 700 veces menor que la de un átomo de hidrógeno: unos 7·10-31 kilogramos, la masa más pequeña jamás descubierta por el ser humano hasta entonces (la masa real de acuerdo con las mediciones actuales, por cierto, es de unos 9,1·10-31 kg).
Esto proporcionaba también una explicación a la “mágica” propiedad de los rayos de ser capaces de atravesar finas capas de metales: se trataba de partículas no ya tan pequeñas como un átomo, sino casi dos mil veces más ligeras –y, posiblemente, tantas veces más pequeñas que un átomo de hidrógeno–. Era perfectamente posible que los corpúsculos, dado su tamaño minúsculo, fueran capaces de “colarse” entre los átomos del metal para llegar al otro lado, aunque si la lámina era suficientemente gruesa era capaz de detenerlos, algo también bastante lógico. Pero el comportamiento de los “corpúsculos” atravesando metales nos proporcionaría aún sorpresas y un conocimiento mucho más profundo acerca de los átomos, algo a lo que llegaremos a su debido tiempo: ten en cuenta que, por estas fechas, nadie tenía una idea muy clara de exactamente cómo era un átomo, qué significaba “entre los átomos”, etc. Pero sí parecía razonable suponer que algo tan minúsculo pudiera atravesar cosas que partículas más grandes no podían.
Thomson no sólo había desentrañado el misterio de los rayos catódicos y demostrado su verdadera naturaleza como pequeñas partículas materiales cargadas; había determinado la carga de esas partículas, su masa y su comportamiento ante condiciones muy diversas. Tal era el nivel de detalle de sus experimentos, y la claridad de sus conclusiones, que los partidarios de la hipótesis etérica comprendieron rápidamente que se habían colado, y la comunidad científica comprendió por fin la naturaleza de aquellos misteriosos rayos, y ganó además una nueva partícula, la más ligera conocida hasta entonces y un ladrillo conceptual básico para entender la naturaleza atómica de la materia.
Sin embargo, su insulso nombre de “corpúsculo”, afortunadamente (porque no me negarás que es un poco soso), no duró mucho, y para cuando recibió el Nobel en 1906, el nombre más aceptado por la comunidad científica era el propuesto anteriormente por el físico irlandés George Johnstone Stoney: electrón. En el discurso de más abajo, como verás, es ya el empleado al referirse a la partícula.
Thomson y Rutherford
Un anciano J. J. Thomson, acompañado de Ernest B. Rutherford (dominio público).
Pero Joseph John, aunque genial, se equivocaba en varias cosas, y fundamentalmente en una: sospechaba que los átomos eran una especie de “bizcochos” de carga positiva, dentro de la cual “buceaban” los corpúsculos –perdón, electrones–, como las pasas en el bizcocho pero en movimiento. Y en eso estaba muy equivocado, como demostraría muy pocos años después uno de sus alumnos y su sucesor en la Cátedra Cavendish de Cambridge (que, antes de Thomson, había sido ocupada nada más y nada menos que por James Clerk Maxwell y Lord Rayleigh), Ernest Rutherford. Pero eso es otra historia fascinante, que tendrá que esperar a otra ocasión.
Como siempre, aquí tienes el discurso pronunciado por el Presidente de la Real Academia Sueca de las Ciencias, J.P. Klason, ante el propio Thomson, las autoridades y el público en general presentes en la gran sala. Ya sé que el lenguaje es arcaico –y mi traducción no muy buena–, que algunos conceptos han sido superados y todo suena… raro, pero si puede hacerte olisquear la maravilla del momento, merece la pena:

Su Majestad, Sus Altezas Reales, damas y caballeros.
Cada día que pasa es testigo de la importancia creciente de la electricidad en la vida cotidiana. Los conceptos que unas meras décadas atrás eran objeto de investigación en los despachos y laboratorios de muchos hombres de ciencia se han convertido ya en la propiedad del gran público, quien pronto estará tan familiarizado con ellos como con sus pesos y medidas ordinarios. Aún mayores, sin embargo, son las revoluciones iniciadas por el trabajo de los electricistas2 en la esfera de la ciencia. Inmediatamente después del descubrimiento revolucionario de Örsted sobre la influencia de la corriente eléctrica sobre una aguja imantada (1820), Ampère, el genial investigador francés, postuló una teoría que explicaba los fenómenos magnéticos como el resultado de la acción eléctrica. Las investigaciones de Maxwell, el brillante físico escocés (1873), fueron aún más allá en su efecto, ya que mediante ellas pudo probarse que el fenómeno de la luz dependía de movimientos ondulatorios electromagnéticos en el éter. Hay razones para creer que los grandes descubrimientos de los últimos años respecto a la descarga de electricidad a través de gases se mostrarán igual de importantes o incluso más, ya que arrojan nueva luz sobre nuestra concepción de la materia. En este campo, el catedrático J. J. Thomson, el ganador del Premio Nobel de Física de este año, ha realizado las contribuciones más valiosas a través de su investigación, que ha llevado a cabo durante muchos años.
Tras el gran descubrimiento de Faraday en 1834 se había probado que cualquier átomo tiene una carga eléctrica tan grande como la del átomo de hidrógeno gaseoso3, o un múltiplo simple de ese valor que se corresponde con la valencia química del átomo. Era, por lo tanto, natural el hablar, como hizo el inmortal Helmholtz, de una carga elemental o, como también se la llama, un átomo de electricidad, al referirse a la cantidad de electricidad inherente al átomo de hidrógeno gaseoso en sus combinaciones químicas.
La ley de Faraday puede expresarse del siguiente modo: un gramo de hidrógeno, o una cantidad equivalente de otro elemento químico, tiene una carga eléctrica de 28 950·1010 unidades electrostáticas. Si pudiéramos conocer simplemente cuántos átomos de hidrógeno hay en un gramo, podríamos calcular la carga de cada átomo de hidrógeno. La teoría cinética de gases, ese campo de investigación tan popular entre los científicos del siglo que acaba de terminar, se basa en la suposición de que los gases constan de moléculas que se mueven libremente, y cuyo impacto sobre las paredes del recipiente que las contiene se percibe como la presión del gas. De esto puede calcularse la velocidad de las moléculas del gas con gran precisión. A partir de la velocidad con la que un gas se difunde en otro, y de otros fenómenos estrechamente relacionados, pudo ser posible calcular el volumen ocupado por las moléculas, y por lo tanto los investigadores pudieron tener una idea de la masa de las moléculas y, consecuentemente, del número de moléculas presentes en un gramo de una sustancia química como, por ejemplo, el hidrógeno. Los valores así obtenidos no tenían, sin embargo, no tenían una gran precisiónn y fueron considerados por muchos científicos como meras conjeturas. Si hubiera sido posible calcular el número de moléculas en una gota de agua mediante un microscopio increíblemente potente, la situación hubiera sido por supuesto muy distinta. Pero no había la menor esperanza de que un investigador tuviera éxito en conseguir algo así, y por tanto la existencia de las moléculas se consideraba muy problemática. Si, de los valores citados por los defensores de la teoría cinética de gases como los más probables para el tamaño de las moléculas y átomos, calculamos el valor de la electricidad presente en un átomo de hidrógeno, llegamos a la conclusión de que la carga del átomo tiene un valor de entre 1,3·10-10 y 6,1·-10 unidades electrostáticas.
Sin embargo, lo que nadie consideraba probable ha sido logrado por J. J. Thomson mediante métodos rebuscados. Richard von Helmholtz descubrió en 1887 que las partículas eléctricamente cargadas tienen la interesante propiedad de condensar vapor a su alrededor. J. J. Thomson y su alumno C. T. R. Wilson se dedicaron a estudiar este fenómeno. Con la ayuda de los rayos Röntgen produjeron algunas partículas eléctricamente cargadas en el aire. Thomson supone que cada una de estas partículas tiene una unidad de carga eléctrica. Mediante medidas eléctricas pudo determinar el valor de la carga en una cantidad determinada de aire. Entonces, mediante una súbita expansión del aire, que estaba saturado de vapor, logró la condensación del vapor sobre las partículas eléctricamente cargadas, y entonces calculó su tamaño a partir de la velocidad a la que se hundían. Ya que sabía la cantidad de agua condensada y el tamaño de cada gora, no fue difícil calcular el número de gotas. Ese número era el mismo que el de partículas eléctricamente cargadas. Al haber determinado con antelación la carga total en el recipiente, pudo calcular fácilmente la cantidad que había en cada gota o, previamente, en cada partícula, es decir, la carga atómica. Así encontró que su valor era de 3,4·10-10 unidades electrostáticas. Este valor está muy próximo al valor medio entre los obtenidos previamente mediante la teoría cinética de los gases, lo que convierte a estos diversos resultados y la corrección del razonamiento empleado en muy probables.
Esto significa que, si bien Thomson no ha visto los átomos físicamente, ha conseguido un logro comparable, al haber observado directamente el valor de la electricidad de cada átomo. Con la ayuda de esta observación se ha determinado el número de moléculas en un centímetro cúbico de gas a una temperatura de 0 grados4 y bajo una presión de una atmósfera; es decir, se ha calculado lo que tal vez sea la constante natural más fundamental del mundo natural. Ese número es nada más y nada menos que cuarenta trillones (40·1018). Mediante una serie de experimentos increíblemente ingeniosos, el profesor Thomson, ayudado por sus numerosos alumnos, ha determinado las propiedades más importantes (como la masa y la velocidad bajo la influencia de una fuerza determinada) de estas pequeñas partículas cargadas eléctricamente, que se producen en gases mediante diversos métodos, como rayos Röntgen, rayos de Becquerel, luz ultravioleta, descargas en agujas y metales incandescentes. Las partículas más notables de todas estas partículas cargadas son las que constituyen los rayos catódicos en gases muy rarificados. Estas pequeñas partículas se denominan electrones y han sido objeto de investigaciones muy detalladas por parte de un gran número de investigadores, los más importantes de los cuales son Lenard, el ganador del Premio Nobel de Física del año pasado, y J. J. Thomson. Estas pequeñas partículas también deben identificarse con los llamados rayos-β, emitidos por ciertas sustancias radiactivas. Suponiendo, basándonos en el trabajo antes mencionado de Thomson, que tienen la unidad negativa de carga, llegamos a la conclusión de que tienen una masa unas mil veces menor que la de los átomos más ligeros conocidos, es decir, los de hidrógeno gaseoso.
Por otro lado, las partículas de carga positiva más pequeñas conocidas son, de acuerdo con los cálculos de Thomson, Wien y otros investigadores, del mismo orden de magnitud que los átomos normales. Por tanto, al ver que todas las sustancias examinadas hasta el momento son capaces de proporcionar electrones cargados negativamente, Thomson llegó a la conclusión de que la carga negativa de los electrones tiene una existencia real, mientras que la carga de las pequeñas partículas cargadas positivamente proviene de un átomo neutro que pierde uno o más electrones negativos con sus cargas. Thomson ha proporcionado, por tanto, una significación física a la idea postulada en 1747 por Benjamin Franklin de que sólo hay una forma de electricidad, una idea defendida con energía también por Edlund. La electricidad que realmente existe es electricidad negativa, de acuerdo con Thomson.
Tan pronto como 1892, Thomson había demostrado que un cuerpo cargado en movimiento tiene por tanto una energía electromagnética, que produce en él el aumento de su masa. A partir de los experimentos llevados a cabo por Kaufmann acerca de la velocidad de rayos-β emitidos por el radio, Thomson llegó a la conclusión de que los electrones negativos no tienen una masa real, sino sólo aparente y debida a su carga eléctrica.
Podríamos entonces considerar razonable el suponer que toda la materia está compuesta de electrones negativos y que, por tanto, la masa de la materia es aparente y depende realmente del efecto de las fuerzas eléctricas. Se está realizando un experimento de gran interés en esta dirección por parte de Thomson, pero sus investigaciones más recientes del presente año (1906) parecen sugerir que sólo una milésima parte del material es aparente y debido a fuerzas eléctricas.
Profesor Thomson. Como bien sabe, la Real Academia Sueca de las Ciencias ha decidido otorgarle el Premio Nobel de Física de este año.
No sabría explicar cómo, pero de una manera u otra la contemplación del trabajo que usted ha realizado ha revivido en mi mente un pasaje del famoso ensayo sobre Sócrates de Xenofonte, una obra que usted seguramente también ha leído en su juventud. El autor nos dice que, cada vez que la conversación se dirigía a los elementos de la Tierra, Sócrates decía “de estos asuntos no sabemos nada”. ¿Seguirá siendo la sagacidad que Sócrates demostró en esta respuesta, y que ha recibido la aprobación de todas las épocas incluyendo la nuestra, considerada como la conclusión de todo el asunto? ¿Quién podría decirlo? Hay algo que todos sabemos, que cada gran período de la Filosofía Natural ha creado elementos propios, y por tanto parecemos sentir que tal vez estemos en el umbral de uno de esos nuevos períodos con nuevos elementos.
En nombre y en representación de nuestra Academia le felicito por haber proporcionado al mundo algunos de los trabajos fundamentales que permiten al filósofo natural de nuestro tiempo afrontar nuevas preguntas en direcciones nuevas. Así ha caminado usted tras las huellas de sus grandes y renombrados compatriotas, Faraday y Maxwell, hombres que han supuesto para el mundo de la ciencia los ejemplos más grandes y nobles.

Para saber más (esp/ing cuando es posible):

  1. Y, si has estudiado electromagnetismo, seguro que has resuelto problemas en los que igualabas la fuerza eléctrica y la magnética para calcular exactamente igual que Thomson []
  2. La palabra, por entonces, no tenía el mismo significado que ahora. []
  3. Sí, sí, ya lo sé… pero recuerda que estamos en 1906 []
  4. centígrados []
Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Premios Nobel – Física 1904 (Lord Rayleigh) | El Tamiz

Como sabéis los habituales, en la serie Premios Nobel recorremos estos galardones, en las categorías de Física y de Química, a lo largo de la historia desde su inicio en 1901. De este modo, por un lado, avanzamos en ambas ciencias como lo hizo la comunidad científica a lo largo del siglo XX (y luego del XXI), y por otro aprovechamos la ocasión para complementar la descripción histórica de cada descubrimiento con otra de visión algo más moderna y divulgativa acerca del asunto de que se trate.

El caso de 1904 es especial por dos razones. En primer lugar, porque los premios de Física y Química, en cierto sentido, se solapan. Fueron otorgados a dos científicos que colaboraron juntos en asuntos en los que la separación entre ambas ciencias es muy difusa. De ahí que no sea demasiado importante a cuál de los dos se le dió cuál Premio y, de hecho, la sensación general que me deja 1904 es precisamente la continuación de este “desdibujar de líneas” entre las ciencias a nivel microscópico de la que hemos hablado repetidamente en entradas anteriores de la serie, puesto que se trata del período de auge de la Química física y la conexión entre el mundo macroscópico y el microscópico.

Lord Rayleigh
John William Strutt, Lord Rayleigh (1842-1919).

La segunda razón por la que 1904 es especial, en el caso del Premio Nobel de Física, es que ya hemos hablado tanto del descubrimiento como del modo en el que se realizó, de modo que este artículo será muy corto (a cambio, trataré de publicar el de Química más pronto que de costumbre), y tratará fundamentalmente de complementar la información que ya hemos dado en El Tamiz con la “adicional” que solemos dar en esta serie, particularmente el discurso de presentación de 1904, como siempre anticuado, anacrónico, pedante… delicioso. La descripción del descubrimiento, como digo, está en el artículo del argón.

El Premio Nobel de Física de 1904 fue otorgado a John William Strutt, Lord Rayleigh, en palabras de la Real Academia Sueca de las Ciencias,

Por sus investigaciones sobre las densidades de los gases más importantes y su descubrimiento del argón en conexión con estos estudios.

Sí, ya lo ves: si eres un tamicero añejo, ya conoces al buen Strutt y cómo descubrió la presencia del argón en la atmósfera terrestre. Si algún día publicamos esta serie en forma de libro, este capítulo se alimentará, por tanto, de la serie Conoce tus elementos, con la información de aquel artículo combinada con las adiciones de éste. Si no has leído la entrada sobre el argón, o no la recuerdas, te recomiendo que lo hagas, ya que el resto de ésta supone que conoces el descubrimiento y el papel de Lord Rayleigh en él.

Lord Rayleigh y Lord Kelvin
Dos titanes: Lord Rayleigh y Lord Kelvin.

Es cierto que se trata de un premio menos glamouroso que el último del que hablamos en la serie, el de las radiaciones alfa, beta y gamma, pero tanto el Premio como Rayleigh ponen de manifiesto algo que es esencial para el progreso científico: el ingenio y, más aún, la meticulosidad en la experimentación.

Lord Rayleigh en su laboratorio
Lord Rayleigh en su laboratorio.

Rayleigh era, indudablemente, un tipo brillante y polifacético. A lo largo de su vida realizó investigaciones y avances en múltiples ramas de la Física: viscosidad, óptica, hidrodinámica, capilaridad, elasticidad, sonido, electrodinámica, física del aire, teoría ondulatoria, etc. Era además un buen profesor, escribía estupendamente bien… pero algo menos visible y a veces pasado por alto era su mayor virtud, al menos en lo que al avance científico respecta.

Strutt era un experimentador minuciosísimo; su Nobel, y el hecho de que hoy conozcamos el objeto de su descubrimiento, se debe fundamentalmente a este hecho, ya que es la medición extremadamente cuidadosa de la densidad de los gases atmosféricos la que desencadenó la chispa de su descubrimiento. Y, a partir de esa medición, la capacidad del físico experimental para diseñar experimentos que extraigan conclusiones acerca de ella. Algo muy parecido diremos, dentro de unos días, de Ramsay, el colega de Rayleigh que recibió el Premio Nobel de Química de este mismo año.

De modo que celebremos juntos la grandeza del logro de Strutt, y el espíritu inquisitivo de científicos como él, que no se quedan contentos cuando las cosas no encajan perfectamente, aunque sea por un 0,5% de diferencia; que diseñan experimentos para escudriñar las razones de esas diferencias, y que terminan viendo cosas que otros antes de ellos no vieron, como las toneladas y toneladas de argón que nos rodea y de las que, hasta Lord Rayleigh, habíamos sido del todo ignorantes.

Imagina por tanto, en Estocolmo, la sala llena a rebosar, y la voz de J. E. Cederblom, Presidente de la Real Academia Sueca de las Ciencias, que se dirige al público diciendo:

Su Majestad, Sus Altezas Reales, damas y caballeros.

La Real Academia Sueca de las Ciencias ha decidido otorgar el Premio Nobel de Física del presente año a Lord Rayleigh, catedrático en la Royal Institution de Londres, por sus investigaciones sobre las densidades de los gases más importantes, y por su descubrimiento del argón, uno de los resultados de esas investigaciones.

De entre los problemas de la ciencia físico-química que han despertado especialmente el interés de los científicos, la naturaleza y composición del aire atmosférico siempre ha tenido una posición prominente. Durante siglos, este problema ha sido el objeto de agudas disquisiciones e investigaciones experimentales detalladas, con lo que su historia nos proporciona una imagen muy nítida del desarrollo de esas ciencias en su conjunto, estrechamente relacionado, como está, con el progreso realizado en los distintos campos de la Física y la Química. La causa de la falta de avances, que en épocas anteriores se debía no sólo a ideas incorrectas firmemente establecidas, sino también por una falta de trabajo experimental, es evidente, y explica el hecho de que durante el siglo XVII no llegaron a la solución del problema científicos de la talla de Boyle, Mayow y Hales; sólo se llegó a la solución un siglo más tarde, tras los descubrimientos de Priestley, Black, Cavendish y, sobre todo, Lavoisier, de un modo que no sólo entonces, sino hasta hace muy poco, se consideraba finalizado.

En estas circunstancias es natural que el descubrimiento de un nuevo componente del aire, uno que existe en una cantidad considerable de alrededor del uno por ciento, haya despertado un asombro grande y justificado. ¿Cómo es posible, se preguntaba la gente, que ante tantos avances en los métodos físicos y químicos de observación de la actvualidad, este gas haya permanecido tanto tiempo sin ser observado? La respuesta a esta pregunta no sólo está en la extraña indiferencia a las investigaciones químicas que caracteriza a esta época1, sino también al hecho de que las investigaciones de las propiedades físicas de los gases atmosféricos no habían alcanzao antes el elevado grado de precisión que ha logrado posteriormente Lord Rayleigh.

Esto es especialmente cierto en el caso de la determinación de las densidades. Se ha mostrado que el nitrógeno aislado a partir del aire es invariablemente más pesado que el producido desde sus compuestos químicos. Puesto que la diferencia es de al menos un 0,5%, no hay duda de la existencia de esta diferencia, puesto que la precisión del aparato de medida era tal que el posible error era de una cincuentava parte de ese valor. Puesto que entre estos dos tipos de nitrógeno –por un lado el atmosférico, por otro el obtenido de compuestos químicos– hay una diferencia definida de densidad, la pregunta surgió: ¿cuál podría ser la causa de este peculiar estado de cosas? Se examinaron todas las posibles circunstancias de la investigación que podrían haber tenido alguna influencia a este respecto, pero se llegó a la conclusión de que esa influencia no es suficiente para explicar la diferencia observada, de modo que, en opinión de Lord Rayleigh, sólo había una posibilidad, a saber, que el nitrógeno atmosférico no era un elemento simple, sino una combinación de nitrógeno puro y algún otro elemento más pesado y hasta entonces desconocido.

De ser así, debería ser posible aislar este gas de alguna manera u otra. Los métodos –físicos y químicos– para lograrlo se conocían bien en principio, pero el problema no era sólo obtener el nuevo gas en la forma más pura posible, sino también en cantidad suficiente para realizar una investigación detallada de sus propiedades esenciales. Estas pruebas tediosas y complejas han sido realizadas de forma conjunta por Lord Rayleigh y Sir William Ramsay, y han resultado no sólo en la prueba fehaciente de que el nuevo gas está presente de forma en el aire, sino que además han logrado establecer un conocimiento profundo de sus características químicas y físicas.

El tiempo del que dispongo no me permite dar una cuenta detallada de estas cuestiones, a pesar de que son indudablemente importantes e interesantes, pero me permito llamar su atención al hecho de que, además de la gran importancia del descubrimiento de un nuevo elemento, éste es de especial interés debido a las investigaciones puramente físicas en las que se basa, investigaciones que –no sólo sobre el nitrógeno sino sobre otros gases importantes– se caracterizan por una delicadeza y una precisión que no se encuentra a menudo en la historia de la Física. Teniendo en cuenta, además, que el descubrimiento del argón es una de las causas de los brillantes descubrimientos por parte de Sir William Ramsay del helio y otros llamados “gases nobles” que se produjeron poco después, podemos aseverar sin duda que el trabajo de Lord Rayleigh es de un carácter tan fundamental que la entrega del Premio Nobel de Física a este científico debe ser recibida con satisfacción sincera y completamente justificada, más aún puesto que esta parte de su trabajo es sólo un eslabón en una larga cadena de investigaciones notables con las que, desde diversos puntos de vista, ha enriquecido las Ciencias Físicas, y que son de tal naturaleza que le aseguran una posición prominente en su historia por todos los tiempos.

Además del discurso de presentación del Premio que acabas de leer, si te manejas en la lengua de Shakespeare yo me leería también el discurso del propio Rayleigh al recibir el premio, porque es igualmente fascinante si te gustan este tipo de cosas como a mí (y, si no te gustaran, no acabarías de tragarte lo que acabas de leer, ¿verdad?).

Dentro de unos días, el Premio Nobel de Química de 1904, otorgado al amigo y colaborador de Strutt, Sir William Ramsay.

Para saber más:

  1. Es curioso que Cederblom diga esto ante los tremendos avances en química de la época; sospecho que se refiere a las décadas anteriores, pero no lo sé. []

Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

Portal de recursos para la Educación, la Ciencia y la Tecnología.