Premios Nobel – Química 1909 (Wilhelm Ostwald) | El Tamiz

40 Users Online

Premios Nobel – Química 1909 (Wilhelm Ostwald)

Puedes suscribirte a El Tamiz a través de Twitter (@ElTamiz) por correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

En la última entrega de la serie sobre los Premios Nobel hablamos sobre el galardón de Física de 1909, otorgado a Gulglielmo Marconi y Karl Ferdinand Braun por el desarrollo de la telegrafía sin hilos. Hoy seguimos nuestro recorrido por estos premios con el Premio Nobel de Química del mismo año, 1909, otorgado en este caso a Wilhelm Ostwald, en palabras de la Real Academia Sueca de las Ciencias,

En reconocimiento a su trabajo sobre catalizadores y sus investigaciones acerca de los principios fundamentales que gobiernan los equilibrios químicos y las velocidades de reacción.

Como nos ha pasado otras veces, seguramente leer la descripción del Premio no revela la tremenda importancia de lo que hay detrás, aunque en este caso mi impresión es que Ostwald tal vez no merecía el Nobel tanto más que otros investigadores en este campo (luego veremos por qué). Y, como también nos ha pasado otras veces –casi todas– no podemos hablar de Ostwald y su descubrimiento sin retroceder unas cuantas décadas para comprender la situación antes de que llegara el alemán. Como siempre, no supongo que tengas conocimientos de Química, pero sí que tienes paciencia y comprensión — dicho esto, viajemos a principios del siglo XIX, cuando la Química estaba aún en pañales.

Por entonces se habían estudiado ya de manera concienzuda multitud de reacciones químicas; se sabía que algunas sustancias, al ponerse en contacto entre sí, formaban otras nuevas, mientras que otras parecían no reaccionar en absoluto. También se sabía que, en algunos casos, la reacción era rápida y violenta, y en otros lenta y suave. Nadie se había preocupado aún de cuantificar estas características, pero los químicos se habían percatado ya de algo muy curioso: había algunos compuestos que no parecían reaccionar entre sí pero, sin embargo, si se añadía un compuesto nuevo determinado a la fiesta como “invitado”, entonces sí reaccionaban con entusiasmo… pero, al terminar la reacción, aunque los compuestos originales se habían gastado, el compuesto nuevo seguía ahí, igual que antes.
También pasaba a veces que varios compuestos sí reaccionaban entre sí, pero muy lentamente… salvo que se añadiese una vez más un compuesto “invitado”; al hacerlo, la reacción era mucho más violenta y, una vez más, cuando terminaba, el compuesto “invitado” seguía ahí, como si tal cosa, sin haberse consumido como los demás. Como puedes comprender, se trata de algo que puede resultar muy útil para la industria, ya que en muchos casos se quieren realizar reacciones químicas para producir algo como resultado final, y cuanto más rápida sea la reacción más cantidad se produce en un tiempo determinado.
Muchos químicos consideraron esto como una mera curiosidad y, puesto que no se conocían muchos casos de este fenómeno, los calificaron de excepciones y a otra cosa, mariposa. La industria, sin embargo, aunque no entendiera por qué sucedía esto, utilizó los casos contados en los que funcionaba. Por ejemplo, al producir ácido sulfúrico –que empezaba a ser ya un compuesto fundamental en la industria química naciente– si se utilizaba platino era posible, sin gastar el platino, que era el “compuesto invitado” producir el ácido mucho más rápido que sin él. El resultado final era igual, pero la rapidez mucho mayor lo hacía un método mucho más eficaz; claro, hacía falta una inversón extra para conseguir el platino, pero el metal no se gastaba porque era un mero “invitado”, con lo que no hacía falta estar comprándolo todo el tiempo.
Como digo, eran casos sueltos, curiosidades. Algunos químicos estudiaron varios de estos casos concretos en más detalle, y uno de los padres de la Química moderna tuvo la suficiente visión como para fijarse en todos esos casos concretos y extraer la clave del fenómeno. Ese químico era el sueco Jöns Jacob Berzelius, quien es probablemente merecedor de uno o más Premios Nobel, pero murió cincuenta años antes de que estos galardones nacieran. A pesar de tener la apariencia del malo en una novela de Dickens, era un auténtico genio: no sólo descubrió los elementos silicio, torio, cerio y selenio, sino que a él debemos los términos proteína, catálisis, isómero, polímero, alótropo, así como la distinción entre compuestos orgánicos e inorgánicos y muchos logros más.
Jons Jacob Berzelius
Jöns Jacob Berzelius (1779-1848).
Berzelius, que fue Secretario de la Real Academia Sueca de las Ciencias durante cuarenta años, desde 1808 hasta 1848, leía prácticamente todos los artículos de Química publicados en Europa, con lo que se había topado con referencias a estas reacciones con “compuesto invitado” en artículos de Kirchhoff, Döbereiner, Thénard o Humphry Davy. Por razones que desconozco parece haberse dejado un artículo sin leer –o no comprendió su importancia–, publicado en 1806 por dos científicos franceses… pero de ese artículo hablaremos después.
Tal vez lo que disparó el interés de Berzelius fue un experimento realizado por uno de sus propios alumnos, Eilhard Mitscherlich, que estaba estudiando la transformación de alcohol en éter. Mitscherlich había observado que, si se añadía ácido sulfúrico a la reacción, ésta se producía mucho más deprisa; además, sí, lo has adivinado — al terminar, el ácido seguía ahí como si no hubiera roto un plato, sin consumirse como el alcohol. Berzelius se dio cuenta, por tanto, de que tantos “casos raros” no podían ser simplemente eso, sino que había una propiedad química común a todos ellos.
Explicado con una analogía estúpida y absurda –mía , no de Berzelius, claro–, la cosa es algo así. Imagina que invitas a una serie de personas a una fiesta para intentar emparejarlas (no me preguntes por qué quieres formar parejas). Sin embargo, la fiesta no tiene mucho éxito y casi todo el mundo charla un poco pero cada uno acaba yéndose solo a su casa. Se forma alguna pareja, pero nada espectacular. Pero, en otra ocasión, montas una segunda fiesta y, en este caso, invitas a tu primo Eulalio. Y esa noche, ¡sorpresa!, con la presencia de Eulalio, todo cambia. La gente empieza a hablar y reírse rápidamente, forman relaciones de forma impetuosa y todos se vuelven a casa emparejados. Todos, menos Eulalio, que termina tan solo como empezó la fiesta.
También se daba el caso contrario: montas una fiesta y unas cuantas personas acaban emparejadas. Sin embargo, si a la fiesta invitas a tu prima Bruna, la cosa cambia. La gente apenas habla, hay un ambiente raro, y al final todos se vuelven a casa solos –incluida Bruna, por supuesto–. Y lo más interesante de todo, desde la Química de esta época, incluida la del propio Berzelius: nadie tenía ni idea de cuál era la razón, ni cuál era la influencia de Bruna o Eulalio –o las sustancias que fuesen– sobre la reacción. ¿Por qué la presencia de platino al producir ácido sulfúrico aceleraba la producción del ácido? ¿Cómo se producía esa aceleración? Si el platino no formaba parte de ella, ya que al final se quedaba como al principio, ¿qué había hecho exactamente?
En 1836, Berzelius publicó sus conclusiones sobre todos estos procesos. El sueco los denominó procesos catalíticos y al fenómeno catálisis, del griego καταλύειν, “desatar”. Las sustancias que actuaban de este modo –Eulalia, Bruno, el platino, lo que fuese– eran entonces catalizadores, y su efecto era el de desencadenar, acelerar o ralentizar una reacción química sin ser ellos mismos modificados en modo alguno durante la reacción. En palabras de Berzelius,

La fuerza catalítica parece consistir en la capacidad de determinadas sustancias para activar las afinidades potenciales a esta temperatura por su mera presencia y afinidad, y como resultado, los elementos se estructuran de una manera diferente de modo que se produce una mayor neutralización electroquímica.

Berzelius no sabía cuál era la naturaleza del mecanismo catalítico: su definición era una simple descripción de lo que se notaba macroscópicamente, y era consciente de que hacía falta avanzar para lograr una explicación racional y empírica de lo que pasaba microscópicamente. Sin embargo, otro químico, el alemán Justus von Liebig, cuya reputación era muy grande por sus trabajos en Química orgánica, era de diferente opinión. Von Liebig pensaba que lo que sucedía era que una sustancia se descomponía por ser inestable y, al hacerlo, inducía a otras sustancias a descomponerse a su vez, como si la imitasen, de modo que se desencadenaba la reacción que, de otro modo, no se hubiera producido. No sé cómo explicaba von Liebig los catalizadores negativos, estilo prima Bruna, ni por qué su explicación fue aceptada de manera generalizada frente a la de Berzelius.
Sí sabemos que von Liebig era un científico extraordinario, y sus aportaciones a la Química orgánica, fundamentales. Berzelius y él estaban en desacuerdo en muchas cosas, y la verdad es que en la mayoría de los casos el joven alemán tenía razón; Berzelius pensaba, por ejemplo, que había una diferencia esencial entre los procesos orgánicos e inorgánicos, y que nunca sería posible formar sustancias orgánicas en un laboratorio, mientras que von Liebig pensaba que no existía tal diferencia esencial, sino que sería posible formar sustancias orgánicas artificialmente. Con el paso de los años, las ideas de von Liebig –más avanzadas, en general, que las de Berzelius– fueron ganando aceptación, y su reputación creció a la par que decrecía la de Berzelius.
Justus von Liebig
Justus von Liebig (1803-1873).
Sin embargo, en este caso particular, Berzelius tenía razón y von Liebig no, y tal vez ese factor hizo que venciese el concepto de von Liebig frente al del sueco. La definición de Berzelius era menos concreta y ambiciosa que la del alemán: se limitaba a describir el fenómeno. Sin embargo, von Liebig daba una explicación más concreta –la descomposición que induce otras descomposiciones–, pero errónea, aunque no se supiese entonces. Y es mejor no tener una explicación de un fenómeno que tener una mala explicación, ya que en el primer caso sigues buscando, pero en el segundo tal vez no, de modo que la cosa se estanque con una explicación incorrecta. Y eso fue exactamente lo que pasó en el caso de la catálisis: la explicación errónea de von Liebig ganó, y las cosas se quedaron prácticamente paradas durante mucho tiempo.
Berzelius era consciente de esto, y no le gustaba un pelo la explicación de von Liebig:

Obtenemos así una explicación ficticia mediante la que creemos haber entendido lo que todavía no podemos comprender, y de este modo la atención se desvía de este asunto aún por explicar, con lo que permanece inexplicado más tiempo. Me gustaría repetir una vez más lo que ya he dicho a menudo en el pasado: que en la Ciencia, las explicaciones ficticias y prematuras llevan invariablemente a desviarse del camino, y que el único método de obtener conocimiento positivo es dejar lo incomprensible sin explicar hasta que, tarde o temprano, la explicación aparezca por sí misma a partir de hechos tan obvios que sea muy difícil que aparezcan opiniones divididas sobre ellos.

El sueco tenía razón: aún no era posible explicar correctamente los fenómenos catalíticos, porque hacía falta desarrollar conceptos que áun no existían. El concepto clave era tan obvio que parece una tontería que no existiese aún, pero nadie había formulado aún una definición rigurosa de él: se trataba de la velocidad de reacción, una magnitud que midiese la rapidez con la que se produce una reacción química y algo esencial para explicar la catálisis, que no era sino la modificación de esa velocidad de reacción mediante la presencia de determinadas sustancias.
El primero en atacar el problema fue el alemán Ludwig Ferdinand Wilhelmy, que estudió de manera cuantitativa la velocidad con la que se producía la conversión de sacarosa en fructosa y glucosa modificando diversos factores: aumentando la concentración de sacarosa, cambiando la temperatura y añadiendo un ácido como catalizador. Wilhelmy fue capaz de construir una ecuación que describía la velocidad de la reacción en función de estos factores y, con ello, dio el primer paso hacia una verdadera cinética química, sin la que la catálisis era algo inexplicable, como había predicho Berzelius.
A pesar de que Wilhelmy incluyó la concentración de ácido en la velocidad de reacción de descomposición de la sacarosa, no mencionó la palabra catalizador ni trató de explicar la razón de que el ácido acelerase la reacción sin, aparentemente, tomar parte en ella. Su artículo sobre la velocidad de reacción, por cierto, no despertó demasiado interés al principio: harían falta décadas para comprender su importancia. Para ello haría falta la llegada de nuestro galardonado de hoy – Wilhelm Ostwald.
Wilhelm Ostwald
Wilhelm Ostwald (1853-1932).
Ostwald nació en 1853 en Riga –en la actual Letonia, aunque por entonces era parte del Imperio Ruso–, aunque sus padres eran prusianos. Sus padres no tenían formación universitaria, pero el joven Ostwald se graduó en la Universidad de Tartu, en Estonia, y obtuvo su doctorado en la misma Universidad en 1878. Tras pasar su juventud en las orillas del Báltico, enseñando durante unos años en Tartu y en el Instituto Politécnico de Riga, en 1887 se mudó a Leipzig, donde permanecería hasta su muerte.
El principal interés de Ostwald era la Química física, de la que hemos hablado ya varias veces en esta serie, ya que el final del siglo XIX fue el momento en el que nació como disciplina. De hecho, se considera a Wilhelm Ostwald como uno de los tres padres de la Química física; los otros dos ya son viejos conocidos nuestros, Svante Arrhenius y Jacobus Henricus van ‘t Hoff. Como ya mencionamos al hablar de Arrhenius, la relación entre los tres científicos era excelente, y colaboraron juntos en diversas ocasiones. De hecho, aunque no dudo de la capacidad de Ostwald, sospecho que su Nobel se debe más a la influencia de Arrhenius que a ningún otro factor, ya que el sueco tenía un gran poder en la organización por entonces.
Wilhelm Ostwald y Svante Arrhenius
Svante Arrhenius (izquierda) y Wilhelm Ostwald (derecha).
Ostwald estaba particularmente interesado en los ácidos y bases y la teoría de Arrhenius para explicar su naturaleza y comportamiento mediante la disociación en iones libres –algo de lo que ya hablamos en el artículo dedicado a su Nobel–. Era ya conocido el hecho de que había ácidos más fuertes –como el sulfúrico– y otros más débiles –como el cítrico–, pero Ostwald quería obtener un modo de medir cuantitativamente esa fuerza. Para ello realizó diversos experimentos con distintos ácidos en reacciones en las que tomaban parte, entre ellas algunas en las que actuaban como catalizadores.
Cuanto más fuerte era un ácido, independientemente de cuál fuera en concreto el ácido, más intensa parecía ser su acción como catalizador. De modo que a Ostwald se le ocurrió que sería posible cuantificar la fuerza de los ácidos midiendo la velocidad con la que se producían las reacciones catalizadas por ellos, entre otros métodos. Para ello hacía falta el concepto de velocidad de reacción de Wilhelmy, pero ampliado y detallado más allá de donde había llegado él. De modo que Ostwald se dedicó a pulir y ampliar el concepto de velocidad de reacción definido por el alemán hasta crear una auténtica cinética química, es decir, un aparato conceptual capaz de describir cuantitativamente y en detalle todos los aspectos relacionados con el ritmo con el que se producen las reacciones.
Al aplicar estos conceptos a multitud de reacciones químicas, y de manera “lateral”, ya que su interés inicial había sido el estudio de ácidos y bases, Ostwald se dio cuenta de que las ideas de Justus von Liebig, aunque hubieran derrotado a las de Berzelius, no eran correctas. Von Liebig sostenía que las reacciones catalizadas se acababan produciendo porque la descomposición de una sustancia inducía la descomposición de otras, de modo que sin la descomposición de la primera no se producía la de las otras. Sin embargo, Ostwald había medido la velocidad de reacción de muchos procesos diferentes de manera muy meticulosa, y se había dado cuenta de algo interesante.
Wilhelm Ostwald en su laboratorio
Wilhelm Ostwald en el laboratorio.
No existía ni una sola reacción en la que el catalizador desencadenase el proceso. Dicho de otro modo, si la reacción no se producía, la presencia de un catalizador no hacía que se produjese — no cambiaba nada, ni se inducía la descomposición de nadie. Lo que sí sucedía era que una reacción que ya se estaba produciendo sin la presencia del catalizador se produjera más rápidamente. Pero entonces ¿de dónde había sacado von Liebig la idea del desencadenamiento de la reacción?
La razón era simple una vez las medidas se hacían con el suficiente cuidado: había algunas reacciones químicas tan lentas que era casi imposible percibir que se estaban produciendo. Al añadir el catalizador, la reacción se aceleraba lo suficiente para ser perceptible con facilidad, con lo que a primera vista el catalizador era quien la desencadenaba. Pero claro, la realidad era otra bien distinta: el catalizador simplemente la aceleraba hasta que podíamos percibirla, ¡la reacción ya estaba produciéndose antes!
Jöns Jacob Berzelius, con su definición de catálisis más modesta y limitada conscientemente, tenía razón, y von Liebig había metido la pata. Y habían hecho falta unos 50 años para que nos diésemos cuenta, gracias a la introducción del concepto de velocidad de reacción creado por Wilhelmy y perfeccionado por Ostwald. Se trató casi del cumplimiento de la profecía de Berzelius cuando decía que era mejor esperar a que las cosas estuvieran claras antes de dar una explicación errónea y aventurada.
Wilhelm Ostwald y Jacobus Henricus van 't Hoff
Jacobus Henricus van ‘t Hoff (izquierda) y Wilhelm Ostwald (derecha).
La nueva definición de catalizador de Ostwald, basada en la velocidad de reacción, era parecida a la de Berzelius: un catalizador es una sustancia que produce un aumento o disminución de la velocidad de reacción y que al terminar ésta permanece como estaba al principio. Sin embargo, el carácter cuantitativo de la definición de Ostwald permitió a los científicos avanzar en la cinética química y el estudio de los procesos catalíticos de un modo que había sido imposible antes.
Pero esto no resolvía el principal problema: ¿qué hacía un catalizador para acelerar o ralentizar una reacción, si parecía no tomar parte en ella? Curiosamente, para responder a esa pregunta no debemos continuar avanzando en la historia, sino que debemos retroceder.
Como recordarás, Berzelius había hecho acopio de multitud de publicaciones sobre procesos que podrían ser catalíticos para extraer conclusiones sobre ellos. Por alguna razón, entre esos estudios no estaba uno realizado por dos franceses, Charles Bernard Desormes y su yerno Nicolas Clemént. Estos dos científicos franceses son conocidos fundamentalmente porque lograron determinar experimentalmente el valor de la constante adiabática del aire, pero en 1806 estos dos individuos postularon una posible explicación de los fenómenos catalíticos aplicados a un caso concreto. Berzelius no conocía estas conclusiones, o no las consideró importantes, pero tras la base establecida por Ostwald fue posible realizar experimentos que demostraron que Desormes y Clément tenían razón: en 1806 habían conseguido lo que ni von Liebig ni el propio Berzelius habían podido lograr — explicar la naturaleza de los procesos catalíticos, lo mismo que voy a intentar hacer yo aquí pero de un modo bastante más vulgar.
No he podido encontrar, por cierto, qué experimentos concretos demostraron la existencia de las reacciones intermedias por primera vez; en el discurso del propio Ostwald en 1909, el prusiano afirma que la explicación de Clément y Desormes parece la más sólida, pero no parece haber sido demostrada por entonces más allá de toda duda.
La clave de la cuestión según los dos franceses estaba en que, aunque la reacción pareciese la misma con el catalizador o sin él, salvo en la velocidad a la que se producía, la reacción no era igual. Aunque el catalizador permaneciese igual que al principio, como si hubiese sido un mero espectador de todo el proceso, el catalizador sí formaba parte de la reacción. ¿Cómo era posible entonces que todo empezase y acabase igual pero que todo fuese más rápido o lento? La razón, de acuerdo con Clemént y Desormes, era que la reacción original se producía por un camino distinto, con reacciones intermedias más favorables que la original. Veámoslo con Eulalio, nuestro primo en la fiesta.
Antes dijimos simplemente que con Eulalio en la fiesta se formaban más parejas, pero nunca nos fijamos exactamente en qué hacía Eulalio. La realidad, aunque fuéramos incapaces de verlo, es que Eulalio se ponía a hablar con alguien, establecía una relación con él y, cuando ambos estaban ya hablando animadamente, Eulalio le presentaba a su interlocutor a otro invitado de la fiesta y lo hacía todo con tal soltura que los otros dos, sin darse cuenta, empezaban a hablar como si se conocieran de toda la vida… ¡y acababan yéndose juntos a casa! Entonces, Eulalio se fijaba en algún otro invitado solitario, se ponía a hablar con él y después le presentaba a otro invitado… y así una y otra vez. Claro, al final Eulalio seguía solo, como al principio, pero no había estado solo todo el tiempo: se había juntado y separado varias veces con unos y otros, acelerando enormemente el proceso por el que llegaban a conocerse y emparejarse los demás.
Tal vez lo veas mejor con un ejemplo pseudo-matemático. Imagina que tenemos dos sustancias, A y B, y queremos que reaccionen para formar AB. Sin embargo, la reacción
A + B → AB
es lentísima. De modo que añadimos a Eulalio –quiero decir, la sustancia E–, que reacciona muy rápidamente con A:
A + E → AE
Pero la sustancia AE, al estar cerca de B, reacciona también rápidamente con ella:
AE + B → AB + E
¡Hemos obtenido AB muy rápidamente! Pero en vez de hacerlo en un paso lento, lo hemos hecho en dos muy rápidos. Si los escribimos juntos y sumamos ambas ecuaciones, de modo que AE aparezca en ambos lados –formándose y descomponiéndose– y podamos descartarlo para ver el resultado neto de la reacción total,
A + E → AE
AE + B → AB + E


A + B + E → AB + E
Tanto al principio como al final vemos E solo, como si no tuviera nada que ver con esto, ¡pero es porque no estamos percibiendo el paso intermedio en el que se forma y luego se descompone AE! Como puedes ver, E sí participa en la reacción, ¡ya lo creo que participa! Lo que pasa es que sufre dos “reacciones contrarias”, de modo que termina igual que empezó.
Lo maravilloso de esto, como dijimos antes, es que es posible acelerar o ralentizar reacciones sin gastar E, ya que siempre lo tenemos ahí al final, listo, como Eulalio, para emparejar a alguien más. Se trata de algo tan útil y, aunque nos costara tanto verlo, tan sencillo, que era inevitable que hiciera su aparición en la química de los seres vivos. Eso es, al fin y al cabo, lo que es una enzima: una proteína que actúa de catalizador de una o varias reacciones en el metabolismo. Por ejemplo, la lactasa cataliza la hidrólisis de la lactosa de la leche (y las personas que no producen lactasa suelen beber leche sin lactosa o no beber leche).
No olvides tampoco que los catalizadores pueden ser positivos –acelerando reacciones– pero también negativos: por ejemplo, es muy común utilizar catalizadores negativos de oxidaciones y putrefacciones en los alimentos envasados, de modo que cambien su composición química más lenta en vez de más rápidamente y de este modo duren más. Así, muchos conservantes son catalizadores negativos. Y es gracias a Wilhelm Ostwald, entre otros, que comprendemos este aspecto de las reacciones químicas y el ritmo al que se producen.
Eso sí, como puedes ver, hay multitud de nombres en la historia de la catálisis, y no tengo claro que Ostwald sea el principal. Si has leído toda la serie hasta ahora, te habrás dado cuenta de que no se me cae la baba con él como con otros científicos ganadores de un Nobel, pero es indudable que era un investigador de primera. El caso es que, si nos ha servido de excusa para pasar un buen rato hablando de estas cosas, bienvenido sea.
No quiero terminar, como siempre, sin dejar aquí el discurso de entrega del Premio Nobel de Química de 1909, pronunciado por el Doctor H. Hildebrand, Presidente de la Real Academia Sueca de las Ciencias el 10 de diciembre de ese mismo año:

Su Majestad, Sus Altezas Reales, damas y caballeros.
La Real Academia de las Ciencias ha decidido otorgar al ex-catedrático de la Universidad de Leipzig y Geheimrat, Wilhelm Ostwald, el Premio Nobel de Química de 1909 en reconocimiento a su trabajo sobre la catálisis y los estudios fundamentales asociados a él y centrados en los equilibrios químicos y las velocidades de reacción.
Ya en la primera mitad del siglo anterior se había observado en ciertos casos que podían inducirse reacciones químicas en sustancias que no parecían tomar parte en la reacción ellas mismas, y que en cualquier caso no sufrían alteraciones de ningún tipo. Esto llevó a Berzelius, en sus famosos informes anuales sobre el progreso de la Química de 1835 a realizar una de sus brillantes y no infrecuentes conclusiones, a partir de las que observaciones aisladas se agrupaban de acuerdo con un criterio común y se introducían nuevos conceptos en la Ciencia. Denominó este fenómeno catálisis. Sin embargo, el concepto de catálisis pronto recibió la oposición de otro bando igualmente eminente, que lo catalogó de inútil, y gradualmente cayó en un descrédito absoluto.
Unos cincuenta años más tarde, Wilhelm Ostwald realizó una serie de estudios para determinar la fuerza relativa de ácidos y bases. Intentó resolver este importantísimo asunto para la Química de diversas maneras, y todas ellas proporcionaron resultados consistentes. Entre otras cosas, descubrió que la velocidad con la que se producen diferentes procesos bajo la acción de ácidos y bases puede emplearse para determinar las fuerzas relativas de los últimos. Realizó multitud de medidas en esta línea, y al hacerlo estableció los cimientos del procedimiento de estudio de las velocidades de reacción, y examinó todos los casos típicos. Desde entonces, la teoría de las velocidades de reacción se ha convertido en algo más y más importante en la Química teórica; sin embargo, estos experimentos también proporcionaron una nueva luz sobre la naturaleza de los procesos catalíticos.
Después de que Arrhenius hubiese formulado su bien conocida teoría de que los ácidos y bases en disolución acuosa se disocian en iones y que su fuerza depende de su conductividad eléctrica o, más correctamente, de su grado de disociación, Ostwald comprobó la validez de esta idea midiendo la conductividad y, con ella, la concentración de los iones hidrógeno e hidroxilo con los ácidos y bases que había empleado en sus experimentos anteriores. Comprobó que la teoría de Arrhenius era correcta en todos los casos que investigó. Su explicación del hecho de que siempre encontrase los mismos valores para la fuerza relativa de ácidos y bases independientemente del método utilizado era que, en todos estos casos, los iones hidrógeno de los ácidos y los hidroxilo de las bases actuaban catalíticamente, y que la fuerza relativa de ácidos y bases estaba determinada únicamente por la concentración de estos iones.
Ostwald decidió, por tanto, realizar un estudio más profundo de los fenómenos catalíticos y extendió su campo de estudio también a otros catalizadores –como eran llamados–. Tras una investigación continua y consistente, logró formular un principio que describía la naturaleza de los catalizadores y que es satisfactoria para el estado actual de nuestro conocimiento, es decir, que la acción catalítica consiste en la modificación, por parte de la sustancia activa, de la velocidad a la que se produce una reacción química, sin que esa sustancia sea parte de los productos formados. La modificación puede ser un aumento, pero también una disminución, del ritmo al que se produce la reacción. Una reacción que de otro modo se produciría a un ritmo muy lento, tal vez necesitando años antes de alcanzar el equilibrio, puede ser acelerada mediante catalizadores hasta que se complete en un tiempo comparativamente corto, en algunos casos en uno o unos pocos minutos, o incluso en menos de un minuto, o viceversamente.
La velocidad de reacción es un parámetro medible y por lo tanto también son medibles todos los parámetros que la afectan. La catálisis, que anteriormente parecía ser un secreto escondido, se ha convertido por tanto en lo que se denomina un problema cinético y es accesible al estudio científico exacto.
El descubrimiento de Ostwald ha sido profusamente explotado. Además del propio Ostwald, un gran número de investigadores eminentes han entrado recientemente en este campo y el progreso es continuo y con cada vez mayor entusiasmo. Los resultados han sido verdaderamente admirables.
La mejor manera de revelar lo significativo de esta nueva idea es mediante el papel importantísimo –mencionado por primera vez por Ostwald– de los procesos catalíticos en todos los campos de la Química. Los procesos catalíticos son algo muy común, especialmente en la síntesis orgánica. Algunos sectores clave de la industria como, por ejemplo, la fabricación de ácido sulfúrico, la base de prácticamente toda la industria química, y la manufactura del añil que ha florecido de tal modo en los últimos diez años, se basan en la acción de catalizadores.
Sin embargo, un factor de incluso mayor peso, tal vez, es el conocimiento de que las denominadas enzimas, de una importancia extraordinaria en los procesos químicos en el interior de los organismos vivos, actúan como catalizadores y por lo tanto las teorías sobre el metabolismo animal y vegetal caen de pleno dentro del campo de la química catalítica. Como un ejemplo, los procesos químicos involucrados en la digestión son catalíticos, y pueden simularse paso a paso empleando catalizadores puramente inorgánicos. Además, la capacidad de varios órganos de transformar nutrientes de la sangre de modo que sean adecuados para las tareas específicas de cada órgano puede explicarse, sin ninguna duda, mediante la existencia de distintos tipos de enzimas dentro del órgano, capaces de realizar acciones catalíticas adaptadas a su propósito particular.
Aparte de esto, es extraño que algunas sustancias como el ácido cianhídrico, el cloruro mercúrico, el sulfuro de hidrógeno y otras que actúan como venenos extremadamente potentes sobre el organismo, también han sido observados neutralizando o “envenenando” catalizadores puramente inorgánicos como, por ejemplo, platino finamente pulverizado. Incluso mediante estas breves referencias debería quedar claro que, con la ayuda de la teoría catalítica de Ostwald, hemos adquirido una nueva manera de atacar complicados problemas en los procesos fisiológicos. Dado que estos procesos están relacionados con la acción enzimática en los organismos vivos, este nuevo campo de investigación es de una importancia para la humanidad que aún no puede ser comprendida completamente.
A pesar de que el Premio Nobel de Química es otorgado al Profesor Ostwald en reconocimiento a su trabajo con los catalizadores, es un hombre a quien el mundo químico debe mucho por otras razones. Mediante la palabra hablada y escrita él, más que tal vez cualquier otro, ha llevado a las teorías modernas a una rápida victoria, y durante varias décadas ha desempeñado un papel de liderazgo en el campo de la Química general. De otras maneras ha ayudado también al avance de la Química mediante su versátil actividad con numerosos descubrimientos y refinamientos en las esferas teórica y experimental.


Para saber más (esp/ing cuando es posible):

Print Friendly

Portal de recursos para la Educación, la Ciencia y la Tecnología.

La edad de la Tierra. Una cuestión de energía. (I)

La edad de la Tierra. Una cuestión de energía. (I)


Creación del hombre. Pintura de Miguel Ángel en la Capilla Sixtina, Vaticano.

Algo que pareció haber resultado evidente incluso en tiempos muy primitivos es que o bien el Universo es una creación muy reciente o bien los humanos sólo hemos existido durante una muy pequeña fracción en la historia del universo. Ello es lógico, pues la especie humana ha ido mejorando de forma tan rápida en conocimientos y tecnología que si la gente hubiera estado desde hace mucho tiempo, nuestra especie presentaría avances mucho mayores en ciencia y tecnología, o tal vez, hubiéramos desatado una destrucción impresionante del hábitat. De esta forma la historia de la humanidad debió tener un principio y la forma en que llegamos aquí ha sido, pues, un enigma que nos ha acompañado durante toda nuestra historia. Innumerables son las teorías que planteó el hombre desde sus inicios como cazador-recolector para responder a la pregunta; los mitos son muchísimos y, ¿para qué negarlo?, las teorías científicas también.

James Ussher, por Sir Peter Lelly

Por ejemplo, según el libro judío del Génesis, Dios hizo todo lo que existe en seis días para, finalmente, hacer un par de personas: Adán y Eva. Teniendo en cuenta las historias que desde entonces son narradas en la Biblia hasta nuestros días, el obispo James Ussher (1581-1656), primado de Irlanda desde 1625 hasta 1656, situó el origen del Universo con una precisión extraordinaria: a las 9 de la mañana del 27 de octubre del 4004 AEC. Realmente un cálculo con una precisión bárbara, y precisamente esta precisión fue la que le dio verosimilitud a la hipótesis de Ussher dentro de la comunidad religiosa.
Pensándolo bien, seis mil años de historia humana no están nada mal, pero las investigaciones actuales dan al Universo una edad de trece mil setecientos millones (13.700.000.000) de años. Digamos, para no levantar asperezas, un poquito diferente a la propuesta por la Biblia según Ussher. Seguramente la fecha dada por este dedicado obispo irlandés demandó un gran trabajo de investigación sobre las Escrituras, pero la cifra actualmente aceptada realmente necesitó de mucho, pero mucho, mucho más trabajo. Hoy vamos a hablar de ello.

La escuela de Aristóteles, en la Grecia Clásica enseñaba, que los cielos son invariables. Debido a su invariabilidad, como corolario, deberían ser eternos. Pero la aparición de las novas en el cielo hablaba de sistemas estelares en constante cambio, y tal posibilidad de variación no llevaba a más sino a pensar en que existió un principio. Hablar del principio del Universo hubiera sido una tarea imposible si no se abordaba el problema desde un punto más cercano: nuestro sistema solar.

Y giran, y giran, y giran… ¿Hasta cuando? ¡Pues para siempre!

Al hablar del Sistema Solar, indudablemente tampoco podemos hablar de invariabilidad. Es decir: todos los planetas están en movimiento, incluso el Sol (que rota sobre su eje), en los planetas se presentan grandes vientos atmosféricos, y hay también colisiones titánicas como la famosa colisión SL-9 de un cometa con Júpiter. Sin embargo, a grandes rasgos, los movimientos dentro del sistema planetario son periódicos, y al parecer podrían permanecer de esa forma indefinidamente tanto si miramos al pasado como si miramos al futuro. Interesante deducción que podemos encontrar en mecánica Celeste, obra maestra de cinco tomos que le debemos al ilustre Marqués de Laplace, de quien hablamos en el artículo anterior. Sin embargo, aunque para la mecánica celeste de Laplace nada impedía que el sistema Solar fuese eterno, el concepto de eternidad, es decir, un infinito en el tiempo, resulta embarazoso en el pensamiento humano.

Hermann Von Helmholtz (Algo friki, sinceramente)

Si bien las observaciones del movimiento de los planetas nos pueden llevar a pensar en la factibilidad de la eternidad en el Sistema Solar, otras observaciones nos llevan inevitablemente a suponer lo contrario. Deberían pasar algunos años tras la muerte de Laplace para darnos cuenta de un fenómeno que explica en gran manera nuestra naturaleza. Una teoría desarrollada en la década de 1840-49 habla de la más potente de las leyes que gobiernan al Universo: la conservación de la Energía. Teoría conseguida gracias al trabajo de muchos hombres, pero formalizada elegantemente en 1847 por el físico alemán Hermann Ludwig Ferdinand von Helmholtz (1821-1894). La energía, en términos vulgares, puede interpretarse como lo que es necesario brindar a un cuerpo para hacerlo mover. El teorema de la conservación de la energía dice, pues, que ésta, en cualquier proceso, no se pierde ni se crea. Es decir, si queremos que un cuerpo se mueva, es necesaria una “fuente” de energía. Con fuente me quiero referir a “reservorio”. Es decir, un lugar del que se pueda extraer fácilmente energía aunque, por supuesto, ésta debe venir de algún lado. Venir, no crearse. Ahondaremos en este problema más adelante.
Al observar los cielos nos topamos con la “fuente” de energía más importante del Sistema Solar: el Sol. A diario es monstruosa la energía que desde él, a un ritmo descomunal, se transfiere al espacio en forma de luz. Energía de la cual llega una parte minúscula a la Tierra. A pesar de ser tan poca, es muchísimo mayor que la que necesitamos y, según lo que conocemos, con respecto a la energía total que sale del Sol, la que llega a la Tierra es prácticamente despreciable. Si miramos al futuro, a no ser que supongamos una reserva infinita de energía, podemos pensar que en algún momento, tarde o temprano, nuestro Sol se quedará sin reservas y, en pocas palabras, se apagará. Y si miramos al pasado, no hay más que pensar que el Sol debió nacer con una reserva de energía mucho mayor a la que tiene en estos momentos.
La energía es algo de lo cual nuestra sociedad se ha preocupado enormemente. Actualmente utilizamos combustibles fósiles, muchos de nosotros sin darnos cuenta de que tal energía fue almacenada hace mucho tiempo por animales y plantas que la obtuvieron del Sol.[1] La descomunal energía de los huracanes, capaz de levantar casas y árboles (y, por lo tanto, la energía del viento), asimismo proviene del calor suministrado por el Sol. De esta forma, la mayoría de la energía que utilizamos proviene de nuestro astro rey.

Aunque no lo creas, hubo gente que pensaba que el Sol estaba hecho de carbón incandescente. Por supuesto, no es así.

Helmholtz se dio cuenta de esta cuestión y se preguntó cuál sería la fuente de esa cantidad inmensa de energía que el Sol irradia de una forma pródiga. En la época de Helmholtz, la principal fuente de energía conocida era el carbón. En este caso, la energía obtenida se logra a expensas de la energía que, antes de la combustión, mantenía ligados a los átomos del carbón. De manera simplificada, los átomos libres poseen menor energía almacenada que los átomos ligados. El exceso de energía que ya no se emplea en los enlaces es emitido, entonces, en forma de luz y calor. Helmholtz conocía la cantidad de energía que típicamente se obtenía al quemar cierta cantidad de carbón y, teniendo las mediciones de la masa solar, vio que si éste se componía, por ejemplo, de carbón, el fuego resultante mantendría la actividad solar únicamente por unos cuantos miles de años. Estaba claro que el Sol estaba lejos de interrumpir su actividad, y para justificar aunque sea la fecha de Ussher era necesario buscar la fuente de energía en otra parte.

No, no fue una bomba. No fue Superman. ¡Fue un cometa!

Otra fuente de energía diferente a los combustibles se había observado ya desde épocas inmemorables, no en el Sol sino también en la Tierra: el campo gravitatorio. Sabemos que un cuerpo que cae sobre la Tierra puede acumular una gran cantidad de energía, como por ejemplo ocurrió con el cometa caído en la región soviética de Tunguska en 1908, que al caer en la superficie tenía una energía estimada en la de varias bombas atómicas. Así puede verse la gran cantidad de energía que un campo gravitacional puede brindar.
Si tal es la energía de una roca cayendo a un cuerpo como la Tierra, debería ser sobremanera mayor la energía que proporcionaría la misma roca cayendo a un cuerpo con un millón de veces más fuerza, o sea, al Sol. Sin embargo, a pesar de que los meteoritos les caigan mal a muchos, no es justo proponerlos como víctimas para proveer al Sol de energía para poder broncearnos en Marbella.
Por otro lado, indudablemente el Sol no es víctima del bombardeo de meteoritos, pues son pocos los que vemos acercarse hacia él y la mayoría de los que lo hacen lo hacen debido a que describen una órbita excéntrica y no llegan a tocar siquiera la superficie del astro rey. Helmholtz conocía el gran potencial que tiene el campo gravitatorio, pero no creyó necesario hacer víctimas a los meteoritos. La teoría que proporcionaría una explicación que le pareció suficiente fue mostrada por Louis Joseph Gay-Lussac (1778-1850) referenciando trabajos de su compatriota Jacques Charles (1746-1823). Básicamente estos trabajos muestran que todo gas, al contraerse, aumenta su temperatura. Si te interesa profundizar en esta ley, te recomiendo o bien Wikipedia o mejor aún, la serie de termodinámica de Pedro. ¡Pero te entretengas mucho con eso y me dejes tirado el artículo, que se pone bueno!
Sigamos. Tomando la hipótesis nebular de Laplace y la ley de Charles-Gay-Lussac, Helmholtz se dio cuenta de que la contracción de la nube de gas hasta una masa esférica como lo es el Sol, por efectos de la fuerza de gravedad, sería suficiente para hacerlo llegar a temperaturas de incandescencia. Siguiendo con sus cálculos, pudo demostrar que en los 6000 años de historia desde los que tenemos referencia de civilización, emitiendo la cantidad de energía que emite, el Sol se habría contraído apenas unos 900 kilómetros, lo que, con respecto a un diámetro de 1.390.000 km, pueden considerarse insignificantes. En los 250 años de historia de la astronomía con telescopio hasta los tiempos de Helmholtz equivaldría a sólo 37 kilómetros, cantidad imperceptible incluso para los mejores telescopios de la época. De esta forma Helmholtz parecía responder la pregunta de la fuente de energía del Sol elegantemente. Por si acaso andas devanándote los sesos preguntándote “¿de dónde sale esa energía?” es fácil decirlo: del campo gravitatorio del Sol, que es quien lo hace contraerse… es como pensar en meteoritos cayendo en su superficie, pero de una manera no tan catastrófica.
Teniendo la velocidad de contracción que necesita el Sol para emitir la energía que emite, podemos extrapolar las cuentas mirando hacia el pasado. De esta forma, la velocidad de contracción de la nebulosa, según los cálculos De Helmholtz, debió ser tan lenta que al retroceder en el tiempo, la nube debió ocupar un tamaño como la órbita de la Tierra (momento en que, según la teoría de Laplace, se habría separado un anillo que dio origen a nuestro planeta) hace unos dieciocho millones de años (!). De esta forma se dio la primera aproximación, por argumentos científicos, a la edad de nuestro planeta.

¡Mamá! Ese físico dice que estas erosiones se hicieron ayer

Esta primera edad seguro que en tiempos de Ussher hubiera pecado por excesiva, pero el siglo XVIII fue un siglo de revolución de la ciencia, y no solamente en la física, sino en casi todas las áreas de conocimiento. Por ejemplo, en 1785, el geólogo escocés James Hutton (1726-1797), en su obra titulada Theory of the Earth (Teoría de la Tierra), estudió los cambios lentos que experimentaba la superficie terrestre, entre ellos el depósito de sedimentos y la erosión de las rocas. Pensando en que estos fenómenos se producían en el pasado al mismo ritmo que en la actualidad, pudo concluir que para dar origen a los espesos sedimentos y a la erosión observada en nuestro planeta, eran necesarios periodos de no sólo de millones, sino de hasta de cientos de millones de años. De esta forma, desde la geología, Hutton le dio a la Tierra una cota inferior a su edad que era por lo menos unos cuantos cientos de millones de años, cifra extremadamente superior a la propuesta posteriormente por Helmholtz desde la física.
Los trabajos de Hutton, en primera instancia, no recibieron un apoyo considerable. Pero la comunidad geológica no tardó en darse cuenta de la validez de tales argumentos. Éstas y otras tantas ideas que reforzaron la cifra fueron expuestas entre 1830 y 1833, por otro geólogo escocés, Charles Lyell (1797-1875), en “Principles of Geology (Principios de Geología), donde se exponían además plegamientos y otros cambios graduales de la Tierra. Estos fenómenos también sugerían una edad similar a la propuesta por Hutton. Unos meros 18.000.000 años parecían insuficientes para que la Tierra fuera como lo es actualmente.

Las monas no producen humanos… por lo menos no en tan poquito tiempo

Por otro lado, los biólogos, en el siglo XIX, de la mano del naturalista inglés Charles Darwin (1809-1882) en su famosísimo “Origen de las Especies”, sostenía que la fisionomía actual de los seres vivos era producto de una evolución propiciada por lo que él llamó selección natural. De esta forma, eran necesarios cambios lentos en los seres vivos durante varios millones de años para llegar a la diversidad actual, así como para las miles de especies de las que daban cuenta los yacimientos de fósiles. Para los biólogos, la cifra de Helmholz, de la misma forma, resultó también insuficiente. Las teorías de la biología y la geología no chocaban para nada con la física y podían considerarse muy válidas. ¿Cómo pudo superarse este inconveniente? ¿Cómo descubrimos el combustible del Sol? ¿Cómo dimos una cifra de la edad del sistema solar? Aguarden, he dejado, como siempre, lo mejor para la segunda parte. ¡No se la pierdan!
Nos vemos en el próximo artículo.

  1. Como reserva de energía, los combustibles fósiles son “fuentes” de ésta, en el sentido en el que hablamos en el artículo. []

Portal de recursos para la Educación, la Ciencia y la Tecnología.

[Mecánica Clásica I] Fuerza

[Mecánica Clásica I] Fuerza

Puedes suscribirte a El Tamiz a través de Twitter (@ElTamiz) por correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

En los tres primeros artículos del bloque introductorio sobre Mecánica hemos establecido ya unas bases de Cinemática, es decir, del estudio del movimiento sin preocuparnos de sus causas: hemos hablado de sistemas de referencia, coordenadas y posición, de la velocidad y de la aceleración. Al terminar aquel artículo, planteamos un desafío que nos permitiría enlazar con la entrada de hoy para introducir un concepto nuevo y fundamental. De manera que, antes de nada más, detengámonos en la respuesta a ese desafío, ya que mediante él nos introduciremos en las procelosas aguas de la hermana de la Cinemática, la Dinámica, es decir, el estudio de las causas del movimiento.

Solución al Desafío 3 – Diferencia entre velocidad y aceleración
En el desafío preguntábamos qué es necesario hacer para que un objeto que se mueve a 20 m/s en una determinada dirección siga haciéndolo al cabo de unos minutos, y qué es necesario hacer para que se mueva a 30 m/s dentro de unos minutos. El objetivo, como decíamos entonces, no era llegar a una respuesta idónea, sino pensar sobre el asunto para preparar la mente para el concepto de hoy.
Respecto a la primera pregunta, la respuesta es que no hay que hacer nada. Hablaremos mucho más en detalle sobre esto en el futuro, pero dado que deseamos que las cosas sigan como hasta ahora, no hace falta realizar ninguna acción; si dejamos las cosas como están, el objeto seguirá moviéndose a 20 m/s como antes.
Pero, ¡ah!, el segundo caso es diferente. Si queremos que el objeto modifique su velocidad de 20 a 30 m/s, es decir, queremos que tenga aceleración, entonces hace falta que tomemos cartas en el asunto. ¿Qué debemos hacer? Hombre, podemos hacer muchas cosas: podemos empujar el objeto, tirar de él, utilizar un motor o una vela, lo que sea… pero debemos realizar una acción sobre él para conseguir que su velocidad cambie.
Y ésa es la diferencia fundamental entre velocidad y aceleración: aunque ambas miden la variación de algo en el tiempo, y sus definiciones se parezcan mucho, una de ellas requiere de una acción sobre el objeto para existir (la aceleración), y la otra no requiere de nada para existir (la velocidad). Dicho de otro modo, toda aceleración es la consecuencia de algo, pero la velocidad no requiere de una causa. Pero, como digo, hablaremos de esto en bastante más profundidad, de modo que no te agobies si no lo entiendes aún: esto era sólo una preparación.

Fuerza como causa de los cambios de movimiento

Esta diferencia fundamental entre velocidad y aceleración es la que exige la introducción de un concepto nuevo: si la aceleración requiere de una causa, ¿cuál es esa causa? El concepto moderno fue definido nada más y nada menos que por Sir Isaac Newton, uno de los mayores genios de la historia de la Física. Lo creas o no, dar una definición rigurosa de lo que es la fuerza no es fácil, pero sí lo es tener una idea de lo que significa. En este caso, nuestra intuición es una buena aliada porque, en Física, fuerza significa más o menos lo que piensas que significa. Pero eso no quiere decir que no haya detalles pejigueros.

Lo primero que quiero que tengas claro es la necesidad de existencia de algo que origine la aceleración, y que ese algo es la fuerza. Incidiremos en esto de nuevo varias veces, pero no está mal tener ya una definición:

La fuerza es la causa de los cambios en la velocidad de los cuerpos.

Esta idea de fuerza es, como digo, de Newton. Antes del nacimiento de la Mecánica moderna con Galileo y él, la idea era diferente, errónea pero muy intuitiva. Tan intuitiva es la idea anterior de fuerza que quiero hablar sobre ella aquí, simplemente para que tengas claro que no es una idea correcta a pesar de lo tentadora que es.
Este concepto primitivo de fuerza fue establecido por Aristóteles: él consideraba que los cuerpos tendían a una posición natural dependiendo de su naturaleza, y que para hacer que se desplazasen de esa posición natural hacía falta, básicamente, empujarlos — una fuerza. Sin fuerza, el cuerpo volvía a su posición natural o se detenía. En nuestra cabeza –al menos en la mía– esa idea de fuerza encaja perfectamente; si voy por la autopista con mi coche y lo dejo en punto muerto, es decir, el motor deja de hacer una fuerza hacia delante sobre él, mi coche va frenando hasta pararse. Si quiero que mi coche se mueva con velocidad constante, hace falta que siga pisando el acelerador para que el motor lo empuje, ya que –a la aristotélica– lo natural es que mi coche se pare.
Dicho de otro modo, para Aristóteles la fuerza es la causa del movimiento, mientras que tras Galileo y Newton la fuerza es la causa de los cambios de movimiento. Para el primero no hay velocidad sin fuerza, mientras que para el segundo no hay cambio de velocidad sin fuerza, es decir, no hay aceleración. Esta idea es central a la dinámica moderna: un cuerpo aislado, sin interaccionar con ningún otro, nunca modificaría su velocidad, y de ello hablaremos repetidamente en esta entrada y las siguientes.
Ya hemos hablado de este cambio de paradigma en El Tamiz al hacerlo sobre Galileo Galilei. El divino italiano estableció un principio físico, el principio de inercia, que sería una de las bases de la Dinámica de Isaac Newton, que creó un aparato teórico como nadie ha creado antes o después de él para explicar el movimiento de los cuerpos a partir de sus causas, es decir, una auténtica teoría de la Dinámica, que a partir de él se convierte en el estudio de la fuerza y sus consecuencias físicas.
Como puedes ver, este modo de llegar al concepto de fuerza lo hace a partir de sus consecuencias: algo modifica el estado de movimiento de las cosas, y a ese algo lo llamamos fuerza. La Dinámica no se preocupa de la naturaleza de esas fuerzas, de qué las causa ni nada parecido, ya que lo mismo da — el objetivo de esta disciplina es describir el movimiento a partir de sus causas, de modo que no se preocupa del origen de esas causas, pues todas las fuerzas, sea cual sea su origen, se comportan igual. Esto no quiere decir que aquí, en unos párrafos, hablemos de cuáles son las fuerzas fundamentales y en qué se distinguen, pero no entraremos en ello en detalle en este bloque.

Los principios de la dinámica

Como digo, el principio de inercia de Galileo se convirtió en uno de los tres pilares de la dinámica newtoniana, los denominados principios de la dinámica o leyes de Newton. En el magnum opus de Newton, su Philosophiae Naturalis Principia Mathematica (Principios matemáticos de filosofía natural), Newton enuncia estos tres principios extraordinarios con los que describir la naturaleza de la fuerza y su relación con el movimiento.
Estos tres principios físicos son de una sencillez apabullante y una precisión maravillosa. A pesar de su edad, y de que los hemos superado con otros más generales y precisos, describen la Naturaleza con la suficiente precisión para que los empleásemos para llegar a la Luna y seguimos usándolos para casi cualquier aplicación práctica de la dinámica, desde la construcción de puentes al funcionamiento de aviones o proyectiles. Casi cualquier formulación o teoría posterior que puedas imaginar, desde la formulación lagrangiana de la Dinámica a la relatividad de Einstein, es un refinamiento o corrección a la dinámica de Newton.
Galileo y Newton
Galileo Galilei e Isaac Newton.
Por cierto, un par de apuntes sobre este asunto. En primer lugar, en Ciencia es lo mismo decir principio que ley, ya que ambos significan lo mismo. A lo largo de este bloque, sin embargo, verás que raramente hablo de las leyes de Newton, y sí de sus principios, pero se trata de una preferencia personal. La razón es que, en mi cabeza, ley sugiere algo que debe ser cumplido a costa de sufrir algún tipo de castigo, pero que puede elegirse no cumplir… y eso no es lo que significa este concepto científicamente hablando. Por otro lado, principio me gusta mucho más porque pone de manifiesto lo que realmente significa el concepto: una base sobre la que se extraen consecuencias.
Un principio es precisamente eso: una base indemostrable. Se trata de algo que hemos observado que se cumple siempre en la Naturaleza, de modo que podemos partir de ello para obtener conclusiones y crear teorías complejas basadas en ese principio. Por la propia naturaleza de la ciencia, por lo tanto, todo principio es transitorio: ya que se basa en nuestras observaciones, nuevas observaciones que contradigan el principio demostrarán que es falso y debemos abandonarlo, él y todas las consecuencias que extrajimos a partir de él. Así, el producto de la Ciencia es, por así decirlo, caduco y frágil, mientras que esa fragilidad –esa facilidad para abandonar ideas anteriores– es la que da la solidez a la Ciencia como método de adquirir conocimiento.
Aunque dediquemos bastante más tiempo a cada principio por separado, quiero que veas aquí lo que dice cada uno en muy pocas palabras, de modo que tengas una idea global aproximada de lo que significan todos juntos:

  • El primer principio dice que, en ausencia de fuerza, un cuerpo seguirá moviéndose siempre con la misma velocidad. Es el principio de inercia, que establece la fuerza como causa de los cambios de movimiento.
  • El segundo principio dice que, en presencia de fuerza, un cuerpo sufrirá una aceleración que depende de la fuerza y de la masa del propio cuerpo. Es el principio fundamental de la Dinámica, que cuantifica el efecto de la fuerza sobre los cuerpos.
  • El tercer principio dice que las fuerzas siempre se producen a pares, entre dos cuerpos, y que ambas fuerzas son iguales pero de sentido contrario. Es el principio de acción y reacción, que establece el caracter de la fuerza como interacción y constituye un principio de conservación fundamental.

Estos tres principios físicos establecidos por Galileo y Newton son de tal importancia que, aunque parezca tonto, según estudiemos cada uno y antes de explicarlo con mis propias palabras en más detalle, dejaré el enunciado original de Sir Isaac Newton simplemente por el placer de leerlo mientras aprendes Mecánica. Espero que, mientras lo lees, te quites el sombrero si lo llevas.

Primer principio de la Dinámica – Principio de inercia

La primera de las tres “patas” de la dinámica newtoniana fue, como decíamos antes, enunciada por Galileo (y se denomina a veces principio o ley de inercia de Galileo), y allí se establecen las bases del concepto de sistema de referencia inercial del que hablamos en el primer artículo del bloque. A primera vista parece una tontería de principio físico, pero de leerlo Aristóteles, se le hubiera puesto la barba de punta, pues se trata de una auténtica revolución respecto a la dinámica griega clásica.
En palabras de Newton, el primer principio (Ley I para él) dice lo siguiente:

Lex I: Corpus omne perseverare in statu suo quiescendi vel movendi uniformiter in directum, nisi quatenus a viribus impressis cogitur statum illum mutare.

Ley I: Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas ejercidas sobre él.

¿Qué quiere decir esto en palabras llanas? En una primera aproximación, que si sobre un cuerpo no actúa una fuerza neta, el cuerpo se moverá siempre con la misma velocidad, es decir, en un movimiento uniforme que ya describimos hace un par de entradas. Esto es, como puedes ver, una contradicción directa de las ideas aristotélicas sobre la fuerza y el movimiento, ya que la ausencia de fuerza debería originar, de acuerdo con Aristóteles, la ausencia de movimiento o el retorno a la posición de equilibrio. Si quieres un enunciado alternativo menos pomposo que el de Sir Isaac,

Un cuerpo no modifica su velocidad salvo que sobre él actúe una fuerza neta no nula.

Más profundamente, este principio asienta el concepto de fuerza como causante de los cambios en la velocidad, es decir, como causa de esos cambios: en ausencia de causa, no existe cambio en el movimiento. Es este principio el que nos permite establecer sistemas de referencia inerciales –que deben ser aquellos no sometidos a una fuerza que modifique su movimiento, claro– en los que medir todos los movimientos que nos dé la gana.

¡Ojo! Lo que importa es la fuerza total
Es fácil leer el primer principio como si dijera que un cuerpo sigue un movimiento uniforme –sin aceleración– si no actúan fuerzas sobre él. Esta lectura es errónea, y esa afirmación, mentira.
Lo que dice el primer principio es que eso sucede si la fuerza neta es nula, es decir, si la fuerza total sobre el cuerpo es nula. Es perfectamente posible que un cuerpo realice un movimiento uniforme aunque actúen fuerzas sobre él, si esas fuerzas se compensan unas a otras. Aunque posteriormente hablaremos del carácter vectorial de la fuerza y de sus unidades, es fácil ver esto con el propio concepto intuitivo de fuerza.
Una canica en el espacio, lejos de cualquier cuerpo que pueda interaccionar con ella –y, por tanto, sin que actúen fuerzas sobre ella– sigue un movimiento uniforme. Pero también es posible conseguir lo mismo si tú y yo, estimado y paciente lector, empujamos la canica el uno hacia el otro con exactamente la misma fuerza. Si sólo empujo yo, la canica curvaría su trayectoria hacia ti, y si sólo empujas tú, haría lo contrario… pero al empujar los dos igual en sentidos contrarios, la fuerza neta sobre la canica sigue siendo nula y, por lo tanto, la canica sigue un movimiento uniforme.
Volveremos a este error común al hablar del segundo principio de la Dinámica en la siguiente entrada, pero la clave de la cuestión es ésta: para saber qué le sucede a un cuerpo a causa de las fuerzas que actúan sobre él, lo que realmente importa es la fuerza total que sufre el cuerpo y no tanto cada una de las fuerzas individuales.

Para asimilar de verdad el primer principio hace falta desterrar la intuición que nos conduce a la concepción aristotélica, y para eso hay que entender por qué está tan metido en nuestra cabeza lo de que, si dejamos de empujar un cuerpo, éste se detiene. Imagina que tienes una naranja en la mano y que te encuentras en el espacio exterior, lejos de cualquier planeta o estrella. Lo único que existe es la naranja y tú. Si lanzas la naranja hacia delante con una velocidad determinada –digamos que 10 m/s–, la naranja seguirá moviéndose para siempre a 10 m/s en la dirección en la que la lanzaste.
Llegados aquí, Aristóteles tal vez preguntaría: ¿por qué? ¿qué sigue impulsando la naranja una vez deja tu mano? ¿por qué no frena hasta pararse?, a lo que Newton podría responder ¿por qué iba a pararse? ¿qué tira de ella hacia atrás para disminuir su velocidad? Naturalmente, Newton tiene razón, y no Aristóteles, de modo que volvamos al ejemplo del coche en la autopista y preguntémonos, como haría el inglés, ¿por qué se para? ¿qué tira de él hacia atrás para disminuir su velocidad?
La respuesta es que muchas cosas –muchas fuerzas– tienden a detener el coche: el rozamiento con el suelo, la fricción de los ejes y los engranajes en el coche, la resistencia del aire… nuestra mente tiende a pensar que, una vez el motor se apaga, el coche no sufre fuerzas, pero eso es mentira: como Aristóteles, olvidamos que no sólo es fuerza lo que hacemos nosotros. En efecto, el coche se para porque alguien está modificando su estado de movimiento, no porque alguien deje de hacerlo. Una vez más, si nuestro coche se desplazase sin rozamiento con el suelo, ni con el aire, ni con nada de nada, podríamos mantener su velocidad constante simplemente apagando el motor — fuerza nula, velocidad constante.
Desde luego, el primer principio también puede leerse al revés: ya que la fuerza es la causa de los cambios en el movimiento, si no se observan cambios en el movimiento, es que la fuerza total es nula. Dicho de otro modo: si te fijas en un cuerpo y éste sigue un movimiento uniforme, es que no hay una fuerza neta sobre él, y al revés. Es inevitable notar que algo está sometido a una fuerza neta porque no mantendrá su velocidad constante.
Como puedes ver, este principio es puramente cualitativo: es un “o pasa una cosa, o pasa la otra”, pero nos permite tener una definición cualitativa de fuerza que es posible determinar experimentalmente, simplemente observando un cuerpo y el movimiento que realiza. El segundo principio –del que no hablaremos aún hoy– continúa el camino estableciendo una ley cuantitativa, pero eso es otra historia. De ahí que hoy hablemos de la fuerza como causa, y no en más detalle: en el próximo artículo la detallaremos más y hablaremos de sus unidades y su carácter vectorial.

Las fuerzas son interacciones

Aunque, como hemos visto antes, es el tercer principio de la Dinámica el que establece el carácter de la fuerza como una interacción, no quiero dejar de hablar brevemente de esto en el artículo en el que introducimos el concepto de fuerza. Toda fuerza es una interacción entre cuerpos. De hecho, es más común utilizar el término interacción que el de fuerza en física moderna.
¿Qué quiere decir esto? Que para que exista una fuerza –en términos de este artículo, para que exista una causa que modifique el estado de movimiento de un cuerpo– es necesario que exista algún otro cuerpo, ya que toda fuerza es una interacción entre cuerpos. En otras palabras: no es posible sufrir una fuerza sin que la ejerza alguien, y no es posible ejercer una fuerza sin que la sufra alguien. Podrías pensar en la fuerza como un un beso: no existe un beso sin un besador y un besado, y el beso es el vínculo entre ambos mientras se produce, como la fuerza es el vínculo entre los cuerpos mientras se produce. Romántico, ¿no?
La Dinámica no se preocupa por el origen ni la naturaleza de estas interacciones, sino sólo de su efecto sobre el movimiento de los cuerpos, pero ya que hablamos de fuerzas, no está de más mencionar brevemente cuáles son las interacciones fundamentales que conocemos. Suelen dividirse en cuatro tipos, aunque hemos logrado unificar algunos de ellos en modelos comunes:

  • La fuerza gravitatoria es la más débil de todas ellas. Es la fuerza de atracción entre las masas, y la que nos ata a la Tierra a nosotros mismos. Su papel fundamental se nota al mirar el Universo a gran escala: los movimientos celestes se rigen, en principal medida, por la fuerza gravitatoria. Es, junto con la fuerza electromagnética, una de las dos fuerzas más comunes en problemas cotidianos de Dinámica.
  • La fuerza electromagnética es la interacción entre cargas eléctricas. Es muchísimo más intensa que la gravitación, y casi cualquier fuerza que notes en la vida cotidiana es, en realidad, una manifestación de la fuerza electromagnética. Las fuerzas que mantienen los átomos y moléculas unidos, las fuerzas de presión, los tirones, empujones, patadas… todo fuerza electromagnética.
  • La fuerza nuclear débil, por el contrario, no solemos notarla en la vida normal. Es la responsable de ciertas interacciones en el núcleo de los átomos y, aunque de una intensidad tremenda, no llega muy lejos. Es a causa de esta fuerza que se producen cosas como la desintegración beta, y hemos hablado de ella en el pasado, de modo que no voy a repetirme aquí. Hoy en día tenemos un modelo que unifica esta fuerza con la electromagnética, con lo que a veces se habla simplemente de la interacción electrodébil.
  • La fuerza nuclear fuerte es la interacción entre cargas de color y, una vez más, a pesar de ser intensísima, tiene un alcance muy corto con lo que no la notamos con otros objetos — pero, sin ella, no existirían los núcleos de los átomos ni, por lo tanto, nosotros mismos. También hemos hablado de ella en el pasado en El Tamiz.

De las cuatro fuerzas fundamentales, en problemas de Mecánica Clásica aparecen únicamente las dos primeras en sus distintas manifestaciones; sin embargo, creo que no está de más conocer los cuatro grupos fundamentales aunque no los empleemos en este mismo bloque, de ahí este breve epígrafe.

Interacciones fundamentales, relatividad, partículas subatómicas y cuántica
El estudio moderno de las interacciones fundamentales no es objeto de este bloque, naturalmente, pero es lo suficientemente interesante como para hablar brevemente sobre él y dejar un par de enlaces. Desde luego, en época de Galileo y Newton no se conocía la interacción nuclear débil ni nada parecido, de modo que ¿qué ha cambiado desde entonces, y dónde nos encontramos ahora?
La gravedad, el “bicho raro” entre las cuatro fuerzas fundamentales, está descrita por la teoría general de la relatividad de Albert Einstein, dentro de la cual no es considerada una interacción directa entre cuerpos, sino una deformación del propio tejido del Universo por parte de los cuerpos con masa. Aún no hemos logrado una unificación de la gravedad con las otras fuerzas en un modelo único, y es posible que nunca lo hagamos, aunque me parece probable que lo consigamos.
Las otras tres fuerzas están descritas por la teoría cuántica de campos, que las describe estupendamente bien. De acuerdo con esa teoría, las fuerzas entre cuerpos son el resultado del intercambio de partículas virtuales: cada una de las interacciones tiene una partícula que actúa de intermediaria y es intercambiada de este modo, los fotones para la interacción electromagnética, los bosones W y Z para la nuclear débil y los gluones para la nuclear fuerte.
Al tratar la gravedad de modo similar a las otras tres, podemos considerar la existencia de una partícula responsable de esa interacción igual que en las demás, el gravitón, aunque todavía no hemos observado ninguno.

Las fuerzas son vectores

Al igual que sucedía con la posición, la velocidad o la aceleración de un cuerpo, no basta con indicar el valor numérico de una fuerza. Desde luego, importa cuánta fuerza haces sobre algo, pero también es esencial saber hacia dónde la haces. No es lo mismo dar un empujón débil a una silla que darle uno fuerte, pero la silla no va a hacer lo mismo si la empujas verticalmente hacia el suelo (como mucho, se romperá, pero no va a moverse un ápice) que hacerlo horizontalmente hacia la pared, de modo que se arrastre.
A estas alturas del bloque ya sabes lo que esto significa en términos técnicos: la fuerza es una magnitud vectorial. Aunque en este nivel introductorio no hagamos muchos números, esto significa que cualquier fuerza que utilicemos será una flecha, y que si empleamos coordenadas, deberemos expresar la fuerza con esas coordenadas de modo que tengamos toda la información sobre ella. No voy a extenderme más en esto, porque ya hablamos de ello al introducir los vectores en artículos anteriores.
Soy consciente de que, en esta primera entrada, no hemos descrito lo suficiente la fuerza para tener una verdadera comprensión de ella, pero es que hacerlo exige estudiar los otros dos principios y eso requiere tiempo y paciencia. De modo que, como siempre, gracias por tener paciencia y disfrutar del camino juntos, poco a poco. En el próximo artículo, una vez establecida la fuerza como causa de los cambios de movimiento, atacaremos el problema cuantitativamente y definiremos las unidades de esta magnitud fundamental.

Ideas clave

Lo esencial del artículo de hoy, sin lo que no deberías continuar leyendo el bloque, es lo siguiente:

  • La fuerza es la causa de los cambios de velocidad de los cuerpos.
  • La naturaleza de las fuerzas se describe en los tres principios de la Dinámica establecidos por Galileo y Newton.
  • El principio de inercia –o primer principio de la Dinámica– afirma que si sobre un cuerpo no actúa una fuerza neta, el cuerpo realizará un movimiento uniforme.
  • Toda fuerza es la interacción entre dos cuerpos.
  • Conocemos cuatro fuerzas fundamentales en la Naturaleza: la gravitatoria, la electromagnética, la nuclear débil y la nuclear fuerte.
  • La fuerza es una magnitud vectorial, con intensidad pero tambén dirección, como la velocidad o la aceleración.

Hasta la próxima…

El desafío de hoy es, como siempre, para hacerte pensar un rato sobre los conceptos descritos hasta ahora. Recuerda que lo importante no es llegar al resultado “correcto”, sino poner a funcionar las neuronas un rato.

Desafío 4 – ¿Tienes un movimiento uniforme?
La pregunta de hoy es múltiple, y tiene que ver con tu estado de movimiento y las fuerzas que actúan sobre ti ahora mismo.
En primer lugar, ¿qué fuerzas no despreciables actúan sobre ti ahora mismo?
En segundo lugar, ¿te encuentras ahora mismo realizando un movimiento uniforme? ¿por qué sí o por qué no?
En tercer lugar, ¿sería posible considerar una respuesta diferente a la pregunta anterior dependiendo de cuáles fuesen nuestras necesidades al estudiarte como cuerpo móvil?
Print Friendly

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Las ecuaciones de Maxwell – Introducción histórica

Las ecuaciones de Maxwell – Introducción histórica


Hace mucho tiempo que tengo en la cabeza escribir una miniserie sobre las cuatro ecuaciones de Maxwell y, por fin, ahora que llegan las vacaciones, tengo tiempo y ganas de ponerme con ello; además, el artículo sobre el experimento de Hertz me ha despertado el gusanillo otra vez. Aunque veremos en qué acaba la cosa, mi intención es escribir un artículo introductorio con el contexto histórico y cuestiones generales –el que estás leyendo ahora mismo–, y luego otros cuatro, uno dedicado a cada ecuación, sin meterme en demasiados berenjenales ni extenderme demasiado (aunque, siendo realistas, casi siempre me extiendo más de lo que tengo planeado).
La idea no es estudiar cada ecuación en mucha profundidad: eso lo haremos, llegado el momento, en bloques como el de Electricidad o Magnetismo. Hacen falta además conceptos matemáticos avanzados que veremos también cuando corresponda. No, esto es algo diferente: es para quienes están hartos de ver las ecuaciones de Maxwell por aquí, por allí, que si son preciosas, que si patatín, que si patatán… pero claro, si no las has estudiado nunca en la Universidad, pues te quedas con cara de póquer. Mi intención es que, si estás en ese caso, salgas de aquí al menos sabiendo qué significa conceptualmente cada una de las cuatro ecuaciones, qué consecuencias tienen y cómo describen el mundo que vemos a nuestro alrededor.
Además, intentaré resarcir a quienes –como yo mismo– estudiaron las ecuaciones pero sin que se les explicase antes, cualitativamente, qué demonios significa cada una, antes de ponerse a hacer problemas con ellas y a calcular rotacionales y otras pamplinas como un mono de feria. Estoy seguro de que hay gente que las explica como debe, pero también hay quien no lo hace, de modo que si esto sirve para que quienes vayáis a estudiar estas cosas en la carrera tengáis un salvavidas si os encontráis perdidos al principio, mejor que mejor. Dicho esto, desde luego, aquí voy a realizar las simplificaciones salvajes que haga falta sin el menor rubor, de modo que si buscar rigor y nivel, ¡que tengas un buen día y que la puerta no te dé en el culo cuando salgas!

¿Qué son las ecuaciones de Maxwell?

Lo mejor en estos casos es quitarse el miedo, de modo que, sin más aspavientos, aquí las tienes en una de sus formas:

Ecuaciones de Maxwell
Ya me imagino que, si eres lego en la materia, te has quedado casi igual que antes, pero quiero dejarlas aquí, al principio, para que posteriormente puedas volver aquí, mirarlas otra vez y –si hemos hecho bien nuestro trabajo tanto tú como yo– que ya no levantes la ceja con indiferencia; que sepas cuál es la personalidad de cada una, en qué se diferencian unas de otras y, en resumidas cuentas, que no sean jeroglíficos sin sentido. Y, si les coges un poco de cariño, mejor.

Existen, por cierto, muchas otras maneras de escribirlas: las matemáticas son así de versátiles. Dependiendo de para qué vayan a emplearse las ecuaciones, pueden escribirse para estudiar sistemas microscópicos o macroscópicos, pueden incluir “ayudas” que hagan más simple el estudio de sistemas concretos y pueden emplearse unas magnitudes u otras para trabajar, pero independientemente del lenguaje matemático que usemos, siempre significan básicamente lo mismo — explicar ese significado es el objetivo de esta miniserie.
¿Qué es lo que dicen en conjunto? Son la descripción del campo electromagnético: el campo eléctrico, el campo magnético, su origen, comportamiento y relación entre ellos, incluyendo las ondas electromagnéticas como la luz. Básicamente, con estas ecuaciones es posible saber cómo va ser y cómo va a comportarse el campo electromagnético en una región determinada, a partir de las cosas que hay allí. La contrapartida, es decir, qué le pasa a las cosas que hay allí a partir del campo electromagnético, está descrita por la fuerza de Lorentz, de la que no vamos a hablar hoy. El conjunto de estas ecuaciones describe cosas como la corriente eléctrica, los imanes, los rayos, la electricidad estática, la luz, las microondas, la radio… vamos, son un filón.
Hay un par de cosas más que es conveniente saber sobre estas cuatro ecuaciones. La primera es que, expresadas matemáticamente o en lenguaje común, representan leyes físicas. No tienen demostración, sino que juntas constituyen una teoría que ha sido verificada experimentalmente. Dicho de otro modo, si alguien realizase experimentos que nos demuestren que estas ecuaciones son una estupidez, las tiraríamos a la basura y a otra cosa, mariposa. Sin embargo, esto no ha sucedido así ni es probable que suceda: más bien hemos ido comprobando aspectos en los que se acercan a la realidad pero fallan ligeramente, de modo que las hemos ido modificando para tener en cuenta cosas como la cuántica o la relatividad. Eso sí, el espíritu y el significado último siguen siendo básicamente los mismos.
El segundo detalle a tener en cuenta es que, como veremos en el siguiente epígrafe, las ecuaciones originales no eran cuatro y las que usamos hoy en día no son exactamente las mismas que propuso James Clerk Maxwell. El bueno de James utilizó algunas otras magnitudes diferentes, y unas cuantas ecuaciones más, mientras que fue Oliver Heaviside quien hizo un pulido, remodelación y lavado de cara que nos proporcionó lo que ves arriba y sus otros equivalentes matemáticos.
Es más, de las cuatro ecuaciones de arriba, la única en la que Maxwell hizo una contribución concreta y novedosa es la última, de modo que cada una de las cuatro ecuaciones llevan el nombre de otro científico –quien propuso cada una–, con el propio Maxwell compartiendo honor en esa última. Puede que al leer esto hagas una mueca de desdén a este escocés genial, pero creo que sería una equivocación: a menudo, el genio está en sintetizar, no en crear. Como veremos en un momento, muchos científicos habían ido descubriendo pinceladas del comportamiento eléctrico y magnético de las cosas, pero eran eso, retazos. Hacía falta un auténtico genio para relacionar unas ideas con otras y mirar las cosas como un todo, y ese genio fue Maxwell. Pero veamos, brevemente, cómo sucedió todo.

Contexto histórico

No voy a hablar aquí de la historia de cada una de las cuatro leyes representadas por las ecuaciones de Maxwell, ya que haré eso en cada artículo específico, sino más bien del papel del propio Maxwell, dónde y cuándo aparecieron sus leyes y qué transformaciones posteriores sufrieron para tomar la forma con las que las conocemos ahora. Sé que esto puede parecerte un rollo y que quieres entrar en materia, pero creo que hacerlo así es, en última instancia, más provechoso, como ya has escuchado antes si llevas tiempo con nosotros.
Ya hemos hablado en varias ocasiones en El Tamiz sobre los avances en el estudio de la electricidad y el magnetismo en los siglos XVIII y XIX. Genios como Coulomb, Faraday, Ampère, Ørsted y similares han hecho su aparición repetidas veces aquí, y todos ellos son anteriores a Maxwell. De hecho, antes de que el escocés publicase artículo alguno sobre electromagnetismo ya teníamos prácticamente todas las piezas del rompecabezas: sólo nos faltaba darnos cuenta de su existencia y unir las piezas.
Sabíamos que existía algo denominado carga eléctrica, que había dos tipos y que ambos sufrían una fuerza de atracción o repulsión con cargas eléctricas del mismo tipo o del contrario. Sabíamos que esa carga eléctrica –a veces llamado fluido eléctrico porque se desconocía el hecho de que estaba cuantizada, ni sabíamos aún de la existencia de protones o electrones–, al moverse por el espacio, generaba corrientes eléctricas que era posible crear y mantener en el tiempo. La electricidad era, cuando llegó Maxwell, un viejo conocido.
Conocíamos también materiales, como la magnetita, que formaban imanes naturales que, como las cargas, podían atraerse o repelerse. Sin embargo, la fuerza que sufrían y ejercían las cargas no era la misma que sufrían y ejercían los imanes. Como la electricidad, el magnetismo era un viejo conocido de la humanidad mucho antes de que Maxwell hiciese su aparición.
Sobre hombros de gigantes
Sobre hombros de gigantes: Ampère, Coulomb, Gauss, Ørsted, Faraday.
Sin embargo, nos faltaban cosas; para empezar, nos faltaba darnos cuenta del pedazo de rompecabezas que teníamos delante de los morros. Porque, como pasa tantas veces, algunos pensaban que ya entendíamos muy bien tanto electricidad como magnetismo, y que no había más que pulir detalles. Sin embargo, se nos quedaron los ojos como platos cuando en 1820 el danés Hans Christian Ørsted se dio cuenta de que una corriente eléctrica creaba a su alrededor un campo magnético. Estaba claro que lo que antes pensabamos que eran cosas independientes –electricidad y magnetismo– no lo eran tanto. Al menos, tras Ørsted, teníamos claro que no teníamos nada claro, lo cual es un progreso.
Otro enigma de la época era la luz: qué era realmente, cómo se propagaba, qué la generaba exactamente… pero claro, nadie pensaba que este problema tuviera nada que ver con el otro. Eran, como digo, piezas de un puzzle que ni siquiera sabíamos que existía como tal.
De hecho, se ve aquí en cierto sentido el avance de una ciencia incipiente: en un principio se descubren fenómenos. Luego se describen esos fenómenos y se comprueba en varios lugares que existen y cómo suceden exactamente. Posteriormente se pasa a clasificar esos fenómenos y crear un vocabulario con el que referirse a ellos con cierta precisión y, si se trata de una “ciencia exacta”, finalmente se pasa a cuantificar esos fenómenos con ecuaciones. Además, ecuaciones o no, llegada la madurez de la ciencia hace falta una descripción que englobe conjuntos de fenómenos y los relacione para crear, por fin, una teoría.
Pero a mediados del XIX estábamos muy lejos de algo así para el electromagnetismo. ¿O no?

James Clerk Maxwell

En 1831 nace en Edimburgo nuestro héroe de hoy: el pequeño James, hijo de John Clerk y Frances Cay. La razón de que no veas ningún “Maxwell” por ahí es que no lo había. El padre era familia de los Maxwell, pares del Reino, y poco después del nacimiento de James la familia se trasladó a una propiedad heredada de los susodichos Maxwell. Como consecuencia, John Clerk tomó el nombre de John Clerk-Maxwell, y su hijo pasó de ser James Clerk a James Clerk-Maxwell; posteriormente desaparecería el guión de apellido compuesto, no sé por qué, y James firmaría como James Clerk Maxwell, que es como lo conocemos hoy. Injustamente, hablamos de Maxwell y las ecuaciones de Maxwell, como si Clerk fuera parte del nombre y no el apellido (y desde luego, yo seguiré llamándolo como se hace normalmente).
El caso es que el pequeño James, desde muy pronto, demostró que tenía una inteligencia fuera de lo común. El pobre lo pasó mal en el colegio, porque los primeros diez años de su vida no fue a la escuela, y hasta ese momento fue educado por profesores particulares –el padre no era precisamente pobre– en la casa de campo heredada de los Maxwell. Como consecuencia, el paso de esa infancia arropada en casa a un colegio fue algo traumática: muchos de sus compañeros se reían de él, porque no estaba “curtido” socialmente, venía del campo y además me imagino que era más bien rarito. Afortunadamente para él, encontró un par de amigos que lo serían durante toda la vida, Peter Guthrie Tait y Lewis Campbell, y los tres sobrevivieron al colegio sin más problemas.
James era un puñetero genio. No digo esto por decir: a los catorce años se despertó en él el interés por las curvas cónicas –elipses, parábolas y demás–, y publicó un artículo, Oval Curves, en el que examinaba este tipo de curvas de dos focos, las propiedades de curvas con más de dos focos y cómo dibujarlas. Alguien antes que él había atacado el problema de las curvas con más de dos focos y tal vez te suene su nombre, René Descartes, pero James no conocía el trabajo del francés y su método era más simple y elegante que la de Descartes ¡Con catorce años, por el amor de Dios!
El padre de Maxwell se quedó tan patidifuso al leer el artículo de James que se lo envió a un profesor de la Universidad de Edimburgo, James Forbes, para ver qué pensaba. La reacción de Forbes fue inmediata y bastante clara: lo leyó en nombre del niño en una reunión de la Royal Society de la ciudad (el propio James no tenía la edad suficiente para ser admitido como ponente en la reunión). El artículo de este adolescente fue publicado en 1846. Este episodio fue decisivo en la vida de James por dos razones: por un lado, su padre tenía la intención de que James se dedicara a la abogacía como él mismo, pero claro, ante algo así ¿cómo le dices al chaval que no se dedique a las ciencias puras si le gustan? Por otro lado, Forbes quedó profundamente impresionado ante la inteligencia del joven Clerk-Maxwell, y se convertiría en su mentor en la Universidad y más allá de esa época.
James David Forbes
Los mentores tétricos también merecen gratitud. James David Forbes (1809-1868).
De hecho, con dieciséis años James fue admitido en la Universidad de Edimburgo y permanecería allí tres años antes de ir a Cambridge. En Edimburgo, Maxwell estudió Matemáticas y Filosofía Natural –entre otros, bajo el propio James Forbes–, a la vez que realizaba diversos experimentos en casa, sobre todo de óptica, y escribía algunos artículos más de Matemáticas y Física. A los 18 años se leyeron otros dos artículos suyos más en la Royal Society de Edimburgo — pero no los leyó él, claro, ¡no vamos a admitir a cualquier zagal en las reuniones! En fin.
Tras tres años en Edimburgo, se trasladó a la Universidad de Cambridge, donde completaría sus estudios. Durante esa época, por cierto, publicó otro artículo, éste sobre experimentos sobre los colores –en la foto de abajo puedes verlo con un disco de colores en la mano–, que no sólo fue leído en la Royal Society de su Edimburgo natal, sino que esta vez se le permitió incluso leerlo a él: ¡qué honor! — y me refiero a la Royal Society, por supuesto. El caso es que tras Cambridge, James se presentó a la Cátedra de Filosofía Natural en el Marischal College de la Universidad de Aberdeen, en su Escocia natal –a sugerencia de su mentor, James Forbes– y obtuvo el puesto con 25 años, 15 menos que cualquier otro catedrático de su facultad.
James Clerk Maxwell en Trinity College
Un joven James Clerk Maxwell durante su estancia en Trinity College.
Aunque hoy lo conozcamos fundamentalmente por sus trabajos en óptica, electromagnetismo y termodinámica –y en esta miniserie nos dedicaremos sólo al electromagnetismo–, Maxwell era un genio en casi todo a lo que dedicaba su atención y, a riesgo de que me des un pescozón por dar tantas vueltas, quiero poner un ejemplo. Desde hacía tiempo se habían observado ya los anillos de Saturno, pero nadie sabía exactamente qué eran. Tal era la curiosidad de la comunidad científica por este enigma que el St. John’s College de Cambridge lo planteó como objeto de su Premio Adams en 1857. ¿Quién lograría postular una hipótesis coherente y razonada sobre la naturaleza de los anillos?
Maxwell se puso manos a la obra y aplicó sus conocimientos de mecánica de sólidos y de fluidos a la tarea. El problema no era fácil, porque se disponía de muy pocos datos experimentales, dada la distancia a Saturno y la limitación de los telescopios de la época: Maxwell tardó dos años en encontrar la solución. En 1859 demostró que los anillos no podían ser fluidos, pues hace mucho tiempo se habrían disgregado, ni podían ser un sólido pues las tensiones estructurales los habrían roto en pedazos. Su sugerencia razonada fue que probablemente se trataba de muchos pedazos sólidos de pequeño tamaño, y que la distancia hasta Saturno era la responsable de que nos parecían ser un solo objeto. Su On the stability of Saturn’s rings (Sobre la estabilidad de los anillos de Saturno) obtuvo el Premio Adams en 1859, y un siglo y pico más tarde las sondas Voyager dieron la razón a su hipótesis.
Pero, en lo que a nosotros nos interesa hoy –el electromagnetismo–, todo empezó con la publicación de un artículo en 1855, aún en Trinity College y con 24 años. Ese artículo, de título On Faraday’s Lines of Force (Sobre las líneas de fuerza de Faraday), explicaba de un modo teórico y matemático las observaciones realizadas por un genio tan grande como el de Maxwell, el del inglés Michael Faraday. Esto ya nos ha pasado antes, sobre todo en la serie de Premios Nobel: la combinación de un científico teórico y otro experimental para revolucionar la ciencia.
Normalmente, sin embargo, suele pasar al revés que aquí: lo típico es que un teórico proponga ideas novedosas, y que un experimentador logre posteriormente demostrar esas ideas. Aquí el orden se invierte, ya que Faraday era un genio experimental como ha habido muy pocos –o tal vez ninguno–, y Maxwell se empapa de las observaciones experimentales de Faraday, además de otros, y consigue establecer un marco teórico capaz de explicarlas.
Es imposible saber hasta dónde hubiera podido llegar Faraday si hubiera recibido una educación formal: a diferencia de Maxwell, era hijo de un humilde herrero y había entrado en la ciencia como ayudante de laboratorio de Humphry Davy. Sin tener ni idea de álgebra ni cálculo, sus experimentos y conclusiones a partir de ellos revolucionaron la Física. No tengo dudas de que, sin Michael Faraday, Maxwell no hubiera construido el maravilloso edificio que construyó. Para que te hagas una idea, Einstein tenía, en la pared de su despacho, las fotos de tres científicos: Newton, Maxwell y Faraday.
El caso es que el inglés, tras varios de sus muchísimos experimentos sobre electricidad y magnetismo, había sugerido la existencia de líneas de fuerza mediante las cuales un cuerpo podía interaccionar con otro por las fuerzas eléctrica y magnética; para él, estas líneas de fuerza que unían los cuerpos no eran meros conceptos, sino una realidad física, y propuso incluso la posibilidad de que las ondas luminosas fueran una oscilación de esas líneas de fuerza, como las ondas que recorren una cuerda. ¡Qué intuición, qué genialidad, por favor!
Pero, igual que Maxwell no hubiera sido Maxwell sin Faraday, el escocés hizo florecer las ideas del inglés hasta crear un jardín. En el artículo de 1855, el joven Maxwell construye un aparato teórico incipiente –aún habría que refinarlo– que define muchas de las ideas de Faraday en un conjunto de veinte ecuaciones. Allí, Maxwell habla ya de la relación entre el campo magnético y el eléctrico, y cómo cuantificar la influencia del uno sobre el otro.
A partir de ahí, posteriores artículos y libros irían puliendo el entramado teórico de Maxwell. Es posible que otro científico con una educación matemática inferior no hubiera podido sintetizar tal cantidad de leyes y observaciones de un modo tan simple y elegante, pero es que Maxwell era un matemático de primera clase. En 1860, debido a una reestructuración, Maxwell perdió su puesto en Marischal; Forbes se había jubilado poco antes, y James se presentó para ocupar su plaza en Edimburgo, pero la consiguió su amigo Tait en vez de él. Finalmente terminó en el King’s College de Londres, donde permanecería cinco productivos años.
Durante su estancia en Londres, Maxwell convierte su artículo inicial en una auténtica teoría del electromagnetismo y la luz. Recuerda que la óptica era uno de los intereses del escocés, y de hecho en 1860 obtuvo la Medalla Rumford de la Royal Society por su trabajo en este campo — en 1861 se convertiría además en miembro de la Sociedad. Durante esta época conoce además a uno de sus héroes, un Michael Faraday ya entrado en años, y asiste a algunas de sus clases: a diferencia del propio Maxwell, Faraday era un profesor excelente y tenía enorme fama como conferenciante.
Entre 1861 y 1862, Maxwell publica On Physical Lines of Force (Sobre las líneas de fuerza físicas), una nueva versión en cuatro partes de su artículo anterior. Aunque posteriormente elaboraría más las ideas y publicaría más artículos, es aquí donde su genio se muestra verdaderamente al mundo: utiliza el cálculo vectorial para establecer las ecuaciones que rigen los campos eléctrico y magnético de un modo impecable, aunando las leyes y teoremas enunciados antes por Coulomb, Faraday, Gauss o Ampère.
Unos años antes, en 1855, dos alemanes –Rudolf Kohlrausch y Wilhelm Weber–, realizando experimentos con cargas, habían obtenido un resultado peculiar: una magnitud con dimensiones de velocidad que se obtenía al relacionar la carga medida teniendo en cuenta sólo la electrostática o incluyendo los movimientos de cargas. Esta velocidad era bastante parecida a la de la luz –con la precisión que era posible medirla hasta ese momento–. Ni Weber ni Kohlrausch le dieron mayor importancia a este hecho.
James Clerk Maxwell
James Clerk Maxwell (1831-1879).
Sin embargo, cuando Maxwell conoció el resultado de los experimentos de los dos alemanes, se puso a manipular sus propias ecuaciones que describían la electricidad y el magnetismo. ¿Sería posible obtener con ellas la ecuación de una onda? La mecánica ondulatoria se conocía bien por entonces, y el propio Newton había relacionado la velocidad del sonido con las propiedades mecánicas del medio por el que se propaga. Maxwell hizo algo parecido a lo que había hecho Newton, pero con las “líneas de fuerza” de Faraday en vez de con cuerpos materiales, y obtuvo el valor de la velocidad de esas ondas electromagnéticas: 310,740,000 m/s. La velocidad de la luz. En On Physical Lines of Force, el escocés afirma:

No podemos evitar la conclusión de que la luz consiste en las ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos.

Ese medio era, por supuesto, el éter luminífero que tantos quebraderos de cabeza nos daría posteriormente, pero eso es otra historia y ya hemos hablado de ella en el pasado. La cuestión hoy es el genio de Maxwell para relacionar a Faraday, Weber y Kohlrausch y todo lo demás para explicar la naturaleza electromagnética de la luz, además de otras cosas que veremos ecuación a ecuación.
En palabras de Richard Feynman,

Desde una perspectiva a largo plazo de la historia del mundo –vista, por ejemplo, dentro de diez mil años–, no puede quedar duda de que el suceso más significativo del siglo XIX será considerado el descubrimiento por parte de Maxwell de las leyes del electromagnetismo. La Guerra Civil estadounidense palidecerá como algo local e insignificante al compararlo con este suceso científico de primera magnitud de la misma década.

No es una exageración. Aparte de explicar la naturaleza de la luz, las cuatro ecuaciones de Maxwell lo explican, en electromagnetismo, prácticamente todo. Cómo se atraen y repelen las cargas, cómo afecta una corriente eléctrica al espacio a su alrededor, cómo se transmite un campo a través de un medio determinado, cómo una corriente puede afectar a otra a una distancia de ella. Al combinarlas con la ley de Lorentz, constituyen un cuerpo de conocimiento de igual magnitud que los Principia Matematica de Isaac Newton.
En 1865, Maxwell se retiraría a su casa familiar –la heredada de los Maxwell–, aunque seguiría escribiendo sobre electromagnetismo. En 1873 publicó A Treatise on Electricity and Magnetism (Tratado sobre electricidad y magnetismo), una obra en dos volúmenes que desgranaba su teoría. La lectura de estos dos libros impresionó de tal manera a un joven inglés de veintitrés años sin formación académica superior pero muy interesado en el electromagnetismo, Oliver Heaviside, que lo llevó a estudiar matemáticas como un poseso para lograr entender y dominar la obra de Maxwell.
Heaviside entendía lo suficiente de la obra de Maxwell para comprender su magnitud, pero sus propias lagunas lo desesperaban:

Era muy ignorante. No tenía conocimientos de análisis matemático (había estudiado únicamente álgebra y trigonometría en el colegio, y se me habían olvidado casi completamente), de modo que mi trabajo estaba claro. Me llevó varios años poder comprender todo de lo que era capaz.

Oliver Heaviside
Oliver Heaviside (1850-1925).
Heaviside no sólo acabó comprendiendo las veinte ecuaciones con veinte incógnitas de la obra de Maxwell sino que, una vez más, sobre los hombros de gigantes, aprendió el suficiente cálculo vectorial para librarse de prácticamente todas esas incógnitas y reducir, en 1884, la teoría electromagnética del escocés a sólo cuatro ecuaciones con cuatro incógnitas. Heaviside no descubrió nada nuevo, pero sí interpretó la teoría de Maxwell de un modo que la hizo muchísimo más sencilla de asimilar. Algo así como “Maxwell es el único Dios, y Heaviside su profeta”… y no lo digo yo, lo dice el propio Heaviside:

Debe entenderse que predico el evangelio de acuerdo con mi interpretación de Maxwell.

De modo que, en las cuatro próximas entradas, analizaremos la palabra de Maxwell en sus cuatro mandamientos sobre la electricidad, el magnetismo y las relaciones entre ambos, empezando por la Ley de Gauss para el campo eléctrico. Hasta entonces, podéis ir en paz.

Portal de recursos para la Educación, la Ciencia y la Tecnología.

Descubriendo nuevos universos. La galaxia Andrómeda (I)

Descubriendo nuevos universos. La galaxia Andrómeda (I)

La idea que tenía el hombre acerca del tamaño del universo había evolucionado enormemente en 2000 años. Según lo que hemos tratado en esta serie, podemos resumir: Hacia el año 150 AEC, ya se había definido de un modo preciso el sistema Tierra-Luna. A pesar de que se pensaba que la distancia a nuestro satélite era de unos cientos de kilómetros, las mediciones mostraron una separación de, aproximadamente, un tercio de millón de kilómetros. Posteriormente, hacia 1700, se había logrado ya fijar la escala del sistema solar con bastante precisión. No hablamos, con eso, de millones de kilómetros sino de miles de millones. Sin embargo la distancia a las estrellas más cercanas aún seguía siendo un enigma, aunque se suponía que oscilaba alrededor de los billones[1] de kilómetros como mínimo.
La solución al problema llegaría hacia 1850, comprobando que esa distancia no era sólo de billones de kilómetros, sino de decenas y cientos de billones. Entonces nos dimos cuenta de que nos encontrábamos en un sistema de estrellas organizadas en una especie de plato del cual su diámetro era desconocido, pero que debería oscilar en los miles de años-luz. El problema persistió hasta 1920, cuando descubrimos de que su diámetro no estaba en los miles de años-luz, sino más bien en muchas decenas de miles de años-luz.
En cada nueva ocasión, con cada nuevo descubrimiento, la medición de las dimensiones de regiones del Universo resultaba superior a las estimaciones más optimistas. La Tierra resultó ser ínfima en relación al Sistema Solar. Éste, a su vez, quedó humillado por el tamaño del sistema que componían las estrellas más cercanas. Pero tal sistema fue ínfimo con respecto al tamaño total de la galaxia. ¿Sería el sistema Galaxia-Nubes de Magallanes el fin definitivo? Al parecer, en 1920, parecía muy posible que la Galaxia y las nubes de Magallanes constituyeran toda la materia que existía en el universo; más allá, por lo que se sabía, no había nada. Esta vez había argumentos teóricos muy fuertes. Recordemos que la paradoja de Olbers parecía implicar la existencia de un Universo finito, lo cual estaba apoyado por el hecho de que las estrellas estaban confinadas dentro de una galaxia finita. La existencia de otros sistemas estelares más allá de nuestra galaxia plantearía a los astrónomos un problema irresoluble.
¡Y los encontramos! Vamos al artículo entonces.

La nebulosa de Andrómeda vista por un telescopio aficionado

Hemos visto que existían objetos que a principios del siglo XX impulsaron la investigación astronómica. Eran los listados en la lista de Messier. Objetos borrosos en la bóveda celeste que fueron estudiados luego de que Messier los listara. Unos resultaron ser cúmulos de cientos de miles de estrellas mientras otros, nubes de gas con estrellas en su interior. El trigésimo primer objeto de su lista, el M31, situado en la constelación Andrómeda, que pronto se reconoció como una nebulosa, con el tiempo revolucionaría la visión del Universo que se tenía hasta ese entonces.
La nebulosa de Andrómeda, como se llamó, es observable a simple vista como un objeto débil de brillo de cuarta magnitud. Los astrónomos árabes la habían registrado ya en sus cartas celestes. De acuerdo a su apariencia, no había razón para pensar que tal nebulosa fuese diferente a las demás. En el telescopio, la nebulosa de Andrómeda se observaba como una nube luminosa y nada más. La principal curiosidad del objeto era su forma de lente y no tan dispersa como otras nebulosas.

Representación artística de un disco planetario (Fuente:ESO)

La importancia de la nebulosa de Andrómeda radicaba en el papel que le asignaron algunos pensadores del siglo XVII. Ellos llegaron a teorizar en torno a la naturaleza de las nebulosas. Como lo muestra Pedro en El Tamiz, la existencia de nubes de gas con forma de lente, como la de Andrómeda, era prueba de la teoría hasta entonces más aceptada de formación de sistemas solares. Esta teoría postulaba que los sistemas planetarios surgían de estas grandes nubes de gases en rotación. Por efectos gravitatorios, estas nebulosas empezarían un proceso de contracción y condensación; como consecuencia de ello, la velocidad de rotación aumentaría y debido a la aceleración centrífuga, la nube tomaría una forma plana. Conforme a la contracción aumente aparecerán especies de anillos que se condensarían en cuerpos planetarios, y lo restante sería una enorme estrella incandescente situada en el centro del sistema. Esto explicaba por qué los planetas ocupan el mismo plano y giran en el mismo sentido. Este efecto también era observado en los satélites de los planetas, lo cual sugería que la condensación de ellos habría sido similar a la condensación del sistema solar. La nebulosa de Andrómeda sería, pues, una muestra de un sistema solar en formación casi en su fase final de formación.
Tal teoría, conocida en la historia como hipótesis nebular, fue propuesta en primera instancia por el filósofo alemán Immanuel Kant (1724-1804) en el año 1755. Medio siglo más tarde, como apéndice de un libro de astronomía, el físico y matemático francés Pierre Simon Laplace (1749-1827) propuso la misma hipótesis de manera independiente. Según Laplace, un ejemplo claro de tal fenómeno lo constituía precisamente la nebulosa de Andrómeda. Su estructura es tal que parece denotar un movimiento rápido de rotación; también puede verse (o convencerse de que se ve) una especie de anillo de gas a punto de desgajarse. Si la teoría de Laplace sobre la naturaleza de la nebulosa de Andrómeda como precursora de un sistema planetario fuese cierta, seguramente no se trataría de un objeto demasiado grande y, por su tamaño aparente, tampoco muy lejano. La teoría de Laplace se tomó como cierta y la naturaleza de la nebulosa de Andrómeda quedó aparentemente confirmada cuando en 1907 algunos cálculos de su paralaje mostraron que su distancia al Sistema Solar era de 19 años-luz.

Immanuel Kant

Por otro lado, la idea que tenía Kant de la Nebulosa de Andrómeda (y seguramente de otros objetos borrosos del cielo) era totalmente opuesta. Conociendo que algunos objetos de Messier correspondían a cúmulos de estrellas, Kant propuso que M31 y otros constituirían un gran conglomerado de estrellas cuyo aspecto difuso se debía únicamente a que se trataba de objetos situados a gran distancia, llamados poéticamente por él “universos isla”. Conglomerados enormes de estrellas como nuestro Sol donde encontraríamos ingentes planetas y tal vez seres inteligentes.
A medida que se iban mejorando los instrumentos de visión, muchos objetos borrosos mostraron tener estrellas en su interior y se clasificaron como cúmulos de estrellas. Sin embargo, la nebulosa de Andrómeda se resistía a mostrar alguna estrella en su interior. Por otro lado, la mayoría de nebulosas presentaba forma irregular, solo unas pocas tenían la forma de lente de M31, a pesar de la intriga que fomentó este extraño cuerpo, fue clasificado como nebulosa.
Entonces, al aplicar los estudios espectroscópicos a la nebulosa de Andrómeda, se vio que los resultados chocaron con la teoría de Laplace. Veamos; antes de seguir, es necesario hacer notar la diferencia entre el espectro emitido por las estrellas (emisión de luz debida a su temperatura: incandescencia) y el emitido por las nebulosas (emisión de luz debida a la estimulación de los electrones de sus átomos: luminiscencia). Mientras las estrellas muestran una distribución de colores uniforme debida a la gran temperatura de su núcleo, con líneas oscuras debida a la dispersión de luz de longitud de onda fija por los átomos de su atmósfera, el de las nebulosas corresponde simplemente a rayas debido a la emisión de luz, no debido a su temperatura, sino por la dispersión que hace de la luz de las estrellas en su interior.[2]

Diferencias de espectros entre una estrella y una nebulosa.

Mientras las nebulosas normales mostraban espectros compuestos únicamente de líneas de colores,[3] la nebulosa de Andrómeda, en cambio, mostraba un espectro más parecido al de una estrella: continuo y con alguna que otra línea oscura, aunque mucho más tenue que las estrellas normales. Además quedaba otro problema. En las nebulosas luminosas normales no sólo se veía la dispersión que ellas hacían de la luz de la estrella en su interior, sino que también lograba verse a tal o tales estrellas. Los intentos de ver la estrella en el interior de la nebulosa de Andrómeda resultaron infructuosos: hasta principios del siglo XX, tales estrellas nunca se detectaron. O, bueno, no estrellas permanentes.
¿A qué me refiero? bueno, les contaré eso en el próximo artículo. Hasta entonces.

  1. Europeos, es decir, 10^12. []
  2. Así como las moléculas de Nitrógeno en nuestra atmósfera absorben únicamente luz azul y la dispersan posteriormente a todas direcciones, mientras que las demás longitudes de onda siguen su camino. El resultado es que nos hace ver el cielo de ese color. Una nebulosa de Nitrógeno se vería azul y en su espectro, entre otras líneas, la correspondiente a la longitud de onda de luz azul cielo. []
  3. Por ejemplo, el espectro de la nebulosa de Orión tiene una línea verde especialmente marcada. []

Portal de recursos para la Educación, la Ciencia y la Tecnología.

El viaje en el tiempo sería imposible

Físicos de Hong Kong aseguran haber demostrado que un único fotón obedece la teoría de Einstein de que nada puede viajar más rápido que la velocidad de la luz. Los viajes en el tiempo, más allá de la ciencia ficción, serían imposibles.
image
El estudio de la Universidad de Ciencia y Tecnología de Hong Kong, liderado por Du Shengwang resume en su sitio web: “Einstein manifestó que la velocidad de la luz era la ley universal del movimiento, lo que significa que nada puede viajar más rápido que la luz.”
“La investigación del profesor Du demuestra que un fotón, la unidad fundamental de la luz, también obedece la ley universal del movimiento como lo hacen todas las ondas electromagnéticas”.
image Profesor Du Shengwang
Si bien la teoría de Einstein es harto conocida y lleva ya muchos años en pie, la duda había surgido hace unos 10 años cuando científicos creyeron descubrir una propagación de pulsaciones ópticas a una velocidad más rápida que la de la luz a lo largo de un determinado y específico medio.
Sin embargo, luego se descubrió que se trataba de un efecto visual, aunque algunos investigadores seguían pensando que podría ser posible que un fotón excediera la velocidad de la luz.
image
Du Shengwang creía que Einstein tenía razón y determinó acabar con el debate midiendo la velocidad definitiva que alcanza el fotón, lo que no se había logrado medir hasta ahora.
“El estudio, que muestra que un fotón también obedece los límites de la velocidad de la luz, confirma la causalidad de la que hablaba Einstein: esto es, un efecto no puedo ocurrir antes que su causa”, dice la universidad.
Una reseña del estudio fue publicada en la revista científica Physical Review Letters.
De todos modos, nunca hay que perder de vista que el método científico sólo prueba hechos o fenómenos existentes, positivos, pero que los negativos nunca se demuestran a través de la ciencia.
Fuente: DiscoveryNews

ortal de recursos para la Educación, la Ciencia y la Tecnología.

[Mecánica Clásica I] Aceleración

[Mecánica Clásica I] Aceleración

En el bloque Mecánica Clásica I hemos establecido ya algunas bases para describir el movimiento de los cuerpos; hemos visto cómo identificar la posición de un objeto en un sistema de referencia determinado y con unas coordenadas concretas, y también cómo conocer la rapidez con la que el objeto se mueve y en qué dirección lo hace en cada momento y en promedio. Hoy nos zambulliremos en el último de los conceptos de cinemática –el estudio del movimiento puro y duro, sin preocuparnos por sus causas– estudiando el concepto de aceleración. Pero antes, como siempre, la solución al desafío del mes pasado.

Solución al Desafío 2 – Velocidad y celeridad media
En este desafío os preguntábamos, para varios movimientos, el valor de la velocidad media –como vector, es decir, con la información de dirección además de rapidez– y la celeridad media. Vayamos con cada uno de ellos:
1. Para calcular la velocidad media, nos da exactamente igual el camino que ha recorrido la mosca, puesto que sólo queremos saber dónde empezó y dónde terminó; empezó en (0, 0, 0) y terminó en (0, 2, -2). Por lo tanto, se ha desplazado (0, 2, -2) metros y, ya que lo ha hecho en 6 segundos, su velocidad media ha sido de (0, 2/6, -2/6) metros cada segundo, es decir (0, 1/3, -1/3) m/s.
Respecto a su celeridad media, la distancia total recorrida por la mosca ha sido la suma de todos los tramos: entre (0, 0, 0) a (4, 0, 0) ha recorrido 4 metros, entre (4, 0, 0) y (4, 2, 0) ha recorrido 2 metros, entre (4, 2, 0) y (4, 2, -2) ha recorrido 2 metros y entre (4, 2, -2) y (0, 2, -2) ha recorrido 4 metros. En total, la mosca ha recorrido 4 + 2 + 2 + 4 = 12 metros. Ya que lo ha hecho en 6 segundos, su rapidez media ha sido de 12/6 metros cada segundo, es decir, 2 m/s.
2. El satélite realiza una circunferencia de 10 000 km de radio alrededor del centro de la Tierra, luego su posición final es igual a la posición inicial. Su velocidad media es, por tanto, (0, 0, 0) m/s, independientemente del tiempo que tarde.
La rapidez media, claro, es otra historia. La distancia que ha recorrido es la longitud de la circunferencia, 2πR, que en este caso es más o menos 62 832 km o, en el Sistema Internacional, 62 832 000 metros. Puesto que el satélite ha tardado 2 horas en dar la vuelta, es decir, 7 200 segundos, su celeridad media ha sido de unos 8727 m/s. (Este satélite, por cierto, tenía los motores encendidos, pero dejo para los más enterados explicar por qué lo sabemos ya que se escapa bastante de este bloque).
3. Aquí no nos dan coordenadas ni nada, de modo que nos las inventamos. Digamos que el origen de coordenadas (cartesianas) está donde empieza a moverse el ciempiés, con lo que el bicho empieza en la posición (0, 0, 0). Sube por el tronco hasta 10 metros de altura, es decir, (0, 0, 10) metros, y luego se mueve horizontalmente, pongamos que a lo largo del eje x, hasta recorrer 4 metros sobre la rama, con lo que termina en (4, 0, 10). Se ha movido, por lo tanto, de (0, 0, 0) hasta (4, 0, 10) en 5 minutos –300 segundos–. La velocidad del ciempiés ha sido entonces de (4/300, 0, 10/300) metros cada segundo, es decir, (1/75, 0, 1/30) m/s.
La distancia total recorrida por el artrópodo ha sido de 10 metros hacia arriba y luego 4 metros horizontalmente, o 14 metros, y lo ha hecho en 300 segundos, luego su rapidez media ha sido de 14/300 metros cada segundo, o lo que es lo mismo, 7/150 m/s.

Aceleración

Antes de introducir el concepto clave del artículo de hoy, permite que recordemos lo que ya sabes pero dicho de una manera especial. En primer lugar establecimos un modo sistemático de identificar dónde está un objeto a través de su posición. Era posible que esa posición no variase nunca en nuestro sistema de referencia, lo cual significaría que el objeto estaba quieto, pero también era posible que sí cambiase: si eso sucedía, era posible hablar de un concepto nuevo, el de la variación en la posición por cada unidad de tiempo, es decir, la velocidad.
También vimos cómo era posible que un cuerpo se encontrase en una situación especial en cuanto a la velocidad: era posible que la velocidad no cambiase nunca, es decir, que el cuerpo siguiera un movimiento uniforme. Sin embargo, también era posible que la velocidad sí cambiase: si eso sucede, es posible entonces hacer lo mismo que antes y establecer un concepto nuevo, el de la variación de la velocidad por cada unidad de tiempo. Este nuevo concepto es el que consumirá nuestro tiempo y neuronas hoy — la aceleración.

La aceleración de un objeto es la variación en su velocidad cada segundo.

Como puedes ver, la relación que existe entre aceleración y velocidad es casi la misma que hay entre velocidad y posición: la una es la variación en el tiempo de la otra. Sé que soy pesado con esto, pero entenderlo y asimilarlo hasta que sea evidente es fundamental para manejar estos asuntos con soltura más adelante. La mejor manera de “ver” la aceleración es con un ejemplo concreto pero, antes de eso, dejemos también definidas sus unidades, como siempre.

Velocidad, aceleración, movimiento relativo y relatividad general
A pesar de sus similitudes, en Mecánica Clásica siempre se ha considerado una diferencia entre velocidad y aceleración: la velocidad no se nota, la aceleración sí. Dicho de otro modo, si te metieran, inconsciente, dentro de una caja con paredes opacas y capaz de moverse tan suavemente que no notases la menor vibración, nunca podrías saber si la caja se mueve o no, o a qué velocidad lo hace, respecto a nada fuera de la caja. Lo mismo pasaría en un coche con ventanas opacas que se mueve por una carretera sin baches: ¿cómo saber si se mueve respecto a la carretera o no, si no puedes mirar fuera? Es imposible.
Sin embargo, la aceleración es diferente: si estás en un coche y éste acelera hacia delante, tú notas un “tirón” hacia atrás, y lo contrario si frena. Incluso si el coche tiene ventanas opacas, la pregunta “¿sufre aceleración el coche?” es posible contestarla, mientras que “¿tiene velocidad el coche (respecto a la carretera)?” no lo es. De modo que, en Mecánica Clásica, la aceleración tiene un carácter más absoluto que la velocidad, ya que cualquier observador puede saber si la sufre o no, hacia dónde y cómo de grande.
La cosa cambia cuando entra en juego la Teoría General de la Relatividad de Albert Einstein, ya que en ella incluso la aceleración adquiere un carácter relativo cuando se tiene en cuenta la gravedad. Si estás en una caja opaca como la de arriba y no notas el menor efecto de la gravedad, con lo que “flotas”, ¿tienes aceleración o no? No puedes saberlo, ya que hay dos posibilidades: o estás en el espacio exterior, lejos de cualquier planeta o estrella, con lo que no sufres la menor aceleración, o bien estás cayendo hacia el suelo a toda pastilla con una gran aceleración pero, como la caja también lo hace, no tienes manera de notar esa aceleración “contra nada” –algo de lo que hemos hablado al desmontar lo de que en el espacio no hay gravedad–. Con lo que, una vez tenido en cuenta este aspecto, se desvanece una de las diferencias entre ambas magnitudes –velocidad y aceleración–, aunque, como veremos más adelante en el bloque, sigue habiendo otras fundamentales.

Unidades de la aceleración – El metro por segundo al cuadrado

Al igual que sucedía con la velocidad, la aceleración no tiene unidades con nombre propio, sino que se emplean simplemente las derivadas del espacio y el tiempo. Al igual que la velocidad se medía en las unidades de distancia (metros) entre las de tiempo (segundos), la aceleración se mide en las unidades de velocidad (metros/segundo) entre las de tiempo (segundos), es decir, en metros partido por segundos, y eso otra vez partido por segundos o, de una manera más compacta, en metros partido por segundos al cuadrado (m/s2):

Un metro por segundo al cuadrado (m/s2) es la aceleración de un objeto que varía su velocidad en un metro por segundo cada segundo.

A veces, la gente se lía un poco con ese cuadrado y olvida lo que realmente significa esa expresión. Para que no te suceda, como decíamos antes, lo mejor es un ejemplo — si consigues visualizar en tu cabeza, como si de una película se tratase, lo que implica que la aceleración de un cuerpo tenga un valor determinado, creo que no tendrás esos problemas en el futuro.
Supongamos que un objeto se encuentra inicialmente en reposo (sí, sí, respecto a un sistema de referencia determinado, listillo). Digamos que es un coche que está parado junto a nosotros; sin embargo, en un momento determinado el conductor enciende el motor y pisa levemente el acelerador, de modo que el coche empieza a moverse cada vez más deprisa: está modificando su velocidad, es decir, tiene una aceleración. Para que este ejemplo nos sirva además para hacernos a la idea de cuánto es un metro por segundo al cuadrado, pongamos que el coche acelera precisamente a 1 m/s2. ¿Qué quiere decir eso exactamente?
En primer lugar, ya que la aceleración es 1 m/s2, es decir, no es nula, eso significa que el coche no está en un movimiento uniforme –si no entiendes esto, es mejor que vuelvas al artículo anterior antes de regresar aquí de nuevo–. Cualitativamente, su velocidad está cambiando todo el tiempo. El valor de la aceleración nos da una idea de cómo cambia la velocidad cuantitativamente: 1 m/s2 es lo mismo que 1 m/s/s, es decir, que el cambio en la velocidad es de 1 m/s cada segundo.
Dicho con otras palabras: si el coche acelera a 1 m/s2, eso significa que cada segundo su velocidad cambia en 1 m/s. Nuestro coche empieza parado; cuando ha pasado 1 segundo, ya no está parado, sino que se mueve a una velocidad de 1 m/s; cuando hayan pasado 2 segundos, se moverá a 2 m/s, a los 3 segundos irá a 3 m/s y así sucesivamente: cada vez que pasa 1 segundo, la velocidad se modifica en 1 m/s:
Coche, velocidad y aceleración
Si recuerdas el artículo anterior, 1 m/s equivale a 3.6 km/h, con lo que una aceleración de 1 m/s2 no es terriblemente grande: supone que la velocidad cambia 3.6 km/h cada segundo. Así, si nuestro coche acelera a 1 m/s2, tardará 10 segundos en alcanzar una velocidad de 10 m/s, es decir, de 36 km/h. Por si te ayuda a imaginar la magnitud de 1 m/s, la aceleración de la gravedad en la superficie terrestre, es decir, la aceleración de un cuerpo en caída libre, es de unos 10 m/s2, un valor bastante más grande.

Carácter vectorial de la aceleración

Lo mismo que la velocidad era algo más que un simple número, la aceleración también lo es: se trata, como en el caso de la velocidad, de un vector. Es decir, la aceleración no sólo tiene un valor numérico, que nos indica cuánto modifica su velocidad el objeto, sino que también tiene una dirección, que nos dice hacia dónde modifica su velocidad el objeto. Dicho en plata, la aceleración es una flecha cuya punta se dirige hacia donde cambia la velocidad, y cuya longitud nos dice cuánto lo hace cada segundo.
Esto puede parecer una tontería, ya que al hablar de velocidad ya hicimos énfasis en el hecho de que era un vector y no un número, pero hay tal cantidad de gente que se confunde con esto que he preferido no dedicar siquiera un cuadro rojo de advertencia, sino un epígrafe entero. La gente a veces se confunde, y dice cosas como éstas: el cuerpo está frenando, luego su aceleración es negativa, el cuerpo está cayendo, luego su aceleración es negativa, o el cuerpo va cada vez más deprisa, luego su aceleración es positiva.
Pero la aceleración no es negativa ni positiva, como tampoco lo era la velocidad: es un vector cuyas componentes dependerán del sistema de referencia y las coordenadas que hayamos elegido y que, como recordarás, son absolutamente arbitrarias. Esto significa que, en cualquier sistema físico que queramos estudiar, las componentes de la aceleración pueden ser grandes, pequeñas, positivas, negativas, pares o capicúas, y pueden ser muy distintas para varias personas que estudien el mismo sistema.
Por ejemplo, en el dibujo del coche de arriba puedes ver que el coche empieza parado y su aceleración vale 1 m/s2 hacia la derecha. Como consecuencia, al cabo de 1 segundo el coche tiene una velocidad de 1 m/s hacia la derecha, y al cabo de 2 s el coche se mueve a 2 m/s hacia la derecha. En el dibujo representamos estos “hacia la derecha” con flechas, pero también podríamos haberlo hecho con coordenadas. Supongamos que utilizamos, como en los ejemplos de artículos anteriores, las tres coordenadas cartesianas para describir el sistema, y que elegimos la coordenada x hacia la derecha.
En ese caso, la aceleración del coche es (1, 0, 0) m/s2 y su velocidad inicial, como está parado, es (0, 0, 0) m/s. Hay quien diría que es “positiva” y que por eso el coche “acelera, no frena”, pero esto no tiene sentido –luego veremos un ejemplo que lo demuestra–. El caso es que la aceleración es el cambio de la velocidad cada segundo, con lo que al cabo de 1 segundo el coche tendrá una velocidad de (0, 0, 0) + (1, 0, 0) = (1, 0, 0) m/s. Al cabo de 2 s, el coche se moverá a (1, 0, 0) + (1, 0, 0) = (2, 0, 0) m/s y así sucesivamente.
Pero también podríamos haber elegido las coordenadas de forma diferente, de modo que la coordenada x no fuera positiva hacia la derecha, sino hacia la izquierda. En ese caso, la aceleración del coche, al ir hacia la derecha, sería negativa, (-1, 0, 0) m/s2 (que, en nuestro sistema de coordenadas,significaría “1 m/s2 hacia la derecha”, exactamente lo mismo que antes), y su velocidad sería inicialmente (0, 0, 0) m/s, luego (-1, 0, 0), luego (-2, 0, 0)… como ves, todo depende del sistema que elijamos, y el signo de nada significa nada inherentemente.
Pero, si no tiene sentido decir que un objeto “acelera” si su aceleración es positiva y “frena” si es negativa, ¿cómo podemos entonces saber si sucede una cosa o la otra? Como digo, no es con el signo de la aceleración –hablar del signo de una flecha es, en sí mismo, un poco tonto–, pero hay una manera igualmente sencilla de hacerlo, y espero que bastante intuitiva. Fíjate en el dibujo del coche de arriba y en los vectores de aceleración y velocidad, y ahora haz lo mismo con este otro ejemplo, que no voy a describir antes de plantarlo aquí porque ya deberías saber lo suficiente para interpretarlo de manera correcta:
Coche, velocidad y aceleración 2
Sí, lo has adivinado: un objeto “acelera” cuando su aceleración se dirige a favor de la velocidad, y “frena” cuando su aceleración se dirige en contra de la velocidad. Esto es así independientemente de coordenadas y otras pamplinas, y no involucra tonterías como el “signo” de una flecha. Además, como decía antes, me parece bastante intuitivo: si te mueves hacia arriba y aceleras hacia arriba, cada vez irás más rápido; si te mueves hacia la izquierda y aceleras hacia la derecha, te moverás cada vez más despacio.


¡Ojo! Acelerar ≠ moverse más rápido o más despacio

Sé que soy más pesado que las piedras, pero no lo puedo evitar. El problema es que el lenguaje cotidiano, legítimamente, llama “acelerar” a moverse más deprisa que antes, y “frenar” a moverse más despacio. Esto está muy bien, pero el problema llega cuando utilizamos el término “aceleración” para significar algo diferente, muy concreto y técnico, y nuestra intuición, moldeada por años de empleo de la palabra “acelerar” en su sentido cotidiano, nos juega malas pasadas.
En Física, si dices que algo tiene aceleración, eso significa que su velocidad varía. Puede que se mueva más deprisa, o que se mueva más despacio, o que cambie su dirección de movimiento, o una mezcla de dos cosas, da igual. Pero hay situaciones, como la de un coche que viaja a 100 km/h pero que cambia su dirección de movimiento siempre a 100 km/h, en las que en el lenguaje cotidiano nunca diríamos “el coche está acelerando” porque siempre va igual de rápido, pero técnicamente el coche, desde luego, está acelerando.
También es posible, desde luego, decir que “un coche frena” en un contexto técnico, lo cual significa en términos de la Mecánica que su aceleración se dirige en sentido contario a la velocidad. Simplemente no olvides, porque en eso radica el problema, la diferencia entre rapidez y velocidad, ya que la aceleración modifica la segunda, pero no necesariamente la primera. Ya me callo.

Pero claro, la cosa no tiene por qué ser tan drástica en uno u otro sentido: es posible que la aceleración se dirija más o menos con la velocidad, pero no completamente como en nuestro primer ejemplo del coche, y es posible que vaya más o menos en contra pero no completamente como en el segundo ejemplo. Imaginemos que la velocidad y la aceleración de una pelota azul se dirigen en estas direcciones respectivas:
Velocidad y aceleración vectoriales
¿Qué le sucederá a la pelota al cabo del tiempo? Como puedes ver, se trata de un ejemplo más complejo que los del coche, ya que ahora velocidad y aceleración no tienen la misma dirección. Ésta es una buena manera de comprobar si has asimilado el artículo de hoy. Independientemente de los números, que poco importan ahora, la pelota empieza moviéndose hacia arriba a la velocidad que sea, pero con el paso del tiempo van a sucederle dos cosas –ya que, como tiene aceleración, no se trata de un movimiento uniforme–. Tan importantes son las dos cosas que las voy a poner en dos puntos separados:

  1. La pelota va a moverse más deprisa. Ya que la aceleración indica el cambio de velocidad cada segundo, y puesto que la aceleración se dirige hacia la derecha y hacia arriba, la “parte hacia arriba” de la aceleración va a hacer que la velocidad aumente hacia allí.
  2. La pelota va a girarse hacia la derecha. En este caso la aceleración no se dirige justo con la velocidad, sino que se escora hacia la derecha, luego la velocidad cambiará en esa dirección y la pelota, además de ir más deprisa, va a girar.

Por esta razón, dado que las direcciones relativas de velocidad y aceleración son tan importantes, es muy común “diseccionar” la aceleración, es decir, descomponerla, en dos componentes que nos indican precisamente en qué medida se producen los dos efectos que acabamos de ver. Esas componentes reciben el nombre de componentes intrínsecas de la aceleración.

Componentes intrínsecas de la aceleración

Si has comprendido el ejemplo de arriba, el quid de la cuestión es que la aceleración puede tener efectos diferentes sobre el movimiento de un objeto dependiendo de la dirección respecto a la velocidad. Por lo tanto, para visualizar lo que va a hacer un objeto mientras se mueve, es muy útil descomponer la aceleración en dos partes: por un lado, la parte que va a favor o en contra de la velocidad, es decir, la componente paralela a la velocidad y, por otro, la parte que no va ni a favor ni en contra, es decir, perpendicular a la velocidad. La manera más sencilla de verlo es sobre el ejemplo de arriba:
Componentes intrínsecas de la aceleración 1
Estas dos componentes de la aceleración, paralela y perpendicular, son precisamente las llamadas componentes intrínsecas. Como los físicos somos muy finos, en vez de llamarlas “paralela” y “perpendicular”, les damos nombres un poco más sofisticados:

  • La componente de la aceleración que es paralela a la velocidad se denomina aceleración tangencial.
  • La componente de la aceleración que es perpendicular a la velocidad se denomina aceleración normal.

Lo de “normal”, por cierto, no es “normal y corriente”, sino que toma el significado de “normal” como “perpendicular”. Una vez más, esto es simplemente un modo de diseccionar la aceleración de manera que podamos ver fácilmente si va a favor o en contra de la velocidad y en qué medida, y si producirá un giro o no, hacia dónde y en qué medida. Para comprenderlo, compara las componentes de arriba con las de este otro ejemplo:
Componentes intrínsecas de la aceleración 2
En este caso, la aceleración tangencial es mucho menor que antes, mientras que la normal es mucho mayor que antes. Si comprendes la diferencia entre el anterior ejemplo y éste, entiendes lo que significan las dos componentes intrínsecas. En este segundo ejemplo, la pelota va a girar bastante más bruscamente que antes, pero no va a moverse mucho más deprisa en la dirección en la que iba. Eso es precisamente lo que miden las dos componentes intrínsecas de la aceleración:

  • La aceleración tangencial es como el acelerador/freno de un coche: mide el cambio en la rapidez. Si se dirige en el mismo sentido que la velocidad, la rapidez aumentará, y si se dirige en sentido contrario disminuirá.
  • La aceleración normal es como el volante de un coche: mide el cambio en la dirección de movimiento. Hacia donde se dirija esta aceleración virará el movimiento del objeto.

Por lo tanto, si descomponemos la aceleración total de un objeto en estas dos componentes (incluso si no las dibujamos, sino que lo vemos en la cabeza) podemos darnos una idea de si va a girar o no, y si va a moverse más rápido o más despacio, o ninguna de las dos cosas. Naturalmente, cuanto mayor sea cada una de las dos, más intenso será el efecto correspondiente.
Si la aceleración tangencial es cero, eso significa que el objeto se moverá igual de rápido. Esto puede suceder, por ejemplo, en un coche que va siempre a 100 km/h pero gira el volante a uno y otro lado, de modo que cambia su dirección de movimiento sin modificar su celeridad. Éste es un caso en el que, a menudo, la gente piensa erróneamente que no hay aceleración porque el coche no “acelera” ni “frena” en el sentido cotidiano de las palabras, pero si has asimilado el artículo de hoy ves la diferencia — lo que sucede realmente es que la aceleración del coche es perpendicular a su velocidad, con lo que la aceleración es toda normal, no hay tangencial… pero elcoche sí sufre una aceleración, porque si no su velocidad permanecería constante y aquí no lo hace, pues cambia su dirección.
Si la aceleración normal es cero, eso significa que el objeto se moverá en la misma dirección, es decir, realizará un movimiento rectilíneo. Es lo que sucede, por ejemplo, en la salida de un Gran Premio de Fórmula 1: los coches empiezan parados pero, cuando el semáforo se pone en verde, pisan el acelerador a fondo y salen disparados. Su aceleración va justo hacia delante del coche durante la primera recta, es decir, es toda tangencial (y muy grande), mientras que la aceleración normal es cero con lo que se mueven en línea recta.
Dicho de otro modo: si observas que un cuerpo modifica su rapidez, es que su aceleración tangencial no es cero, mientras que si observas que gira, es que su aceleración normal no es cero. Desde luego, es posible que ambas existan, como nuestro ejemplo de la pelota, o que no exista ninguna, con lo que el cuerpo tenga un movimiento uniforme.

Ideas clave

Para seguir el bloque con garantías, deben haberte quedado claros los siguientes conceptos fundamentales:

  • La aceleración mide la variación de la velocidad por segundo, y se mide en metros por segundo al cuadrado (m/s2).
  • La aceleración no es positiva ni negativa, pues es un vector: sus efectos dependen de la dirección relativa respecto a la velocidad.
  • A veces es conveniente descomponer la aceleración en sus dos componentes intrínsecas relativas a la velocidad, una paralela y otra perpendicular a ella.
  • La aceleración tangencial es la componente de la aceleración paralela a la velocidad y, lo mismo que el acelerador/freno de un coche, determina el cambio en la rapidez.
  • La aceleración normal es la componente de la aceleración perpendicular a la velocidad y, lo mismo que el volante de un coche, determina el cambio en la dirección del movimiento.

Hasta la próxima…

Hoy no voy a proponer un desafío numérico, ni siquiera que repase conceptos del artículo de hoy, sino que voy a intentar hacerte pensar para que estés listo para morder el próximo artículo en la nariz. Ni siquiera importa que seas capaz de razonar hasta llegar a la respuesta correcta –con los conceptos que hemos visto, hay muchas maneras de explicar con cierta corrección lo que pido–, simplemente que le dediques un tiempo al asunto.

Desafío 3 – Diferencia entre velocidad y aceleración
Como hemos visto a lo largo del artículo de hoy, existen similitudes bastante grandes entre velocidad y aceleración: ambas miden el cambio en otra cosa cada segundo, son vectores, permiten saber lo que hará el objeto en el futuro, etc. Desde luego, también hay diferencias entre ellas (si has leído el cuadro amarillo, por ejemplo, ya conoces una), pero existe una diferencia esencial para comprender el próximo artículo del bloque.
Esa diferencia radica en lo que es necesario hacer para conseguir, por un lado, que algo se mueva con cierta velocidad, y por otro, que algo se mueva con una aceleración. De manera que mi pregunta hoy es la siguiente: si un cuerpo se mueve, por ejemplo, hacia la derecha a 20 m/s, ¿qué es necesario hacer para que se mueva a la misma velocidad dentro de unos minutos, y qué es necesario hacer para que se mueva a 30 m/s al cabo de unos minutos? ¿Cuál es la diferencia esencial entonces entre velocidad y aceleración?

Entradas relacionadas:

  • [Mecánica Clásica I]
  • Series
  • [Mecánica Clásica I] Velocidad
  • ¿No sabes qué leer? Lee una entrada al azar

    Portal de recursos para la Educación, la Ciencia y la Tecnología.

    Premios Nobel – Física 1909 (Guglielmo Marconi y Karl Ferdinand Braun)

    Premios Nobel – Física 1909 (Guglielmo Marconi y Karl Ferdinand Braun)

    Pasito a pasito, en la serie sobre los Premios Nobel vamos recorriendo la historia de estos galardones, en la Física y la Química, desde sus origenes hasta la actualidad. De este modo le damos un repaso a muchos asuntos interesantes en Ciencia, pero de un modo poco habitual: desde una perspectiva histórica, tratando de recrear la maravilla de descubrir los secretos de la Naturaleza poco a poco. Llevamos ya un buen puñado de premios, desde los inicios en 1901 hasta el último, el de Química de 1908 con el que nos divertimos juntos –o eso espero– en la última entrega de la serie. La verdad es que es una de las series que más disfruto escribiendo, porque me encanta leer los textos de la época, por anticuados que suenen hoy, y vislumbrar las emociones que cosas que hoy damos por sentadas despertaban entonces. Para muestra, un botón del discurso de presentación del premio de hoy:

    En 1897 era aún posible únicamente realizar una transmisión inalámbrica hasta una distancia de 14-20 km. Hoy en día, las ondas electromagnéticas se envían entre el Viejo y el Nuevo Mundo, todos los barcos de vapor transoceánicos de gran tamaño tienen su propio equipo telegráfico sin hilos a bordo, y toda Armada de importancia utiliza la telegrafía sin hilos.

    ¡Qué modernidad! ¡Todos los barcos de gran tamaño tienen su propio equipo telegráfico sin hilos! Las ciencias adelantan que es una barbaridad…
    En fin, que me pierdo. El Premio de hoy es el Nobel de Física de 1909, otorgado al italiano Guglielmo Marconi y al alemán Karl Ferdinand Braun, en palabras de la Real Academia Sueca de las Ciencias,

    En reconocimiento a sus contribuciones al desarrollo de la telegrafía sin hilos.

    Hoy en día, claro está, no hablaríamos de telegrafía sin hilos sino de radio, pero ese término no empezó a utilizarse de manera extendida hasta 1920 o así y, al principio, realmente se trataba de algo tan simple como la telegrafía, no la transmisión de voz posterior.
    En cualquier caso, el premio de hoy es peculiar. Desde luego, no pretendo conocer los pensamientos de los miembros de la Real Academia por entonces, pero por importantes que sean los avances logrados por Braun, Marconi y otros que no fueron recompensados con un Nobel, se trata de avances prácticos basados en un descubrimiento fundamental, el descubrimiento, que es el que debería haber recibido el Nobel.
    Braun y Marconi
    Karl Ferdinand Braun (izquierda) y Guglielmo Marconi (derecha).

    El problema es que los físicos que establecieron las bases teóricas y experimentales para el nacimiento de la “telegrafía sin hilos” y con ella de las comunicaciones inalámbricas en general estaban ya muertos antes de que se otorgase el primer Premio Nobel en 1901. Esto significa que, por revolucionarios que fueran aquellos descubrimientos, sus autores nunca podrían ser galardonados por ellos… con lo que sospecho, aunque se trate de una opinión personal, que la Academia trató de reconocer a Maxwell, Faraday o Hertz a través de Braun y Marconi y la realización práctica de las ideas y experimentos de aquellos genios.
    De modo que tengo que pedirte, como muchas otras veces, comprensión: no voy a hablar mucho ni de Braun ni de Marconi, –aunque desde luego que describiremos brevemente sus contribuciones a este asunto–. No, esta serie es para disfrutar, no para recorrer mecánicamente los premios, y lo que es realmente para disfrutar, científicamente hablando, es lo que pasó antes de Marconi, Tesla o Braun, de modo que a eso nos dedicaremos fundamentalmente. Es posible que algún día dediquemos una entrega de inventos ingeniosos a la radio y será allí donde abordemos los asuntos más controvertidos y escabrosos del desarrollo de ese invento, pero hoy nos recrearemos en la ciencia pura relacionada con el nacimiento de la radio.
    Debemos retroceder, por lo tanto, a mediados del XIX, cuando la electricidad y el magnetismo estaban aún en pañales. Ya hablamos brevemente de este asunto en el artículo dedicado al telégrafo eléctrico, pero en 1820 el danés Hans Christian Ørsted comprueba que una corriente eléctrica es capaz de mover una aguja imantada. La importancia fundamental de este experimento, sin duda, es el descubrimiento de la conexión existente entre electricidad y magnetismo, dos fenómenos que hasta entonces se habían considerado completamente separados, pero hay una segunda lectura más relevante en lo que al artículo de hoy se refiere: la aguja imantada no tocaba el cable por el que circulaba corriente, y sin embargo era afectada por él. Dicho con otras palabras, la corriente eléctrica ejercía un efecto sobre un objeto distante a través del espacio que los separaba. La electricidad afectaba al espacio circundante, aunque no se supiera aún cómo ni por qué.
    James Clerk Maxwell
    James Clerk Maxwell (1831-1879).
    Otros científicos, como Faraday y Henry, realizan avances experimentales considerables en el estudio de la electricidad y el magnetismo, demostrando y utilizando las conexiones entre ambos, pero hace falta un marco teórico que abarque ambos campos con coherencia y solidez: una auténtica teoría electromagnética. Si llevas gorra o sombrero, por favor, tengo que pedirte que te lo quites como muestra de respeto antes de seguir leyendo, ya que el responsable de crearla es un genio como ha habido pocos en la historia de la ciencia: el escocés James Clerk Maxwell. Como vimos en el artículo dedicado a Lorentz y Zeeman, Maxwell toma el conocimiento teórico anterior, los experimentos de Faraday y compañía, y elabora una teoría del electromagnetismo que explica con una elegancia pasmosa las observaciones anteriores relacionadas con la electricidad y el magnetismo. Sus cuatro ecuaciones –que eran más de cuatro y más complejas hasta que Oliver Heaviside las convirtiese en las que usamos hoy, aunque sigan llevando el nombre de Maxwell– son, sin duda, algunas de las más bellas de la Física, pero en lo que a nosotros respecta en este artículo, tienen una importancia adicional.
    El caso es que, entre las diversas predicciones que Maxwell pudo obtener de sus ecuaciones, una de ellas era realmente intrigante: cualquier perturbación eléctrica o magnética no se transmitía instantáneamente por el espacio, sino que tardaba cierto tiempo en alcanzar puntos distantes. El escocés, por tanto, calculó a qué velocidad se transmitían esas perturbaciones y obtuvo un valor casi idéntico al de la velocidad de la luz –dentro de la precisión de la época, por supuesto–. Pero la cosa fue más lejos; la maravilla de las ecuaciones de Maxwell es que, aunque su propósito fuera describir fenómenos ya conocidos, de ellas se deducían conclusiones sorprendentes sobre la electricidad y el magnetismo, fenómenos nuevos y nunca identificados.
    Ecuaciones de Maxwell
    Ay, que se me saltan las lágrimas… las ecuaciones de Maxwell, a las que un día dedicaremos una mini-serie.
    El más sorprendente de todos, y evidente al manipular las ecuaciones, era el hecho de que el campo magnético y el eléctrico, al variar en el tiempo y el espacio, debían ser capaces de producir ondas que se propagasen por el espacio: ondas electromagnéticas, en las que la oscilación era la propia variación del campo eléctrico y el magnético; en términos de la época, ondas eléctricas. Y la velocidad de propagación de esas ondas por el espacio era, curiosamente, la de la luz. Claro, las coincidencias pueden suceder, pero a Maxwell le pareció extremadamente sospechosa la combinación de dos factores: por un lado, la coincidencia casi exacta de la velocidad de la luz con la de sus “ondas eléctricas”, y por otro lado el hecho de que, siendo tan evidente la existencia de esas ondas a partir de sus ecuaciones, nadie nunca las hubiera visto. En palabras del propio Maxwell,

    Esta coincidencia de resultados parece mostrar que la luz y el magnetismo son efectos de la misma sustancia, y que la luz es una perturbación electromagnética que se propaga a través del campo de acuerdo con las leyes del electromagnetismo.

    Esa sustancia de la que habla Maxwell no era otra que el famoso éter luminífero, que traería de cabeza a los físicos durante unas cuantas décadas, pero no es eso lo que nos interesa ahora mismo. La teoría de Maxwell no sólo combinó electricidad, magnetismo y luz, sino que además –y de ahí su importancia en esta entrada– predecía la posibilidad de crear señales ondulatorias utilizando la electricidad que viajasen por el espacio y pudiesen ser detectadas en otros lugares. Desde luego, Maxwell era un teórico puro y no realizó experimentos al respecto, pero sin su base teórica no hubieran sido posibles los avances posteriores. En mi opinión, el primero de los dos genios del artículo de hoy es, sin duda, el escocés, que no recibió el Nobel porque murió bastante tiempo antes de que existieran esos premios.
    Pero, como casi siempre pasa en Ciencia, las respuestas de Maxwell generaban preguntas nuevas; la más importante de todas en este caso era casi inmediata tras conocer la propuesta de Maxwell para la luz: si las perturbaciones eléctricas producen, básicamente, luz, ¿por qué no las vemos como tales? ¿Por qué al encender una corriente eléctrica, o apagarla, o modificarla, no vemos nada? ¿No será que la luz es otra cosa que no tiene nada que ver con la electricidad o el magnetismo? ¿No será que no hay ninguna “onda eléctrica” viajando por el espacio, si nadie las ha visto nunca, y que las ecuaciones de Maxwell no son más que pamplinas? Dicho de un modo más formal, la propuesta de Maxwell era una hipótesis, la hipótesis electromagnética de la luz; como toda hipótesis, hacía falta demostrarla. Y, como tantas otras veces, al genio teórico –en este caso Maxwell– le hacía falta una contrapartida, un genio experimental. Ese genio no fue otro que el alemán Heindrich Rudolf Hertz, que ya hizo su aparición en esta misma serie como mentor de Philipp Lenard.
    Heinrich Rudolf Hertz
    Heinrich Rudolf Hertz (1857-1894).
    Como muchos otros, Hertz era consciente de que la luz era posiblemente sólo una parte de todas las ondas electromagnéticas; nuestros ojos eran sensibles sólo a ciertas frecuencias de oscilación, y no todas. Las “ondas eléctricas” de Maxwell, al ser generadas con variaciones de corriente eléctrica ordinarias, eran invisibles al ojo humano. Pero el problema entonces era difícil de resolver: ¿cómo demostrar que existe una onda que nadie puede ver? La solución estaba en las propias ecuaciones de Maxwell, es decir, en las relaciones entre electricidad y magnetismo. El ojo humano podía no ser sensible a muchas ondas electromagnéticas, pero debía ser posible construir algún tipo de circuito eléctrico que sí lo fuese.
    Para demostrar que Maxwell tenía razón, por lo tanto, hacían falta varias cosas: era necesario producir ondas utilizando únicamente la electricidad y el magnetismo, y además detectar esas ondas de un modo reproducible en otros laboratorios. Era también necesario determinar sus propiedades, y comprobar que coincidían con las de la luz — velocidad, comportamiento ante la refracción, reflexión, etc. De modo que el objetivo de Hertz no era precisamente sencillo. El físico alemán lo logró en una serie de experimentos que marcan un antes y un después en el estudio de la electricidad y el magnetismo, a pesar de que él mismo, como veremos luego, no les dio la importancia práctica que tienen. Estos experimentos son de tal importancia que, en el propio discurso del Premio Nobel de hoy –que no fue otorgado a Hertz por las razones que hemos descrito antes– se los califica como “los más importantes en el último medio siglo”.
    Es muy posible, por cierto, que leas por ahí sobre otros científicos que consiguieron transmitir ondas electromagnéticas generadas por circuitos eléctricos, algunos antes que Hertz, pero ninguno lo hizo con la claridad que el alemán, ni lo hizo de un modo sistemático que demostrase la propuesta de Maxwell, ni obtuvo tantos resultados sobre las propiedades de las “ondas eléctricas” como Hertz; como decía antes, un auténtico genio de la física experimental, tanto como Maxwell lo era de la teórica.
    Hertz conocía bien, por supuesto, la teoría electromagnética. Su idea era la siguiente: producir una variación del campo electromagnético en un punto determinado, cuanto más brusca, mejor, y construir un detector lo más sensible que pudiese, de modo que si el emisor producía una perturbación electromagnética que, efectivamente, se propagase por el espacio como predecía Maxwell, el detector fuera capaz de notar su presencia. Dicho mal y pronto, la idea era pegar un buen “latigazo eléctrico” en un punto del espacio, que generase por tanto una onda electromagnética de gran amplitud a su alrededor. A su vez, esta onda debería ser capaz de meter otro “latigazo” en un lugar razonablemente alejado, y midiendo el movimiento de las cargas en el destino, debería ser posible detectar la “onda eléctrica”. No sé si suena simple, pero no lo era en absoluto; además, el experimento debía ser capaz de medir las propiedades de las ondas emitidas, como su frecuencia o amplitud, además de su velocidad, para ver si esa velocidad y esas propiedades coincidían con la de la luz.
    El alemán construyó un emisor de “ondas eléctricas” que básicamente producía chispas. Para ello, unió una bobina de inducción que producía una corriente eléctrica oscilante de gran voltaje a una estructura metálica. En la estructura había dos partes, que terminaban en sendas esferitas metálicas que estaban casi en contacto pero que no se tocaban, y cada una de las dos partes estaba unida a un polo de la bobina. La idea era que, según circulaba corriente, uno de los dos lados de la estructura metálica –que hoy llamaríamos una antena– se iría cargando positivamente y el otro negativamente, hasta que la diferencia de potencial entre las dos esferitas metálicas fuera la suficiente para que saltase una chispa entre ellas (en cada lado había, además de la pequeña esfera, otra más grande que actuaba de condensador y almacenaba una buena cantidad de carga cada vez). A continuación, el sentido de la corriente procedente de la bobina cambiaba, y las dos partes de la “antena” se cargaban al revés que antes, más y más hasta que saltaba, otra vez, la chispa entre ambas bolitas, y así una y otra vez.
    Réplica del experimento de Hertz.
    Réplica del experimento de Hertz (Sparkmuseum, publicado con permiso del autor).
    La chispa generada era audible, como cualquier chispa eléctrica, y también era posible verla, pero si Maxwell tenía razón, debía ser posible además detectar una “onda eléctrica” invisible procedente de este emisor. Para detectarla, Hertz construyó algo muy parecido: un pequeño circuito sin ningún tipo de fuente de alimentación, con dos esferitas metálicas muy cercanas la una a la otra. Si, una vez más, Maxwell tenía razón, la perturbación eléctrica generada en el emisor viajaría por el espacio en todas direcciones; al alcanzar este segundo circuito, induciría en él una corriente variable de la misma frecuencia de oscilación que la original, que por lo tanto sería capaz de producir pequeñas chispas entre las esferitas metálicas del detector: chispas eléctricas sin que hubiese ninguna fuente de electricidad en el detector.
    Claro, las chispas en el detector no serían tan brutales como en el emisor; si se estaban emitiendo ondas allí, según esas ondas se expandían por el espacio se irían atenuando, con lo que al llegar al receptor serían más débiles, tanto más cuanto más lejos estuvieran el emisor y el receptor, pero deberían ser visibles en la oscuridad: para asegurarse de verlas, el científico metió el receptor en una caja cerrada, de modo que fuera posible mirar dentro de la caja sin ser deslumbrado por la chispa original y ver la “chispa secundaria”. Y, cuando Hertz puso en marcha el emisor, se observaron pequeñas chispas repetidas en el receptor. ¡En un receptor sin fuente de energía eléctrica! Hertz había empleado una corriente eléctrica variable para transmitir señales eléctricas por el espacio sin emplear cables. ¡Éste, éste es el experimento que merece no sólo un Nobel, sino un beso en los morros de Herr Hertz!
    Desde luego, la cosa no se quedó ahí: estamos hablando de un científico de primera. El físico comprobó y documentó la variación en la intensidad al modificar la distancia entre emisor y receptor; puso diferentes medios entre uno y otro para comprobar si la onda atravesaba distintos materiales o no, y para medir posibles cambios de dirección al cambiar de medio. Hizo reflejarse la onda sobre una lámina metálica para generar una especie de “eco”, mediante el que era posible medir aún más propiedades de la onda generada, y comprobó la velocidad de las perturbaciones. Vamos, que diseccionó estas “ondas eléctricas” para comprobar todas las propiedades, cualitativas y numéricas, que era posible comprobar, y se pasó cuatro años haciendo experimentos al respecto, entre 1885 y 1889.
    Los resultados fueron publicados en Annalen der Physik y luego en un libro, Untersuchungen Ueber Die Ausbreitung Der Elektrischen Kraft (Investigaciones sobre la propagación de la energía eléctrica): las ondas eléctricas de Maxwell se comportaban exactamente igual que la luz en todos los aspectos, se reflejaban como ella, se refractaban como ella, se propagaban a la misma velocidad que ella… las diferencias eran minúsculas y se debían a la diferencia entre las frecuencias de una y otra. Por ejemplo, al igual que la propagación de la luz era detenida por materiales como un trozo de madera, las “ondas eléctricas” de mucha menor frecuencia generadas por el aparato de Hertz eran capaces de atravesarla, y el ojo humano era sensible a unas sí y no a otras.
    Los resultados de Hertz eran tan claros, los experimentos tan metódicos, las explicaciones tan meridianas y las coincidencias tan exactas que a prácticamente nadie le quedó ninguna duda: la hipótesis electromagnética de la luz de Maxwell era cierta. Se trata de uno de los experimentos más importantes de todo el siglo XIX, pero no sólo por su importancia teórica: Hertz había enviado una señal eléctrica entre dos puntos a través del aire. ¿Te das cuenta del potencial inmenso del experimento y sus aplicaciones prácticas?
    Bueno, no sé si tú te das cuenta o no, pero puedo decirte que el propio Heinrich Hertz no se daba cuenta en absoluto. Era plenamente consciente, naturalmente, de la importancia teórica de sus experimentos –muy tonto hubiera tenido que ser para pasar cuatro años haciendo experimentos inútiles–, pero completamente ciego a la importancia práctica de lo que había logrado. ¿Cuáles eran las posibles ramificaciones y utilidades de lo que acababa de conseguir? En sus propias palabras:

    No tiene utilidad alguna […] es sólo un experimento que demuestra que el Maestro Maxwell tenía razón – simplemente tenemos estas misteriosas ondas electromagnéticas que no podemos ver a simple vista. Pero están ahí.

    En otra frase digna de un autor de ciencia-ficción clarividente, el bueno de Hertz sentenció la cuestión:

    No creo que las ondas que he descubierto tengan ninguna aplicación práctica.

    Afortunadamente para nosotros, otros no estaban de acuerdo con él, y en poquísimos años existían ya una infinidad de aplicaciones prácticas de las “ondas inútiles” de Hertz. De hecho, como he dicho al principio, en mi humilde opinión los dos héroes de toda esta historia son Maxwell y Hertz, y los demás simplemente limaron detalles. Era inevitable, aunque el Hertz no lo viera, aplicar estos conceptos a la práctica, y una auténtica jauría de científicos e ingenieros se lanzaron a la faena con voracidad.
    Tal fue el número de personas que se dedicaron a este empeño tras la publicación de los resultados de Hertz, y especialmente de 1891 en adelante, que no está nada claro quién hizo qué primero, y depende de qué fuentes consultes te aparecen unos nombres u otros: Bose, Braun, Popov, Tesla, Branly, Marconi… tengo bastante claro que los dos galardonados con el Nobel de 1909 –Braun y Marconi– no merecen ser distinguidos de este modo dejando a los demás olvidados. Sí es cierto que los sistemas de Braun y especialmente Marconi, por unas razones u otras, tuvieron un éxito comercial que los hizo más famosos, pero no es ése no debería ser un factor determinante en la entrega de un Nobel. En fin.
    Ferdinand Braun en Helgoland
    Karl Ferdinand Braun (el del medio) en la estación de telegrafía sin hilos de Helgoland, el 24 de septiembre de 1900.
    Braun se unió a la vorágine alrededor de 1897, y logró avances, como la adición de un diodo rectificador en el receptor, que se convirtieron en múltiples patentes. Las mejoras del alemán aumentaron el alcance práctico de las señales de radio en varios órdenes de magnitud, y permitieron conseguir que lo que en 1888 había sido una comunicación entre un emisor y un receptor separados unos metros pudiera convertirse en algo muchísimo más útil. Hacia 1900, el sistema de Braun se empleaba ya para comunicar, mediante la telegrafía sin hilos, la costa alemana con la isla de Helgoland; la distancia entre estaciones era de unos 60 km, lo cual no está nada mal teniendo en cuenta que sólo habían pasado doce años desde los experimentos de Hertz.
    El otro galardonado, el italiano Guglielmo Marconi, empezó a trabajar en el asunto unos años antes que Braun, en 1894, como consecuencia indirecta de la muerte de Heinrich Hertz: el fallecimiento del alemán provocó un renovado interés en varias de sus publicaciones, y uno de los recién interesados entonces fue Marconi. El italiano, tras comprobar que en su tierra natal no recibía la atención y los fondos necesarios, se mudó a Gran Bretaña, y allí fue mejorando poco a poco los sistemas de transmisión sin hilos. A diferencia de Hertz o Maxwell, Marconi no era ningún genio –en mi opinión, por supuesto–, y su principal mérito fue, además del tesón, la adopción de multitud de pequeñas mejoras, algunas desarrolladas por otros (por ejemplo, por Braun o Tesla) para conseguir resultados prácticos brillantes.
    Prototipo de Marconi
    Uno de los prototipos de Marconi, 1896.
    El 13 de mayo de 1897, tres años antes de que Braun lo consiguiese desde Helgoland, Marconi realizó la primera transmisión de radio sobre el mar, entre Lavernock Point y Flat Holm Island; eso sí, en ausencia todavía de las mejoras de Braun, la distancia lograda por Marconi fue sólo de unos 6 km, mucho menos impresionante que los 60 del otro. Sin embargo, Marconi obtuvo la suficiente atención y supo gestionar contactos y finanzas de modo que fue mejorando su sistema más y más, sin inventar nada revolucionario por sí mismo.
    Sé que no sueno muy entusiasmado con los avances de Guglielmo, pero no puedo ocultarlo y creo que es mejor dejarte claro lo que es opinión y lo que son hechos: no me despierta demasiada simpatía. En esta serie hemos visto genios como Röntgen o los Curie, que desentrañaban los secretos del Universo por curiosidad científica y, en muchos casos, donaban al público sus descubrimientos para que todos pudieran beneficiarse de ellos. Marconi y muchos de sus compañeros de la “jauría” (que no he llamado así al azar) tenían un propósito clarísimo: obtener patentes antes que los demás, establecer empresas que reemplazasen a las de telegrafía por hilos y monopolizasen las comunicaciones a larga distancia y ganar ingentes cantidades de dinero con ello. Y todo ello, además, sin realizar avances científicos de una verdadera entidad y, en muchas ocasiones, robándose las ideas unos a otros. Tener como objetivo ganar dinero es perfectamente razonable, pero el modo en el que muchos lo hicieron no lo fue tanto.
    Marconi en Terranova
    Marconi y sus colaboradores elevando una antena sobre una cometa en Terranova, 1901.
    En 1901, la empresa de Marconi anunció que había logrado una comunicación inalámbrica transoceánica: utilizando una antena montada sobre una cometa, habían enviado señales telegráficas entre Poldhu, en Cornualles, y Signal Hill, en Terranova. Sin embargo, sólo tenemos la palabra de Marconi y su empresa para probarlo, y muchos no se creen que realmente lo lograse entonces –y muchos tampoco se lo creían en 1901–. Además, el sistema empleado por Marconi utilizaba tantos diseños creados por otros que el mérito es muy relativo. Por otro lado, en años posteriores Marconi sí realizó comunicaciones transatlánticas comprobadas de forma regular. Claro, para realizar transmisiones a tan larga distancia, las estaciones emisoras debían ser de gran potencia, lo cual significaba que para construirlas hacían falta grandes inversiones… y nos alejamos, con todo esto, del espíritu de esta serie, de modo que permite que lo deje aquí.
    De hecho, si algo recuerdas de este artículo en unos meses, que sean la perspicacia de James Clerk Maxwell en su predicción de la naturaleza electromagnética de la luz y la astucia experimental de Heinrich Hertz para demostrarlo, además de la ceguera del segundo respecto a las posibles aplicaciones prácticas de sus experimentos, y no tanto los avances posteriores, por más que fueran ésos los que obtuviesen el Nobel. Sin embargo, no puedo evitar dejar, como siempre, el discurso pronunciado por el Presidente de la Real Academia Sueca de las Ciencias, H. Hildebrand, el día 10 de diciembre de 1909:

    Su Majestad, Sus Altezas Reales, damas y caballeros.
    La investigación en la rama de la Física nos ha proporcionado muchas sorpresas. Descubrimientos que al principio parecían tener únicamente un interés teórico han llevado a menudo a inventos de la máxima importancia para el avance de la humanidad. Y si esto es cierto para la Física en general, lo es aún más en el caso de la investigación en el campo de la electricidad.
    Los descubrimientos e invenciones a los que la Real Academia de las Ciencias ha decidido otorgar el Premio Nobel de Física de este año tienen también su origen en trabajos y estudios puramente teóricos. Sin embargo, por más importantes que éstos fueron en sus campos respectivos, nadie podría haber imaginado al principio que llevarían a las aplicaciones prácticas que surgieron más tarde.
    Aunque esta noche estamos otorgando el Premio Nobel a dos de los hombres que más han contribuido al desarrollo de la telegrafía sin cables, debemos antes manifestar nuestra admiración por aquellos grandes investigadores –ya fallecidos– quienes, a través de su trabajo brillante y talentoso en los campos de la Física experimental y matemática abrieron el camino a grandes aplicaciones prácticas. Fue Faraday, con su afilada mente, quien primero sospechó una conexión íntima entre los fenómenos de la luz y la electricidad, y fue Maxwell quien tradujo sus atrevidos conceptos e ideas al lenguaje matemático y, finalmente, fue Hertz quien, a través de sus experimentos ya clásicos, mostró que las nuevas ideas sobre la naturaleza de la electricidad y la luz tenían una base real en los hechos.
    Es cierto que era ya conocido antes de Hertz que un condensador cargado con electricidad puede, bajo determinadas circunstancias, descargarse de modo oscilatorio, es decir, con corrientes eléctricas que van a uno y otro lado. Sin embargo, Hertz fue el primero en demostrar que los efectos de estas corrientes se propagan por el espacio a la velocidad de la luz, produciendo así un movimiento ondulatorio con todas las características de la luz. Este descubrimiento –probablemente el más importante en el campo de la Física en el último medio siglo–. fue realizado en 1888. Constituye el fundamente, no sólo de la ciencia moderna de la Electricidad, sino también de la telegrafía sin hilos. Pero hacía falta todavía un gran salto desde las pruebas en miniatura en un laboratorio, donde las ondas eléctricas podían seguirse una pequeña distancia, hasta la transmisión de señales a través de grandes distancias. Hacía falta un hombre capaz de comprender el potencial de este empeño, y de superar todas las dificultades que se interponían en el camino de llevar la idea a la práctica. Esta gran tarea estaba reservada a Guglielmo Marconi.
    Incluso teniendo en cuenta intentos anteriores en este sentido, y el hecho de que las condiciones y prerrequisitos para la realización de este empeño ya estaban establecidos, el honor de las primeras pruebas recae, en su mayor parte, en Marconi, y debemos reconocer que el primer éxito en esta empresa fue obtenido como resultado de su habilidad para convertir la idea general en un sistema práctico y útil, además de la energía inflexible con la que persiguió el objetivo que él mismo se había marcado.
    El primer experimento de Marconi de transmisión de una señal a través de las ondas hertzianas se llevó a cabo en 1895. A lo largo de los 14 años que han pasado desde entonces, la telegrafía sin hilos ha progresado sin pausa, hasta alcanzar la enorme importancia que tiene hoy en día. En 1897 era aún posible únicamente realizar una transmisión inalámbrica hasta una distancia de 14-20 km. Hoy en día, las ondas electromagnéticas se envían entre el Viejo y el Nuevo Mundo, todos los barcos de vapor transoceánicos de gran tamaño tienen su propio equipo telegráfico sin hilos a bordo, y toda Armada de importancia utiliza la telegrafía sin hilos.
    El desarrollo de un gran invento pocas veces se produce a manos de un solo hombre, y muchas fuerzas han contribuido a los resultados notables que se han alcanzado. El sistema original de Marconi tenía sus puntos débiles. Las oscilaciones eléctricas enviadas desde la estación emisora eran relativamente débiles, y consistían de series de ondas que se seguían unas a otras y cuya amplitud caía rápidamente en las denominadas “oscilaciones atenuadas”. El resultado era que las ondas tenían un efecto muy débil en la estación receptora, con la consecuencia de que las ondas procedentes de otras estaciones emisoras interferían fácilmente con ellas, dificultando la recepción en la estación de destino. Este insatisfactorio estado de cosas se ha superado, por encima de cualquier otra cosa, gracias al trabajo inspirado del Profesor Ferdinand Braun.
    Braun realizó una modificación al diseño del circuito de emisión de ondas eléctricas, de modo que fuese posible producir ondas intensas con muy poca atenuación. Es gracias a este sistema que la denominada “telegrafía de largo alcance” ha sido posible, en la que las oscilaciones de la estación emisora, como resultado de la resonancia, pueden ejercer el máximo efecto sobre la estación receptora. Una ventaja adicional se debe al hecho de que, en general, sólo las ondas de la frecuencia utilizada por la estación emisora tienen efecto sobre la estación receptora. A través de la introducción de estas mejoras, y sólo gracias a ellas, se han obtenido los magníficos resultados recientes en la telegrafía sin hilos.
    Investigadores e ingenieros trabajan incesantemente en el desarrollo de la telegrafía inalámbrica. Hasta dónde puede llegar este desarrollo, no lo sabemos. Sin embargo, con los resultados ya obtenidos, la telegrafía se ha expandido del modo más afortunado. Libres de caminos fijos e independientes del espacio, podemos ahora producir conexiones entre lugares distantes, a través de enormes masas de agua y desiertos. ¡Éste es el magnífico resultado práctico que ha florecido a partir de uno de los más brillantes descubrimientos científicos de nuestro tiempo!

    En la próxima entrega de la serie, el Premio Nobel de Química de 1909.

    Para saber más (esp/ing cuando es posible):

    Portal de recursos para la Educación, la Ciencia y la Tecnología.

    [Mecánica Clásica I] Velocidad

    [Mecánica Clásica I] Velocidad

    Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

    En el primer artículo de verdad del bloque introductorio a la Mecánica Clásica hablamos acerca de sistemas de referencia y coordenadas, además del concepto de grados de libertad, de modo que al final del artículo fuimos capaces de definir la posición de un objeto y de determinar si se movía o no. Como tal vez recuerdes si leíste aquel artículo, lo terminamos preguntándonos cómo cuantificar lo rápido o despacio que se había movido el objeto. Hoy seguiremos por ese camino pero, como siempre, antes de nada daremos la respuesta al desafío que planteamos entonces.

    Solución al Desafío 1 – Grados de libertad y coordenadas
    Cada uno de los sistemas que planteábamos entonces tenía un número de grados de libertad diferente, además de coordenadas que harían de su estudio algo más simple que si “elegimos mal” (ya dijimos en el artículo anterior a qué se refiere eso):
    1. Un avión que se aproxima para aterrizar en un aeropuerto puede moverse en todas las direcciones del espacio, luego tiene tres grados de libertad (recuerda, si sabes de estas cosas, que aún estamos considerando los objetos como puntos, luego la orientación del avión en sí respecto a su centro de masas no nos interesa todavía). Respecto a las coordenadas, lo más sencillo sería, como en el caso de la mosca de la entrada anterior, elegir las coordenadas cartesianas para describir su movimiento..
    2. Un escarabajo que camina sobre la superficie de una pelota en reposo tiene dos grados de libertad, ya que está restringido a moverse sobre la superficie de la pelota y nos bastan dos números para identificar su posición (como la latitud y la longitud sobre la Tierra). Probablemente, las dos coordenadas más simples para describir su movimiento fuesen precisamente dos ángulos respecto a dos ejes perpendiculares arbitrarios, como en el caso de la Tierra.
    3. Una nave espacial que orbita alrededor de la Tierra pero puede maniobrar para modificar su órbita, al igual que el avión de antes, puede moverse libremente, con lo que tiene tres grados de libertad. Sin embargo, al contrario que en el caso del avión, ya que aquí “horizontal” y “vertical” no tienen mucho sentido, sería seguramente más simple matemáticamente describir su movimiento utilizando dos ángulos, como en el caso del escarabajo, más una distancia radial medida desde el centro de la Tierra –para el que sepa de estas cosas, coordenadas esféricas–.
    4. Un punto rojo marcado sobre un disco en un tocadiscos sólo tiene un grado de libertad, ya que su única posibilidad es girar con el disco cuando éste lo hace. Lo más lógico sería, dado que hablamos de giros, utilizar un ángulo como coordenada, referido a un eje elegido arbitrariamente.

    Hablemos, por lo tanto, de qué sucede más en detalle cuando la posición de un objeto cambia en el tiempo o, dicho más llanamente, cuando el objeto se mueve en nuestro sistema de referencia. ¿Cómo lo hace? ¿Por dónde? ¿Cómo de rápido?

    Velocidad y rapidez

    Volvamos a nuestro ejemplo de la mosca del artículo anterior. Entonces dijimos que la mosca había empezado en el punto (1.5, 2, -0.5) y había terminado en el punto (1.5, 2, 0), con lo que había subido medio metro –dicho técnicamente, su desplazamiento había sido (0, 0, 0.5)–. De lo que no hablamos entonces fue de cómo de rápido ni de por dónde lo había hecho. Respondamos primero a la primera de estas dos preguntas, para poder definir así una magnitud nueva, intuitiva y utilísima.
    Para saber lo rápido que ha sido el movimiento de la mosca nos hace falta saber, evidentemente, el tiempo que ha tardado en subir ese medio metro. Imaginemos, por ejemplo, que entre ambos puntos han transcurrido dos segundos. Podemos hacer dos cosas; por un lado, tener una idea cualitativa de lo rápido que ha sido el movimiento — la mosca se ha desplazado medio metro en dos segundos, luego se ha movido 25 cm cada segundo, es decir, 0.25 m cada segundo…. bastante lenta.
    Esta magnitud –en el caso de la mosca, 0.25 metros por cada segundo– nos indica lo veloz que ha sido la mosca y recibe el nombre técnico de rapidez. Casi siempre que en el lenguaje cotidiano hablamos de velocidad, el concepto de Mecánica al que nos estamos refiriendo realmente es al de rapidez o celeridad, que indica exactamente lo que sugiere su nombre:

    La rapidez de un objeto es la cantidad de metros que se desplaza cada segundo.

    Sin embargo, la rapidez no contiene toda la información que nos interesa; en primer lugar, recordarás que sabíamos algo más aparte de que la mosca se había movido 0.5 metros en 2 segundos — lo había hecho hacia arriba. Y esa información no aparece en la rapidez, ya que no nos hemos preocupado del “hacia dónde”. En vez de fijarnos simplemente en la distancia que se ha desplazado la mosca (0.5 metros), hagámoslo con toda la información, es decir, con todas las coordenadas. Al hacerlo así, tenemos que la mosca se ha desplazado (0, 0, 0.5) metros en 2 segundos, es decir, (0, 0, 0.25) metros cada segundo.
    Esta magnitud recibe el nombre de velocidad y, como puedes ver, es más compleja que la rapidez pero también muchísimo más útil:

    La velocidad de un objeto es la variación en la posición del objeto cada segundo.

    En el caso de la mosca, su velocidad en ese movimiento ha sido (0, 0, 0.25) metros cada segundo. Observa que, aunque se trata de algo más complejo que a lo que nos referimos comúnmente cuando hablamos de “velocidad”, tiene mucha más información que decir simplemente “va a veinte kilómetros por hora”, ya que aquí no sólo sabemos la rapidez de la mosca, sino hacia dónde se ha movido. No tiene sentido, por cierto, decir que hablar de “velocidad” cuando el concepto técnico es el de rapidez –sin la información de dirección del movimiento– se está cometiendo una incorrección. No, se trata simplemente de registros diferentes en contextos distintos. Sí sería incorrecto hacerlo, naturalmente, si estamos en un texto técnico en el que la distinción entre ambas magnitudes es relevante.

    Unidades de la velocidad y rapidez – El metro por segundo y el kilómetro por hora

    Afortunadamente, igual que los conceptos de rapidez y velocidad son bastante intuitivos, sus unidades también lo son. No hay una unidad con nombre propio para ellas, con lo que los “metros cada segundo” de los que hablábamos antes son precisamente los que se utilizan en la realidad.

    Un metro por segundo (m/s) es la rapidez de un objeto que se mueve un metro cada segundo.

    Ese “por segundo”, claro está, quiere decir “por cada segundo”, no “multiplicado por segundo”, como a veces confunden algunos escolares. Tal vez sería menos ambiguo decir “metro partido por segundo”, pero es menos cómodo y resulta algo artificial, con lo que no es tan común como la primera expresión. Tú mismo.
    En cualquier caso, dado que en la vida cotidiana no suelen emplearse los metros por segundo, no es fácil para nosotros imaginar lo que realmente significa; por si te sirve de aviso, casi siempre que alguien ve una velocidad en metros por segundo le parece que es muy grande. Como referencia, aquí tienes algunas rapideces típicas en metros por segundo, de modo que puedas asimilar otros valores por comparación:

    • El límite de velocidad para vehículos en las ciudades es de unos 14 m/s.
    • Un atleta puede correr los cien metros lisos a unos 10 m/s.
    • En una autopista, un coche se mueve a alrededor de 33 m/s.
    • Un avión de pasajeros vuela a unos 220 m/s.

    Desgraciadamente, como sucede tantas otras veces, en la vida cotidiana no suele emplearse el Sistema Internacional de Unidades para la rapidez y velocidad, sino que suele hablarse de los kilómetros recorridos cada hora, en vez de los metros cada segundo:

    Un kilómetro por hora (km/h) es la rapidez de un objeto que se mueve un kilómetro cada hora.

    Kilómetros por hora y metros por segundo
    La conversión entre una unidad y la otra, aunque es algo que no nos preocupa en este bloque “cualitativo”, es sencilla. Conocida la velocidad en km/h, no hay más que recordar que recorrer 1 km es lo mismo que recorrer 1 000 m, y hacerlo en 1 h es lo mismo que hacerlo en 3 600 s, de modo que convertir km/h en m/s requiere multiplicar por 1 000 y dividir por 3 600 o, lo que es lo mismo, dividir por 3.6. Convertir m/s en km/h requiere hacer justo lo contrario, es decir, multiplicar por 3.6.
    Como digo, este bloque es introductorio con lo que esto no nos preocupa mucho, pero si quieres estimar la rapidez de algo en unas unidades conocida en otras, una manera razonablemente rápida es la siguiente –hagámoslo con un coche que viaja a 100 km/h–. Al dividir entre 3 obtenemos unos 33 m/s, al dividir entre 4 obtenemos 25 m/s, con lo que el valor real es aproximadamente el punto medio entre ambos, es decir, 29 m/s; básicamente, estamos dividiendo por 3.5, que es muy parecido al factor de verdad. En este ejemplo, el valor real de la rapidez es de 27,8 m/s, aceptablemente parecido a nuestra estimación.
    Estimar al revés puede hacerse justo al contrario: multiplicando por 3 y por 4 y obteniendo el valor medio. Por si te has perdido con cálculos, la idea central es la de que la velocidad en km/h es entre tres y cuatro veces mayor que en m/s.

    Movimientos uniformes y sistemas de referencia inerciales

    Podemos ya identificar un tipo de movimientos especiales, fundamentales en Mecánica por razones que veremos más adelante, y además establecer una manera de pensar que –espero– te ahorrará malentendidos y confusiones más adelante si comprendes ya el concepto en cuestión.
    Nuestra mosca –o el objeto que sea– puede realizar, desde luego, multitud de movimientos diferentes; puede subir, luego bajar, hacer una vuelta en el aire, pararse un rato y después salir disparada hacia la puerta de la habitación. Sin embargo, aunque los posibles movimientos sean legión, la mosca puede hacer algo especial y muy concreto: lo mismo todo el tiempo. Dicho de otro modo, la mosca puede cambiar su movimiento de maneras muy diversas, o puede no cambiarlo en absoluto. Si hace lo último, se dice que realiza un movimiento uniforme.
    Una manera más técnica de definir este tipo especial de movimientos –que, como digo, son absolutamente fundamentales en Mecánica– es la siguiente:

    Un movimiento es uniforme cuando la velocidad permanece constante en el tiempo.

    Sin embargo, permite que añada una manera peculiar de identificar movimientos uniformes, porque a veces la gente se confunde con estas cosas. Si conoces la posición y la velocidad de un cuerpo en un instante determinado, con lo que sabes exactamente hacia dónde, y cómo de rápido, se estaba moviendo el cuerpo en ese momento, y a partir únicamente de esos dos datos en ese momento eres capaz de conocer dónde va a estar el cuerpo en el futuro, ese movimiento es uniforme. Veámoslo con la mosca.
    Supongamos que la mosca está, como en el ejemplo que venimos usando todo el rato, en (1.5, 2, -0.5) y se mueve con una velocidad de (0, 0, 0.25) m/s. Si la mosca realiza un movimiento uniforme, no nos hace falta saber más: con esto podemos predecir exactamente dónde va a encontrarse en cualquier otro instante. Por ejemplo, ¿dónde estará a los cuatro segundos? Dado que recorre 0.25 metros cada segundo hacia arriba, en 4 segundos habrá subido 1 metro; dicho de otro modo, su desplazamiento será de (0, 0, 1) metros y por tanto tenemos su posición final: (1.5, 2, 0.5) metros. Pero esto sólo será verdad, claro está, si la mosca mantiene esa velocidad de (0, 0, 0.25) m/s todo el tiempo — si no es así, lo que sucede dependerá de cómo cambia la velocidad y es algo que, por ahora, no nos preocupa. Lo que sí debemos tener claro es que si al cabo de 4 segundos la mosca no está “donde debería” –es decir, en (1.5, 2, 0.5)–, es que no ha realizado un movimiento uniforme.

    ¡Ojo! Velocidad constante ≠ rapidez constante
    Es un error muy común confundir rapidez con velocidad cuando se habla de velocidad constante, ya que nuestra cabeza, acostumbrada a entender “velocidad” como “lo rápido que va algo”, traduce automáticamente “velocidad constante” con “va siempre igual de rápido”. Pero no es lo mismo, y comprenderlo es fundamental para entender las causas de ciertos movimientos.
    Recuerda que la velocidad “engloba” a la rapidez, en el sentido de que contiene la información de aquélla y, además, información adicional (el “hacia dónde”). Por lo tanto, si la velocidad de algo es constante, su rapidez también lo es, pero no sucede lo mismo al contrario: puede ser que algo se mueva siempre igual de rápido pero que cambie su velocidad porque lo haga la dirección del movimiento.
    En el ejemplo de la mosca, supongamos que el insecto empieza con una velocidad de (0, 0, 0.25) m/s, pero luego ve a un humano que quiere aplastarla y se aleja hacia la puerta, de modo que su velocidad es ahora (0.25, 0, 0) m/s. Como puedes ver, su velocidad ha cambiado — el movimiento no es uniforme. Sin embargo, la celeridad de la mosca es exactamente la misma: antes subía a 0.25 m/s, ahora se mueve hacia la derecha a 0.25 m/s. Es perfectamente posible ir siempre igual de rápido pero cambiar la velocidad, y la clave está en el hecho de que la velocidad, al ser una magnitud vectorial, incluye una dirección.

    Si un objeto realiza un movimiento uniforme, dado que su velocidad no cambia en ningún aspecto, ese movimiento debe ser necesariamente en línea recta: si hay algún tipo de giro, la velocidad estará cambiando y el movimiento ya no será uniforme. Por ejemplo, el movimiento de un satélite artificial alrededor de nuestro planeta no es uniforme, ya que el satélite está cambiando su dirección de movimiento todo el tiempo; no hace falta siquiera que pensemos en si va más rápido o más despacio en algún momento, ya que la mera modificación de la dirección de movimiento es suficiente para identificar un movimiento no uniforme. Sé que me repito, pero identificar movimientos uniformes y no uniformes es crucial porque permite “destapar” cosas realmente interesantes de las que hablaremos en artículos posteriores del bloque.
    Dada la importancia de los movimientos uniformes, éstos proporcionan además un estatus especial a los sistemas de referencia. Ya dijimos que podemos elegir como sistema de referencia lo que nos dé la gana, y cualquier sistema de referencia es tan válido como cualquier otro, pero unos tienen una “etiqueta de calidad” que otros no tienen. Cuando un sistema de referencia sigue un movimiento uniforme, se denomina sistema de referencia inercial, y las leyes físicas, como veremos en breve, se describen de una manera especialmente sencilla en ellos. Ésta es una de las razones de que identificar los movimientos uniformes sea importante: que algo siga un movimiento uniforme lo hace un candidato excelente a sistema de referencia fetén, es decir, inercial.
    Pero, además, este tipo de movimientos son bellos por su propia simplicidad: observa cómo, conocidos sólo dos datos –posición inicial y velocidad–, es posible predecir el comportamiento del sistema mientras el movimiento siga siendo uniforme. De ahí que sea tan común utilizar este tipo de movimientos en los colegios, ya que permiten extraer conclusiones a partir de datos sencillos y cálculos simples. Por otro lado, los sistemas físicos más interesantes no suelen abundar en movimientos uniformes, pero se trata de un buen “trampolín” para atacar luego otros movimientos más complejos.

    Velocidad media y velocidad instantánea

    Incluso cuando el movimiento no es uniforme, es posible realizar simplificaciones que nos permitan tratarlo como si lo hubiera sido para extraer información útil de lo que ha sucedido. Para ello no hay más que “hacer trampa” y tratar el movimiento, salvando las distancias, como si hubiera sido uniforme, conocidos el lugar de comienzo y el de final. Como siempre, la mosca es nuestra mejor aliada.
    Supongamos que nuestra mosca empieza en (0, 0, 0) y se pone a volar durante 2 segundos hacia arriba a 1 m/s en un movimiento uniforme. Sin embargo, al cabo de 2 segundos decide irse hacia la derecha con la misma rapidez. Finalmente, 2 segundos más tarde, decide volver a bajar una vez más a 1 m/s, también durante 2 segundos. Dibujemos el movimiento completo de la mosca, que ha tenido tres tramos de 2 segundos cada uno (y, por tanto, de 2 metros de longitud cada uno, ya que el bicho vuela siempre a 1 m/s):
    El movimiento completo de la mosca ha durado 6 segundos, y no es un movimiento uniforme: aunque siempre se mueve igual de rápido, la mosca no sigue una línea recta. En términos de velocidad, al principio la velocidad era (0, 0, 1), luego se convirtió en (1, 0, 0) y finalmente en (0, 0, -1) cuando el insecto bajaba. Ha cambiado de velocidad –que no de rapidez– dos veces en el trayecto. Desde luego, cada uno de los tres tramos por separado sí es un movimiento uniforme, pero no el conjunto de los tres.
    Pero olvidemos por un momento el hecho de que la mosca ha zigzagueado por la habitación, y centrémonos en dónde empezó y dónde terminó. Empezó, como hemos dicho, en (0, 0, 0), es decir, el centro de la habitación, y terminó en (2, 0, 0), dos metros a la derecha del centro de la habitación. Por lo tanto, su desplazamiento ha sido de (2, 0, 0) — se ha movido dos metros a la derecha, pero dicho en términos de vectores. Si nos olvidamos de lo que ha sucedido entre medias, ¿cuál es el resultado neto de todo esto en términos de velocidad? Que la mosca se ha desplazado (2, 0, 0) metros en 6 segundos: en otras palabras, que la velocidad media de la mosca es de (2/6, 0, 0) m/s, es decir, (1/3, 0, 0) m/s.

    La velocidad media de un movimiento es el cociente entre el desplazamiento y el tiempo empleado en él.

    A mí me gusta más una definición alternativa, que tal vez te deje las cosas más claras. Supongamos que, en vez de la mosca “real”, nos imaginamos una segunda mosca, una “mosca fantasma uniforme”, que empieza en el mismo sitio que la mosca real y al mismo tiempo que ella pero, en vez de dar vueltas por la habitación, se dirige en línea recta, con velocidad constante, hacia el punto de destino, de modo que llega a él exactamente a la vez que la “mosca real”. ¿A qué velocidad tendría que haber ido la mosca fantasma para conseguir eso? Pues sí, exactamente a la velocidad media: en 6 segundos se desplazará (2, 0, 0) metros y terminará en el mismo lugar que su compañera.

    La velocidad media de un movimiento es la velocidad que hubiera tenido un movimiento uniforme que empezase en el punto inicial y terminase en el final a la vez que el movimiento real.

    Para distinguir la velocidad media de la velocidad “de verdad” que tiene el objeto en cada momento, a veces se denomina a la velocidad real en cada instante velocidad instantánea. Evidentemente, la velocidad instantánea no tiene por qué tener un único valor, sino que puede ir cambiando según se produce el movimiento y el objeto se mueve más deprisa o más despacio, gira, etc.

    ¡Ojo! Velocidad media ≠ media de las velocidades
    Con bastante frecuencia, a leer lo de “media” pensamos que la velocidad media es la media de las diferentes velocidades que ha llevado el cuerpo durante el movimiento. Sin embargo, esto no es así salvo que se haga con sumo cuidado y teniendo en cuenta la ponderación adecuada. Creo que un ejemplo simple hará encenderse la bombilla sobre tu cabeza.
    Si la mosca se mueve con velocidad (0, 0, 1) m/s durante 2 segundos, y a (0, 0, 3) m/s durante 4 segundos, ¿cuál ha sido su velocidad media? La manera ingenua de hacer esto es diciendo que, dado que primero va a (0, 0, 1) y luego a (0, 0, 3), su velocidad media es el valor medio de ambas: (0, 0, 2) m/s. ¡Pero al hacer esto no se tiene en cuenta el hecho de que la mosca se ha movido bastante más tiempo a 3 m/s que a 1 m/s!
    No, la manera que no falla –y la más recomendable para el neófito– es hacerlo con la propia definición (que es, si lo piensas, hacer una media ponderada): el desplazamiento de la mosca ha sido de (0, 0, 2) metros primero, y de (0, 0, 12) metros después, es decir, de (0, 0, 14) metros. Y el tiempo que ha tardado en desplazarse ha sido de 6 segundos –dos segundos primero y cuatro después–. Por lo tanto, la velocidad media es de (0, 0, 14/6) m/s, o lo que es lo mismo, (0, 0, 2.33) m/s, mayor que la obtenida ingenuamente antes.

    Una peculiaridad del concepto de velocidad media es el hecho de que, al tener en cuenta simplemente el lugar inicial y el final y el tiempo transcurrido entre ambas posiciones, se pierde una cantidad enorme de información al trabajar sólo con ella. Por poner un ejemplo extremo, supongamos que nos fijamos en un coche de carreras que da vueltas a un circuito. Desde luego, su movimiento no es uniforme: va más deprisa, luego más despacio, gira a izquierda y derecha… sufre todo tipo de variaciones en su velocidad. Sin embargo, ¿cuál es la velocidad media al cabo de una vuelta?
    La posición inicial es la salida, y la posición final es… una vez más, la salida. Al cabo de una vuelta completa, el coche termina exactamente donde empezó, con lo que su desplazamiento es (0, 0, 0)… lo cual supone que, independientemente de cuánto haya durado la vuelta, al no haberse desplazado de manera neta, su velocidad media es (0, 0, 0) m/s. Raro, ¿no? Sin embargo, si piensas en la definición alternativa de velocidad media, es bastante lógico: si un coche fantasma empezase donde el coche real, ¿qué velocidad debería haber llevado en un movimiento uniforme para terminar donde él? Pues una velocidad nula… simplemente quedándose parado, el coche real hubiese acabado con él tras dar la vuelta.
    Por eso, si ves carreras de Fórmula 1 en la televisión, allí no se mide la velocidad media –aunque así la llamen y todos nos entendamos–, ya que sería siempre nula o prácticamente nula. No, lo que miden es algo diferente, y seguro que ya sabes a lo que me refiero.

    Celeridad media

    Cuando decimos que un coche de carreras ha realizado una vuelta con una velocidad media de 120 km/h, de lo que estamos hablando en términos mecánicos no es de la velocidad media, sino de la celeridad o rapidez media. Como su propio nombre indica, la rapidez media nos da una idea de lo rápido (o lento) que ha sido el movimiento. Pero claro, no podemos estimar esta rapidez con el desplazamiento, puesto que si terminamos en el mismo sitio que empezamos, como sucede en la carrera de coches del ejemplo, la celeridad media sería cero, como lo era la velocidad media.
    Lo que nos hace falta es olvidarnos del hecho de que el movimiento ha seguido una trayectoria curva (la forma del circuito), ya que la celeridad no se preocupa de la dirección del movimiento sino de cuánto movimiento se ha producido: es irrelevante que el movimiento termine en el mismo punto en el que empezó porque, aunque así sea, el coche sí ha recorrido una distancia –la longitud del circuito–. Para tener una imagen visual de esto, imagina que ves el mapa del circuito a vista de pájaro:
    Celeridad media 1
    Olvidémonos del desplazamiento, y pensemos en lo que ha marcado el cuentakilómetros del coche, y lo que han recorrido sus ruedas. Básicamente, despleguemos la trayectoria que ha seguido el coche, de modo que podamos medir su longitud despreocupándonos de curvas y demás zarandajas:
    Celeridad media 2
    Seguro que ahora sí ves cómo calcular la celeridad media: es la distancia que ha recorrido el objeto a lo largo de su trayectoria entre el tiempo que ha tardado en recorrer esa distancia. Lo que nos interesa, por lo tanto, no es el desplazamiento, sino la longitud recorrida a lo largo de la trayectoria del objeto.

    La celeridad media es el cociente entre la longitud recorrida a lo largo de la trayectoria y el tiempo empleado en recorrerla.

    Como todas las demás magnitudes de hoy, por supuesto, la rapidez media se mide en m/s. Puedes ver la enorme diferencia entre velocidad y rapidez media: además del hecho de que una es un vector (incluye el “hacia dónde”) y la otra no, es perfectamente posible que una de las dos sea cero y la otra sea un valor enorme. Por ejemplo, un coche a lo largo de una vuelta puede tener una velocidad media nula y una celeridad media enorme — de las dos, en este caso, la más relevante es la celeridad media, y por eso es la que se menciona al hablar de carreras de coches, aunque no la llamen así.
    Ya que en este artículo nos hemos centrado en la diferencia entre movimientos uniformes y los que no lo son, en el próximo hablaremos precisamente de los no uniformes para identificar diferencias entre ellos, y definiremos la primera de las magnitudes que suele crear problemas a la gente para comprenderla intuitivamente: la aceleración.

    Ideas clave

    Para seguir rumbo sin peligro a lo largo del bloque, deben haberte quedado claros los siguientes conceptos fundamentales:

    • La rapidez o celeridad es la distancia recorrida por segundo, y se mide en m/s.
    • La velocidad es la variación en la posición por cada segundo, y se mide también en m/s.
    • La celeridad es simplemente un número, pero la velocidad es un vector, ya que incluye la información sobre la dirección del movimiento.
    • Un movimiento uniforme es aquel cuya velocidad es constante.
    • Un sistema de referencia en movimiento uniforme se denomina sistema de referencia inercial.
    • Es posible que la rapidez sea constante pero que la velocidad no lo sea, con lo que el movimiento no sea uniforme.
    • La velocidad media es el desplazamiento realizado entre el tiempo empleado, y se mide en m/s.
    • La celeridad media es la longitud de la trayectoria entre el tiempo empleado, y se mide en m/s.

    Hasta la próxima…

    Aunque se trate de un bloque introductorio, en el que intentamos establecer conceptos cualitativos y no hacer demasiado número todavía, creo que estás preparado para calcular algunas velocidades y celeridades medias sin problemas, y hacerlo posiblemente afiance las ideas que has aprendido hoy.

    Desafío 2 – Velocidad y celeridad media
    Para cada uno de los siguientes movimientos, ¿eres capaz de calcular la velocidad media, como vector, y la rapidez media?
    1. Una mosca que empieza en (0, 0, 0), se mueve hasta (4, 0, 0), luego hasta (4, 2, 0), luego hasta (4, 2, -2) y finalmente hasta (0, 2, -2). En total ha tardado 6 segundos.
    2. Un satélite artificial que realiza una circunferencia de 10 000 km alrededor del centro de la Tierra, siempre igual de rápido, y que tarda 2 horas en completarla.
    3. Un ciempiés que está en la base de un árbol, sube por el tronco hasta una rama que está a 10 metros de altura y luego camina por la rama, horizontal, hasta su extremo. La rama tiene una longitud de 4 metros y el ciempiés tarda cinco minutos en realizar el recorrido completo.
    Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

    Entradas relacionadas:

  • [Mecánica Clásica I] Sistemas de referencia y coordenadas
  • La estructura interna del neutrón
  • Miden por primera vez la velocidad angular de un agujero negro supermasivo
  • ¿No sabes qué leer? Lee una entrada al azar

    Portal de recursos para la Educación, la Ciencia y la Tecnología.

    Conoce tus elementos – El hierro

    Conoce tus elementos – El hierro

    Puedes suscribirte a El Tamiz a través del correo electrónico o añadiendo nuestra RSS a tu agregador de noticias. ¡Bienvenido!

    Como sabéis los más viejos del lugar, la serie Conoce tus elementos recorre la tabla periódica tratando de mostrar los aspectos más interesantes y curiosos de cada elemento químico. Tras años de camino (¡y los que nos quedan!) y después de conocer el colorido manganeso de veinticinco protones, nos encontramos con el elemento de veintiséis protones, un viejo conocido, en el que espero que después del artículo de hoy pienses simplemente como el Rey: el hierro (Fe).
    Sí, el hierro es un elemento cotidiano; hoy no voy a decir eso de “puede que no lo sepas, pero hoy has tocado hierro”, porque ya sabes perfectamente que sí, hoy con toda seguridad lo has tocado, ¡está por todas partes! Sin embargo, esta ubicuidad no debe hacernos olvidar lo maravilloso, casi mágico, de la presencia de hierro a nuestro alrededor… ¿de dónde ha salido todo este hierro?

    Puede que ya conozcas la respuesta, especialmente si has leído La vida privada de las estrellas y, en particular, el artículo sobre las supernovas de tipo II, ya que es precisamente de ahí de donde proviene todo el hierro que tienes a tu alrededor. La energía que hace brillar a las estrellas e impide que su propia gravedad las colapse –en el caso de las grandes– es la de la fusión nuclear, mediante la que nuestro propio Sol, por ejemplo, consume núcleos de hidrógeno y produce helio y cantidades ingentes de energía.
    La razón de esa producción de energía es, dicho mal y pronto, que la que contiene un núcleo de helio es menor que la de dos núcleos de hidrógeno separados: al formarse algo con menos energía que lo que había al principio, la energía sobrante se libera en forma de fotones muy energéticos y otras partículas, y como consecuencia, el Sol brilla. Algo parecido sucede, por ejemplo, cuando se fusionan núcleos de carbono para producir otros más pesados, como neón, aunque para eso hacen falta temperaturas y presiones mucho mayores que las existentes, ahora o en el futuro, en nuestra pequeña estrella — se producen núcleos más pesados cuya energía de enlace es menor que la de los núcleos atómicos originales antes de fusionarse, y el exceso de energía se libera.
    Nebulosa del cangrejo
    Nebulosa del cangrejo, resto de la supernova de tipo II SN 1054 (NASA/ESA).
    Podríamos pensar en ello así: una estrella consume hidrógeno, como nosotros podríamos quemar madera para producir energía –no se trata de una combustión, claro, sino de fusión nuclear, pero bueno–. La fusión del hidrógeno es una fuente extraordinaria de energía, pero llega un momento en el que se acaba el hidrógeno –la madera–. La estrella entonces hace una especie de “reciclaje”: consume las cenizas de la primera reacción (el helio o en nuestra analogía, las cenizas de la madera), ya que aún se obtiene algo de energía de ello. A continuación, aunque la cosa sea más difícil de imaginar, la estrella consume las cenizas de las cenizas, ya que aún es posible obtener algo de energía en esa reacción, y luego las cenizas de las cenizas de las cenizas… pero llega un momento en el que ya no se puede ir más allá: se tienen las “cenizas últimas”, cenizas que ya no pueden reaccionar de ningún modo que proporcione energía, como si todo el jugo energético se hubiera exprimido ya completamente. Pero ¿qué son esas “cenizas últimas” de las que no se puede extraer ya más energía por fusión?
    Hierro.
    El hierro es el final del camino. Esta disminución de energía de enlace respecto a los núcleos sueltos se produce en todos los elementos hasta el hierro-56, que se produce como resultado final de la fusión del silicio, como describimos al hablar de las supernovas de tipo II; algo que sucede a temperaturas y presiones inimaginables en el interior de estrellas supermasivas. El siguiente paso natural sería la fusión de hierro-56 y helio-4 para producir zinc-60… pero el zinc tiene más energía de enlace por nucleón que el hierro, no menos. Esto no quiere decir que no puedan producirse elementos más pesados, como el propio zinc, o uranio, o plata y oro, sino que para lograrlo no sólo no se libera energía, sino que hace falta absorberla.
    No voy a seguir hablando aquí de lo que sucede cuando se va acumulando hierro en el núcleo de la estrella porque no es el objetivo de esta entrada, pero sí me gustaría que la próxima vez que tuvieras un trozo de “aburrido” hierro en la mano se te venga a la cabeza la imagen de su origen: la ceniza nuclear última en el núcleo de una estrella diez veces más masiva que el Sol, el resto final que precede a una supernova, el suceso más violento que hemos observado jamás. Y, además, que recuerdes que ese hierro ha llegado hasta tu mano tras su dispersión por la galaxia a causa de la propia supernova, ya que nuestro minúsculo y patético Sol nunca sería capaz de producir un elemento tan especial.
    Pero no sólo es especial por su condición de “cenizas últimas”, sino también por la enorme cantidad que existe en nuestro planeta. Incluso al fijarnos en el Universo en general, hay hierro en cantidades enormes; nuestras estimaciones realizadas mediante la espectroscopía al observar los elementos que constituyen la Vía Láctea nos indican que el hierro es, en masa, el sexto elemento más común de la Galaxia, precedido de hidrógeno, helio, oxígeno, carbono y neón. Evidentemente, la cantidad de hierro es irrisoria comparada con la de hidrógeno… pero la cosa cambia mucho al fijarnos en nuestro propio planeta.
    La razón es que el hierro es muy pesado; hay otros átomos aún más grandes, por supuesto, pero el hierro es especial en esto porque combina una gran densidad con una gran abundancia, lo que supone que, en la formación de los planetas a partir de planetesimales, una gran proporción de la masa de los planetas más pequeños resultó ser de hierro. En los más grandes, como Júpiter, la masa llegó a ser tan grande que la gravedad fue capaz de mantener enormes cantidades de elementos ligeros, pero no así en los pequeños, como la Tierra: en ellos, la mayor parte de la masa era del elemento más pesado disponible en grandes cantidades: hierro.
    Por eso, el hierro es el elemento más común en la Tierra con mucha diferencia. Es, como he dicho al principio, el Rey. Sin embargo, no es el más común a nuestro alrededor, ya que nosotros vivimos en una región especial de la Tierra: sobre su corteza, donde se concentran los elementos menos densos. El hierro es de tal densidad que la mayor parte se hundió desde el principio hacia el centro del planeta, y constituye, junto con el níquel, el núcleo de la Tierra. Es como si nuestro planeta fuese, en cierto sentido, una bola densísima de hierro-níquel con algunos detritus “pegados” alrededor debido a la gravedad –entre ellos, nosotros–.
    En la corteza terrestre, como digo, hay otros elementos más comunes, pero el hierro sigue siendo uno de los más frecuentes: situado tras el oxígeno, el silicio y el aluminio, el hierro es el cuarto elemento más común de la corteza. Por lo tanto, es algo con lo que hemos convivido desde antes de tener conciencia de ser seres humanos, pero hay un problema, como tantas otras veces: es dificilísimo encontrarlo puro.
    Al igual que otros muchos metales de transición, de la “zona media” de la tabla, el hierro tiene varios estados de oxidación posibles, es decir, puede ser más estable ganando o perdiendo diferente número de electrones. Los dos más comunes, con diferencia, son +2 y +3, es decir, que el hierro alcanza la estabilidad librándose de dos o tres electrones –si es que encuentra átomos a su alrededor dispuestos a aceptar esos electrones, por supuesto–. En la corteza terrestre, prácticamente todo el hierro existe combinado con oxígeno, en forma de óxidos de hierro. Los dos más comunes son el óxido de hierro (II), FeO, y el óxido de hierro (III), Fe2O3, también conocidos como óxido ferroso y óxido férrico respectivamente. En pocos lugares caminarás sobre suelos en los que no existan uno, otro o los dos en mayor o menor medida.
    Hematita
    Hematita (DanielCD/CC 3.0 Attribution-Sharealike License).
    Las dos rocas más frecuentes en las que se encuentran estos óxidos –y por lo tanto hierro en la corteza terrestre– son la hematita y la magnetita. La hematita es Fe2O3 cristalizado, y aunque la hay de varios colores, es abundante la de tonos rojizos, de ahí su nombre, cuya raíz proviene del griego para sangre, como en hematología. Se trata de una roca muy común, y en los lugares en los que hay altas concentraciones de hematita se extrae comercialmente para obtener hierro de ella.
    La magnetita es también muy conocida; se trata en este caso de una combinación de los dos óxidos, FeO·Fe2O3, a veces escrita Fe3O4. Es bastante menos llamativa que la hematita, y seguramente ni siquiera nos hubiéramos fijado demasiado en ella si no fuera porque es la sustancia más magnética de la Tierra… tanto que el propio nombre de magnetismo proviene de ella; a su vez, parece que la magnetita se llama así por haberse descubierto sus propiedades por primera vez en la región de Magnesia, en Tesalia, Grecia (una región, por cierto, que ha dado nombre a bastantes cosas, como el magnesio).
    Hematita
    Magnetita y pirita (Archaeodontosaurus/CC 3.0 Attribution-Sharealike License).
    Como he dicho antes, el problema no es encontrar hierro por ahí, sino conseguirlo puro. Su reactividad con el oxígeno es tan grande que casi siempre aparece combinado con él, lo cual nos impidió, a lo largo de una gran parte de nuestra existencia como especie, poder disfrutar de sus utilísimas propiedades. Afortunadamente para algunos, sí es posible encontrar hierro no oxidado en la Tierra, pero es extraordinariamente raro. Como recordarás si eres lector de los viejos, cuando recorrimos el Cinturón de Asteroides en El Sistema Solar hablamos acerca de los asteroides de tipo M o metálicos, no tan comunes como otros, pero importantísimos por su contenido en hierro-níquel. Como sucede con los demás tipos, de vez en cuando uno de estos asteroides intersecta la trayectoria de la Tierra; a veces se trata de un asteroide de tamaño suficiente para que una parte, aunque sea pequeña, alcance el suelo, y el resultado es espectacular. Imagino que, al encontrar uno de estos pedazos de hierro meteórico, completamente distintos de cualquier otro tipo de meteorito en apariencia, sería muy natural considerarlos un regalo de los dioses.
    Hematita
    Catorce toneladas de hierro-níquel: Meteorito de Willamette (Dante Alighieri/CC 3.0 Attribution-Sharealike License).
    Hemos encontrado algunos restos arqueológicos de aleación de níquel-hierro creados a partir de meteoritos; algunos datan de cinco mil años antes de nuestra era, pero se trata de “regalos de los dioses”: casualidad pura y dura de haber encontrado el metal tal cual, sin la tecnología necesaria para separarlo del oxígeno de una roca ferrosa. Algunas puntas de lanza egipcias y sumerias de alrededor de 4 000 a.C. son también de origen meteórico, y tampoco aquí puedo detener mi imaginación. En la época, la mayor parte de las armas, escudos y armaduras eran de bronce. Imagino que, al atacar utilizando armas de hierro meteórico, cuya dureza es muchísimo mayor, y observar cómo el bronce se deformaba y no era capaz de detener las armas de hierro, este material debe de haber parecido mágico, y las armas, objetos maravillosos, especialmente por lo únicas que eran. Se piensa, de hecho, que el hierro-níquel meteórico era bastante más caro que el oro, y con toda la razón.
    Como tantos otros avances tecnológicos, la obtención de hierro a partir de sus rocas era algo inevitable, y seguramente se logró en varios lugares y momentos. Al fin y al cabo, ya lo hacíamos con el estaño y el cobre desde unos cuantos milenios antes, aunque es bastante más fácil debido a la temperatura de fusión y reactividad de uno y otro. El estaño se funde a unos 250 °C y el cobre a 1100 °C, mientras que el hierro lo hace a unos 1400 °C. Además, la tecnología necesaria no sólo involucra la temperatura: sí, cuanto más caliente, más fácil fundirlo, pero cuanta más temperatura, más fácilmente se produce la reacción con el oxígeno del aire y, por tanto, la formación de óxidos de hierro, que es justo lo que no queremos.
    El caso es que, en el Oriente Medio del primer y segundo milenios antes de nuestra era, las culturas que iban logrando obtener hierro ellas mismas, o que comerciaban para comprarlo, tenían una ventaja extraordinaria contra las demás. Exagerando, era como lograr armas de fuego en un mundo que utilizase flechas, o bombas nucleares en un mundo que utilizase granadas: un soldado pertrechado con armas y armadura de bronce no es oponente para otro igualmente entrenado que utilice armas y armadura de hierro –o, mejor dicho, de acero, de eso hablaremos en un momento–. Pero claro, como tantos otros avances militares, en un tiempo relativamente corto su conocimiento se extendió y acabamos todos “mejorando” en el sentido de “matándonos más eficazmente unos a otros”, como tantas otras veces. ¡Ay, monos cascarrabias con hierro al alcance de la mano!
    Sin perdernos en la Historia, una vez más quiero hacer énfasis en lo especial del hierro: no es tan duro y resistente como otros metales, y desde luego no resiste la corrosión y oxidación demasiado bien. No, no es el metal más pesado, ni el más bello, ni el más duro… pero los metales que son superiores a él en esos aspectos son muchísimo menos abundantes. Sí, el equilibrio una vez más es lo que hace al hierro el rey: sin otros metales, probablemente hubiésemos construido una civilización tecnológica buscando alternativas. Podríamos haber llegado a donde estamos sin oro, sin plata, sin titanio o sin aluminio… pero no sin hierro. Somos una civilización del hierro más que de cualquier otra cosa. Y este metal maravilloso con el que hemos construido prácticamente todo, cuando está puro, tiene este aspecto:
    Hierro puro
    Hierro puro (Alchemist-hp/Free Art License).
    Sin embargo, nadie en su sano juicio lo emplearía puro para construir armas o vigas. Para empezar, otros metales de los que hemos hablado en la serie, como el aluminio, se “protegen a sí mismos” al oxidarse: el óxido forma una fina capa en la superficie del metal y evita que el interior se siga oxidando. Sin embargo, el hierro es diferente: sus óxidos ocupan un volumen bastante mayor que el hierro puro, con lo que la parte oxidada se “hincha” a nivel microscópico, es mucho menos densa y acaba quebrándose y separándose del resto del metal. Como consecuencia, el interior queda expuesto a la intemperie y, a su vez, se oxida, con lo que lo mismo va sucediendo poco a poco hasta que se oxida el trozo entero. Esto le sucede también al acero, del que hablaremos en un momento, y ya vimos cómo evitarlo añadiendo otros metales a la aleación.
    Cadena de hierro oxidado
    Hierro oxidado (Marlith/CC 3.0 Attribution-Sharealike License).
    Además, el hierro puro es un metal blando, tanto como el aluminio; sin embargo, basta añadir pequeñísimas cantidades de ciertas impurezas, especialmente de carbono, para que esto cambie radicalmente; tan sólo una concentración de carbono de diez partes por millón dobla su dureza, y con un 1-2% de puede lograr una resistencia con la que el hierro puro ni soñaría – pero en ese caso estamos hablando de una aleación que puede ser de muchos tipos diferentes o, mejor dicho, de la aleación, tal es su importancia: el acero.
    Dicho mal y pronto, el acero es como es porque los átomos de carbono, al colarse en la estructura de hierro, hacen de “anclajes” que evitan que las irregularidades en la estructura metálica puedan deslizarse libremente y que el metal se separe en trozos con facilidad. Claro, si hay demasiadas impurezas la cosa tampoco funciona demasiado bien, ya que hay tantos “anclajes” y tan poco material en el que anclarse que el acero se deslabaza. ¡Equilibrio! Como hemos visto además a lo largo de la serie, al añadir otros metales (e incluso no metales, como silicio) al acero, pueden lograrse resistencias aún mayores y versiones ligeras pero extraordinariamente útiles de acero… pero al final es, básicamente, hierro y sus secuaces.
    Acero fundido
    Acero fundido saliendo de un horno eléctrico (dominio público).
    No cabe duda de que los primeros usos del acero, según se iba descubriendo el secreto de su forja, fueron bélicos: así es, desgraciadamente, la naturaleza humana. Sin embargo, el acero ha sido mucho más benefactor que verdugo: sin él, nuestra sociedad no sería posible y, no, no estoy exagerando. El 95% del metal que utiliza cada año el ser humano es hierro aleado con carbono y otras cosas — es decir, acero. Sin él no habría industria, ni aviones, ni coches ni máquinas térmicas de casi ningún tipo, ni edificios de gran tamaño, ni prácticamente nada que caracterice nuestra sociedad industrializada. Nuestra especie no ha encontrado un aliado mejor para avanzar tecnológicamente. Y, antes de que frunzas el ceño, a mí tampoco me gustan muchas cosas de la sociedad que hemos creado, pero tampoco quiero volver a tiempos más oscuros, ni es justo culpar de nuestros errores a la herramienta — palabra, por supuesto, que proviene de nuestro metal favorito.
    Pero este metal no sólo es esencial para mantener nuestra civilización, sino que sin él no podríamos vivir, ya que desempeña un papel fundamental en nuestra biología. Aquí, al contrario que en nuestra industria, no es un elemento estructural que empleemos en grandes cantidades, sino un especialista en cantidades pequeñas, pero un especialista vital –y no es una forma de hablar, sino una verdad literal–.
    Existen multitud de proteínas que contienen átomos de hierro, pero sin duda la más conocida de todas es la hemoglobina. Esta proteína, presente en los glóbulos rojos de casi todos los vertebrados, es la encargada de atrapar oxígeno en los pulmones y llevarlo luego, a través de la sangre, a las células, para que éstas puedan realizar la respiración celular; también es capaz de transportar moléculas de otros gases, como dióxido de carbono o monóxido de nitrógeno.
    Hemoglobina
    Hemoglobina (Zephyris/CC 3.0 Attribution-Sharealike License).
    Todo este “atrapar” y “soltar” moléculas de O2, NO o CO2 sucede, entre otras cosas, gracias a ese discreto pero versátil átomo de hierro presente en la hemoglobina, que puede sufrir reacciones de oxidación-reducción, tomar o ceder electrones y quedarse “pegado” a la molécula a transportar de que se trate. De manera que, dicho mal y pronto, si estás respirando ahora mismo es gracias al hierro. Cada día, el cuerpo humano emplea unos 20 miligramos de este elemento sólo para crear glóbulos rojos –aunque, todo hay que decirlo, parte de él es “reciclado” de glóbulos rojos muertos, con lo que no hace falta consumir todo eso cada día–.
    Pero la hemoglobina no es más que uno de los lugares en los que encontrar hierro en nuestro organismo: un adulto en buen estado de salud y con una nutrición adecuada tiene alrededor de 4-5 gramos de hierro en su cuerpo, de los que la mitad está en la hemoglobina sanguínea. Las células lo emplean en muchas otras proteínas responsables de multitud de reacciones químicas sin las que no podrían vivir, una vez más gracias a la versatilidad del hierro en cuanto a oxidación y reducción se refiere.
    Afortunadamente, dado que se trata de un metal tan útil para tantos seres vivos, animales y vegetales, es fácil obtenerlo en la dieta si ésta es suficientemente variada. El defecto de hierro lleva a sufrir un tipo de anemia, ya que sin él no puede formarse la suficiente hemoglobina y, sin ella, el transporte de oxígeno en sangre se ve limitado. Pero, por otro lado –y como pasa tantas veces– en la moderación está la virtud, ya que un exceso de hierro en el organismo también es un problema, ya que este metal puede llegar a ser tóxico.
    La ironía del asunto es que el peligro se debe precisamente a la versatilidad oxidativa del hierro. Si consumimos hierro que el cuerpo va a emplear como parte de proteínas, no hay problema, pero si existe demasiado hierro “sin usar”, es decir, iones Fe2+ o Fe3+ en la sangre, éstos pueden entrar en la célula y reaccionar allí con distintos compuestos, formando radicales libres que, a su vez, pueden producir daños genéticos y de otro tipo. En nuestro cuerpo existe un grupo de proteínas, llamadas transferrinas, encargadas precisamente de evitar este problema “atrapando” el exceso de hierro libre en la sangre, pero si hay tanto que se ven superadas, tenemos un problema.
    Eso sí, una vez más somos afortunados: es muy difícil intoxicarse con hierro. La mayor parte de las intoxicaciones se producen cuando alguien consume suplementos de hierro destinados a un paciente con deficiencia del metal, cuando la otra persona no tiene defecto de hierro; esto sucede especialmente cuando es un niño quien consume suplementos que no necesita, ya que la toxicidad depende de la cantidad de hierro por cada kilogramo de masa.
    De modo que ahí lo tienes: discreto, cotidiano, con el perfecto equilibrio entre propiedades útiles y abundancia extraordinaria, ceniza última de la fusión estelar, base de nuestra civilización y, con moderación, dador de vida. ¿No se merece que nos quitemos el sombrero?
    En el próximo artículo de la serie, el elemento de veintisiete protones: el cobalto.

    Portal de recursos para la Educación, la Ciencia y la Tecnología.