La Física tiene fama de complicada pero, en realidad, a los físicos nos gustan las leyes sencillas. Posiblemente, las más breves e importantes se encuentren en la Mecánica. El primer ejemplo es la segunda Ley de Newton de la Mecánica clásica: “F igual a m por a”, que dice que, para causar una aceleración “a” en un cuerpo de masa “m”, se requiere una fuerza “F” igual al producto de ambas. En la Mecánica relativista de Einstein encontramos otra minifórmula: la archiconocida “E igual a m por c al cuadrado”, que nos dice que la energía “E” y la masa “m” son proporcionales, sólo las medimos en escalas distintas relacionadas por “c cuadrado”, el cuadrado de la velocidad de la luz. A Einstein le debemos también la primera minifórmula de la Mecánica cuántica (por la que recibió el premio Nobel): “E igual a h por f”, que dice que la energía “E” de un fotón, la partícula de luz, es proporcional a la frecuencia “f” de la luz como onda, siendo la “h” la constante de Planck. De Broglie, a partir de las dos anteriores, derivó otra minifórmula cuántica: “l igual a la h de Planck dividida por p”, que dice que cada partícula subatómica se comporta como una onda de materia con longitud de onda “lambda” inversamente proporcional a su cantidad de movimiento “p”.
El 14 de octubre de 2012, Félix Baumgartner saltó desde 39 km de altura con el propósito de romper la barrera del sonido en caída libre. ¿Y por qué eligió esa altura? Porque existe una ley física que establece una velocidad límite para un cuerpo que se mueve bajo una fuerza constante en el seno de un fluido. En caída libre nos movemos bajo una fuerza constante, que es la gravedad, y en un caso ideal, nuestra velocidad debería ser cada vez mayor, hasta llegar al suelo. Pero como nuestra atmósfera es un fluido denso, ofrece una resistencia al movimiento. Así las cosas, tras un tiempo de caída se alcanza una velocidad límite que, para un humano con las extremidades extendidas es de unos 200 km/h. Sin embargo, en la alta estratosfera no hay casi resistencia, porque la densidad del aire es sólo un 3% de la aquí abajo. Además, la velocidad del sonido, en el aire frío también es menor. En su ya histórico salto, Félix alcanzó 1.342 km/h a 30 km y medio de altura, donde la barrera del sonido está en 1.110 km/h. Lo ha dejado difícil de superar.
Todos sabemos que la Luna y, en menor medida, el Sol son los causantes de las mareas. Sabemos que, igual que la Tierra atrae a la Luna, haciendo que ésta se mantenga en órbita a su alrededor (en lugar de perderse en el espacio), también la Luna atrae a la Tierra y que ello causa las mareas. Sin embargo, hay un problema con esta imagen sencilla: sólo tenemos una Luna y, pero, en cada instante, hay marea alta en dos zonas distintas del mundo: una cercana a la Luna pero... otra opuesta a ella. ¿Qué otro cuerpo celeste está atrayendo el agua del océano por el otro lado? Por supuesto, ninguno. Recordemos la ley de la gravitación de Newton, que fue, por cierto, el primero en explicar correctamente el fenómeno de las mareas: la fuerza de la gravedad disminuye como el inverso del cuadrado de la distancia. Las mareas de la Tierra son inducidas por la gravedad de la Luna, pero no sólo porque ésta tire hacia arriba del océano, sino porque tira más por un lado (el más cercano) y menos por otro (el más lejano). Diríamos que, en este lado opuesto, es el resto del planeta el que se “hunde en el océano”, al ser más atraído por la Luna.
Hace 380 años, Galileo enunció su teoría de la relatividad: los cuerpos en movimiento relativo a un sistema de referencia, en movimiento uniforme, siguen las mismas leyes de movimiento que en un sistema en reposo. Por ejemplo, si alguien lanza una pelota en un barco, ésta seguirá una trayectoria parabólica, tanto a juicio de quien la lanza en el barco, como de quien observa la escena desde tierra. La teoría de la relatividad de Galileo decía, pues, que hay algo absoluto: la ley del movimiento. En 1905, Einstein generalizó la afirmación de Galileo: todas las leyes físicas tienen la misma forma independiente del sistema de referencia en el que se apliquen. En particular esto debía ser cierto para el electromagnetismo de Maxwell, publicado 43 años antes, donde la velocidad de la luz es universal: todos los observadores deben medir la misma, independientemente de a qué velocidad se muevan ellos. Y esto, aunque surjan paradojas como que en una nave espacial que viaje casi a la velocidad de la luz se envejezca más lentamente que estando en la Tierra. Así pues, más que Relatividad, deberíamos llamarla Invariabilidad, pues trata de las leyes que no cambian a la vista de dos observadores distintos.
La masa oscura del Universo es lo que nos falta para que nuestras leyes físicas se cumplan en las galaxias que observamos. La luz que recibimos de ellas nos sirve para medir su velocidad; así pues, conocemos su movimiento. En 1933, el astrofísico Fritz Zwicky observó que el movimiento del cúmulo de galaxias de Coma no era el que se esperaría de su interacción gravitatoria. Era como si hubiese otra masa, además de la de las galaxias, una “masa oscura”. La masa oscura se llama así porque no emite luz: por eso no la vemos. En 1970, la astrofísica Vera Rubin estudiando la rotación de las estrellas en la galaxia de Andrómeda, concluyó lo mismo: hay más masa en esa galaxia de la que estamos viendo. Se estima que la masa oscura total del Universo podría ser hasta 5 veces la masa que sí vemos. Y, ¿qué la forma? Podría ser materia corriente, no muy distinta de la que conocemos: estrellas oscuras, halos de las galaxias, agujeros negros, … Hasta la fecha no se han encontrado un número suficiente de estos objetos para explicar la cantidad de masa perdida. Por ello hay quienes piensan que se trata de un nuevo tipo de materia exótica, nada parecida a la que conocemos.
Nos llama mucho la atención la famosa expresión de Eduard Lorenz: “Un simple batir de alas de mariposa en Brasil puede provocar un huracán en Tokio”. Lorenz es uno de los padres de la teoría del caos. Esta teoría nos explica cómo los sistemas dinámicos, partiendo de comportamientos sencillos, fáciles de seguir y predecibles, pueden transitar a comportamientos más y más complicados, que se hacen difíciles de seguir e imposibles de predecir, estado que se llama caos. El caos es muy sensible a pequeños cambios iniciales. Lorenz descubrió esta propiedad con una simulación muy simplificada: con sólo tres ecuaciones, describía la convección que podríamos identificar con una nube de tormenta idealizada. Una minúscula variación en el estado de partida, realmente equivalente al batir de alas de la mariposa, originaba una perturbación que crecía de manera exponencial hasta que la situación descrita llegaba a ser, tras un tiempo, totalmente diferente de la obtenida sin dicha variación. Desde entonces se llama a esto el efecto mariposa. Así pues, no es que la mariposa origine el huracán, sino que el momento y circunstancias de formación de éste dependen muy sensiblemente de variaciones aparentemente insignificantes en las condiciones iniciales, mucho antes de su desarrollo.
Las auroras polares se pueden ver tanto en el polo norte, donde se llaman auroras boreales, como en el polo sur, auroras australes. Se producen cuando un chorro de viento solar choca contra la tierra. En la corona del sol se producen eyecciones violentas que aumentan la intensidad del viento y es entonces cuando aparecen las auroras. ¿Y por qué en los polos? Porque el campo magnético de la tierra entra y sale por los polos, como en un desagüe, y por ahí es por donde se canaliza el viento. El viento está formado por partículas con carga eléctrica que chocan contra las moléculas de la atmósfera y las ionizan. Entonces, las moléculas emiten luz, igual que en un tubo fluorescente. El color de la luz depende de la especie molecular: el oxígeno emite luz verde o amarilla, el nitrógeno produce luz azulada y el helio es responsable de los colores rojo y púrpura. La aurora puede empezar con unos caminos verdes en el horizonte para seguir con un derroche de formas cuando el cielo se llena de cortinas, ondas y espirales que van cambiando de color. Es un espectáculo apto para todos los públicos.
La física cuántica es la física que describe el mundo de lo más pequeño. Nuestras intuiciones de lo que es posible o no, derivadas de nuestra experiencia cotidiana en el mundo macroscópico, fallan en esas escalas. Niels Bohr, padre de la física cuántica, decía que “aquellos que, cuando se introducen en la mecánica cuántica, no se sorprenden, seguro que no la están entendiendo”. Años más tarde, en 1965, Richard Feynnmann, otro gran físico cuántico, escribía: “Creo que no me equivoco si digo que nadie entiende la mecánica cuántica”. En el mundo cuántico, cada partícula no está descrita por su posición y velocidad, sino por un campo, llamado su función de onda, que se extiende en todas direcciones. Esa función de onda nos da la máxima información que podemos obtener sobre la partícula, y también limita lo que podemos medir. Casi siempre lo máximo que podemos determinar es la probabilidad de medir la posición, velocidad, energía o, incluso, la propia existencia de la partícula. Esta descripción radicalmente diferente del mundo cuántico es responsable de muchas paradojas. Pero, como Feynmann decía, las paradojas no son más que conflictos entre lo que realmente es y lo que nosotros consideramos que debería ser.
El principio de indeterminación de Heisenberg establece que, en un mundo microscópico, un agente de tráfico no podría determinar al mismo tiempo, a qué velocidad circula un vehículo y en qué punto se encuentra. Debe escoger cuál de las dos magnitudes va a medir con precisión. En 1928, Weyl dio forma matemática a esta afirmación: si multiplicamos nuestras imprecisiones en las medidas de la posición y la velocidad, el resultado siempre será mayor que una constante, la constante de Planck. Para nuestro mundo macroscópico, la constante de Planck es muy, muy pequeña, y sabemos que nuestros agentes de tráfico realizan ambas medidas simultáneas con total precisión. Sin embargo, no ocurre así en un átomo: en realidad, los electrones no siguen las órbitas que estamos acostumbrados a ver en los libros, sino que los encontramos en “orbitales electrónicos”, es decir, zonas en las que es probable (pero no seguro) detectar al electrón. Los electrones no son “bolitas” con una posición bien definida, sino ondas extendidas que se propagan con una velocidad determinada. En cualquier caso, lo que nos dice el principio de indeterminación de Heisenberg es que no podemos medir simultáneamente la velocidad y la posición de un electrón.
Todos recordamos los dibujos de átomos en nuestros libros: los electrones eran pequeñas bolitas amarillas en órbita alrededor de núcleos formados por bolitas rojas (protones) y negras (neutrones). Sin embargo, la realidad es muy diferente: dejando aparte el color (que no es ni ese ni ningún otro), las partículas subatómicas resulta que no son partículas; o no sólo. En 1924, Louis De Broglie, propuso que igual que la luz es una onda, pero está formada por partículas llamadas fotones, también las partículas materiales tienen asociada una onda: esto se llama dualidad onda-partícula. De una partícula podemos dar sus dimensiones y las coordenadas en las que se encuentra. De una onda podemos decir en qué dirección viaja, cuál es la distancia entre sus crestas o valles,... pero la onda no es ni una de esas crestas ni uno de esos valles, sino todos ellos, y se extiende por el espacio. Decimos que la onda no está localizada, mientras que la partícula sí lo está. Los experimentos demuestran que De Broglie tenía razón: las partículas subatómicas son partículas y ondas al mismo tiempo; aunque interactúan en un punto (es decir, se comportan como “bolitas”), cuando se desplazan, lo hacen como ondas deslocalizadas.
Tanto nuestros ordenadores como nuestros televisores, tienen pantallas planas. Estas pantallas usan cristales líquidos, que dan nombre a los LCD (liquid crystal display). Cada celda del LCD contiene un compuesto, llamado nemático, de moléculas alargadas; éstas se hallan retorcidas para que giren el campo eléctrico de la luz que atraviesa la celda. Si introducimos luz vibrando polarizada en una dirección y sólo dejamos que salga la polarizada en la dirección cruzada ---tal como la gira el cristal líquido--- veremos luz a través de un píxel. Si la luz no rota, no la dejamos salir. El píxel será opaco. Podemos cambiar entre ambos comportamientos “enderezando” las moléculas del cristal aplicando un voltaje. Así controlamos el brillo con que vemos la luz del panel trasero del LCD. En las nuevas televisiones esta luz la generan diodos LED (light emitting diodes). En el semiconductor del LED el campo eléctrico fuerza a los electrones libres a saltar a la zona con huecos libres, sobre los que “caen”. El LED está diseñado para que la energía de cada “caída” sea emitida como un fotón visible. Por eso basta la energía que desplaza los electrones en el semiconductor para producir luz. Y por eso las televisiones LED gastan muy poco y apenas se calientan.
En 1928, Paul Dirac postuló la existencia de una nueva partícula. Dirac simplificó la ecuación de Pauli sobre el espín del electrón, para incluir partículas que se moviesen a gran velocidad, de acuerdo con la teoría de la relatividad de Einstein. La nueva ecuación tenía una nueva solución, correspondiente a un electrón con carga positiva. En 1932, cuatro años más tarde, Carl Anderson observó una partícula con las propiedades predichas por Dirac, en los rayos cósmicos; esta partícula se llamó positrón. Hoy, sabemos que cada partícula elemental tiene su antipartícula. Las antipartículas tienen igual masa pero números cuánticos opuestos a los de las partículas: carga opuesta, número leptónico opuesto, isospín opuesto, ... También hay partículas totalmente “neutras” respecto a las propiedades cuánticas: el fotón, la partícula de luz, es su propia antipartícula. Esto se relaciona con un fenómeno muy conocido, gracias a la ciencia ficción: la reacción de aniquilación materia-antimateria. En esta reacción se produce luz, rayos gamma. En la realidad, todos los días, se usa esta reacción en la prueba diagnóstica de medicina nuclear llamada PET.
Un neutrino es una partícula elemental muy ligera y sin carga postulada por Pauli en 1930. Pauli buscaba que se cumpliese la ley de conservación del momento lineal en la desintegración beta. Su hipótesis se confirmó en 1956, cuando fueron observaron experimentalmente por primera vez. Hoy en día, el modelo estándar de la física de partículas incluye no sólo el neutrino de Pauli, asociado al electrón, sino otros asociados a los muones y las partículas tau. Todos ellos tendrían masa en reposo nula y, por ello, se moverían a la velocidad de la luz. Las detecciones de neutrinos al mismo tiempo que los telescopios ópticos nos mostraban la explosión de la supernova 1987A confirmaron esto. Hasta el año 2001 pervivió el misterio de los neutrinos solares perdidos: dos de cada tres neutrinos producidos por el Sol no se observaban en la Tierra. Ese año se demostró que los neutrinos electrónicos, muónicos y tauónicos se transmutan unos en otros. Pero, para ello, deben tener alguna masa en reposo y moverse más lentos que la luz. El pasado mes de septiembre, un equipo del CERN publicó un resultado experimental que sugiere que los neutrinos pueden moverse más rápido que la luz. Los neutrinos van a desvelarnos mucha nueva física en los próximos años.
Tanto la fisión como la fusión son fuentes de energía nuclear pero, ¿en qué se diferencian? En la reacción de fisión se rompe el núcleo de un elemento pesado y los productos son : dos núcleos más ligeros, neutrones y energía. Sin embargo, en la fusión se unen dos núcleos ligeros para producir: un núcleo más pesado, un neutrón y energía. Hoy sólo existen reactores de fisión. Su combustible normalmente es uranio enriquecido y los deshechos son elementos altamente radioactivos y neutrones. El almacenaje de estos residuos, durante al menos 300 años, debe cumplir una estricta normativa. Sin embargo, en la fusión ningún átomo es radiactivo y los residuos son limpios. El combustible es hidrógeno y los productos son helio, un neutrón y energía. En la naturaleza sólo hay reacciones de fusión nuclear : se producen en las estrellas. Así es como nuestro sol genera energía. Y ¿por qué no tenemos reactores de fusión? Porque las condiciones de densidad y temperatura necesarias son difíciles de alcanzar, hay que confinar los átomos en un campo magnético a temperaturas de unos 100 millones de grados. Los científicos trabajan para superar esta barrera técnica.
El reactor nuclear es el corazón de una central nuclear. En él, los núcleos de uranio se rompen o fisionan al ser bombardeados por neutrones, liberando energía y más neutrones que continúan con la reacción. También existen pilas nucleares, mucho más pequeñas, que proporcionan muy poca potencia, pero durante mucho tiempo. Usan plutonio, que se desintegra como el uranio, pero también por desintegración alfa, es decir, emite núcleos de helio y también produce calor. El uranio en una central nuclear calienta el vapor de agua que mueve una turbina para producir electricidad. Una pila nuclear usa el efecto termoeléctrico: los electrones en un metal se comportan como un gas, por lo que expandiéndolos con ese calor y enfriándolos en un punto frío, producen energía como una máquina de vapor en miniatura. Estas pilas se han usado en la sonda espacial Voyager I, en la que siguen alimentando la electrónica, más allá de los límites de nuestro sistema solar. Otras misiones de larga duración lejos de la Tierra y del Sol, también funcionan con pilas nucleares: es el caso de la misión Galileo a Júpiter.
Los núcleos de uranio son tan grandes que sus protones y neutrones pueden llegar a separarse, venciendo las fuerzas nucleares atractivas. Esta fisión del núcleo crea núcleos hijos, más pequeños, inestables y, por lo tanto, radiactivos: residuos nucleares. La fisión es un proceso natural y lento, en el que se liberan energía y neutrones, que se llevan mucha de esa energía. Pero también se puede provocar bombardeando los núcleos de uranio con neutrones de baja energía o térmicos. Un reactor nuclear es un almacén de uranio lo bastante concentrado para que sus neutrones no se escapen, sino que sean moderados (es decir, enfriados) y puedan causar la fisión de más núcleos de uranio. Así continúa la reacción nuclear y la producción de energía. El primer reactor de fisión se construyó en la Universidad de Chicago, bajo la dirección del físico Enrico Fermi, en 1942. Pero ya hace 1700 millones de años, en la mina de Oklo, en la república centroafricana de Gabón, funcionaron reactores nucleares naturales. Hoy ya no hay reactores nucleares naturales, porque casi todo el uranio ha decaído por desintegración nuclear espontánea. Y por eso, para que funcionen los reactores artificiales hay antes que enriquecer el uranio.
La producción de energía de una central nuclear va generando residuos radiactivos a lo largo de todo el proceso. En primer lugar, en la fabricación del combustible, que es uranio enriquecido, se produce uranio empobrecido. Este deshecho es menos radiactivo que el uranio natural pero está más concentrado, por lo que necesita almacenaje especial. En segundo lugar, cuando se cambian las barras de combustible en el reactor por otras nuevas, las agotadas se guardan en unas piscinas de almacenamiento en las propias centrales, donde continúan desintegrándose. Los productos de la fisión del uranio son de muy alta actividad durante los primeros 150 a 200 años. Cuando se llenan las piscinas, hay que trasladar los residuos a un Almacén Temporal Prolongado o a un Almacén Definitivo. En el Almacén Temporal pueden estar entre 100 y 300 años, con la tecnología actual. Suelen ser celdas de hormigón. En Francia y Reino Unido están junto a plantas de reprocesado en las que se tratan y reciclan los residuos. Un Almacén Defintivo o almacenamiento geológico profundo debe ser geológicamente estable, pues se necesitan alrededor de 1000 años para que se consuman todos los productos radiactivos. Los cementerios submarinos están prohibidos desde 1993.
La ley de conservación de la energía dice que es imposible crearla o destruirla. Surge en la Mecánica del siglo XVII de la mano de Leibnitz, y se constituye como ley fundamental de la Física en el siglo XIX, gracias a la termodinámica y el electromagnetismo. En 1905, Einstein demuestra la equivalencia entre masa y energía, es decir, es la masa-energía lo que se conserva. En el siglo XX, la mecánica cuántica nos revela un universo muy flexible con sus propias leyes donde, durante tiempos muy pequeños, es posible violar la conservación. En el vacío cuántico, pueden aparecer partículas de la nada... y volver a ella. En promedio, sin embargo, la energía se conserva, sin que dé tiempo a realizar trabajo a estas partículas virtuales. El físico holandés Hendrik Casimir se planteó, en 1948, qué sucede cuando ese vacío está confinado entre dos espejos perfectos, casi en contacto. La respuesta todavía nos sorprende: el vacío origina una fuerza atractiva y, por lo tanto, transmite energía a los espejos. Éste es el efecto Casimir, que ha sido observado experimentalmente, y sirve de inspiración para nuevos métodos que buscan extraer energía de la nada.
Una imagen digital es como un mosaico. Está compuesta por pequeños elementos rectangulares, todos del mismo tamaño, llamados píxels. Cada píxel tiene un solo color. El tamaño en bits de cada píxel, es decir, cuantos numeros lo forman, es lo que se denomina profundidad de color. Una imagen con píxeles de 8 bits admite 256 colores, o 256 tonos de gris. Una imagen de color verdadero tiene píxeles de 24 bits y puede representar 16 millones de colores. El modelo de color más común es el RGB: red, green and blue. Todos los colores se crean mezclando estos tres colores primarios. Se usan 8 bits para modificar la proporción de cada color primario en un píxel de 24 bits. Un megapíxel es un millón de píxeles y se suele utilizar como unidad para indicar la resolución de imagen que puede capturar una cámara digital. Cuantos más megapíxels tiene una imagen, más pequeños son los píxels que la forman, y por tanto se pueden representar detalles más finos. Por supuesto, cuantos más píxeles tiene una imagen, más memoria ocupa.
El funcionamiento de una cámara digital se basa en su chip CCD que sustituye a la película de la cámara tradicional. El CCD, o dispositivo acoplado por carga, basa su funcionamiento en la separación de cargas que se produce en un material semiconductor cuando la luz lo atraviesa. En un CCD existen líneas formadas por pocillos en los que se acumulan estas cargas; cuanto más tiempo esté un pocillo expuesto al bombardeo de los fotones que forman la luz, más carga en forma de electrones libres acumulará. En un CCD se hace que las cargas se desplacen de un pocillo al siguiente, de forma que al final de cada línea del CCD se puede recoger, secuencialmente, la carga acumulada en los sucesivos pocillos. De este modo, una matriz de pocillos CCD, permite leer la cantidad de luz incidente en cada píxel de la imagen línea por línea. En la actualidad, los sensores CMOS tienden a remplazar a los CCD. La ventaja de los CMOS es que usan técnicas baratas de fabricación, permiten acceder rápidamente al contenido de cada píxel y consumen menos energía que los CCD; el inconveniente es que todavía son menos eficientes y más ruidosos que los CCD.
Muchos aparatos electrónicos son capaces de capturar una imagen, almacenarla y transmitirla. El principio físico sigue siendo el de la fotografía tradicional, con la película fotográfica reemplazada por un chip CCD. El CCD nos proporciona esta gran cantidad de información en forma digital. Usamos imágenes de 5, 8, 10 megapíxeles. Para poder almacenarlas, en 1992 se publicó el formato JPEG que usan casi todas las cámaras y teléfonos móviles. El JPEG guarda sólo una parte de la información de la imagen: aquélla en la que se fija el ojo humano. Nuestra retina reconoce líneas y patrones periódicos. También percibe la luminosidad y la “tonalidad del color”, por separado, en vez de los tres colores rojo, verde y azul, que excitan los pigmentos fotosensibles de sus células fotosensibles (los conos y los bastones). De este modo, el JPEG guarda esta información relevante; el resto se pierde: es un formato de compresión con pérdidas. Hoy tenemos a nuestra disposición más memoria y mayores velocidades de transmisión, pero cada vez queremos manejar imágenes más grandes. Por eso se sigue trabajando en formatos de compresión, como el JPEG2000, la novísima versión del ya viejo JPEG.
La resonancia magnética aprovecha que los núcleos atómicos se orientan dentro de un campo magnético como una brújula con el campo de la Tierra. Al introducirnos en un imán, los núcleos atómicos que forman nuestras moléculas se orientan con el campo y giran sobre sí mismos como peonzas. La frecuencia de giro es propia de cada núcleo, es decir, es diferente para el hidrógeno, para el carbono, ... En este estado, cada núcleo puede absorber una cantidad exacta de energía para pasar de su estado basal a otro excitado. Para hacer imagen, se ilumina el cuerpo con la energía que sólo excita a los núcleos de hidrógeno. Ésta se envía en forma de pulsos, es decir, en paquetes de muy corta duración. Cuando termina el pulso, los núcleos excitados vuelven a su estado basal y devuelven la energía que habían absorbido. Esta energía se capta con una antena que nos colocan en la zona a explorar: el hombro, el hígado, ... y con esta señal se reconstruye la imagen. La energía con la que se trabaja es no ionizante, es decir, no es dañina para nuestra salud.