Ciencia


Inicio

Santiago de Chile,
 

El átomo
Radiactividad
Mecánica cuántica
Caos
Elementos
Teoría atómica
Termodinámica, energía y calor

Energía y potencia 
Calor
Radiación
La segunda ley de la termodinámica
Calor y materiales
Evolución
Ideas erróneas comunes sobre la evolución
 

El átomovolver
El átomo es la unidad de materia más pequeña que retiene su identidad como elemento químico. El nombre procede de la palabra griega que significa «indivisible», y retenemos este nombre pese a que ahora sabemos que el átomo está compuesto de partículas aún más pequeñas.
La moderna teoría atómica data del filósofo natural inglés John Dalton (1766-1844), que publicó en 1808 un libro titulado Nuevo sistema de filosofía química. En este libro, Dalton propuso algo muy parecido a nuestra moderna teoría. Argumentó que para cada elemento químico hay un tipo diferente de átomo, y que diferentes materiales (lo que hoy llamaríamos compuestos químicos) son simplemente combinaciones diferentes de esos átomos.
El primer modelo moderno del átomo fue propuesto por Niels Bohr, un joven físico danés, en 1912. El modelo es hoy conocido por los físicos como el átomo de Bohr. El rasgo central del átomo de Bohr es que los electrones pueden hallarse en órbitas a sólo ciertas distancias bien específicas del núcleo. Las órbitas a esas distancias reciben el nombre de «órbitas permitidas» u «órbitas de Bohr».
Se necesita energía para que los electrones se muevan de una órbita más baja a una más alta, puesto que es preciso efectuar un trabajo para superar la fuerza de atracción ejercida sobre el electrón por el núcleo. Así, es preciso añadir energía al átomo para mover el electrón en esta dirección. Inversamente, si un electrón se mueve de una órbita superior a otra más baja, hay un exceso de energía de la que es preciso disponer.
La emisión de luz corresponde a una transición de una órbita de Bohr más alta a otra más baja. Si por alguna razón un electrón se halla en una órbita más alta, puede saltar espontáneamente a otra más baja. Cuando hace eso, la diferencia de energía entre las órbitas inicial y final deja al átomo en la forma de un fotón. Éste es el proceso mediante el cual un átomo emite luz y otras formas de radiación electromagnética.
Cuando un átomo absorbe luz, los electrones se mueven de órbitas de Bohr inferiores a otras superiores. La energia de un fotón puede ser absorbida por el átomo y usada para mover el electrón de una órbita inferior a otra superior.
La existencia de órbitas de Bohr explica que diferentes átomos desprendan colores distintos de luz. Cuando un electrón se mueve de una órbita a otra, debe absorber o emitir sólo una cantidad específica de energía. Esto, a su vez, significa que cualquier átomo es capaz de emitir y absorber sólo esas mismas y discretas cantidades de energía. Puesto que la energía de un fotón se halla relacionada con la longitud de onda, y en consecuencia con el color, de su luz, cada átomo puede emitir y absorber sólo ciertos colores. Por eso las luces de neón son rojas y las lámparas de vapor de sodio amarillas.
Un átomo absorbe lo mismo que emite. La absorción de luz por parte de un átomo corresponde al movimiento de un electrón hacia arriba entre dos órbitas, mientras que la emisión de esa longitud de onda de luz corresponde a mover un electrón hacia abajo entre las dos mismas órbitas. Puesto que la diferencia de energía entre las órbitas no depende de la dirección del salto cuántico, de ello se deduce que si un átomo puede emitir un cierto color, también ha de ser capaz de absorberlo.
Los colores emitidos por un átomo son una «huella dactilar atómica», porque no hay dos elementos que tengan exactamente las mismas órbitas de Bohr. Este hecho forma la base de la rama de la ciencia conocida como espectroscopia.
El hecho de que cada átomo emita y absorba un conjunto distinto de colores nos permite identificar la presencia de ese átomo en pequeñas muestras de material. Se acompaña un esquema del tipo de instrumento que puede usarse para analizar la luz de una muestra. Los diferentes colores de luz emitidos por una muestra son desplegados por un prisma para proporcionarnos la «huella dactilar» de esa muestra en una placa fotográfica o (más normalmente) en un detector electrónico. El instrumento recibe el nombre de espectroscopio. Esta huella dactilar es distinta para cada átomo y molécula.
La espectroscopia ayuda a los astrónomos. A principios del siglo xix, Auguste Comte, el fundador de la moderna sociología, publicó una lista de cosas que dijo que seria imposible llegar a realizar una. Entre las primeras de esa lista estaba el análisis de la composición química de las estrellas. De hecho, el desarrollo de la espectroscopia en el siglo xix nos permitió hacer precisamente eso. Observando la luz emitida por las estrellas, podemos detectar las huellas dactilares atómicas de los átomos presentes, aunque la estrella se halle a millones de años luz de distancia y nunca podamos poner nuestras manos sobre un trozo de ella.
Los físicos modernos tienen una extraña imagen del átomo. Puesto que se piensa en las partículas cuánticas como el electrón en términos de funciones ondulatorias en vez de partículas clásicas, piensan en los electrones como en nubes imprecisas que rodean el núcleo antes que como cosas análogas a planetas rodeando el Sol. Los lugares donde las nubes son más densas son donde es más probable que se halle el electrón.
La mayor parte de la masa del átomo, pero casi nada de su volumen, reside en el núcleo. En un átomo típico, el núcleo pesará unas cuatro mil veces tanto como los electrones. En consecuencia, con una buena aproximación, podemos ignorar los electrones cuando hablamos de la masa del átomo.
Por otra parte, el átomo es casi todo espacio vacío. Si el núcleo de un átomo fuera una pelota de baloncesto en el suelo delante nuestro, los electrones serían como unas cuantas docenas de granos de arena esparcidos en torno a la región en que vivimos. Para los expertos, señalemos que la dimensión lineal del núcleo es típicamente 10-5 veces las dimensiones lineales de todo el tomo. El núcleo fue descubierto en 1911 por Ernest Rutherford en Manchester, Inglaterra. Él y sus colaboradores tomaron una radiación conocida como partículas alfa y permitieron que golpeara una delgada hoja de pan de oro. Aunque la mayor parte de las partículas la cruzaron o fueron sólo ligeramente desviadas, una partícula de cada mil fue rebotada hacia atrás por los átomos del pan de oro. Rutherford comparó el experimento al proceso de disparar una bala a una nube de vapor y descubrir que ocasionalmente ésta rebotaba. La única conclusión que puede extraerse en cualquier caso es que en algún lugar dentro del átomo (o nube de vapor) había un pequeño cuerpo denso capaz de desviar las partículas de movimiento rápido y hacer que cambiaran de dirección. Rutherford llamó a este cuerpo pequeño y denso, el núcleo.
Rutherford es uno de esos individuos poco usuales que hizo su más importante contribución a la ciencia después de recibir el premio Nobel. Consiguió el premio de Química en 1908 por elaborar la naturaleza de las partículas desprendidas por los materiales radiactivos, luego descubrió el núcleo.
El núcleo está formado por protones y neutrones. Rutherford llamó al núcleo de hidrógeno -una sola partícula con carga eléctrica positiva- el protón («el primero»). La carga positiva total del núcleo, pues, es la suma de las cargas de los protones, y el número de electrones en órbita en un átomo neutro es igual al número de protones en el núcleo.
El neutrón («el neutro») es casi tan masivo como el protón pero, como sugiere el nombre, no tiene carga eléctrica. Se añade a la masa, pero no a la carga, del núcleo.
La mayor parte de los núcleos estables tienen aproximadamente un número igual de protones y neutrones. Cuando esta regla general es rota, como ocurre con los elementos pesados, la tendencia para los núcleos es tener más neutrones que protones.
La identidad química de un átomo depende del número de protones en el núcleo. El número de protones en el núcleo (el llamado número atómico, señalado típicamente por la letra Z) determina la naturaleza química del átomo, porque esta naturaleza química se halla determinada por los electrones más exteriores en el átomo. Así, si me dice usted el número de protones en un núcleo, yo le diré de qué tipo de átomo me está hablando. Por ejemplo, si hay seis protones, el átomo es de carbono; si hay ocho, es de oxígeno, y así sucesivamente.
Los neutrones extra no cambian la naturaleza química de un átomo porque no cambian el número de electrones necesario para cancelar la carga del núcleo. En consecuencia, es posible tener muchas especies diferentes de un tipo dado de átomo, cada una de las cuales tendrá en su centro un núcleo con el mismo número de protones, pero un número diferente de neutrones. Dos átomos cuyos núcleos tienen el mismo número de protones pero un número diferente de neutrones se dice que son isótopos el uno del otro.
Con mucha aproximación, se pueden contemplar los electrones y los núcleos como dos sistemas separados, cada uno dedicado a sus propios asuntos e ignorando al otro. Esto quiere decir que significa muy poca diferencia para el núcleo.
si el átomo es por sí mismo un espacio o si sus electrones exteriores forman parte de enlaces químicos. El núcleo hará lo que esté haciendo en ambas situaciones.
Quiere decir también que significa muy poca diferencia para los electrones el que haya neutrones extras en el núcleo o no. Los diferentes isótopos de un elemento dado se muestran igualmente adeptos a hallar lugares en minerales y otros materiales, y todos los isótopos de un elemento dado aparecerán en cualquier material que incorpore ese elemento.

Radiactividadvolver
Un núcleo es radiactivo si emite partículas espontáneamente. Los núcleos familiares son estables: es decir, no cambiarán espontáneamente de una forma a otra. Hay, sin embargo, núcleos que no son estables. El uranio es probablemente el ejemplo más familiar de tales núcleos. Esos núcleos emiten espontáneamente partículas que llamamos «radiación». Un núcleo que emite radiación se dice que es «radiactivo», y el acto de emitir radiación recibe el nombre de «desintegración radiactiva».
Marie Schlodowska Curie, una mujer polaca que pasó la mayor parte de su vida profesional en Francia, desempeñó un importante papel en los primeros estudios de la radiactividad. Hay muchas cosas notables respecto a ella: es la única persona que ha ganado dos premios Nobel en campos científicos, es la descubridora de los elementos radio y polonio, y es una de las fundadoras del estudio de la radiactividad y, en consecuencia, de la física nuclear.
Tan grande era la resistencia a la idea de una mujer científica a finales del siglo xix, sin embargo, que pese a sus dos premios Nobel ¡nunca fue elegida para la Academia francesa de ciencias! Uno pensaría que, después del primero, los chicos habrían captado el mensaje.
Hay tres tipos de radiación. Los físicos de la época no tenían la menor idea de lo que eran esas partículas radiactivas, así que les dieron nombres para expresar su misteriosa naturaleza: las llamaron respectivamente rayos alfa, beta y gamma.
Las partículas alfa están formadas por dos protones y dos neutrones: en realidad son los núcleos del helio ordinario. La radiación beta está formada por electrones. Debido a que esta misteriosa radiación nueva fue descubierta sólo poco después del electrón en sí, el hecho de que rayos beta y electrones son idénticos no fue apreciado durante un cierto número de años. La desintegración de un núcleo que da como resultado la emisión de un electrón recibe el nombre de «desintegración beta». La radiación gamma es rayos X normales emitidos cuando protones y neutrones se recomponen dentro del núcleo.
El helio que utilizan para inflar los globos de cumpleaños de nuestros hijos (y que se usa líquido para mantener fríos los superconductores)no se toma de la atmósfera de la Tierra. En vez de ello, procede de la desintegración radiactiva de los núcleos en las propiedadades de la Tierra. Esas desintegraciones producen partículas alfa que se frenan, adquieren electrones, y forman helio, que luego resulta atrapado junto con el petróleo y el gas natural. Cuando se explotan las reservas de petróleo y gas natural, el helio es separado y vendido.
El neutrón sufre una desintegración beta. De hecho, si pudiéramos observar un neutrón libre, lo veríamos «hacerse pedazos» en unos ocho minutos. Los productos finales de la desintegración son un protón, un neutrino y un electrón. Por razones técnicas, un neutrón que se halla asentado a buen recaudo en un núcleo puede permanecer estable y a salvo de la desintegración beta durante tanto tiempo como permanezca allí. La energía implicada en la radiactividad procede de la conversión de masa. Si medimos las masas de los productos finales de una desintegración radiactiva, hallaremos que tienen menos masa que el núcleo original. La diferencia entre las masas de antes y después es convertida en energía según la ecuación E = mc2 y es esta energía la que vemos como la energía asociada con la radiación.
La desintegración radiactiva es la piedra filosofar definitiva, la piedra que los alquimistas creían que podía convertir el plomo en oro o, más generalmente, un elemento químico en otro. Puesto que la desintegración alfa y beta cambia el número de protones en un núcleo, también cambia la identidad química del átomo del que ese núcleo forma parte.
Tras la desintegración alfa un núcleo podrá contener dos electrones menos de los que tenía antes de la desintegración. Los dos electrones «extra» terminarán alejándose, dejando tras ellos un átomo que tiene dos electrones menos en órbita. Este átomo, por supuesto, será identificado como un miembro de una especie química distinta del átomo original.
Una forma de pensar en la desintegración beta de un núcleo es imaginar que uno de los neutrones dentro del núcleo sufre una desintegración beta, produciendo un núcleo que tiene un protón más y un neutrón menos. Siempre hay electrones libres vagabundeando por ahí en la Naturaleza, y uno de ellos es atraído finalmente al átomo. El resultado final es que nace un nuevo elemento químico, uno con un electrón más en órbita de los que originalmente había allí. De nuevo, un elemento químico nuevo ha remplazado al viejo.
Puesto que la desintegración gamma sólo implica una reorganización de protones y neutrones, no cambia un elemento en otro.
El uranio 238 se desintegra a través de una emisión alfa. El uranio tiene 92 protones en el núcleo, así que el núcleo hijo de esta desintegración tendrá 90 protones y una masa total de 234 (238 - 4). El producto, de hecho, será lo que los químicos llaman torio 234 (234Th).
La desintegración de un núcleo aislado raras veces es toda la historia en una desintegración radiactiva, puesto que la mayor parte de las veces los núcleos hijos -el resultado de la desintegración- son también radiactivos. Así, la desintegración original da nacimiento a un hijo que se desintegra, y ese núcleo se desintegra en otro, y así sucesivamente. Esta cadena de acontecimientos recibe el nombre de desintegración en cadena. La cadena sigue adelante hasta que se produce un núcleo estable.
Como consecuencia de la existencia de desintegraciones en cadena, una muestra pura de un elemento dado se hallará pronto mezclada con otros elementos. Por ejemplo, el U-238 se desintegra en torio. El torio luego se desintegra mediante emisiones beta en un elemento llamado protactinio, que a su vez se desintegra mediante emisión beta. Este proceso de desintegraciones sucesivas sigue adelante hasta que se alcanza el núcleo estable plomo 208.
Los norteamericanos son conscientes de los riesgos para la salud asociados a la acumulación de radón en las casas. El radón es uno de los elementos en la cadena de desintegraciones que conduce del uranio al plomo. Así, siempre es producido por las desintegraciones nucleares en el suelo. Una vez producido un átomo de radón, su movimiento futuro es gobernado por su química que, en este caso, dicta que no debe unirse a materiales de su alrededor sino que en vez de ello debe filtrarse al suelo y a los sótanos de las casas.
Los núcleos radiactivos no se desintegran todos a la vez. Se desintegran a lo que parecen ser intervalos al azar. Observar esos núcleos desintegrarse es algo muy parecido a observar el proceso de elaboración de palomitas de maíz, con los granos de maíz estallando a diferentes intervalos.
El número que se utiliza normalmente para medir la velocidad a la que se desintegran los núcleos radiactivos recibe el nombre de vida media. Se define como el tiempo que necesitan la mitad de los núcleos de un material dado para sufrir desintegración. Así, si empezamos con mil átomos, la vida media será el tiempo que tendremos que esperar para que nos queden solamente quinientos.
Las vidas medias de los isótopos nucleares pueden alinearse desde miles de millones de años a microsegundos. Algunos ejemplos:

uranio 238 4.600 millones de años
carbono14 5.730 años
radón 222 3,8 días
uranio 239 23,5 minutos
carbono 10 19,4 segundos

Aún es un misterio
No sabemos cómo predecir la vida media de los núcleos radiactivos. Aunque las vidas medias de los núcleos radiactivos pueden ser (y son) medidas con bastante exactitud, todavía no disponemos de la potencia de cálculo necesaria para ser capaces de predecir cuál será la vida media de la mayoría de los núcleos. Este problema es simplemente demasiado complejo para ser manejado ni siquiera por los más grandes ordenadores actualmente a nuestra disposición.
Los materiales radiactivos son «calientes» en dos sentidos de la palabra. Los materiales radiactivos son «calientes» en el sentido de desprender radiación, pero también son «calientes» en el sentido normal térmico. Podemos ver por qué preguntando qué le ocurre a algo como una partícula alfa después de ser emitida en una descomposición radiactiva. La partícula alfa se moverá en el material que la rodea y saltará de un lado para otro, de una forma parecida a una bola en una máquina del millón. Como resultado de esas colisiones, la energía inicial de la partícula allá será compartida con los átomos del material que la rodea, que como resultado de ello se moverá más aprisa. Este movimiento acelerado, por supuesto, es lo que percibimos como calor. Así, cualquier material en el que se hallen presentes elementos radiactivos se verá calentado por la presencia de esos elementos.
El calor generado por la radiactividad se cree que contribuye significativamente a la operativo de la tectónica de placas. La generación de calor por parte de materiales radiactivos es importante también en el problema de disponer de los residuos radiactivos, porque esos residuos deben ser almacenados en materiales que no se fundan en largos períodos de tiempo.
Si tomamos un cubo de granito que podamos tener en nuestra mano e impedimos que escape el calor generado por la desintegración radiactiva de los núcleos que normalmente se hallan en la roca, al cabo de un millón de años se habrá generado suficiente calor como para fundir la roca por completo.
La radiactividad no es «innatural». Puesto que el conocimiento humano de la radiactividad es reciente y puesto que el público se ha vuelto realmente consciente de la radiactividad sólo desde la Segunda Guerra Mundial, hay una tendencia a que mucha gente crea que la radiación es algo nuevo en el entorno humano. De hecho, nuestra raza vive y ha evolucionado en un entorno que está lleno de radiactividad. El uranio, que sufre desintegración radiactiva, es un elemento común en la corteza terrestre. Es más común que cosas como la plata y el mercurio. La desintegración en cadena que inicia llena la Tierra de núcleos radiactivos. Además, la Tierra está siendo bombardeada constantemente por los rayos cósmicos. Esas partículas, en su mayor parte protones, son generadas en el Sol y otras estrellas y llueven constantemente sobre nuestra atmósfera. Allí, en colisiones con las moléculas en el aire, producen lluvias de partículas. En este mismo momento, las partículas de esas lluvias pasan a través de nuestros cuerpos con una frecuencia de unas tres por minuto, añadiéndose así a los niveles de radiación de fondo.
Así, cuando lea usted algo acerca de que se ha descubierto radiactividad en alguna parte, tiene que ser consciente de que la mayor parte de lugares tienen ya materiales radiactivos en ellos, y la pregunta que debe formularse no es «¿es radiactivo?», sino «¿es más radiactivo de lo que sería normalmente?»
Toda la energía nuclear procede de la conversión de masa. Cada vez que un núcleo cambia de estado, habrá un pequeño cambio en su masa. Si, como es el caso para las descomposiciones, la suma de las masas presente al final del cambio es menor de la que había antes, esta diferencia será convertida en energía.
Hay dos tipos de procesos (además de la descomposición) normalmente asociados con el término «energía nuclear». Ésos son fisión y fusión.
La fisión es un proceso que divide un núcleo grande en dos o más núcleos hijos más pequeños. La fisión de algunos núcleos libera energía, y la fisión de otros requiere un aporte de energía. La fisión productora de energía más conocida es la del uranio 235, que, cuando es golpeado por un neutrón que se mueve lentamente, se divide y produce energía (en forma del movimiento de fragmentos de alta velocidad) y unos cuantos neutrones más, cada uno de los cuales puede seguir adelante y producir más fisiones. El resultado: una liberación continuada de energía tan larga como dure la provisión de uranio 235.
Hay buenas posibilidades de que la electricidad en nuestra casa sea generada en un reactor nuclear. Así es como funciona un reactor: el uranio 235 se halla contenido en varillas de combustible de un diámetro tan grande como un lápiz. Los neutrones producidos en las reacciones de fisión abandonan la varilla de combustible que es su «casa», son frenadas por el agua o líquido que hay entre las varillas, e inician una reacción a fisión en otra varilla. El efecto de todas esas reacciones es calentar el agua, que es entonces bombeada fuera del reactor en sí y usada para calentar más agua en un sistema separado de tuberías. El vapor de este segundo sistema mueve los generadores que producen la electricidad.
La fusión es el proceso por el que dos pequeños núcleos se unen para formar un solo núcleo más grande. La reacción a fusión más importante es la que produce helio a partir del hidrógeno. Esto es lo que proporciona la energía al Sol y otras estrellas. Es también esta reacción la que hemos estado intentando controlar en laboratorio a fin de poder usarla como fuente de energía eléctrica.
Históricamente, los intentos de controlar la fusión han incluido el tratar de reproducir las condiciones en las que se produce la fusión en el interior de las estrellas. Esto representa calentar hidrógeno gaseoso a muy altas temperaturas y comprimirlo en campos magnéticos hasta que se inicie la fusión. Este proceso recibe el nombre de fusión «caliente». Todavía no se ha tenido éxito en producir una reacción a fusión controlada automantenida.
En 1989, algunos científicos proclamaron haber descubierto la posibilidad de otra ruta de fusión, la denominada fusión «fría». El fracaso de otros científicos en reproducir los resultados originales ha conducido al abandono de esta ruta a la fusión.

Mecánica cuánticavolver
En el mundo del átomo y sus componentes, todo aparece en montones. Quantum, de donde deriva "cuanto", es una palabra latina que significa «mucho» o «montón». En el interior de los átomos, todo -masa, carga eléctrica, momento y demás- aparece en montones. Nada en este mundo es liso y continuo.
«Mecánica» es el antiguo término para la ciencia del movimiento, así que «mecánica cuántica» es la rama de la ciencia dedicada a describir el movimiento de las cosas en el mundo subatómico.
El mayor problema que tiene la gente a la hora de ocuparse de la mecánica cuántica procede de nuestra suposición inconsciente de que las cosas se comportarán del mismo modo en el mundo cuántico que como lo hacen el mundo normal de nuestra experiencia. Nuestra intuición acerca de cómo deberían comportarse las cosas se basa en nuestra experiencia con objetos grandes que se mueven a velocidades normales. No hay ninguna razón para esperar que, cuando contemplamos objetos muy pequeños u objetos que se mueven a velocidades muy altas, éstos se comporten de la misma forma que lo hacen los objetos con los que estamos familiarizados.
En el mundo cuántico no se puede observar nada sin afectarlo. En la mecánica newtoniana, suponemos que podemos observar algo como una bola de billar o la Tierra sin cambiarla. Eso se debe a que, cuando miramos a una bola de billar, las ondas de luz que rebotan contra ella y vuelven a nuestros ojos son tan infinitésimas que podemos estar seguros de que no puedan afectar la bola de ninguna forma. En el mundo cuántico, sin embargo, la única forma de observar un electrón es haciéndole rebotar contra otro electrón (o algo equivalente). En este proceso, el electrón observado resultará cambiado. En palabras del presidente Mao, «si quieres probar una pera, debes cambiar la pera, comiéndola».
El principio de incertidumbre de Heisenberg forma parte de la mecánica cuántica. Fue el físico alemán Werner Heisenberg quién primero se dio cuenta completamente de las aplicaciones de la Naturaleza de la observación en la mecánica cuántica. El principio que lleva su nombre afirma que debido a que un objeto cuántico no puede ser observado sin cambiarlo, es imposible -incluso en principio- medir ciertas cosas simultáneamente. Por ejemplo, no podemos saber exactamente posición y velocidad en un momento determinado. Cuanto más exactamente sepamos el valor de la posición, menos seguros estaremos de lo rápido que se esté moviendo algo, y viceversa.
El principio de incertidumbre no dice que es imposible efectuar mediciones exactas en el mundo cuántico. Simplemente dice que, si decidimos medir con exactitud una cosa, debemos pagar por este conocimiento renunciando a cualquier esperanza de obtener conocimiento sobre algo distinto. En otras palabras, si deseo saber exactamente la posición de una partícula, deberé efectuar una medición de tal modo que AX (la incertidumbre en la posición) sea cero. A fin de que el principio de incertidumbre sea cierto en este caso, AV (la incertidumbre en la velocidad) tendría que ser infinito: la velocidad podría tener cualquier valor. Podemos medir exactamente la posición, podemos medir exactamente la velocidad, o podemos medir ambas cosas dentro de algún nivel de compromiso en la precisión. Todo lo que dice el principio de incertidumbre es que no podemos medir ambas cosas con exactitud al mismo tiempo.
Debido al principio de incertidumbre, los físicos describen los sistemas de mecánica cuántica en términos de probabilidades. Si no podemos decir si una partícula se está moviendo a tres metros por segundo o a veinte metros por segundo, por ejemplo, no seremos capaces de predecir con mucha exactitud dónde estará dentro de diez segundos. En consecuencia, nos vemos obligados a describir el comportamiento de la partícula en términos de un conjunto de probabilidades. En este ejemplo, podemos decir que en diez segundos la partícula tiene muchas probabilidades de estar a cuarenta y cinco metros de distancia, pero hay una posibilidad de que haya viajado sólo treinta, y otra posibilidad de que haya llegado hasta los sesenta.
En mecánica cuántica, pues, todo se halla descrito en términos de cosas llamadas funciones ondulatorias. Como el nombre indica, la función ondulatoria es una descripción del electrón o fotón u otra «partícula» como una onda. La altura de la «onda» en un punto específico, sin embargo, se halla relacionada con la probabilidad de hallar la partícula en ese punto. Así, si tenemos una onda con una jiba en el centro que desciende en cola a ambos lados, estamos diciendo que la partícula tiene muchas probabilidades de hallarse en el centro y que tiene muy pocas probabilidades de hallarse en cualquiera de los dos extremos.
Einstein fue crítico con la mecánica cuántica. La mayoría de la gente es consciente de que Albert Einstein pasó sus últimos años como un enemigo implacable de la mecánica cuántica, pese a que él mismo fue uno de los grandes pioneros en este campo. Se supone que resumió sus objeciones a los aspectos probabilistas de la mecánica cuántica diciendo: «Dios no juega a los dados con el Universo.» La historia cuenta que Niels Bohr, un amigo de toda la vida y colega de Einstein, llegó a sentirse tan exasperado por las repeticiones de esta cita que en una ocasión le respondió: «¡Albert! ¡Deja de decirle a Dios lo que tiene que hacer!»
A veces las partículas cuánticas actúan como ondas: tomemos como ejemplo el electrón. Normalmente pensamos en él como en algo parecido a una pelota de béisbol, una masa de materia localizada en la que normalmente pensamos como una partícula. Hay muchas situaciones experimentales en las que los electrones parecen viajar de un lado para otro como pequeñas balas. En ciertas circunstancias, sin embargo, el electrón puede exhibir interferencias, un comportamiento que asociamos con ondas. Por ejemplo, si hacemos que los electrones golpeen una pantalla con dos rendijas en ella, habrá bandas alternativas de alta y baja intensidad al otro lado de la pantalla, del mismo modo que habría bandas alternativas brillantes y oscuras si lo que golpeara la pantalla fuera luz. En este tipo de experimento, el electrón actúa como una onda.
Las ondas cuánticas actúan a veces como partículas. Hay una amplia evidencia de que la luz es una onda. Por otra parte, en el efecto fotoeléctrico, parece actuar como una partícula. El efecto (explicado por primera vez por Albert Einstein en 1905) es éste: cuando la luz incide sobre ciertos metales, libera electrones. Esos electrones empiezan a salir del metal muy rápidamente, demasiado rápidos como para medirlos con algo que no sean los más modernos instrumentos electrónicos. La única forma de explicar esta rápida emisión es decir que, al menos en este caso, la luz actúa como una bola de billar que colisiona con el electrón y retrocede instantáneamente, antes que actuar como una onda que retira gentilmente el electrón de su átomo.
El fotón asociado con la luz visible ordinaria tiene como unos noventa centímetros de largo.
La dualidad onda-partícula, ¿es o no un problema? En la primera mitad del siglo xix, los físicos supusieron que todo tenía que ser o una partícula o una onda. En consecuencia, el comportamiento de las cosas en el mundo cuántico les presentaba un dilema. Parecía que el que un electrón actuara como una onda o una partícula dependía del tipo de experimento que se realizara. Llamaron a este problema la «dualidad ondapartícula».
Personalmente, (dice el autor) no creo que la dualidad onda-partícula sea un problema tan grande. La existencia de la «paradoja» nos dice simplemente que hemos hecho una suposición incorrecta. Aplicamos las categorías equivocadas a una nueva situación debido a que, en el mundo cuántico, todo no es o una partícula o una onda. Los electrones y los protones son lo que son: cosas que a veces se nos aparecen como partículas y a veces como ondas, pero que en realidad son un tercer tipo de cosa con la que nunca habíamos tenido una experiencia directa.
Con la moderna y rápida electrónica, es posible establecer una situación en la que una partícula es lanzada contra un aparato y, mientras la partícula se halla en vuelo, decidir si efectuamos el experimento en «forma partícula» o en «forma onda» después de que ya es demasiado tarde para la partícula cambiar de opinión. Cuando esos experimentos terminan, obtenemos los resultados predichos por la mecánica cuántica: comportamiento como onda en el experimento como onda y comportamiento como partícula en el experimento como partícula. La teoría es correcta, pero, ¿cómo podemos ¡maginar un electrón si se comporta de esta forma?
La dualidad onda-partícula explica el átomo de Bohr. La existencia de órbitas permitidas en el átomo de Bohr fue un misterio cuando fue propuesto el modelo por primera vez. Ahora comprendemos que son las únicas órbitas para las que las descripciones del electrón como onda y partícula son consistentes. Una órbita «no permitida» puede ser una en la que el electrón, cuando es considerado como partícula, sea estable, pero en la que el electrón «onda» no encaje un número parejo de veces. A la inversa, puede ser una en la que la onda encaje, pero la partícula se mueva demasiado rápido para permanecer en órbita. Sólo cuando los dos puntos de vista son consistentes: cuando la órbita de la partícula es estable y la onda encaja, conseguimos una órbita permitida. Así, las órbitas de Bohr son aquellas para las que no constituyen ninguna diferencia si el electrón es una partícula o una onda.
Durante las últimas etapas de su carrera, Albert Einstein pensó en un cierto número de paradojas mediante las cuales esperaba mostrar a sus colegas que habían tomado el camino equivocado. Su último arranque en este campo lo hizo en 1935, cuando, junto con dos colegas, propuso algo que en la actualidad se conoce como la paradoja EPR (las iniciales de los nombres de sus autores: Einstein, Poldosky y Rosen).
Esto es la paradoja EPR: si tenemos un núcleo que se desintegra en dos partículas idénticas, esas partículas deben aparecer inversa la una de la otra. Si las partículas giran, y la que se mueve a la derecha lo hace según el sentido de las manecillas del reloj, entonces la que se mueve a la izquierda tiene que girar en sentido contrario de las manecillas del reloj. ¿Qué ocurrirá si dejamos que cada una de las dos partículas hijas viaje una larga distancia sin ser medidas y luego medimos sólo una de ellas, la de la derecha por ejemplo? Si esta partícula gira en el sentido de las manecillas del reloj, la de la izquierda tiene que estar girando en sentido contrario y en consecuencia, argumentaba Einstein, ambas partículas debían tener esos spins todo el tiempo, fueran medidas o no. Argumentaba que esto demostraba que las partículas cuánticas tenían «realmente» propiedades definidas todo el tiempo, y que el principio de incertidumbre era tan sólo el resultado de nuestra incapacidad de medirlas. Y, por supuesto, si esto es cierto, entonces la auténtica teoría que describe el mundo cuántico no tendrá necesidad de explicaciones probabilísticas.
El teorema de Bell hace de las argumentaciones sobre la realidad de la mecánica cuántica una cuestión experimental. En 1962, el físico escocés John Bell señaló que, examinando las cantidades que podían ser medidas (como la relación entre la dirección en la que se mueve la partícula y la dirección de su spin), se podía comprobar la idea básica detrás de la paradoja de EPR en el laboratorio. Hizo esto demostrando que había ciertas relaciones entre esas cantidades que se mantenían si la partícula tenía realmente un spin definido entre el momento en que era emitida y el momento en que era medida, pero que se mantendría un conjunto distinto de relaciones si la partícula tenía que ser descrita por una función ondulatorio durante este período de tránsito (es decir, si, como dictaba la mecánica cuántica, no tiene un spin definido cuando no está siendo medida).
A mediados de los años setenta un cierto número de distintos laboratorios en todo el mundo, muy notablemente el de Alain Aspect en París, realizaron los tipos de experimentos sugeridos por Bell. Hallaron que las predicciones de la mecánica cuántica, con sus electrones y fotones probabilistas, tenían razón: un electrón no tiene realmente un spin definido hasta que es medido. Así, parece que la Naturaleza ha decidido simplemente hacer el mundo cuántico distinto del mundo al que estamos acostumbrados. Puede que no nos guste, pero así es como son las cosas.
En realidad, lo más sorprendente para mí respecto a los experimentos en mecánica cuántica no es el resultado, sino el hecho de que fueran efectuados. Es casi como si la vieja discusión para estudiantes de segundo grado -acerca de si un millón de monos con máquinas de escribir podrían producir Hamlet- fuera resuelta por alguien que reuniera realmente un millón de monos y los pusiera a trabajar.
Si desea usted jugar a juegos cuánticos, deberá jugar según las reglas cuánticas. Una cosa distinta es aceptar la idea de que la mecánica cuántica es probabilística a un nivel intelectual. La razón de que podamos hacer esto es porque en lo más profundo de nuestros corazones creemos que el electrón es realmente como una pelota de béisbol, aunque la física desee mostrarse exigente al respecto. El teorema de Bell y su resultado experimental nos fuerzan a aceptar el hecho de que el mundo cuántico es fundamental e irremediablemente distinto del mundo con el que estamos familiarizados. Tenemos que enfrentarnos a las cosas a nivel cuántico a través de nuestras ecuaciones matemáticas, aunque nunca podamos llegar a verlas o fotografiarlas. Eso no quiere decir que no resulte duro para la gente -incluso para los físicos endurecidos- hacerlo.

Caosvolver
Un sistema caótico es uno en el que el resultado final depende muy sensiblemente de las condiciones iniciales. El agua de un arroyo tumultuoso es un buen ejemplo de un sistema caótico. Si introducimos un trozo de madera en una posición, aparecerá en un punto en particular al otro lado de los rápidos. Si introducimos un segundo trozo de madera en una posición casi (pero no completamente) idéntica a la del primero, el segundo trozo aparecerá -en general- fuera de los rápidos muy alejado de donde lo hizo el primero. El resultado final (la posición de los trozos de madera) depende así sensiblemente de las condiciones iniciales (el lugar donde empezaron su viaje).
Para todas las finalidades prácticas, el comportamiento de los sistemas caóticos no puede predecirse. Es imposiblemedir las condiciones iniciales de un sistema con una perfecta exactitud. La posición de un trozo de madera al inicio de su viaje, por ejemplo, sólo puede determinarse tan exactamente como pueda medir el mejor sistema de medida disponible. Puesto que la posición final del trozo de madera será muy diferente si el trozo es movido al principio un tramo más pequeño que incluso este pequeño margen de error, de ello se deduce que no hay forma de predecir dónde terminará el trozo de madera.
Físicos y escritores expresan a menudo este punto diciendo que los sistemas caóticos son «impredecibles». No quieren decir que si sabemos exactamente el estado de un sistema no podamos predecir dónde estará en un momento determinado en el futuro: ese tipo de predicciones se hacen constantemente con modelos por ordenador. Lo que quieren decir es que, puesto que nunca es posible hacer un perfecto conjunto de medidas para determinar el estado inicial de un sistema caótico, sus estados futuros nunca pueden ser predichos.
El primer descubrimiento de un sistema caótico fue realizado por Edward Lorenz, un meteorólogo del MIT, que se vio obligado a interrumpir un largo cálculo por ordenador sobre patrones meteorológicos. En vez de empezar de nuevo el cálculo desde el principio, almacenó algunos resultados intermedios del cálculo original del ordenador, luego los cargó de nuevo para que el ordenador siguiera trabajando a partir de donde se había parado. Para su sorpresa, el resultado que obtuvo de esta forma fue muy diferente del resultado que había obtenido previamente realizando los cálculos de una sola vez.
Descubrió que la diferencia entre los dos juegos de cálculos era debida a que el ordenador redondeaba los números de una forma ligeramente distinta cuando los almacenaba que cuando seguía usándolos en los cálculos. El error de redondeo en el ordenador producía una diferencia en la octava cifra decimal en los números relevantes. Éste fue nuestro primer indicio de que los sistemas importantes en la Naturaleza, como los atmosféricos, pueden ser extremadamente sensibles a los pequeños cambios.
Los ordenadores son la herramienta primaria para estudiar el caos, y buena parte de nuestra comprensión de los sistemas caóticos procede de emplear modelos de ordenador que rastrean esos sistemas a través del tiempo. Un problema típico de investigación sería algo como esto: una ecuación que describe un sistema es escrita y resuelta en el ordenador. El punto de partida del cálculo es luego ligeramente cambiado y el cálculo repetido. Si las predicciones en las dos soluciones son muy diferentes, el sistema es caótico y en consecuencia se efectúan investigaciones más detalladas.
Los sistemas caóticos son no lineales. El caos es diferente del tipo de física al que estamos acostumbrados porque las ecuaciones que describen los sistemas caóticos son no lineales. En una ecuación lineal -el tipo que describe la física familiar- una cosa cambia en proporción directa a otra. Por ejemplo, cuando subimos el volumen de nuestro equipo de alta fidelidad, un giro doble significa un volumen doble. En un sistema no lineal no se mantiene este tipo simple de relación. Es similar a lo que conseguimos en nuestro equipo de alta fidelidad cuando subimos demasiado el volumen y de pronto obtenemos silbidos, distorsiones y todo tipo de cosas extrañas. Por razones técnicas, la solución de las ecuaciones no lineales es un asunto muy difícil, en general imposible de conseguir sin ordenadores.
Los fractales comprenden otro fenómeno que surge en los sistemas no lineales. La palabra «fractal» es una contracción de «fractional dimension», dimensión fraccional. Consideremos el simple ejemplo de una manguera de jardín enrollada. Desde muy lejos tiene dimensión cero, es sólo un punto. Desde más cerca parece un objeto sólido, y en consecuencia tiene tres dimensiones. Finalmente, desde dentro del rollo, la manguera se vuelve unidimensional, puesto que no podemos especificar ninguna localización en ella diciendo cuán lejos está del final. Así pues, según nuestro punto de vista, la dimensionalidad de la manguera va de cero a tres a una dimensiones. Los fractales son una forma de ocuparse de lo que ocurre entre medio.
Los fractales pueden surgir en sistemas no lineales. Un ejemplo de un fractal puede ser el siguiente. Empecemos con un triángulo y luego, en medio de cada lado del triángulo, tracemos otro triángulo. Sigamos haciendo esto con cada línea recta para siempre. Es evidente que si miramos cualquier fragmento de este sistema a cualquier nivel de magnitud, veremos lo mismo: una línea recta con triángulos en ella. Es evidente también que hay una conexión entre la apariencia de las cosas a distintas escalas de aumento. De hecho, si pensamos en ello, nos daremos cuenta de que no podemos decir, simplemente mirando una línea, cuál es realmente el aumento.

Una opinión del Autor (James Trefill)
El caos ha sido excesivamente supervendido. Gracias principalmente al excelente libro de James Gleick "Caos", el público ha sido consciente del caos y de su importancia en la Ciencia. Desgraciadamente, creo que todo el campo ha sido excesivamente supervendido. Algunas personas tienen la impresión de que es una revolución importante en nuestro pensamiento y cambiará por completo la forma en que tratamos del mundo físico. Sin embargo, nada puede estar más alejado de la verdad. El caos tiene muchas probabilidades de proporcionar una nueva visión sobre problemas tales como la turbulencia y el crecimiento de los sistemas vivos. Pero es poco probable que tenga mucho que decir acerca de la enorme mayoría de fenómenos físicos, por la simple razón de que esos fenómenos, ya bien estudiados, se sabe que son agradablemente lineales y predecibles.

Elementosvolver
La Tabla Periódica
Primeras teorías

Los primeros filósofos griegos, cuyo método de planteamiento de la mayor parte de los problemas era teórico y especulativo, llegaron a la conclusión de que la Tierra estaba formada por unos cuantos «elementos» o sustancias básicas. Empédocles de Agrigento, alrededor del 430 a. del J.C., estableció que tales elementos eran cuatro: tierra, aire, agua y fuego. Un siglo más tarde, Aristóteles supuso que el cielo constituía un quinto elemento: el «éter». Los sucesores de los griegos en el estudio de la materia, los alquimistas medievales, aunque sumergidos en la magia y la charlatanería, llegaron a conclusiones más razonables y verosímiles que las de aquéllos, ya que por lo menos manejaron los materiales sobre los que especulaban.
Tratando de explicar las diversas propiedades de las sustancias, los alquimistas atribuyeron dichas propiedades a determinados elementos, que añadieron a la lista. Identificaron el mercurio como el elemento que confería propiedades metálicas a las sustancias, y el azufre, como el que impartía la propiedad de la combustibilidad. Uno de los últimos y mejores alquimistas, el físico suizo del siglo xvi Theophrastus Bombast von Hohenheim -más conocido como Paracelso-, añadió la sal como el elemento que confería a los cuerpos su resistencia al calor.
Según aquellos alquimistas, una sustancia puede transformarse en otra simplemente añadiendo y sustrayendo elementos en las proporciones adecuadas. Un metal como el plomo, por ejemplo, podía transformarse en oro añadiéndole una cantidad exacta de mercurio. Durante siglos prosiguió la búsqueda de la técnica adecuada para convertir en oro un «metal base». En este proceso, los alquimistas descubrieron sustancias mucho más importantes que el oro, tales como los ácidos minerales y el fósforo.
Los ácidos minerales -nítrico, clorhídrico y, especialmente, sulfúrico- introdujeron una verdadera revolución en los experimentos de la alquimia. Estas sustancias eran ácidos mucho más fuertes que el más fuerte conocido hasta entonces (el ácido acético, o sea, el del vinagre), y con ellos podían descomponerse las sustancias, sin necesidad de emplear altas temperaturas ni recurrir a largos periodos de espera. Aún en la actualidad, los ácidos minerales, especialmente el sulfúrico, son muy importantes en la industria. Se dice incluso que el grado de industrialización de un país puede ser juzgado por su consumo anual de ácido sulfúrico.
De todas formas, pocos alquimistas se dejaron tentar por estos importantes éxitos secundarios, para desviarse de lo que ellos consideraban su búsqueda principal. Sin embargo, miembros poco escrupulosos de la profesión llegaron abiertamente a la estafa, simulando, mediante juegos de prestidigitación, producir oro, al objeto de conseguir lo que hoy llama amos «becas para la investigación» por parte de ricos mecenas. Este arte consiguió así tan mala reputación, que hasta la palabra «alquimista» tuvo que ser abandonada. En el siglo xvii, «alquimista» se había convertido en «químico», y «alquimia» había pasado a ser la ciencia llamada «Química».
En el brillante nacimiento de esta ciencia, uno de los primeros genios fue Robert Boyle, quien formuló la ley de los gases que hoy lleva su nombre. En su obra "químico escéptico" (The Sceptical Chymist), publicada en 1661, Boyle fue el primero en establecer el criterio moderno por el que se define un elemento: una sustancia básica que puede combinarse con otros elementos para formar «compuestos» y que, por el contrario, no puede descomponerse en una sustancia más simple, una vez aislada de un compuesto.
Sin embargo, Boyle conservaba aún cierta perspectiva medieval acerca de la naturaleza de los elementos. Por ejemplo, creía que el oro no era un elemento y que podía formarse de algún modo a partir de otros metales. Las mismas ideas compartía su contemporáneo Isaac Newton, quien dedicó gran parte de su vida a la alquimia. (En realidad, el emperador Francisco José de Austria-Hungria financió experimentos para la fabricación de oro hasta fecha tan reciente como 1867.)
Un siglo después de Boyle, los trabajos prácticos realizados por los químicos empezaron a poner de manifiesto qué sustancias podrían descomponerse en otras más simples y cuáles no podían ser descompuestas. Henry Cavendish demostró que el hidrógeno se combinaba con el oxígeno para formar agua, de modo que ésta no podía ser un elemento. Más tarde, Lavoisier descompuso el aire -que se suponía entonces un elemento- en oxígeno y nitrógeno. Se hizo evidente que ninguno de los «elementos» de los griegos eran tales según el criterio de Boyle.
En cuanto a los elementos de los alquimistas, el mercurio y el azufre resultaron serlo en el sentido de Boyle. Y también lo eran el hierro, el estaño, el plomo, el cobre, la plata, el oro y otros no metálicos, como el fósforo, el carbono y el arsénico. El «elemento» de Paracelso (la sal) fue descompuesto en dos sustancias más simples.
Desde luego, el que un elemento fuera definido como tal dependía del desarrollo alcanzado por la Química en la época. Mientras una sustancia no pudiera descomponerse con ayuda de las técnicas químicas disponibles, debía seguir siendo considerada como un elemento. Por ejemplo, la lista de 33 elementos formulada por Lavoisier incluía, entre otros, los óxidos de cal y magnesio. Pero catorce años después de la muerte de Lavoisier en la guillotina, durante la Revolución francesa, el químico inglés Humphry Davy, empleando una corriente eléctrica para escindir las sustancias, descompuso la cal en oxígeno y en un nuevo elemento, que denominó «calcio»; luego escindió el óxido de magnesio en oxígeno y otro nuevo elemento, al que dio el nombre de «magnesio».
Por otra parte, Davy demostró que el gas verde obtenido por el químico sueco Carl Wilhelm Scheele a partir del ácido clorhídrico no era un compuesto de ácido clorhídrico y oxígeno, como se había supuesto, sino un verdadero elemento, al que denominó «cloro» (del griego clorós, verde amarillento).

Teoría atómicavolver
A principios del siglo xix, el químico inglés John Dalton contempló los elementos desde un punto de vista totalmente nuevo. Por extraño que parezca, esta perspectiva se remonta, en cierto modo, a la época de los griegos, quienes, después de todo, contribuyeron con lo que tal vez sea el concepto simple más importante para la comprensión de la materia.
Los griegos se planteaban la cuestión de si la materia era continua o discontinua, es decir, si podía ser dividida y subdividida indefinidamente en un polvo cada vez más fino, o si, al término de este proceso se llegaría a un punto en el que las partículas fuesen indivisibles. Leucipo de Mileto y su discípulo Demócrito de Abdera insistían en el año 450 a. de J.C.- en que la segunda hipótesis era la verdadera. Demócrito dio a estas partículas un nombre: las llamó «átomos» (o sea, «no divisibles»),. Llegó incluso a sugerir que algunas sustancias estaban compuestas por diversos átomos o combinaciones de átomos, y que una sustancia podría convertirse en otra al ordenar dichos átomos de forma distinta. Si tenemos en cuenta que esto es sólo una sutil hipótesis, no podemos por menos que sorprendernos ante la exactitud de su intuición. Pese a que la idea pueda parecer hoy evidente, estaba muy lejos de serlo en la época en que Platón y Aristóteles la rechazaron.
Sin embargo, sobrevivió en las enseñanzas de Epicuro de Samos -quien escribió sus obras hacia el año 300 a. de J.C.- y en la escuela filosófica creada por él: el epicureísmo. Un importante epicúreo fue el filósofo romano Lucrecio, quien, sobre el año 60 a. de J.C., plasmó sus ideas acerca del átomo en un largo poema titulado Sobre la naturaleza de las cosas. Este poema sobrevivió a través de la Edad Media y fue uno de los primeros trabajos que se imprimieron cuando lo hizo posible el arte de Gutenberg.
La noción de los átomos nunca fue descartada por completo de las escuelas occidentales. Entre los atomistas más destacados en los inicios de la Ciencia moderna figuran el filósofo italiano Giordano Bruno y el filósofo francés Pierre Gassendi. Muchos puntos de vista científicos de Bruno no eran ortodoxos, tales como la creencia en un Universo infinito sembrado de estrellas, que serían soles lejanos, alrededor de los cuales evolucionaran planetas, y expresó temerariamente sus teorías. Fue quemado, por hereje, en 1600, lo cual hizo de él un mártir de la Ciencia en la época de la revolución científica. Los rusos han dado su nombre a un cráter de la cara oculta de la Luna.
Las teorías de Gassendi impresionaron a Boyle, cuyos experimentos, reveladores de que los gases podían ser fácilmente comprimidos y expandidos, parecían demostrar que estos gases debían de estar compuestos por partículas muy espaciadas entre sí. Por otra parte, tanto Boylé como Newton figuraron entre los atomistas más convencidos del siglo XVII.
En 1799, el químico francés Joseph Louis Proust mostró que el carbonato de cobre contenía unas proporciones definidas de peso de cobre, carbono y oxígeno y que podía prepararse. Las proporciones seguían el índice de unos pequeños números enteros: 5 a 4 y a l. Demostró que existía una situación similar para cierto número de otros compuestos.
Esta situación podía explicarse dando por supuesto que los compuestos estaban fortnados por la unión de pequeños números de fragmentos de cada elemento y que sólo podían combinarse como objetos intactos. El químico inglés John Dalton señaló todo esto en 1803, y, en 1808, publicó un libro en el que se reunía la nueva información química conseguida durante el siglo y medio anterior, y que sólo tenía sentido si se suponía que la materia estaba compuesta de átomos indivisibles. (Dalton mantuvo la antigua voz griega como tributo a los pensadores de la Antigüedad.) No pasó mucho tiempo antes de que esta teoría atómica persuadiera a la mayoría de los químicos. Según Dalton, cada elemento posee una clase particular de átomo, y cualquier cantidad de elemento está compuesta de átomos idénticos de esa clase. Lo que distingue a un elemento de otro es la naturaleza de sus átomos. Y la diferencia física básica entre los átomos radica en su peso. Así, los átomos de azufre son más pesados que combinaciones de átomos, y que una sustancia podría convertirse en otra al ordenar dichos átomos de forma distinta. Si tenemos en cuenta que esto es sólo una sutil hipótesis, no podemos por menos que sorprendernos ante la exactitud de su intuición. Pese a que la idea pueda parecer hoy evidente, estaba muy lejos de serlo en la época en que Platón y Aristóteles la rechazaron.
Sin embargo, sobrevivió en las enseñanzas de Epicuro de Samos -quien escribió sus obras hacia el año 300 a. de J.C.- y en la escuela filosófica creada por él: el epicureísmo. Un importante epicúreo fue el filósofo romano Lucrecio, quien, sobre el año 60 a. de J.C., plasmó sus ideas acerca del átomo en un largo poema titulado Sobre la naturaleza de las cosas. Este poema sobrevivió a través de la Edad Media y fue uno de los primeros trabajos que se imprimieron cuando lo hizo posible el arte de Gutenberg.
La noción de los átomos nunca fue descartada por completo de las escuelas occidentales. Entre los atomistas más destacados en los inicios de la Ciencia moderna figuran el filósofo italiano Giordano Bruno y el filósofo francés Pierre Gassendi. Muchos puntos de vista científicos de Bruno no eran ortodoxos, tales como la creencia en un Universo infinito sembrado de estrellas, que serían soles lejanos, alrededor de los cuales evolucionaran planetas, y expresó temerariamente sus teorías. Fue quemado, por hereje, en 1600, lo cual hizo de él un mártir de la Ciencia en la época de la revolución científica. Los rusos han dado su nombre a un cráter de la cara oculta de la Luna.
Las teorías de Gassendi impresionaron a Boyle, cuyos experimentos, reveladores de que los gases podían ser fácilmente comprimidos y expandidos, parecían demostrar que estos gases debían de estar compuestos por partículas muy espaciadas entre sí. Por otra parte, tanto Boylé como Newton figuraron entre los atomistas más convencidos del siglo XVII.
En 1799, el químico francés Joseph Louis Proust mostró que el carbonato de cobre contenía unas proporciones definidas de peso de cobre, carbono y oxígeno y que podía prepararse. Las proporciones seguían el índice de unos pequeños números enteros: 5 a 4 y a l. Demostró que existía una situación similar para cierto número de otros compuestos.
Esta situación podía explicarse dando por supuesto que los compuestos estaban fortnados por la unión de pequeños números de fragmentos de cada elemento y que sólo podían combinarse como objetos intactos. El químico inglés John Dalton señaló todo esto en 1803, y, en 1808, publicó un libro en el que se reunía la nueva información química conseguida durante el siglo y medio anterior, y que sólo tenía sentido si se suponía que la materia estaba compuesta de átomos indivisibles. (Dalton mantuvo la antigua voz griega como tributo a los pensadores de la Antigüedad.) No pasó mucho tiempo antes de que esta teoría atómica persuadiera a la mayoría de los químicos. Según Dalton, cada elemento posee una clase particular de átomo, y cualquier cantidad de elemento está compuesta de átomos idénticos de esa clase. Lo que distingue a un elemento de otro es la naturaleza de sus átomos. Y la diferencia física básica entre los átomos radica en su peso. Así, los átomos de azufre son más pesados que los de oxígeno, que, a su vez, son más pesados que los átomos de nitrógeno; éstos, a su vez también, son más pesados que los de carbono, y los mismos, más pesados que los de hidrógeno.
El químico italiano Amadeo Avogadro aplicó a los gases la teoria atómica y demostró que volúmenes iguales de un gas, fuese cual fuese su naturaleza, estaban fonnados por el mismo número de partículas. Es la llamada «hipótesis de Avogadro». Al principio se creyó que estas partículas eran átomos; pero luego se demostró que estaban compuestas, en la mayor parte de los casos, Por pequeños grupos de átomos, llamados «moléculas». Si una molécula contiene átomos de distintas clases (como la molécula de agua, que tiene un átomo de oxígeno y dos de hidrógeno), es una molécula de un «compuesto químico». Naturalmente, era importante medir los pesos relativos de los distintos átomos, para hallar los «pesos atómicos» de los elementos. Pero los pequeños át mos se hallaban muy lejos de las posibilidades ponderables o del siglo XIX. Mas, pesando la cantidad de cada elemento separado de un compuesto y haciendo deducciones a partir del comportamiento químico de los elementos, se pudieron establecer los pesos relativos de los átomos. El primero en realizar este trabajo de forma sistemática fue el químico sueco Jöns Jacob Berzelius. En 1828 publicó una lista de pesos atómicos basados en dos patrones de referencia: uno, el obtenido al dar el peso atómico del oxígeno el valor 100, y el otro, cuando el peso atómico del hidrógeno se hacía igual a 1.
El sistema de Berzelius no alcanzó inmediata aceptación; pero en 1860, en el 1 Congreso Internacional de Química, celebrado en Karlsruhe (Alemania), el químico italiano Stanislao Cannizzaro presentó nuevos métodos para determinar los pesos atómicos, con ayuda de la hipótesis de Avogadro, menospreciada hasta entonces. Describió sus teorías de fortna tan convincente, que el mundo de la Química quedó conquistado inmediatamente. Se adoptó como unidad de medida el peso del oxígeno en vez del del hidrógeno, puesto que el oxígeno podía ser combinado más fácilmente con los diversos elementos -y tal combinación era el punto clave del método usual para determinar los pesos atómicos-. El peso atómico del oxígeno fue medido convencionalmente, en 1850, por el químico belga Jean Servais Stas, quien lo fijó en 16, de modo que el peso atómico del hidrógeno, el elemento más ligero conocido hasta ahora, seria, aproximadamente, de l; para ser más exactos: 1,0080.
Desde la época de Cannizzaro, los químicos han intentado determinar los pesos atómicos cada vez con mayor exactitud. Por lo que se refiere a los métodos puramente químicos, se llegó al punto culminante con los trabajos del químico norteamericano Theodore William Richards, quien, desde 1904, se dedicó a determinar los pesos atómicos con una exactitud jamás alcanzada. Por ello se le concedió el premio Nobel de Química en 1914. En virtud de los últimos descubrimientos sobre la constitución fisica de los átomos, las cifras de Richards han sido corregidas desde entonces y se les han dado valores aún más exactos. A lo largo del siglo xix y pese a realizar múltiples investigaciones que implicaban la optación de las nociones de átomos y moléculas y a que, por lo general, los científicos estaban convencidos de su existencia, no se pudo aportar ninguna prueba directa de que fuesen algo más que simples abstracciones convenientes. Algunos destacados científicos, como el químico alemán Wilhelm Oswald, se negaron a aceptarlos. Para él eran conceptos útiles, pero no «reales».
La existencia real de las moléculas la puso de manifiesto el «movimiento browniano», que observó por vez primera, en 1827, el botánico escocés Robert Brown, quien comprobó que los granos de polen suspendidos en el agua aparecían animados de movimientos erráticos. Al principio se creyó que ello se debía a que los granos de polen tenían vida; pero, de forma similar, se observó que también mostraban movimiento pequenas partículas de sustancias colorantes totalmente inanimadas.
En 1863 se sugirió por vez primera que tal movimiento sería debido a un bombardeo desigual de las partículas por las moléculas de agua circundantes. En los objetos macroscópicos no tendría importancia una pequeña desigualdad en el número de moléculas que incidieran de un lado u otro. Pero en los objetos microscópicos, bombardeados quizá por sólo unos pocos centenares de moléculas por segundo, un pequeño exceso -por uno u otro lado- podría determinar una agitación perceptible. El movimiento al azar de las pequeñas partículas constituye una prueba casi visible de que el agua, y la materia en general, tiene «partículas».
Einstein elaboró un análisis teórico del movimiento browniano y demostró cómo se podía averiguar el tamaño de las moléculas de agua considerando la magnitud de los pequeños movimientos en zigzag de las partículas de colorantes. En 1908, el científico francés Jean Perrin estudió la forma en que las partículas se posaban, como sedimento, en el agua, debido a la influencia de la gravedad. A esta sedimentación se oponían las colisiones determinadas por las moléculas procedentes de niveles inferiores, de modo que el movimiento browniano se oponía a la fuerza gravitatoria. Perrin utilizó este descubrimiento para calcular el tamaño de las moléculas de agua mediante la ecuación formulada por Einstein, e incluso Oswald tuvo que ceder en su postura. Estas investigaciones le valieron a Perrin, en 1926, el premio Nobel de Física.
Así, pues, los átomos se convirtieron, de abstracciones semimísticas, en objetos casi tangibles. En realidad, hoy podemos decir que, a fin, el hombre ha logrado «ver» el átomo. Ello se consigue con el llamado «microscopio de campo iónico», inventado, en 1955, por Erwin W. Mueller, de la Universidad de Pensilvania. El aparato arranca iones de carga positiva a partir de la punta de una aguja finísima, iones que inciden contra una pantalla fluorescente, la cual da una imagen, ampliada 5 millones de veces, de la punta de la aguja. Esta imagen permite que se vea como un pequeño puntito brillante cada uno de los átomos que componen la punta. La técnica alcanzara su máxima perfección cuando pudieran obtenerse imágenes de cada uno de los átomos por separado. En 1970, el físico americano Albert Victor Crewe informó que había detectado átomos sueltos de uranio y torio con ayuda del microscopio electrónico.

Termodinámica, energía y calorvolver
El estudio del calor empezó con la invención de la máquina de vapor al principio de la Revolución Industrial. La necesidad de disponer de una mejor fuente de energía que los competidores empujó a los científicos ingleses, franceses y alemanes a desarrollar lo que hoy llamamos la termodinámica. Se trató de un caso en el que la tecnología empujó la investigación básica antes que a la inversa.
Hoy en día, la termodinámica es 1a ciencia que nos habla del comportamiento de cosas como energía, calor residual y el uso eficiente de los recursos. También se ha desarrollado la ciencia que nos proporciona una de las mejores comprensiones de la relación entre el mundo a gran escala en que vivimos y el mundo del átomo.

Energía y potenciavolver
El concepto de energía es una de las ideas más importantes en termodinámica, de hecho en toda la Ciencia.
Aunque el término «energía» tiene muchos sentidos coloquiales, para un físico sólo significa una cosa. Un sistema tiene energía si es capaz de ejercer una fuerza sobre una distancia (o, en la jerga de los físicos, si es capaz de hacer «trabajo»).
Hay diferentes tipos de energía. Si un objeto se mueve, es capaz de ejercer una fuerza sobre cualquier cosa con la que tropiece. Así, posee energía. La energía del movimiento recibe el nombre de energía cinética.
De un modo similar, un objeto puede tener energía en virtud de su posición. Si alzamos este libro, caerá cuando lo soltemos. Durante su caída, será capaz de ejercer una fuerza y, en consecuencia, de hacer un trabajo. La energía asociada con la posición recibe el nombre de energía potencial.
Finalmente, un objeto puede tener energía en virtud de su masa (E = mc2 y todo eso).
Hay muchas formas diferentes de energía potencial. Si pensamos en alzar este libro, nos daremos cuenta de que el libro posee energía porque la fuerza de la gravedad actúa sobre él hacia abajo. En consecuencia, llamamos a la energía de un objeto elevado «energía potencial gravitatoria».
Del mismo modo, un electrón cerca del núcleo de un átomo tiene energía porque puede caer a una órbita inferior. En este caso, la caída será ocasionada por la fuerza eléctrica, de modo que nos referiremos a ella como «energía potencial eléctrica».
Cuando los electrones de las moléculas se reordenan durante las reacciones químicas, cambian su energía eléctrica potencial. La energía almacenada en la ordenación de los electrones recibe el nombre de «energía potencial química».
Hay también energía potencial asociada al magnetismo, a las fuerzas que proporcionan elasticidad en los sólidos y a otras fuerzas.
Lo que llamamos «calor» es una forma de energía cinética a nivel atómico. Cuando un objeto está caliente, los átomos en él se mueven muy rápidamente. Por otra parte, cuando está frío, los átomos se mueven con lentitud. Así, lo que llamamos calor es en realidad una forma de energía del movimiento de los átomos. La comprensión de que el calor podía ser explicado de esta forma fue una de las intuiciones profundas de la física del siglo xix.
También nos proporciona un vínculo de unión entre el mundo macroscópico de nuestros sentidos y el mundo invisible del átomo. Si puede traducir usted la visión de un tronco encendido al rojo en una chimenea y sentir el calor que emana de él a una visión de átomos que se mueven rápidamente, estará en el camino de la visión moderna del mundo físico.
Las formas de energía no son fijas e inmutables: una forma puede cambiar rápidamente en otra. Por ejemplo, cuando nos frotamos las manos en un ambiente frío, la energía cinética de nuestras manos es convertida en calor. Viceversa, cuando hacemos hervir agua sobre un fuego de campaña, la energía química de la madera es convertida en calor en el agua, y ese calor es convertido en energía de movimiento en el chorro de vapor que vemos salir de la olla.
El hecho más importante acerca de la energía es que la total de energía en un sistema aislado no cambia. En el lenguaje de los físicos, decimos que la energía es «conservada», y hablamos de la ley de la «conservación» de la energía.
La ley de la conservación de la energía es simplemente la afirmación de un fragmento de sabiduría popular, el de que no existe la comida gratis. Si queremos calentar nuestra casa tenemos que obtener la energía para hacerlo de alguna parte, ya sea de una central eléctrica o de un fuego de petróleo. La energía no puede ser creada; como tampoco puede ser destruida. Todo lo que podemos hacer con la energía es cambiar una forma por otra.
La primera ley de la termodinámica dice que el calor es una forma de energía, y que la energía es conservada. Ésta es discutiblemente una de las más importantes leyes de la Naturaleza jamás descubiertas.
Potencia» se refiere al índice al que es gastada la energía. Si subimos lentamente un tramo de escaleras y luego corremos el mismo tramo de escaleras tan rápido como podamos, gastaremos cada vez la misma cantidad de energía. Cuando corremos, sin embargo, nuestra potencia es más grande debido a que gastamos la energía con más rapidez. Por eso llegamos al final jadeantes.
Virtualmente toda la energía usada en la Tierra procede del Sol. De energía en forma de luz es convertida a energía química a través del proceso de la fotosíntesis. Puede ser almacenada (en carbón o petróleo, por ejemplo), usada directamente por las plantas, secundariamente, usada por los animales. La energía que utiliza usted para sostener este libro y para mover los ojos mientras lee procede, en último término, del Sol a través de esta ruta. Finalmente, la energía que utilizamos de Sol se convierte en calor residual y vuelve al espacio como radiación infrarrojo.
Así, no consumimos energía, sino que la usamos cuando pasa a través de nuestro entorno.
La potencia es medida en kilovatios o caballos de fuerza. La unidad de potencia en el sistema métrico es el vatio. El kilovatio, como su nombre implica, son mil vatios. Puede que se necesiten varios cientos de vatios para hacer funcionar una cadena de alta fidelidad.
La unidad de potencia en el sistema inglés es el caballo de fuerza. El motor en una sierra eléctrica de mesa puede desarrollar un caballo de potencia, un coche varios cientos.
La unidad de energía más familiar para nosotros es el kilovatio 1hora, que es la que se refleja en nuestras facturas de la electricidad. Ésta es la cantidad de energía gastada por una fuente de un kilovatio que esté funcionando durante una hora. Un kilovatio/hora nos permitirá usar:

Una hora de un pequeño calentador de sobremesa.
Diez horas de una bombilla eléctrica.
Cuatro horas de un televisor.

James Watt (1736-1819), el ingeniero escocés que inventó la moderna máquina de vapor, definió también el caballo de vapor. Necesitaba una forma de vender sus máquinas a los ingenieros de minas. Por aquella época, el agua era sacada de las minas por medio de bombas accionadas por caballos. Watt midió a qué índice podía trabajar un caballo típico durante un período extenso de tiempo, y luego calibró sus máquinas de acuerdo con ello. Así, pudo decirle a su clientela en perspectiva que una máquina de un caballo de vapor podía remplazar un caballo en una mina.

Calorvolver
Aunque la energía es conservada, no necesita permanecer en el mismo lugar todo el tiempo. Esto es particularirnente cierto con respecto al calor, que se mueve muy fácilmente de un lugar a otro. Si apagamos la caldera de la calefacción de nuestra casa durante el invierno, por ejemplo, la casa se enfriará rápidamente a medida que el calor se disipa fuera. Hay tres procesos por los que el calor puede trasladarse de un lugar a otro: conducción, convección y radiación.
Conducción. Si el interior de nuestra casa está caliente, las moléculas del interior de la pared se moverán más rápido que las moléculas del exterior. Cuando los átomos del interior colisionen con los más cercanos a la parte exterior, se producirá una transferencia de energía: los átomos cercanos a la parte exterior empezarán a moverse más aprisa. Así, tras un período de tiempo, la parte exterior de la pared estará más caliente de lo que lo estaría normalmente. Pensamos en este proceso como en un «flujo de calor» de dentro a fuera de la casa, pero, de hecho, es simplemente un asunto de energía que es transferida a lo largo de una cadena de átomos por colisiones ordinarias.
Convección. En un caluroso día de verano, el aire sobre el suelo es calentado. Debido a que es calentado, se expande y se vuelve menos denso que el aire más frío encima de el. Finalmente, la situación se vuelve inestable. El aire caliente se mueve hacia arriba y es remplazado por aire frío que se mueve hacia abajo. A medida que el aire cálido se mueve hacia arriba, se lleva consigo el calor en un proceso llamado convección.
La convección es en realidad un medio mucho más eficiente de transferir energía que la conducción. La convección es lo que transfiere el calor del interior del Sol a su superficie externa y lo que crea el clima en la superficie de la Tierra.

Radiación. volver
Si adelantamos la mano hacia el fuego, sentimos el calor. Nuestra sensación es el resultado de una transferencia de energía del fuego a nuestra mano. El calor es transformado en radiación infrarrojo en el fuego. Esta radiación viaja a través del espacio y es finalmente absorbida por nuestra mano, donde es convertida de nuevo en la energía cinética de los átomos. Cada objeto cuya temperatura se halle por encima de la de su entorno pierde calor por radiación.

La segunda ley de la termodinámicavolver
La energía no es toda la historia. Para comprender por qué, piense en el hecho de que es fácil batir un huevo y muy dificil desbatirlo. Sin embargo, desde el punto de vista de la energía, un proceso no es diferente del otro. Nuestra intuición nos dice que resulta difícil establecer un orden en el mundo y fácil destruirlo, pero evidentemente no podemos relacionar esta idea sólo con la primera ley de la termodinámica.
La segunda ley de la termodinámica trata del concepto de orden en el Universo. Es un concepto difícil de comprender, y sin embargo descansa sobre algunas de las más simples observaciones. Si ponemos un cubito de hielo sobre una mesa, el calor se mueve del aire al cubito de hielo en vez de a la inversa. Esto, de hecho, conduce a una declaración de la segunda ley de la termodinámica:

Hay otras formas de enunciar la ley. Son:
l. El calor no fluirá espontáneamente de un objeto frío a otro más caliente.
2. Es imposible, incluso en principio, convertir calor en trabajo con un 100 por ciento de eficiencia.
3. El desorden de un sistema aislado debe incrementarse con el tiempo o, como máximo, permanecer constante.

Es posible demostrar matemáticamente que cualquiera de esas tres declaraciones de la segunda ley implica las otras dos. En otras palabras, aunque no resulte obvio de inmediato, todas ellas son afirmaciones equivalentes.
El mundo se está yendo al infierno a marchas forzadas, al menos de acuerdo con la última afirmación de la segunda ley. Nos dice que la cantidad de desorden en un sistema debe incrementarse con el tiempo a menos que el sistema no se halle aislado de su entorno. En lenguaje técnico, esta declaración de la segunda ley utiliza el concepto de entropía. La entropía es una medida de la cantidad de desorden en un sistema a nivel atómico, y la segunda ley puede ser enunciada en la forma de que «la entropía de un sistema cerrado no puede disminuir».
La segunda ley NO implica que los sistemas no puedan volverse más ordenados. Si la energía fluye entre partes de un sistema, es posible para una parte del sistema volverse más ordenada mientras otra parte se vuelve más desordenada. Tomemos como ejemplo la Tierra y el Sol. Un pequeño número de moléculas en los sistemas vivos de la Tierra se vuelven ordenadas, pero al mismo tiempo un número mucho más grande de moléculas en el Sol se vuelven más desordenadas. El desorden neto de los sistemas se incrementó.
La segunda ley dice que debemos pensar en la energía en términos de su cualidad además de su cantidad. Si no podemos convertir el calor en trabajo con un 100 por ciento de eficiencia, entonces cada vez que deseemos hacer una conversión así (por ejemplo en una central generadora eléctrica), parte de nuestro almacenamiento original de calor debe ser lanzado a la atmósfera, donde se vuelve irrecuperable. Así, podemos pensar en la energía de alto grado como una energía asociada con alta temperatura, e imaginar esta energía como algo que se degrada cada vez que es utilizado.
Un ejemplo podría ser el calor en el núcleo de un reactor nuclear o una central de energía accionada por carbón. El combustible es convertido en energía de bajo grado en forma de electricidad que es traída a nuestra casa y luego convertida en energía de grado más bajo aun cuando la usamos para accionar un electrodoméstico. A cada paso, algo de la energía es convertida en calor de grado bajo y lanzada al medio ambiente. Aunque no se pierde nada de energía en ningún paso de este proceso, el proceso es pese a todo una calle de un solo sentido porque, con cada conversión, parte de la energía es puesta en una forma de grado más bajo y no puede seguir siendo utilizada.
La segunda ley tiene importantes consecuencias en la política energética porque sitúa una eficiencia máxima posible a cada motor accionado por el calor. Tales motores incluyen los de las centrales generadores de electricidad y los de los coches. Resulta que, de acuerdo con la segunda ley, nuestras actuales centrales generadores no pueden ser más eficientes que un 40 por ciento. En otras palabras, cuando quemamos una tonelada de carbón para generar electricidad, casi dos tercios de la energía en ese carbón deben ser lanzados a la atmósfera. Esto no es resultado de un diseño imperfecto o una pobre eficiencia por parte de los ingenieros: es consecuencia de una de las más fundamentales leyes de la Naturaleza.
De hecho, las centrales generadores modernas operan típicamente a un 30 por ciento de su eficiencia o un poco más. Los ingenieros han llegado con sus diseños a bordear casi el límite teórico.
El uso de la energía solar para calentar un hogar o el quemar petróleo para conseguir el mismo propósito no tropiezan con las mismas construcciones de la segunda ley, porque una caldera de petróleo no es un motor. El propósito de una caldera de petróleo no es producir trabajo útil, sino producir calor. En consecuencia, tales dispositivos producen energía con una eficiencia mucho más alta que una central generadora eléctrica.
El Universo no «dejará de funcionar» a causa de la segunda ley, pese al hecho de que durante el siglo xix la gente hablaba de algo llamado «la muerte por calor» del Universo. La idea era que, puesto que de acuerdo con la segunda ley toda la energía disponible acabaría finalmente siendo desechada como calor residual, todo en el Universo alcanzaría una elevada temperatura uniforme.
Ya no creemos que éste vaya a ser el destino del Universo. Ahora comprendemos que el Universo se está expandiendo y enfriando. En consecuencia, nuestra visión del fin del Universo es muy diferente ahora que la que existía en el siglo xix.

Calor y materialesvolver
La mayoría de los materiales se expanden cuando son calentados debido a que, cuando es añadido calor, los átomos se mueven más rápido. Podemos pensar en este movimiento añadido como en una exigencia por parte de los átomos de que quieren más «espacio para mover los codos». Como consecuencia de las temperaturas más altas, pues, la mayoría de los materiales se expanden.
El agua no siempre se expande cuando es calentada. Probablemente sea usted consciente del hecho de que, cuando el agua se congela, se expande. Es por eso que las cañerías de agua revientan en tiempo fijo. De lo que quizá no se dé cuenta es de que esta propiedad caracteriza no sólo la transición agua-hielo, sino también el agua a baja temperatura. De cero a cuatro grados centígrados, el agua se contrae a medida que es calentada. En otras palabras, el agua se halla en su estado más denso cuando está a cuatro grados, y en realidad es menos densa a temperaturas más bajas. Eso significa que el agua en el fondo de los océanos puede ser más cálida que la de profundidades superiores.
El fundirse y evaporarse implican ambos energía. Si calentamos un sólido, los átomos se mueven más y más rápido. Finalmente se alcanza un punto en el que los átomos no pueden ser mantenidos más tiempo en su estructura rígida y empiezan a soltarse. Cuando esto ocurre, el material cambia de sólido a líquido. Decimos que se funde.
Requiere energía extra elevar la temperatura de un material más allá del punto de fundición. Esto es debido a que además de aumentar la energía cinética de las moléculas, tenemos que romper las ataduras que mantienen unidos los átomos. A medida que la energía necesaria para romper esas ataduras es añadida a los sistemas, la materia permanece a una temperatura constante (la temperatura de fusión).
Lo mismo ocurre si un líquido es hervido. En este caso, hay que añadir la energía necesaria para permitir que las moléculas escapen de la atracción de sus vecinas en el líquido y vuelen al aire. El punto de ebullición de un líquido depende de la presión. La escapatoria de las moléculas de la superficie de un líquido calentado es más fácil si la presión externa del aire es inferior. Es por eso por lo que el agua hierve a una temperatura inferior a grandes altitudes que al nivel del mar. Si alguna vez ha intentado usted seguir una receta de cocina estando en las montañas, es probable que se haya tropezado con este fenómeno. Un huevo duro de tres minutos puede que tenga que ser hervido más de tres minutos en Denver.
El cero absoluto es la temperatura más baja posible. En la visión clásica, la temperatura más baja posible correspondería a aquella en la que se detiene todo movimiento atómico. El cero absoluto es -273,150 C.
Hoy, con el advenimiento de la mecánica cuántica, sabemos que los átomos no pueden «pararse» en realidad, en el sentido habitual de la palabra. En vez de ello, definimos el cero absoluto como la temperatura a la que los átomos poseen la energía más baja posible consistente con las leyes de la mecánica cuántica. Un material al cero absoluto en el cuadro de la mecánica tanto clásica como cuántica se presenta como un material del que ya no puede extraerse más energía por ningún medio.
Las temperaturas más bajas producidas en laboratorio se hallan a menos de una milmillonésima del cero absoluto, y es rutinariamente posible temperaturas de 4 grados por encima del cero absoluto. Derecho, se puede comprar helio líquido a esta te ratura por aproximadamente el precio de una botella de whisky escocés barato. Al otro extremo de la escala de temperaturas, las reacciones a fusión, ya sea en armas o en laboratorio, se producen a temperaturas comparables a las del interior del sol, que se supone que giran en torno a los 150 millones de grados centígrados.

Evoluciónvolver
La vida en la Tierra se desarrolló a través del proceso de la evolución. Esta afirmación lo incluye todo, desde las bacterias a los pinos y a las jirafas. El concepto de la evolución de la vida proporciona el esquema central en tomo al cual se organizan las ciencias de la vida. Puesto que todos esos campos comparten una visión evolutiva de la vida, es posible para alguien que estudie el ecosistema de un gran lago hablar el mismo lenguaje que un colega que estudie la secuencia de moléculas de un particular segmento de ADN, aunque pueda parecer al principio que no tienen nada en común. Es imposible comprender las ciencias biológicas modernas sin comprender la evolución.
El mecanismo central de la evolución es la selección natural. La idea básica de la selección natural es ésta: en cualquier tiempo dado se producen variaciones en una población. Algunas jirafas tienen el cuello más largo que otras, algunos seres humanos pueden correr más rápido que otros, y así sucesivamente. Si ciertas variaciones proporcionan a los individuos que las poseen unas posibilidades superiores de sobrevivir lo suficiente como para tener hijos, entonces es muy probable que esas caracteristicas sean pasadas a la siguiente generación. Por ejemplo, si tener un cuello más largo permite a una jirafa en particular comer las hojas que otras jirafas no pueden alcanzar durante una sequía, la jirafa con el cuello más largo tiene más posibilidades de sobrevivir a la sequía y tener descendencia. Esa descendencia se parecerá a sus padres y tendrá cuellos más largos. Si el cuello largo sigue siendo una ventaja, a lo largo de un período dilatado de tiempo las jirafas con cuellos más largos se convertirán finalmente en la variación dominante de la población. De este modo, una característica que permite a un individuo explotar su entorno con más eficacia termina siendo compartida por todos los miembros de su especie. Ésta es básicamente la idea de la selección natural.
La evolución sigue actuando hoy en día. El desarrollo de la vida no es un proceso que tuvo lugar en un tiempo determinado y luego se detuvo: las cosas vivas siguen adaptándose hoy en día a su entorno. El ejemplo histórico más famoso de esto es la historia de un tipo de polilla que vivía en el centro de Inglaterra. Originalmente, esas polillas eran moteadas blancas y pardas, de modo que se mezclaban con los árboles que formaban su entorno natural. Durante la Revolución Industrial, el entorno inglés se volvió mucho más oscuro debido al hollín de las fábricas. En respuesta a ello, las polillas evolucionaron en unos pocos años a un color grisáceo para fundirse con el nuevo entorno. Cuando el movimiento a favor de un aire más limpio sacudió Inglaterra en los años sesenta y las fábricas filtraron sus humos, las polillas empezaron a evolucionar de vuelta a sus colores originales.
Charles Darwin (1809-1882) es el fundador de la moderna teoría evolutiva. Poco después de terminar sus estudios universitarios, Darwin firmó como naturalista para un viaje de exploración de cinco años a bordo de un barco llamado Beagle. Durante ese viaje se convenció de que las especies no eran inmutables, sino que cambiaban gradualmente a lo largo del tiempo.
Un estudio que le condujo a esta conclusión fue el de los pinzones de las islas Galápagos, donde pájaros estrechamente relacionados de islas diferentes habían desarrollado unas características completamente distintas (forma del pico, por ejemplo), en respuesta a sus diferentes entornos.
En 1859, Darwin publicó Sobre el origen de las especies por medio de la selección natural, quizás uno de los libros más influyentes jamás escritos. Aunque recibió una fuerte oposición por parte de los teólogos de la época, los puntos de vista de Darwin sobre la vida han sido desde entonces aceptados por todo el mundo excepto un elemento marginal entre los pensadores religiosos. Existen tantas pruebas en apoyo de su teoría que los científicos ya ni siquiera se molestan en pensar acerca de su validez básica, sino que en vez de ello se concentran en elaborar sus detalles.
En lo que podemos calificar como una de las más incorrectas evaluaciones jamás hechas sobre el talento de un joven, el padre de Darwin respondió a los pobres resultados de los estudios de su hijo escribiendo: «No te preocupas más que de disparar, los perros y cazar ratas, y serás una desgracia para ti mismo y para tu familia.»
Existe una diferencia entre el hecho de la evolución y la teoría de la evolución. A veces oímos a la gente comentar que la evolución es «sólo una teoría». Esta afirmación es muy engañosa, porque la evolución es un hecho además de una teoría. Es fácil comprender lo que se quiere decir si pensamos en la gravedad. Existen teorías sobre la gravedad, incluidas las de Newton y Einstein. Esas teorías pueden ser ciertas o erróneas, completas o incompletas. Pero existe también el hecho de la gravedad: cuando soltamos algo, cae. Este hecho sigue existiendo, sean correctas o no las teorías.
Exactamente del mismo modo, el registro del desarrollo de la vida desde sus humildes inicios hasta la compleja biosfera actual es un hecho que puede leerse en los fósiles. Del mismo modo, la habilidad de las cosas vivas de mutar en respuesta al cambio del entorno puede verse en los laboratorios y en la Naturaleza. El que alguna de las actuales teorías de la evolución pueda o no explicar esto no cambia la existencia del hecho de la evolución.
Esto es una distinción importante, puesto que una de las técnicas preferidas de los creacionistas es argumentar que, puesto que los científicos se hallan en desacuerdo sobre este o aquel punto de la teoría evolutiva, el hecho de la evolución debe ser arrojado por la borda y aceptar su versión de la creación. Esto es más o menos equivalente a escuchar a dos personas discutir sobre si una oficina se halla en el piso 52 o en el 53 del Empire State Building y concluir de ello que el edificio tiene que ser un piso más alto.
Los errores de la Naturaleza pueden ser la prueba más espectacular de la evolución. En su maravilloso ensayo El pulgar del panda, Steven Jay Gould señala que los órganos bien adaptados como el ojo no pueden usarse para demostrar la teoría de la evolución, puesto que esos órganos pueden ser explicados con la misma facilidad en términos de una creación especial. órganos como el apéndice humano o el pulgar del panda, sin embargo, sí proporcionan esa prueba.
El panda, un pariente lejano del mapache, perdió su auténtico pulgar en los inicios de su historia evolutiva. Cuando el entorno en el que se hallaba cambió y las hojas de bambú se convirtieron en un elemento fundamental de su dieta, tener algo parecido a un pulgar para arrancar las hojas de los tallos era una ventaja. En consecuencia, en el panda, un espolón parecido a un pulgar evolucionó al lado de un hueso en la muñeca.
Se trata, por supuesto, de una forma más bien torpe de proporcionarle al panda un pulgar, algo que nadie haría ni remotamente si estuviera diseñando el animal desde cero. El mecanismo de la selección natural toma al animal según lo que es y lo adapta como puede al entorno en que resulte hallarse. No produce necesariamente el organismo mejor, ni siquiera el más eficiente.... sólo lo mejor que puede hacer a partir del material que tiene a mano. A veces, como en el caso del panda, el resultado tiene un aspecto decididamente provisional.

Aún es un misterio
¿Cómo evolucionaron las alas? Aunque la ventaja evolutiva de unas alas totalmente desarrolladas no resulta dificil de ver, no puede decirse lo mismo acerca de las ventajas de los rudimentarios apéndices que debieron conducir a ellas. En algunos casos, por ejemplo las aves, las alas evolucionaron de brazos y manos. Con lo insectos, sin embargo, las alas debieron evolucionar de protuberancias en los costados del animal. ¿Qué ventaja podían propor-cionar esas protuberancias? El hecho de que las alas ayudaran a un descendiente millones de años en el futuro ciertamente no podía ayudar a un individuo a sobrevivir en aquel momento.
Recientemente, los científicos han argumentado que las protuberancias jugaron un papel importante en la regulación de la temperatura: proporcionaron superficies extras por las cuales podía absorberse o radiarse el calor. Los cálculos muestran que los más eficientes intercambiadores de calor son exactamente lo bastante grandes como para permitir al insecto planear (algo parecido a la actual ardilla «voladora»). A partir de ese punto, el órgano, desarrollado originalmente con una finalidad (transferencia de calor), pudo ser usado como base para el desarrollo de otra (volar). Esta idea, que para mí tiene mucho sentido, ilustra muy bien la naturaleza ad hoc del proceso evolutivo.
¿Cómo se produjo la evolución? Cuando Charles Darwin propuso por primera vez la teoría de la evolución, pensaba que los cambios en los organismos se producían de poco en poco, y que los cambios se iban acumulando con cada generación hasta que esa acumulación producía los cambios espectaculares que vemos en los fósiles. Esta idea es conocida como gradualismo. En 1972, dos paleontólogos norteamericanos, Steven Jay Gould y Niles Eldrige, propusieron una visión alternativa de la evolución. Su interpretación de los fósiles fue que durante la mayor parte del pasado se produjeron pocos cambios de una generación a la siguiente, un fenómeno que llamaron «estasis». Esos periodos de tranquilidad, desde su punto de vista, se vieron puntuados por pequeños estallidos de cambio rápido. Esta interpretación de los fósiles recibe el nombre de «equilibrio puntuado».
El debate acerca de cuáles de esas dos interpretaciones de los fósiles es correcta prosigue debido a que las huellas fósiles son tan irregulares e incompletas que no podemos llegar a marcar la diferencia entre ellas. Personalmente, creo que la respuesta a la pregunta «¿Cómo se produjo la evolución?» es «Todo lo de arriba». Probablemente hay ejemplos de cambios tanto rápidos como graduales en la historia de la vida. ¡El mundo es demasiado complejo para tener respuestas sencillas!
¿Empezó realmente la vida en otros planetas? Las condiciones necesarias para que la vida evolucione sobre la Tierra a partir de la materia inorgánico son más bien estrictas. La aparente improbabilidad de que la vida se desarrollara aquí ha conducido a algunas personas a sugerir que la vida llegó a nuestro planeta procedente de otro lugar. Esta idea ha llegado a ser conocida como «panspermia». En el siglo xix se sugirió que la vida fue llevada de un sistema estelar a otro por algún tipo de espora, pero esta idea cayó en el descrédito cuando se comprobó que las radiaciones que una espora así iba a encontrar en el espacio profundo excederían con mucho cualquier dosis letal razonable.
Más recientemente, una variación de esta idea llamada «panspermia dirigida», fue aventurada por el premio Nobel Francis Crick. Su idea es que otras civilizaciones pusieron microorganismos en naves espaciales protegidas y los enviaron a sembrar planetas donde las condiciones fueran adecuadas. El principal problema con esta idea es: ¿Cómo se desarrolló la vida en el planeta progenitor? Después de todo, las cosas que hacen la vida improbable sobre la Tierra también deben de hacerla improbable en cualquier otro lugar. ¿Por qué no sustituir dos milagros (la vida más el deseo de sembrar el Universo) por uno (sólo la vida)?
¿Pueden aplicarse las ideas de Darwin a las sociedades? Una de las más interesantes (y controvertidas) extensiones de las ideas de Darwin es el estudio de la sociobiología. La premisa esencial de la sociobiología es que algunos principios de la evolución biológica sirven para la evolución de las culturas además de la de los organismos.
Mi lectura (del autor)de la situación sociobiológica es ésta: la teoría fue saludada con una ferviente oposición inicial, basada primariamente en la ideología y centrada en la izquierda política. La sociobiología se halla ahora en un período de intenso desarrollo que terminará cuando descubramos hasta dónde puede ser llevada esta idea para explicar la estructura social humana.
Resulta difícil imaginar a alguien con menos probabilidades de ser el centro de la controversia que Edmund 0. Wilson, de la Universidad de Harvard. Es un hombre tranquilo y erudito cuyo primer amor es el estudio de las hormigas, tanto vivas como extintas. Por ejemplo, desde hace tiempo llegó a un acuerdo con los tratantes de ámbar haitianos para que le ofrecieran prioridad sobre toda hormiga antigua que hallaran atrapada en ámbar.
del pasado se produjeron pocos cambios de una generación a la siguiente, un fenómeno que llamaron «estasis». Esos periodos de tranquilidad, desde su punto de vista, se vieron puntuados por pequeños estallidos de cambio rápido. Esta interpretación de los fósiles recibe el nombre de «equilibrio puntuado».
El debate acerca de cuáles de esas dos interpretaciones de los fósiles es correcta prosigue debido a que las huellas fósiles son tan irregulares e incompletas que no podemos llegar a marcar la diferencia entre ellas. Personalmente, creo que la respuesta a la pregunta «¿Cómo se produjo la evolución?» es «Todo lo de arriba». Probablemente hay ejemplos de cambios tanto rápidos como graduales en la historia de la vida. ¡El mundo es demasiado complejo para tener respuestas sencillas!
¿Empezó realmente la vida en otros planetas? Las condiciones necesarias para que la vida evolucione sobre la Tierra a partir de la materia inorgánico son más bien estrictas. La aparente improbabilidad de que la vida se desarrollara aquí ha conducido a algunas personas a sugerir que la vida llegó a nuestro planeta procedente de otro lugar. Esta idea ha llegado a ser conocida como «panspermia». En el siglo xix se sugirió que la vida fue llevada de un sistema estelar a otro por algún tipo de espora, pero esta idea cayó en el descrédito cuando se comprobó que las radiaciones que una espora así iba a encontrar en el espacio profundo excederían con mucho cualquier dosis letal razonable.
Más recientemente, una variación de esta idea llamada «panspermia dirigida», fue aventurada por el premio Nobel Francis Crick. Su idea es que otras civilizaciones pusieron microorganismos en naves espaciales protegidas y los enviaron a sembrar planetas donde las condiciones fueran adecuadas. El principal problema con esta idea es: ¿Cómo se desarrolló la vida en el planeta progenitor? Después de todo, las cosas que hacen la vida improbable sobre la Tierra también deben de hacerla improbable en cualquier otro lugar. ¿Por qué no sustituir dos milagros (la vida más el deseo de sembrar el Universo) por uno (sólo la vida)?
¿Pueden aplicarse las ideas de Darwin a las sociedades? Una de las más interesantes (y controvertidas) extensiones de las ideas de Darwin es el estudio de la sociobiología. La premisa esencial de la sociobiología es que algunos principios de la evolución biológica sirven para la evolución de las culturas además de la de los organismos.
Mi lectura (del autor)de la situación sociobiológica es ésta: la teoría fue saludada con una ferviente oposición inicial, basada primariamente en la ideología y centrada en la izquierda política. La sociobiología se halla ahora en un período de intenso desarrollo que terminará cuando descubramos hasta dónde puede ser llevada esta idea para explicar la estructura social humana.
Resulta difícil imaginar a alguien con menos probabilidades de ser el centro de la controversia que Edmund 0. Wilson, de la Universidad de Harvard. Es un hombre tranquilo y erudito cuyo primer amor es el estudio de las hormigas, tanto vivas como extintas. Por ejemplo, desde hace tiempo llegó a un acuerdo con los tratantes de ámbar haitianos para que le ofrecieran prioridad sobre toda hormiga antigua que hallaran atrapada en ámbar.
Pero el trabajo de Wilson sobre la evolución de los insectos le llevó finalmente a su actual status como fundador y faro de la nueva ciencia de la sociobiología. Como tal, ha sido denigrado por sus colegas, criticado en la Prensa, y echado a gritos del estrado en las reuniones científicas por estudiantes radicales. Creo que ha necesitado más que un poco de valor para proseguir con sus ideas frente a todo este alboroto.

Ideas erróneas comunes sobre la evoluciónvolver
La evolución no dice que los humanos desciendan de los monos. Es una vieja patraña que se remonta a los dias de Darwin el que la evolución requiere que los seres humanos desciendan del mono. De hecho, la teoría enseña que tanto humanos como simios descienden de un antepasado común que vivió hace millones de años, en todo caso menos de los miles de millones de años que tiene nuestro planeta.
La evolución no requiere un «eslabón perdido» entre humanos y monos. La búsqueda del «eslabón perdido» entre humanos y monos ocupa un lugar especial en la mitología popular. Mi propio ejemplo preferido del poder de esta imagen es un luchador profesional que se pintó el rostro de verde y se hizo llamar «El eslabón perdido». La idea detrás de esa imagen es que si la Humanidad descendiera de los simios, entonces tendría que haber una criatura que fuera medio mono, medio hombre. De hecho, puesto que la Humanidad y los monos descienden de un antepasado común, no debería existir nada así.
La supervivencia del más "apto" no significa lo que parece. La selección natural se caracteriza a menudo como «la supervivencia del más apto». El propio Darwin utilizó esta frase, pero a menudo es mal presentada o mal comprendida. Darwin utilizó el término «apto» para describir individuos que tienen éxito en producir descendencia en la siguiente generación, nada más. En general, aquellos individuos que se hallan mejor adaptados a su entorno serán «aptos» en ese sentido.
Durante el siglo XIX, e insistiendo aún en nuestra propia época, la noción de «aptitud» recibió connotaciones morales por parte de muchos filósofos. Se argumentó que el «mejor» sobrevive y prospera. Como podemos ver por el ejemplo de la jirafa, ésta no es la forma en que funciona la selección natural. No hay ningún juicio moral en la Naturaleza. La única afirmación que podemos hacer es que los individuos cuyas características genéticas les proporcionan una ventaja en su competencia con sus semejantes tienen más probabilidades de producir descendencia, de tal modo que en algún tiempo distante en el futuro esa descendencia dominará la población.
Durante el siglo XIX el filósofo británico Herbert Spencer adaptó lo que creyó que eran las ideas de Darwin a la critica social. Desde entonces sus ideas han sido conocidas como darwinismo social. La idea básica del darwinismo social es que, del mismo modo que la Naturaleza actúa según la supervivencia de los mas aptos, igual hace la sociedad. Los ricos, según Spencer, llegaron donde están porque son aptos, mientras que los pobres están donde están porque no son aptos. Por supuesto, esto da la vuelta al propio paradigma darwiniano. De hecho, alguien como Leland Stanford, el constructor del ferrocarril Southern Pacific y uno de los grandes capitalistas explotadores de los Estados Unidos del siglo XIX, era decididamente no apto según los estándares darwinianos. Sólo tuvo un hijo, un joven que murió antes de poder tener descendencia. Por otra parte, el más humilde culí chino o trabajador irlandés en los ferrocarriles de Stanford pudo tener fácilmente una docena de hijos y ser, en consecuencia, y en sentido darwiniano, mucho más apto que Stanford.
Cuando hablo de la teoría darwiniana con clases de no graduados, me encanta señalarles que, yendo a la Universidad se vuelven no aptos, porque están malgastando sus mejores años reproductivos.
Los individuos de una especie no pueden cambiar su estructura genética. El científico francés Jean-Baptiste Lamarck creía que las características adquiridas podían ser pasadas de una generación a la siguiente. Por ejemplo, si la jirafa tendía el cuello para alcanzar las hojas, su cuello se haría más largo y sus hijos heredarían esta característica adquirida. Hoy sabemos que tales cosas no se heredan. El hijo de un levantador de pesos no obtiene automáticamente buenos músculos, del mismo modo que el hijo de un corredor de maratón no adquiere automáticamente una capacidad pulmonar mejorada. Heredamos muchas cosas de nuestros padres, pero esta herencia no tiene nada que ver con esas otras características.
Durante los años veinte el «genetista» ruso Tromfin Lísenko consiguió un gran dominio político en la Unión Soviética debido a que sus teorías resultaron encajar con la filosofía marxista. Rechazaba la idea de que los genes tuvieran algo que ver con la herencia, y volvió sus espaldas a la «decadente» ciencia occidental. Prometió a Stalin que haría crecer una hilera de limoneros desde el mar Negro hasta Moscú plantándolos en climas sucesivamente más frios y dejando que cada limonero se adaptara a este clima antes de plantar sus descendientes un poco más al Norte.
Usando su influencia política, Lísenko lisió las ciencias biológicas soviéticas durante medio siglo por el simple procedimiento de enviar a sus competidores al Gulag y declarar fuera de la ley las enseñanzas de la genética moderna. El asunto Lísenko sigue siendo uno de los episodios más negros de la historia de la ciencia.
El creacionismo es la doctrina según la cual la Tierra fue creada hace unos pocos miles de años a través de un acto divino. El creacionismo, o «ciencia de la creación», ha gozado de un modesto resurgimiento en los Estados Unidos. Es la doctrina de que la Tierra fue creada hace unos pocos miles de años, más o menos como se describe en el Génesis. Sostiene que todos los sistemas vivos fueron creados especialmente en su forma actual, y que no se han producido cambios desde la creación en sí. En general, se asocia el creacionismo con las iglesias protestantes conservadoras de Norteamérica, y tiene poco apoyo tanto de las corrientes principales de la ciencia como de las corrientes principales de la teología.
La ciencia de la creación no actúa como una ciencia. Los creacionistas han intentado argumentar que sus puntos de vista deberian tener igual peso en las escuelas públicas que las enseñanzas de la teoría aceptada de la evolución, puesto que representan una «ciencia» alternativa. Afortunadamente, los tribunales han sostenido que esta táctica es simplemente una forma oblicua de introducir enseñanzas religiosas en lasescuelas públicas. Desde un punto de vista científico, el problema con el creacionismo es que no resulta posible demostrar que es erróneo. No importa las pruebas que uno consiga hallar, la respuesta es siempre: «Bueno, así es como fueron hechas las cosas.»
Por ejemplo, una argumentación común contra los creacionistas es que podemos ver estrellas que se hallan a miles de millones de años luz de distancia, de modo que su luz tiene que haber estado viajando hacia nosotros durante miles de millones de años; en consecuencia, la Tierra no puede haber sido creada hace seis mil años. La respuesta de los creacionistas a esto es lo que llaman la doctrina de la antigüedad creada. En esencia, argumentan que la luz fue creada en su camino hacia aquí con el mismo aspecto que tendría si reflejara cosas de miles de millones de años de antigüedad. Tengo que admitir que considero la perspectiva de Dios como el bromista pesado definitivo algo difícil de tragar.
La evolución no viola la segunda ley de la termodinámica. Como físico, hay una argumentación de los creacionistas que realmente me produce dentera. Es la que dice que la evolución requiere que la vida vaya de lo simple a lo complejo, mientras que la segunda ley de la termodinámica dice que los sistemas se mueven hacia un estado de máximo desorden, y que, debido a esto, la evolución viola las leyes de la fisica.
El problema con la argumentación es que la segunda ley se refiere sólo a sistemas aislados. La Tierra no es uno de esos sistemas porque está recibiendo constantemente energía del Sol. Para ver por qué es importante este detalle, podemos pensar en una actividad común: hacer cubitos de hielo en un congelador. Cuando hacemos un cubito de hielo, creamos un sistema de orden superior (el hielo) a partir de un sistema de orden inferior (el agua) usando energía de la compañía eléctrica local. El incremento de orden en el cubito de hielo queda equilibrado por el desorden mayor en la planta generadora, donde el carbón calienta la atmósfera al arder. Mientras los libros, en su conjunto, cuadren, no hay ninguna violación de las leyes de la física.
La misma argumentación funciona para los sistemas vivos sobre la Tierra. El incremento del orden en la biosfera se ve equilibrado por el crecimiento del desorden en nuestra «planta de energía», el Sol.
Después de todo, si la argumentación creacionista fuera cierta y resultara imposible para ningún sistema volverse más desordenado, ¡nunca podríamos hacer cubitos de hielo para enfriar nuestras bebidas!

volver


Revista Ánfora Digital