15Oct/144

El elogio del éter

No es raro leer personas denigrando una teoría científica contemporánea diciendo que es “el éter del siglo XXI”. Muchas veces esta comparación se hace en relación a la materia oscura, esta misteriosa forma de materia que forma un cuarto de la energía del universo y que no sabemos qué es.

Yo creo que no sólo esto es falso en el caso de la materia oscura ya que sus propiedades son muy distintas de las del éter luminífero, sino que, peor aún, asume incorrectamente que la teoría del éter (el hipotético medio por el cual se transmitiría la luz) fue una idea ridícula de la física del siglo XIX que mejor olvidar; algo así como nuestros años de adolescencia con pelo largo y uñas pintadas de negro.

Pero así como no hay que avergonzarse por sus decisiones de estilo durante el secundario, yo sostengo que no hay que renegar el éter. Tanto el éter como las pulseras de tachas cumplieron su función y para se desechados requirieron una importante maduración del conocimiento pero para entender las razones detrás de estas nociones hay que conocer un poco sobre la tumultuosa adolescencia de la física.

La batalla de la luz

Durante varios siglos hubo un gran debate en la comunidad científica entre dos teorías rivales acerca de la naturaleza de la luz.

De un lado de la cancha estaban los que decían que la luz era una partícula. Liderados por el Newton (el famoso inglés), los campeones de la teoría corpuscular consideraban que en cada rayo de luz se escondía una infinidad de pequeñas ‘pelotitas’ que tenían características distintas según eran pelotitas azules, rojas, amarillas, etc… Esta teoría podía explicar una gran cantidad de observaciones, como la reflexión (entendible para cualquiera que haya jugado a los billares), la refracción y la división de la luz blanca en los colores del arcoíris.

Del otro lado estaba Huygens (un neerlandés no tan conocido) quien comandaba a la patota ondulatoria, quienes defendían la idea de que la luz era mejor entendida como una onda. En vez de pensarla como pequeñas bolitas cruzando el espacio, concebían a la luz eran como olas sobre el agua. Esta teoría podía explicar otros fenómenos que eran difíciles de encajar en la teoría corpuscular como la difracción y los fenómenos de interferencia. El problema de esta teoría era que, como analogía a las olas en el mar o el sonido en el aire, estas ondas lumínicas tenían que propagarse en un medio. El éter luminífero era ese hipotetizado medio; ese océano que transporta las olas lumínicas a través del espacio desde las estrellas más distantes hasta nuestros ojos.

Huygens[9]

Créditos: Apuntes de Óptica Astronómica por Enrique Campitelli (mi viejo)

Durante el siglo XVII, los instrumentos de medición no eran lo suficientemente precisos como para medir las predicciones de la teoría ondulatoria. Y esto, sumado a que Newton era más conocido y autoritativo –y, si se me permite, bastante forro con sus adversarios intelectuales– significó que su teoría corpuscular tuvo más éxito, fue más ampliamente adoptada y el éter no fue necesario. Gol para Newton.

Pero en la ciencia ningún partido dura sólo 90 minutos. A principios del 1800 Thomas Young (otro de los gigantes del pensamiento) revitalizó la teoría ondulatoria con su experimento de la doble ranura. Este gol a favor del nerlandés, sin embargo, significó el regreso del éter luminífero. Durante todo el siglo XIX la teoría ondulatoria se fue refinando más y más hasta que su formalización matemática en las ecuaciones de Maxwell en los ‘60 (del 1800) significaron un golazo de media cancha para el equipo ondulatorio.

Como consecuencia de esta brutal paliza propiciada por la teoría ondulatoria, el éter luminífero fue aceptado como un hecho. Ante la aceptación general de que la luz era una onda, no había otra conclusión posible que postular que esa onda debía propagarse a través de algo. Ese algo tenía que estar en todo el universo ya que de otra forma no podríamos ver estrellas a años luz de distancia. Lejos de ser un invento ridículo o un capricho de físicos ociosos, el éter era un elemento necesario de una teoría respetada e increíblemente exitosa.

Aún así, para esta época, estaba claro que el éter estaba en problemas. Sus propiedades resultaban cada vez más implausibles: tenía que ser extremadamente rígido para trasmitir la onda lumínica, pero a la vez debía fluir libremente en el espacio; además tenía que ser perfectamente transparente, y carecer de viscosidad para no influir en la órbita de los planetas. No sólo eso, sino que el las propias ecuaciones de Maxwell, gran éxito de la teoría ondulatoria, eran en cierta forma contrarias a la existencia del éter por demostrar que la velocidad de la luz era constante; algo que no sucede con otro tipo de ondas, como el sonido o las olas del mar cuya velocidad cambia si nos movemos con respecto al medio.

En este punto parecería que la caricatura del éter como una etapa olvidable de la adolescencia de la física es correcta, pero yo no creo que así sea. Simplemente la ciencia estaba siguiendo su curso, encontrando más y más agujeros en una teoría que en principio parecía necesaria; una crisis al estilo de Kuhn. Es muy fácil juzgar a los defensores del éter sabiendo cómo terminó la historia, pero yo desafío a cualquiera a nacer en el siglo XIX e inventar la noción de que una onda se puede desplazar en el vacío. La idea de que toda onda necesita un medio es razonable y no podemos culpar a los grandes científicos del pasado por no darse cuenta de que la luz era una excepción.

Y para demostrar que sabían lo que hacían, los físicos ya estaba remangados e inmersos en la difícil tarea de medir los efectos del éter. Uno pensaría que medir algo que está en todas partes tendría que ser una papa, pero uno tras otro los distintos e ingeniosos intentos para detectar esta escurridiza substancia fallaron miserablemente.

eterqepdEn 1887, Michelson y Morley famosamente fallan en detectar al éter y, aunque el debate continuó por varios años, en general se considera que este experimento fue el que puso el anteúltimo clavo en el ataúd del famoso éter luminífero. El clavo final, el entierro y el velatorio fueron responsabilidad respectivamente de las transformaciones de Lorenz, que ofrecieron una explicación a los resultados negativos de Michelson que mantenía la existencia del éter, la relatividad especial, que generó la misma explicación que Lorenz sin necesidad del éter, y, finalmente, la Navaja de Occam, que dijo que si no hacía falta postular un ente para explicar lo que observamos, entonces no tenemos por qué creer en su existencia.

Pero si bien este es el final del camino para el éter luminífero, la épica batalla entre ondas y partículas no termina acá. A pesar de que el éter estuviera en problemas y eventualmente sufriera una muerte agonizante, la teoría ondulatoria de la luz siguió en vigencia durante todo el siglo XIX.

También en 1887 se descubre el efecto fotoeléctrico, sólo explicable desde la teoría corpuscular, y la pelota se acercó peligrosamente al arco de Huygens. Luego, ni bien comenzado el siglo XX, luego de que sus profesores le dijeran que en la física “lo esencial ya está todo descubierto”, Max Planck rompe todo y redescubrió la esencia de la física al fundar la física cuántica. Entre otras cosas, esto significó que la luz se dividía en “cuantos” de energía sospechosamente similares a los corpúsculos de Newton. Esa rápida sucesión de tanto para la teoría corpuscular dejó la cancha en un estado de honesta confusión.

Para los años 20, la teoría corpuscular parecía haber agarrado un segundo aire. Aparecían más y más fenómenos que la teoría ondulatoria no podía explicar. Al efecto fotoeléctrico se le sumaba la radiación de cuerpo negro, el efecto Compton, la producción de luz por colisión de partículas, la absorción y emisión de luz de los átomos y una larga lista que, con buena razón, ponían nervioso al espíritu de Huygens.

Sin embargo, en 1924 aparece en la cancha un jugador que pateaba para los dos lados. Luis de Broglie decide irse por la suya y postular que la luz es una onda y la luz es una partícula; es una “ondícula”. Todos esos siglos de confusión se debieron a que el universo es más complejo de lo que pensamos.

La luz, entonces, se comporta como partícula bajo ciertas condiciones y como ondas en otras. Eventualmente la física cuántica determinó que esta dualidad onda-partícula vale también para toda la materia y energía del universo. Marche premio Nobel para de Broglie y declárese empate. Archívese.

Más respeto que soy tu éter.

Quien se ría del éter por sus propiedades aparentemente mágicas y antiintuitivas, ¿qué tiene para decir de la física actual que permite meter un coche en un garage más chico que el mismo? ¿O que hace que el tiempo pase más lento si nos movemos rápido? ¿Realmente es más loco pensar en un éter luminífero que permea todo el cosmos que pensar que un electrón puede interactuar con sigo mismo y estar en dos lugares al mismo tiempo?

Es más, el campo de Higgs no es tan distinto a un éter con la única diferencia que el primero fue confirmado con el descubrimiento del Bosón de Higgs en 2012.

El éter, en mi humilde opinión, no fue un capítulo olvidable de la historia de la ciencia ni mucho menos un fracaso de la física. Fue un elemento que cumplió su función mientras las observaciones eran compatibles con su existencia y que para ser desechado necesitó nada menos que una reformulación total de nuestra idea del espacio y el tiempo protagonizada por la teoría de la relatividad.

17Abr/135

De supernovas y bacterias

Si una de las características más impactantes de la ciencia es cómo campos totalmente alejados se encuentran y confirman mutuamente, éste debe ser un excelente ejemplo. Un equipo de investigadores cree haber encontrado en bacterias fósiles, en el fondo del mar, el rastro de la explosión de una supernova que pudo acelerar la extinción de la fauna marina de hace dos millones de años.

La historia de este descubrimiento comienza en realidad hace más de diez años. En 1999 científicos en Alemania encontraron en sedimentos marinos pequeñas cantidades de hierro-60, un isótopo radiactivo del hierro que no puede formarse en la Tierra. Se creía que podía haber llegado allí al pasar el Sistema Solar por un área del espacio abundante en dicho isótopo.

Por otro lado, hace también bastante que los paleontólogos ponen el límite entre dos períodos geológicos recientes, el Plioceno y el Pleistoceno, en el momento de una gran extinción de organismos marinos (que dejó su rastro en forma de restos fósiles característicos). Se consideraba probable que una de las causas de esta extinción fuera un aumento en la radiación ultravioleta solar, que habría matado al plancton cercano a la superficie marina.

En 2002 un equipo liderado por Narciso Benítez (John Hopkins University) propuso que una o más explosiones de supernova cercanas habían emitido rayos cósmicos intensos que, al llegar a la Tierra, habían dañado la capa de ozono, dejando pasar más rayos UV de lo habitual, que exterminaron al delicado plancton del cual depende el ecosistema. Señalaron tentativamente a la Asociación OB Escorpio-Centauro, un grupo que incluye unas cuarenta estrellas gigantes jóvenes y activas, a 450 años luz de nuestro planeta. Las asociaciones estelares OB son bastante típicas: se forman a partir de nubes de gas dando origen a múltiples estrellas muy masivas que viven rápido, mueren jóvenes y a veces dejan un hermoso cadáver.

Cuatrocientos cincuenta años luz es demasiado lejos para afectar la Tierra. Pero según han logrado determinar Benítez y sus colegas, hace dos millones de años algunas estrellas de Escorpio-Centauro podrían haber pasado a sólo 130 años luz. Y aunque no hemos visto ninguna supernova ahí, hay rastros de veinte explosiones en los últimos once millones de años.

Hace pocos días un físico, Shawn Bishop, reveló el hallazgo de hierro-60 en muestras del océano, por medio de un método que elimina las posibles fuentes inorgánicas, como por ejemplo, los minerales arrastrados por la lluvia desde los continentes. El origen de este hierro son bacterias magnetotácticas, que viven en el fondo marino y se orientan guiándose por el campo magnético terrestre, utilizando para ello cantidades microscópicas de magnetita (óxido ferroso-diférrico) que acumulan en sus células. Estos rastros fósiles tienen una antigüedad de 2,2 millones de años, exactamente lo que se esperaría si las bacterias vivieron durante la extinción del Plioceno-Pleistoceno.

Supernova como posible causante de la aparición de hierro-60 en bacterias magnetotácticas fósiles

Podemos imaginar cómo habrá sido: la explosión de la supernova, expulsando inmensas cantidades de átomos pesados; unos siglos después, una lluvia de rayos cósmicos que habrá hecho volar al espacio gran parte de nuestra capa de ozono; el plancton marino, frito por la radiación ultravioleta solar; la Tierra pasando por una nube de hierro-60 y otros isótopos radiactivos; y estas pequeñas bacterias capturando y utilizando ese hierro, ya oxidado, como brújula, para luego morir tranquilamente y dejar su huella en los sedimentos.

El objetivo de los investigadores es, ahora, encontrar más muestras del mismo tipo en otras partes del fondo marino. El sueño, encontrar a la culpable: el rastro en el cielo, ya débil, de la supernova que nos golpeó.

9Ago/1232

¿Por qué todos los objetos caen al mismo tiempo?

32 Comentarios    

Publicado por:Autor invitado.

Archivado en: Ciencia, Física

Este artículo ha sido redactado por un autor invitado: Juan Gagliardo, quién escribe en Sentido Binario. Si deseas redactar un artículo para publicarlo en este blog, envialo por mail junto con tus datos a info@circuloesceptico.com.ar

La mayoría de las personas sabe que, si dejáramos caer un martillo y una pluma en el vacío, a la misma altura y al mismo tiempo, ambos tocarían el suelo en el mismo instante. Todos nos enteramos de esto, ya sea en la escuela, en una trivia, en un documental, en un museo, etc. Todos sabemos eso, o mejor dicho, hemos memorizado dicho dato. Sin embargo, la mayoría no sabe porqué realmente caen al mismo tiempo.

El astronauta David Scott hace una demostración de que todos los cuerpos caen a la misma velocidad sin importar su masa.

Casi todas las explicaciones al respecto se detienen en ese hecho, el de que caen al mismo tiempo. Otras, las menos, se explayan argumentando que la gravedad actúa igual para cualquier cuerpo, independientemente de su peso (sin tener en cuenta la resistencia del aire), pero aún no explican por qué ocurre esto.

Hace unos días, un chico de ocho años me preguntó "¿eso es cierto?", al ver esta misma cuestión en un episodio de Los Simpsons. Le dije que sí, que los dos (pluma y el martillo) caerían a la misma velocidad. Pero para mi sorpresa, no le alcanzó la respuesta y siguió indagando: –¿Entonces todas las cosas pesan lo mismo?– me preguntó.

Lo que sigue, es casi la misma explicación que le di a un chico de ocho años, con la que pudo entender claramente por qué todos los objetos caerían a la misma velocidad en el vacío, por lo que será muy fácil de entender para cualquiera, tenga conocimientos de física o no:

Primero, sepamos que todos los cuerpos tienen fuerza de gravedad*, y esta fuerza es proporcional a su masa (la masa es la cantidad de materia). Es decir que, mientras más masa tenga un cuerpo, mayor será su fuerza de gravedad. Por lo tanto, el planeta Tierra tiene, evidentemente, más fuerza de gravedad que, por ejemplo, un destornillador.

Ahora, hay que tener en cuenta las dos primeras leyes de Newton. De estas leyes entendemos que, primero, si aplicamos una fuerza a un cuerpo, este cambia su velocidad, es decir que, si estaba quieto, comienza a moverse y, si estaba en movimiento, acelera o desacelera (también puede cambiar su dirección y sentido, dependiendo del ángulo en el que se aplique la fuerza), y segundo, que ese cambio de velocidad es directamente proporcional a la fuerza, e inversamente proporcional a la masa del cuerpo. Esto último quiere decir que, mientras más grande sea la fuerza aplicada, mayor velocidad adquirirá el cuerpo y que, mientras mayor sea la masa de este, se necesitará más fuerza para moverlo.

Más fácil: si hay una bicicleta quieta y yo la empujo, voy a cambiar su velocidad (antes se movía a 0 km/h, y ahora tiene alguna velocidad), y la velocidad que alcance la bicicleta va a depender de cuán fuerte la empuje, si la empujo más fuerte, alcanzará más velocidad que si apenas la empujo. Y si después quiero empujar un auto, voy a necesitar mucha más fuerza para moverlo a la misma velocidad que a la bicicleta, porque tiene más masa.

Bueno, sabiendo esto, imaginemos tres alpinistas que están escalando una montaña: José Gravedad, Carlos Martillo y Ricardo Pluma. Carlos Martillo es un tipo alto y robusto, pesa unos 90kg, levanta pesas frecuentemente y tiene una gran masa muscular. Ricardo Pluma, en cambio, es un enclenque de 45kg, sin mucha fuerza. Ya se darán cuenta de que no nos importa cómo sea José Gravedad.

De los tres, José Gravedad fue el primero en alcanzar la cima. Vio que sus dos amigos quedaron 10m más abajo y decidió ayudarlos a subir, así que les tiró una cuerda y les dijo que se trepen, al mismo tiempo que él tire, para subir más rápido.
El primero en tomar la cuerda fue Carlos Martillo, que, como era tan fuerte, trepó rápidamente y sin mucho esfuerzo.
Luego se trepó Ricardo Pluma, pero este alfeñique lo hizo lentamente y con mucha dificultad.

El primero trepó rápidamente y el segundo lo hizo de manera muy lenta, pero ambos demoraron el mismo tiempo en subir esos 10m hasta la cima, ¿por qué? Bueno, porque al mismo tiempo que ellos trepaban, arriba estaba José Gravedad tirando de la cuerda, y la verdad es que tiró mucho más lentamente cuando subió Carlos Martillo, que cuando subió Ricardo Pluma.

¿Ven lo que pasó? Cuando el que está abajo tiene más masa muscular, trepa más rápido, pero pesa mucho, así que al que está arriba le cuesta más trabajo tirar de la cuerda, por lo que lo hace más lentamente. Y cuando el que está abajo tiene muy poca masa muscular, tiene tan poca fuerza que tarda mucho en trepar, pero es muy liviano, así que al que está arriba se le hace más fácil tirar de la cuerda, por lo que lo hace más rápidamente.

Entonces, mientras más masa tenga un objeto, mayor será su fuerza de gravedad, pero a la vez, se verá menos afectado por la fuerza de gravedad de los otros cuerpos.

Eso es lo que ocurre si sueltan un martillo y una pluma en el vacío. La gravedad del planeta tendrá menos efecto sobre el martillo que sobre la pluma, pero la gravedad del martillo y de la pluma también tienen su efecto sobre la gravedad del planeta, y sabemos que el martillo, por tener más masa, tiene más fuerza de gravedad que la pluma. En consecuencia, el resultado sería el mismo con cualquier objeto. Incluso, si dejáramos caer hacia el Sol, desde la misma altura, a cada uno de los planetas del sistema solar, todos tardarían el mismo tiempo en su caída**.

*: para hacer más simple esta explicación, me tomé la licencia de hablar de "fuerza" de la gravedad, para que se entienda fácilmente, pero lo cierto es que la gravedad no es una fuerza, sino una curvatura en el espacio-tiempo.

**: mediríamos el mismo tiempo para la caída de cada planeta, siempre y cuando hagamos nuestras mediciones desde un mismo marco de observación, ajeno a los dos objetos (Sol y planeta).

4Ago/125

Estacionando en el garaje relativista

5 Comentarios    

Publicado por:Elio Campitelli.

Archivado en: Física, Relatividad general

Supongamos que tenemos un auto cohete que puede alcanzar velocidades cercanas a la luz. Mide 10 metros y queremos que vaya por una calle y pase por un garaje que mide 5 metros con puertas en lados opuestos. “¡Imposible!”, me dirían; pero estarían equivocados. Hacer eso es algo simple si se tiene en cuenta la relatividad.

Específicamente, el efecto que entra en juego acá es el de contracción de longitud. La versión corta es simple: un objeto viajando a una velocidad cercana a la velocidad de la luz se contrae en la dirección de desplazamiento. Si no me creen, lean el artículo que escribí sobre los efectos de dilatación temporal y contracción de longitud (Pablo también escribió otro sobre masa relativista). Ya de por sí esto parece suficiente anti-intuitivo pero lo mejor está por venir.

Primero hacemos una prueba a velocidad “normal”, es decir, bien lejos de la velocidad de la luz. El auto acelera y entra en el garaje. Justo cuando está en el medio, un mecanismo hace que ambas puertas se cierren y abran casi instantáneamente. Como el auto es más largo que el garaje, las puertas cierran sobre él y lo destruyen.

Ahora hacemos una segunda prueba, esta vez a mayor velocidad. Comienza la carrera y nuestro vehículo rápidamente alcanza una velocidad cercana a la de la luz. Nosotros, sentados en la vereda mirando como corre vemos que, de acuerdo con la contracción de longitud, ahora el coche mide sólo 2 metros de largo (su altura, por otra parte, no cambió).

Ahora llega al garaje por una puerta y sale por la otra. Pero justo cuando está adentro, el mecanismo hace que ambas puertas se cierren y abran casi instantáneamente. Gracias a su velocidad, su longitud se ha reducido a sólo 2 metros por lo que entra cómodamente en nuestra cochera de 5 metros.

Si hiciéramos una animación en cámara hiper lenta (como hizo Muybridge con caballos) podríamos ver un instante en el que el auto se encuentra encerrado en el garaje. Es decir, pudimos guardar un coche de 10 metros en una cochera de 5 metros (aunque sea por un instante infinitesimal). Esto ya es bastante loco, pero todo se vuelve más surrealista cuando se tiene en cuenta qué sucedió desde la perspectiva del piloto.

Él está corriendo a velocidades casi lumínicas pero constantes por lo que, desde su punto de vista, él se encuentra en reposo mientras el resto del mundo se mueve a casi la velocidad de la luz. Como consecuencia, volviendo a la contracción de longitud, ve como todo el universo se achata en la dirección de su movimiento. Una piedra esférica en el suelo, por ejemplo, para él sería una especie de panqueque. Si todo se achata, también se achata la longitud del garaje. Si para nosotros tiene 5 metros, para el piloto es aún más corto, digamos 1 metro.

Ahora, ¿qué ve nuestro anónimo conductor cuando pasa por el garaje? Claramente desde su punto de vista no puede suceder algo que pueda ser interpretado como que su coche de 10 metros pudo ser guardado en la cochera de sólo 1 metro de largo. No, lo que él ve es que cuando la nariz del auto está entrando, la puerta trasera —sólo la puerta trasera— se cierra y se abre. La delantera hace lo suyo unos momentos después, cuando la cola del auto acaba de entrar y la nariz ya está afuera.

Es decir, desde su punto de vista, no sólo su auto nunca estuvo totalmente guardado en un garaje sino que el abrir y cerrar de cada puerta —que para nosotros sucede al mismo tiempo— ¡no es simultáneo! La relatividad tira la simultaneidad a la basura. No se puede decir que dos eventos hayan sucedido al mismo tiempo, todo va a depender del marco de referencia que se usa. Y eso, señores, es increíble.

(Este experimento mental lo conocí gracias a un podcast (en inglés) llamado Titanium Physicists. Es excelente.)

7Jun/1242

La diferencia entre antimateria, materia oscura y energía oscura

42 Comentarios    

Publicado por:Jorge A. B..

Archivado en: Astronomía, Ciencia, Física, Misterios

Imagen tomada por el Hubble de un lente gravitacional, delatando la presencia de materia oscura.

La antimateria, la materia oscura y la energía oscura son tres cosas absolutamente distintas, al contrario de lo que tiene entendido mucha gente. Veamos una descripción simple y breve de cada una, sin profundizar demasiado, para intentar desarmar un poco esta confusión.

La antimateria es como la materia común y corriente de la que estamos hechos, pero hecha de partículas cuya carga eléctrica está cambiada de signo. Un anti-electrón (por razones históricas también conocido como positrón), por ejemplo, es una partícula igual al electrón, con su misma masa y carga pero de signo eléctrico positivo (el electrón tiene carga negativa). Y un anti-protón es una partícula con la misma cantidad de masa y carga de un protón, pero con carga de signo eléctrico negativo. La antimateria se forma con antipartículas: del mismo modo que un átomo de hidrógeno consiste en un electrón orbitando alrededor de un protón, si juntáramos un anti-protón con un anti-electrón podríamos tener un átomo de anti-hidrógeno, lo cual ha sido logrado en el CERN, por fracciones de segundo.

La antimateria no es ningún asunto de ciencia ficción. Fue predicha teóricamente y descubierta experimentalmente hace prácticamente un siglo. Hace varias décadas que incluso tiene aplicación tecnológica en medicina, en la tomografía por emisión de positrones, aunque su uso como fuente de energía está muy lejos de ser una realidad. Aún quedan bastantes interrogantes científicos pendientes sobre ella, pero es la menos enigmática de las tres.

Con respecto a la materia oscura, por otra parte, no tenemos ni la más pálida idea de lo que es. Para explicar por qué entonces hablamos de ella, partamos desde cero. Los planetas del sistema solar están en equilibro en una órbita alrededor del Sol, y para que este equilibrio se mantenga la fuerza de gravedad que ejerce el Sol sobre cada uno tiene que ser la justa y necesaria; si la fuerza aumentara atraería demasiado al planeta y el Sol lo engulliría, y si disminuyera, el planeta no sería atraído lo suficiente y saldría despedido del sistema. Más específicamente hay tres variables que deben estar balanceadas: la masa del planeta, su distancia al Sol, y la velocidad con que da vueltas alrededor de éste. Ésta es una ley general llamada conservación del momento angular, que se aplica a todas las cosas y no sólo al sistema solar, incluyendo las galaxias. Ahora bien, nuestra galaxia está hecha de miles de millones de estrellas que giran alrededor del centro, nuestro sol siendo una de ellas. Y así como los planetas de nuestro sistema solar guardan cierto equilibro entre su distancia al Sol, su masa y su velocidad orbital, del mismo modo las estrellas de nuestra galaxia y todos los cuerpos celestes, nebulosas y materia en todas sus formas, también deberían cumplir ese mismo balance entre su distancia al centro de la Vía Láctea, su masa y la velocidad orbital. Pero a simple vista esto deja de respetarse a medida que nos alejamos del centro de la galaxia, a pesar de que todo sigue estando en equilibrio. La explicación más simple es que en realidad la ley sí se cumple, lo que sucede es que hay mucha masa “escondida” que por algún motivo no podemos ver, que sería la necesaria para que la ley se mantenga en pie. A esta masa invisible la llamamos materia oscura, por razones obvias. Creemos que está ahí pero ignoramos su naturaleza.

Hay otros fenómenos físicos que también delatan su existencia, además del mencionado, como por ejemplo las lentes gravitacionales, pero hay bastante debate al respecto. Incluso podría terminar siendo cierto que efectivamente nuestra querida ley de conservación no se aplica a gran escala, o bien hay fallos en otras leyes relacionadas, aunque es poco probable.

Por último está la energía oscura. Si antes estábamos desconcertados, ahora lo estamos aún más. El Universo está, como sabemos, en expansión desde el Big Bang. Pero las galaxias ejercen una fuerza de gravedad entre ellas mismas que tiende a acercarlas entre sí, y por lo tanto a frenar la expansión del Universo. Hasta hace poco no estábamos seguros de si esta fuerza era suficiente para frenar la expansión (y eventualmente volver a comprimirlo todo, como un Big Bang inverso), o si por el contrario no era suficiente, en cuyo caso lo único que lograría sería disminuir la velocidad de la expansión. Sin embargo, en la década de 1990 se descubrió que la fuerza de atracción entre las galaxias ni siquiera alcanza para esto último. El Universo se expande cada vez más rápido, lo cual nunca habríamos esperado, porque para esto hace falta algo que lo esté acelerando. Y si hay una aceleración, tiene que deberse a alguna fuerza por ahora misteriosa. A la energía que produce esta fuerza, absolutamente incomprendida, le llamamos energía oscura.

Ahí lo tenemos: tres fenómenos físicos completamente separados y distintos. ¡A no confundirlos más!

22Sep/1153

Neutrinos más rápidos que la luz

En este blog varias veces hablamos de relatividad y de su naturaleza absoluta: nada viaja más rápido que la luz. También coqueteamos un poco con algunas maneras de violar este principio e incluso usamos el concepto de viaje superlumínico para introducir conceptos de la teoría de grafos. Pero hoy, mientras escribo, se está desarrollando una noticia interesante que tiene que ver con todo eso. Científicos quizás hayan descubierto neutrinos superando la velocidad de la luz. Dado que esto es un tema candente del momento, decidí escribir una entrada tan rápido como pude... más rápido que la luz podría decirse.

Los neutrinos son partículas subatómicas minúsculas casi sin masa que viajan casi a la velocidad de la luz. Se producen en el interior de las estrellas y, más relevante para este post, al colisionar partículas a altísimas energías. Como prácticamente no interactúan con la materia pueden pasar a través de la Tierra tranquilamente; de hecho, virtualmente no hay diferencia en la cantidad de neutrinos que pasan por nuestros ojos entre la noche y el día. Pero que interactúen poco con la materia no quiere decir que no puedan detectarse. Son tantos los neutrinos que si se tiene suficiente cantidad de materia, eventualmente algún neutrino se va a detectar.

En el macizo montañoso del Gran Sasso, en Italia, hay uno de estos detectores. El OPERA (Oscillation Project with Emulsion-tRacking Apparatus – sí, a los científicos les gusta los acrónimos) es un conjunto de 150 mil “ladrillos” de emulsión fotográfica y plomo con una masa total de 1.800 toneladas y se encuentra a sólo 730 km (medido con una exactitud de 20 cm) de una buena fuente de neutrinos: el CERN en la frontera Franco-Suiza. Hoy, luego de 3 años y unas 16.000 detecciones, el equipo de 160 personas anunció un descubrimiento tan asombroso como dudoso. Midiendo el tiempo en que tardaban los neutrinos en viajar desde el acelerador de partículas hasta el detector encontraron que llegaban unos 60 nanosegundos antes de lo que cabría esperar si éstos viajaran a la velocidad de la luz.

Ahora, para la señora que está leyendo esto mientras barre la vereda le parecerá que 60 nanosegundos es muy poca diferencia y se cuestionará si el equipamiento es suficientemente sensible para detectarlo. Según los investigadores del OPERA, el error sería de sólo 10 nanosegundos, dejando amplio margen para la detección. No sólo eso, sino que se trata de un resultado de 6 desviaciones estándar sobre la media,  un resultado que en física teórica es casi seguramente correcto.

Pero este resultado no está libre de sospechas. La máxima de que las afirmaciones extraordinarias requieren pruebas extraordinarias vale acá más que nunca y pocas proposiciones son tan extraordinarias como la idea de tirar a la basura uno de los principios fundamentales de la física. El propio portavoz del equipo, Antonio Ereditato admite que esta medición no es suficiente para refutar la relatividad.

A pesar de que muchos mantengan un sano escepticismo, la comunidad de físicos parece estar más que interesada en estos resultados. No es todos los días que un experimento bien controlado y no realizado en el sótano de la madre de algún delirante (aunque el OPERA sí se encuentra a 1.400m debajo del suelo) contradice algo tan fundamental. John Ellis, físico teórico en CERN dice en un artículo en Nature que ya han habido muchos experimentos que afirmaban algo similar y que ninguno terminó siendo cierto.

Pero claro que hay algunos detalles. Tal diferencia entre la velocidad de los neutrinos y la de la luz significaría que el OPERA debería haber detectado neutrinos procedente de supernovas lejanas años antes de que nos llegara la luz de la explosión. Sin embargo tal disparidad nunca ha sido observada. Phil Plait sostiene que este argumento no es tan sólido como parece ya que es muy probable que los neutrinos producidos en las supernovas a cientos de miles miles de años luz tengan diferentes energías que los creados por un colisionador de partículas a unos pocos kilómetros.

La mayoría de las afirmaciones extraordinarias en ciencia terminan siendo incorrectas. Es más probable que haya algún error sistemático en el experimento a que realmente se haya quebrado uno de los pilares de la física moderna. Pero sea como sea, esta noticia es más que interesante. Si resultara ser correcta significaría una revolución en la física digna de un Premio Nobel; y si resultara ser falsa, es una ilustración más del proceso autocorrectivo de la ciencia y de que, lejos de ser dogmáticos y aferrados a la “ciencia oficial”, los científicos están al acecho de nuevas teorías y nuevas ideas.

15Jul/1110

La forja del cosmos.

10 Comentarios    

Publicado por:Elio Campitelli.

Archivado en: Física

Somos polvo de estrellas.
Carl Sagan

Una joven parte del cosmos que está empezando a conocerse a sí misma.

Nunca me canso de pensar en esa frase. Tiene esa extraña cualidad de no sólo ser extremadamente poética sino también literalmente cierta. Prácticamente todo lo que nos rodea, desde la silla donde nos sentamos hasta el gato que se sienta sobre nuestras piernas y nos nos deja tipear está construido por átomos que fueron creados en el interior de una estrella o cuando ésta estalló violentamente en forma de supernova. El proceso mediante el cual a partir del hidrógeno y helio se consiguen planetas, muebles y lolcats es el de la fusión nuclear.

Todos los átomos están formados por los mismos bloques básicos: protones y neutrones en el núcleo, y una nube de electrones alrededor. Y un elemento químico está definido por la cantidad de protones en su núcleo. Lo único que se necesita para conseguir el sueño de los alquimistas y transmutar un elemento en otro es agregarle o quitarle protones. En la fisión nuclear un elemento pesado se rompe para generar otros más livianos; en la fusión nuclear sucede lo contrario.

El problema es que los núcleos tienen carga positiva y, como los hechos y la homeopatía, se repelen mutuamente. Para fusionarlos, entonces, hay que superar la barrera electrostática que los trata de separar. Hay que juntarlos lo suficiente para que comience a actuar la fuerza nuclear fuerte. ¿Cuánta energía hace falta? La barrera electrostática para la fusión de dos núcleos de hidrógeno es de unos 400 keV (la energía que gana un electrón cuando es acelerado por una diferencia de potencial de 400.000 voltios).

Pero la gracia de la fusión es lograr que el proceso genere más energía de la que consume. Cuando se produce la fusión de elementos livianos (desde hidrógeno hasta hierro), la masa de los átomos producidos es menor que la de los originales. Esto es como pensar que una casita de Lego pesa menos que la misma cantidad de piezas separadas. La masa que falta es la que se ha transformado en energía mediante la famosa ecuación E=mc².

Para que suceda todo esto son necesarias altísimas presiones y temperaturas. A los 15 millones de grados Celsius del núcleo de una estrella como el Sol los átomos de hidrógeno tienen una energía de unos 1,3 keV – mucho menor que la necesaria para realizar la fusión. La razón por la cual es posible que aún a tan “bajas temperaturas” pueda mantenerse la reacción nuclear es que ésa es la energía sólo del promedio de los átomos. Hay algunos menos energéticos y otros más y sus cantidades relativas están determinadas por la Distribución de Maxwell-Boltzmann. En cualquier gas a cualquier temperatura hay una probabilidad no nula de que haya algún que otro átomo sumamente energético.

Distribuciones Maxwell-Boltzmann para un gas a 3 temperaturas. El eje horizontal es la energía de la partícula y el vertical la cantidad de partículas con esa energía.

Ahora parece que hayamos pasado a otro extremo. De necesitar presiones y temperaturas enormes ahora uno teme que en cualquier momento se desate una reacción nuclear durante el asado del domingo (esto es más o menos lo que creía Richter aunque de eso trataremos más adelante). Pero no hay que temer, ya que para que se produzca una reacción de fusión en cadena no sólo hace falta que haya algunos átomos que se fusionen, sino que es necesario tener una cierta cantidad de ellos haciéndolo. Los que están en el palo llaman a esto los criterios de Lawson. Básicamente lo importante es que el producto de la densidad de un gas, su temperatura y el tiempo que hace falta tenerlo en esas condiciones tiene que se igual o mayor a un determinado número (diferente para distintos elementos). Si la temperatura disminuye a la mitad, o hay que esperar el doble de tiempo o hay que aumentar la presión al doble.

Como vimos,  esta reacción produce más energía de la que consume (es exotérmica). Eso significa, entre otras cosas, que podemos usarla para calentar algo. ¿Y qué nos impide calentar agua y hacerla pasar por un dínamo para generar electricidad? Muchas cosas, aparentemente. Es un chiste recurrente que la fusión nuclear está siempre 20 años en el futuro y es que ésa es la promesa desde hace más de 50 años. Hay una enorme cantidad de desafíos técnicos que impiden que los reactores de fusión sean una realidad. A las enormes presiones y temperaturas hay que sumarle que los neutrones producidos por el proceso dañen el aparato y lo haga radioactivo.

La promesa de energía limpia, barata, segura y virtualmente ilimitada es un caldo de cultivo muy propicio para la incubación de charlatanes, vendedores de humo y demás chantas. Ronald Richter fue uno de ellos pero él fue un adelantado a su tiempo. La fusión fría es una pseudociencia moderna que se popularizó especialmente luego del infame experimento de Pons y Fleischmann a principio de los ’90. Pero eso quedará para otro momento. Como diría Moby, "We are all made of stars".

22Jun/1114

Millones de dólares del gobierno de Perón, invertidos en pseudociencia

Ronald Richter con su gato Épsilon, esposa e hija

Al llegar Juan Domingo Perón a la presidencia en 1946, la Segunda Guerra Mundial acababa de concluir. Como todos sabemos, el Tercer Reich fue el gran perdedor, Adolf Hitler se suicidó, las potencias vencedoras destrozaron y se repartieron los territorios de Alemania... en fin, nuevamente un rotundo fracaso para aquél imperio (luego de haber perdido también la Primera Guerra Mundial), que no llegó a construir a tiempo la bomba atómica.

Pero, ¿qué ocurrió luego con todos los científicos e ingenieros alemanes que habían trabajado durante la guerra para Hitler? Su país había quedado en ruinas y ya no les ofrecía tantas posibilidades de empleo. Cada cual escapó hacia donde pudo. Algunos emigraron a Estados Unidos, por ejemplo, como el equipo de Wernher von Braun, y otros viajaron a países que habían sido neutrales durante el conflicto. Argentina fue el destino de muchos, ya que no sólo había sido neutral, sino incluso había guardado discretamente cierta simpatía con el fascismo.

Perón recibió a todos esos científicos e ingenieros con los brazos abiertos y les dió ocupación inmediatamente en sus respectivos campos, con la esperanza de desarrollar la tecnología y la industria nacional. Entre ellos se encontraba Kurt Tank, un ingeniero aeronáutico y piloto de pruebas, que en Córdoba sería uno de los protagonistas en el diseño del célebre Pulqui II. De modo que según parece, Kurt Tank fue una buena inversión. Pero fue precisamente este mismo ingeniero quien también recomendó que Argentina recibiera a un colega suyo. Y ahí es donde comienza la historia del artículo de hoy.

Este colega se llamaba Ronald Richter, y era un pseudocientífico de pies a cabeza. Embelesó al presidente desde el primer instante en que se conocieron, prometiéndole ni más ni menos que la fusión fría. Esto, para quienes no sepan de qué se trata, es un proceso físico que aún hoy en día no se ha podido lograr en ninguna parte del mundo, e incluso es muy poco probable que la humanidad lo alcance en el corto o mediano plazo, si acaso alguna vez lo logra. De poder concretarse constituiría una fuente de energía extraordinariamente potente, prácticamente ilimitada y gratuita para todo el mundo. Adiós al petróleo y al gas para siempre. Por eso no es sorprendente que Perón se haya entusiasmado tanto con esta idea; de haber tenido éxito quién sabe cómo habría cambiado la historia de Argentina en el marco mundial. Tal vez habríamos terminado desarrollando la bomba atómica, tal como se temía en el extranjero en aquella época y anunciaban con cierto amarillismo los titulares de los diarios.

13May/1110

La relatividad sigue firme

10 Comentarios    

Publicado por:PabloDF.

Archivado en: Física, Relatividad general

Una sonda de la NASA acaba de confirmar dos predicciones de la teoría de la relatividad general, que describe cómo la gravedad distorsiona el espaciotiempo. 

Las mediciones de alta precisión realizadas por la Gravity Probe B, lanzada en 2004, confirmaron dos aspectos de la teoría de Albert Einstein: el efecto geodético, también llamado precesión de de Sitter, y el arrastre referencial (frame dragging en inglés), también conocido como efecto de Lense–Thirring.

Ambos efectos son causados por el hecho de que la masa de cualquier cuerpo (en este caso la Tierra) deforma el espaciotiempo a su alrededor. En el efecto geodético, la presencia de la masa terrestre hace que el espacio se curve; la imagen tradicional usada para ilustrar esta curvatura es la de una bola pesada que se coloca sobre una lámina de goma tensada provocando un hundimiento de la misma. Cuando otro cuerpo pasa cerca de este hundimiento, su trayectoria tiende a curvarse hacia él. El arrastre referencial también es producido por la masa, pero se aplica a cuerpos rotatorios; la Tierra (en este caso) arrastra y “retuerce” consigo el espaciotiempo a su alrededor. La imagen más apropiada aquí es la de una bola introducida en un frasco de miel espesa, y que al girar enrosca en torno a sí la miel, líquida pero viscosa.

Giroscopio de la Gravity Probe B

Uno de los giroscopios de la Gravity Probe B, junto con sus rotores.

Para medir estos efectos, la GP-B utilizó giroscopios, que son cuerpos radialmente simétricos a los que se hace girar sobre su eje (un trompo es un giroscopio). Un giroscopio bien construido, una vez que se ha puesto a girar y en tanto no sea perturbado por fuerzas exteriores, siempre lo hace sobre el mismo eje, aunque esté dentro de un contenedor en movimiento (por ejemplo, un satélite en órbita). Eso significa que un giroscopio es un dispositivo ideal para ubicarse con exactitud sin referencias externas; de ahí que se haya utilizado el principio para construir brújulas (girocompases).

La relatividad general predice que la curvatura del espaciotiempo producida por la masa de un cuerpo desviará levemente los ejes de los giroscopios situados cerca de él, haciendo que los ejes precesionen (es decir, que giren a su vez lentamente).

El experimento consistió en hacer rotar los giroscopios a unas 5000 revoluciones por minuto, con sus ejes apuntados en dirección a la estrella IM Pegasi, y medir cuánto se desviaban por efectos relativistas a medida que la GP-B giraba en torno a la Tierra en una órbita polar a unos 640 km de altura. El resultado: los ejes precesionan (se mueven) 1,8 milésimas de grado por año en dirección norte–sur debido al efecto geodético (“inclinándose” hacia el pozo de gravedad de la Tierra) y 1,1 millonésimas de grado por año en dirección este–oeste debido al arrastre referencial (“llevados” por la rotación terrestre que arrastra el espaciotiempo consigo).

Gravity Probe B

El efecto total es minúsculo y es muy fácil perderlo entre las miles de influencias que pueden afectar el movimiento de los giroscopios. Por eso la comprobación de la GP-B no sólo es un hallazgo científico sino una proeza tecnológica: los cuatro giroscopios de abordo, hechos de cuarzo con una desviación de la forma esférica de no más de 40 átomos, están entre los objetos más perfectos producidos por el hombre.

Material adicional:

21Abr/1119

¿Más rápido que la luz?

19 Comentarios    

Publicado por:PabloDF.

Etiquetado con: , ,

Al final del artículo sobre el aumento de masa relativista decía que, habiendo quedado claros los largos tiempos y las inmensas energías necesarias para el viaje interestelar, me parecía que eso debía desacreditar la hipótesis de los OVNIs como naves extraterrestres. La clase de visitas que postulan los fans de las lucecitas celestiales —visitas frecuentes, repetidas, constantes y sin objeto aparente, de naves relativamente pequeñas y sin medios visibles de producción o emisión de energía, como si fuera tan fácil venir a la Tierra— parecen a priori una idea ridícula.

USS Enterprise (Star Trek)

USS Enterprise

Por lo mismo, lamentablemente, no son realistas los sueños de la ciencia ficción como el Imperio Galáctico de Asimov o los viajes de la USS Enterprise para ir audazmente donde nadie ha ido jamás. Asimov conocía muy bien el problema e intentó esbozar un mecanismo que hiciera posible “saltar” entre los mundos a través de un “hiperespacio” con propiedades geométricas especiales. La gente de Star Trek, por su lado, se valió del recurso del warp, por el cual la nave no va más rápido que la luz sino que se mueve dentro de una burbuja que deforma y acorta el espacio a medida que avanza: un poco más ingenioso, pero igualmente inviable.

En Babylon 5 las naves viajan a través de un hiperespacio que se plantea como un espacio con algunas reglas distintas al espacio normal; se viaja por él con motores convencionales una distancia corta (en términos astronómicos) y se sale a una gran distancia en el espacio “normal”; las naves grandes pueden entrar solas al hiperespacio, pero las otras requieren “puertas de salto” fabricadas por una raza alienígena antigua de la que nada se sabe. En Battlestar Galactica hay también “saltos”, pero éstos son instantáneos (no hay interludios en el hiperespacio) y no requieren de un equipo muy complicado; una nave con capacidad para diez personas puede llevarlo.

Ringworld (Mundo Anillo), por Larry Niven

Mundo Anillo, por Larry Niven

En Deep Space Nine, además de la tecnología warp, se utiliza el recurso de hacer pasar a las naves por un agujero de gusano, entidad teóricamente posible pero cuyo uso requeriría, en el mejor de los casos, de una tecnología absurdamente avanzada y una cantidad de energía prohibitiva. En Contacto, Carl Sagan hace que sus protagonistas construyan (con planos enviados por radio desde la estrella Vega) una máquina que crea algo muy similar a un agujero de gusano aquí en la Tierra, pero el regreso trae consigo ciertas paradojas bien pensadas que lo hacen inútil para el uso habitual.

Al extremo del absurdo velocístico llega Larry Niven en Mundo Anillo: no sólo hay naves convencionales que viajan (en el hiperespacio) a razón de tres días y medio por año-luz (es decir, más de cien veces la velocidad de la luz) sino que los protagonistas utilizan una nave de un diseño secreto que cubre esa distancia en un minuto y cuarto (unas 420 mil veces la velocidad de la luz), todo esto con motores que anulan la inercia y no usan masa de reacción, tecnología que en el mundo de Niven resulta avanzada pero no fantástica. (Niven también saca de la galera, sin justificativo científico alguno, materiales de fábula como el scrith, que tiene una resistencia a la tracción comparable a la fuerza nuclear fuerte, y unos metros del cual son capaces de bloquear el 40% de los neutrinos que choquen con él.)

Por contraste, Ursula K. LeGuin prefirió resignarse a que los protagonistas en su serie del Ekumene viajaran en animación suspendida en naves NAFAL (Nearly As Fast As Light, “casi tan rápidas como la luz”), lo cual le dio de paso algo de material para explorar los conflictos psicológicos y los efectos políticos de la dilatación temporal, de los viajes largos y de la imposibilidad de intercomunicar eficazmente una unión o confederación de mundos apartados. Roger Zelazny escribió un cuento, Este momento de la tormenta, en el que trata incidentalmente este asunto en su protagonista.

La dilatación temporal es también un punto de partida importante de la obra de Arthur C. Clarke, Voces de un mundo distante, en la cual se especula con una “energía del vacío”, extraída de la llamada “espuma cuántica”. Hoy en día esta energía (mal entendida, claro) es una de las preferidas de los pseudocientíficos. Clarke, de todas formas, se mantuvo también dentro de los límites de la ciencia ficción dura: ninguna de sus naves iba más rápido que la luz. Incluso imaginó (y es otro punto clave del argumento de su novela) cómo podía protegerse una nave espacial de la abrasión producida por las partículas con las que se encuentra. (En el espacio hay átomos y iones sueltos de hidrógeno, y da lo mismo si chocan contra una nave o la nave choca contra ellos: el efecto, al acercarse a la velocidad de la luz, es el de un feroz bombardeo de rayos cósmicos.)

Específicamente sobre el tema del incremento de masa relativista escribió Donald Wandrei su cuento Coloso, dándole una vuelta que en su época (1934) quizá no haya parecido tan absurda como hoy sabemos que es: un viajero del espacio acelera su nave hasta cerca de la velocidad de la luz pero ésta, en vez de hacerse más masiva, se expande, hasta que se vuelve más grande que el universo, el cual resulta ser un átomo dentro de un universo más grande (esta idea, derivada de la visión anticuada del átomo como una versión miniatura de un sistema solar, se repite en varias narraciones de ficción de la misma época).

Como se ve en este brevísimo y necesariamente muy parcial repaso, la literatura de ficción ha tratado de buscar formas de viajar plausiblemente a distancias interestelares, siguiendo —a veces— los últimos hallazgos disponibles de la ciencia, pero por el momento todas estas ideas siguen siendo impracticables, cuando no ridículas.

A los escépticos suelen criticarnos por encerrarnos en el empirismo estricto o en la ortodoxia. Se nos pregunta, retóricamente: ¿la teoría de la relatividad es dogma? ¿No puede ser que Einstein estuviera equivocado, que fuera posible acelerar por sobre la velocidad de la luz o hacer que un cuerpo pierda su inercia? ¿Por qué los extraterrestres, adelantados miles o millones de años en tecnología, no podrían haber descubierto una manera?

Estas preguntas son válidas pero están planteadas desde una postura imaginativa, no científica. Sí, es posible que nos equivoquemos (sin más, la relatividad apenas tiene un siglo de existencia). Pero si somos honestos, debemos pensar en términos de lo que ya sabemos. Hay personas que reestructuran su vida en torno a la creencia de que los extraterrestres nos visitan. Hay personas que ganan mucho dinero vendiendo esta creencia. Hay muchas personas dispuestas a hacer el ridículo defendiendo esta creencia… y sólo porque no saben, o no quieren aceptar, que las probabilidades de que estar en lo cierto son pequeñísimas. Uno no puede plantear como cierto algo que sólo es apenas marginalmente posible: quizá ésta sea la mejor definición de la honestidad intelectual del escéptico.

Página 1 de 212