30abr/153

La 440 Hz: La frecuencia Goebbels

3 Comentarios    

Publicado por:Gustavo Garay y Elio Campitelli.

Etiquetado con: , , ,

Existe una teoría conspirativa bastante perpetuada en internet, la cual afirma que el ministro de propaganda nazi Joseph Goebels impulsó la estandarización universal de la afinación musical en La=440 Hz. La afirmación es que, previo a este supuesto hecho, la afinación era La=432 Hz la cual:

Vibra en los principios de la media de oro PHI y unifica las propiedades de la luz, tiempo, espacio, materia, gravedad y el magnetismo con la biología, el código del ADN y la conciencia. La afinación natural a 432 Hz tiene efectos profundos en la consciencia y también en el nivel celular de nuestro cuerpo.

Por lo tanto, el malvado ministro de propaganda nazi nos ha prohibido disfrutar de los beneficios inconmensurables de escuchar música afinada con patrón La=432 Hz.

goebbelsIlustración:  Matt Suarez Holze

¿Qué es el La=440Hz?

El oído humano es capaz de percibir frecuencias sonoras que vibran entre 20 y 20.000 veces por segundo (el Herz o Hz) . Este espectro audible lo dividimos en 10 secciones llamadas octavas. La octava es el intervalo entre dos sonidos de tal manera que uno tiene el doble de frecuencia que el otro y que corresponde a las doce notas de una escala musical cromática.

Esta definición de las octavas es relativa, por lo que para que distintos instrumentos sean compatibles, tienen que afinarse teniendo en cuenta una nota de referencia. Históricamente se ha utilizado la nota musical “LA” de la tercera octava. Y afinar a “La=440 Hz” significa que esa nota vibra 440 ciclos por segundo, produciendo un sonido determinado y consistente entre instrumentos.

Si bien el La=440 Hz es la afinación más usada actualmente, esto no es más que una convención. No sólo no tiene por qué ser así ahora, sino que a lo largo de la historia, la frecuencia de referencia fue increíblemente variada.

Antes del siglo XX, la afinación era increíblemente errática. Se cree que los primeros órganos en la Alemania medieval tenían afinaciones que podían llegar al La=567 Hz mientras que a principios del 1500, en ese mismo país estos instrumentos estaban afinados a un La=377 Hz. No había ningún estándar y tanto compositores como músicos tenían que adaptarse a las afinaciones de cada lugar.

Durante el siglo XVIII la afinación solía ser bastante grave para estándares actuales.  Se conserva un  diapasón de horquilla (que no se desafina con el paso del tiempo) inglés de 1720 que afinaba el LA en 380 Hz. Mientras que Bach, el padre de la música, tenía sus órganos afinados en 480 Hz, una diferencia de 4 semitonos en la misma época. Se ha encontrado también un diapasón de Händel del año 1740 afinado en 422,5 Hz, mientras que uno de 1780 estaba afinado en 409 Hz. Mozart, por su parte, favorecía la afinación en 422 Hz.

Pero esta costumbre cambió bastante y el siglo XIX experimentó una clara tendencia alcista en la afinación. Esto se debía a nuevas técnicas de fabricación de instrumentos y, principalmente, a salones de conciertos cada vez más grandes que podían sostener sonidos más agudos y brillantes. Las orquestas competían entre ellas para lograr el sonido más brillante y esta carrera armamentista se evidencia en los diapasones que se conservan de la época. Uno de 1815 del Semperoper da un La=423,2 Hz, mientras que uno de once años después producía 435 Hz. Se conserva un diapasón en el teatro La Scala de Milán que produce un La de 451 Hz.

Esta tendencia a notas cada vez más agudas era producto de críticas principalmente por parte de los cantantes que se debían esforzar y podrían dañar su voz. Entonces el gobierno francés dictó una ley el 16 de febrero de 1859 en el que establecía el La=435 Hz.

El camino al 440

Aparentemente el estándar de La=440 Hz parece haber surgido de un malentendido. En 1896, La Sociedad Filarmónica de Londres decidió adoptar el estándar francés pero erróneamente interpretó que el La=435 Hz se refería a la frecuencia del instrumento a una temperatura de 15°C que, a la temperatura normal de 20°C se transforma en La=439 Hz por la diferencia en la densidad del aire.

Pero el estándar que conocemos actualmente no se logró hasta los ‘40. Gracias a la radio, el público era expuesto simultáneamente a muy diversas grabaciones y la industria de la radiodifusión entonces hizo esfuerzos para conseguir una verdadera estandarización. Éstos fueron exitosos en 1939 cuando en una conferencia internacional en Londres, se estableció el La=440 Hz como el estándar internacional y la BBC comenzó a transmitir en esa afinación. Un número que probablemente sea un punto medio entre la tendencia alcista del momento y los usos de siglos pasados, pero sospechosamente cerca del dudoso 440 de la Sociedad Filarmónica.

Aún hoy en día no se tiene la garantía de escuchar un espectáculo musical y que se encuentre afinado en 440 Hz.  Muchas orquestas eligen tocar la obra con la afinación con la que la tocaba el compositor (en los casos en los que esta información se tiene) mientras que otras afinan tomando como patrón el “La” del oboísta principal solista, o de acuerdo al órgano que se encuentra en el lugar. Ya que, mientras que todos los músicos utilicen el mismo patrón, no interesa cual sea el elegido, la música sonara afinada y hermosa, debido a que ésto tiene más que ver con intervalos de sonidos, que con patrones iniciales de afinación. Por lo tanto, resulta más práctico afinar la orquesta tomando como referencia el instrumento más difícil de afinar.

Conclusión

La afinación a lo largo de la historia nunca fue 432, más bien fue casi cualquier número entre 400 y 480. Los patrones de afinación dependían de muchos factores: las voces de los cantantes, las cuerdas volátiles de los primeros violines, la difícil afinación de los órganos (que requieren que se les corte los tubos), etc.

Actualmente los pianos o los oboístas solistas son los que dictan la afinación. Por lo tanto vemos que el esfuerzo de estandarizar una afinación universal no tuvo nada que ver con Goebels, quien debería haber viajado al pasado y haber colocado con malicia todos los diapasones en 432 Hz, para luego hacer su maldad de estandarizar a 440Hz y así arruinar nuestras mentes hasta el día de hoy a través de los sonidos impuros. Sino que fue un gran avance para la música, sobre todo para la construcción de instrumentos.

Este “La a 440hz” pudo haber sido cualquier otro número, no hay nada especial en él . De hecho, muchas orquestas, sobre todo europeas, siguen afinando en otros patrones sin ningún tipo de inconveniente. Es solo un estándar, no es una obligación ni una ley, por lo tanto, si te gusta el La=432 Hz o cualquier otro número, no hay ningún problema, sólo se debe tener la decencia de avisarle al resto de los músicos que tocarán con uno.

También se hace la afirmación de que la música tocada a 430Hz es más placentera para el humano ya que “vibra como la naturaleza”. Esta afirmación es relativamente fácil de poner a prueba con doble ciego. Ya se hizo, y resulta que una afinación más aguda resulta menos agradable mientras que no hay cambio alguno para afinaciones más graves.

preference_graph1

Por último, podemos ver que muchas veces se adjunta a esta conspiración una imagen de la “geometría” que produce la vibración de 432 Hz que es hermosa y magnánima, comparada a la horrible y despreciable de 440 Hz. Bueno, en tal caso, los invito a ver como el La=440 Hz también produce hermosas formas geométricas en este genial video.

8abr/1521

El Glifosato contra la OMS

Hace unas semanas la Agencia Internacional para la Investigación del Cáncer (IARC por sus siglas en inglés), una agencia parte de la Organización Mundial de la Salud (OMS), tiró una bomba al anunciar que el glifosato entra en la Categoría 2A de su sistema de clasificación. Esto significa que el glifosato sería “probablemente cancerígeno”.

Glyphosate-2D-skeletal

Este anuncio obviamente fue celebrado y malinterpretado en igual medida por grupos anti-transgénicos, quienes vinculan al herbicida con el uso de Organismos Genéticamente Modificados. Estos grupos hace tiempo que tratan de vincular al glifosato con todo tipo de enfermedades y, a pesar de que el informe de la IARC sólo menciona que hay “evidencia limitada” que lo relaciona con el linfoma no-Hodgkin, fue recibido como la confirmación de todos sus miedos.

Por ahora no tenemos el documento con los detalles de la decisión de la IARC. Lo único que hay publicado es un brevísimo artículo en The Lancet que brinda poca o nada información. En particular, las citas a la literatura primaria brillan por su ausencia.

El artículo, por ejemplo, menciona los resultados de varios estudios en animales pero no cita a ninguno. Esto es altamente problemático porque no permite que uno evalúe si la evidencia presentada es suficiente para sustentar la afirmación. Las pocas citas que sí hay, por desgracia, no son prometedoras. En el texto del artículo se lee:

Un estudio reportó una tendencia positiva de hemangiosarcoma en ratones machos

Sin embargo, la literatura científica que citan es un documento de 2004 emitido en conjunto por la FAO y la OMS que era en sí mismo una revisión de la literatura. Sobre hemangiosarcoma y otras enfermedades, dice que:

Dada la falta de relación dosis-respuesta, la falta de significancia estadística y el hecho de que las incidencias registradas en este estudio están en el rango normal, no se considera que estos cambios hayan sido causados por la administración de glifosato. En conclusión, la administración de glifosato a ratones CD-1 durante 104 semanas no produjeron signos de potencial carginogénico a ninguna dosis.

En otras palabras, la IARC cita un reporte de la OMS que contradice la afirmación que quiere sustentar. Más aún, el reporte también concluye que

El potencial genotóxico del glifosato ha sido extensamente estudiado tanto in vitro como in vivo (...). En vista de la ausencia de potencial carcinogénico en animales y la falta de genotoxicidad en tests estandarizados, esta Reunión concluye que el es poco probable que el glifosato represente un riesgo carcinogénico a los humanos.

Sobre la exposición en humanos, el informe cita un estudio que supuestamente “reportó incrementos en los marcadores de daño cromosómico en residentes en muchas comunidades luego de rociar formulaciones con glifosato”. Sin embargo, el trabajo citado concluye:

Los datos sugieren que el daño genotóxico asociado con rociar glifosato para el control de plantas ilícitas es pequeño y parece ser transitorio.

Muchas de las otras afirmaciones sobre estudios en animales son imposibles de corroborar o analizar ya que no se dan referencias. Según Sí, Quiero Transgénicos y otras fuentes, hay rumores de que la IARC tuvo en consideración favorable el infame estudio de Seralini, que fue retractado por su mala ciencia y luego republicado por razones ideológicas sin cambio alguno. Esto es difícil de chequear sin un reporte completo y bien citado pero sería, en mi opinión, un golpe de gracia al violar la Regla Seralini: “Si citas el estudio de 2012 sobre las ratas alimentadas con maíz Roundup Ready, simplemente pierdes el debate”.

En el informe presente también brillan por su ausencia múltiples estudios que concluyen que el glifosato es seguro. En 2012 una revisión sistemática de la literatura había concluido que no hay “un patrón de asociación positivo indicando una relación causal entre incidencia total de cáncer ni ningún cáncer específico y la exposición al glifosato”. Este año, se publicó una revisión de estudios en animales que concluyó que “no hay evidencia de un efecto carcinogénico relacionado con el glifosato”.

Múltiples agencias reguladoras también contradicen las conclusiones del IARC. La Agencia de Protección Ambiental (EPA) de EE.UU. clasifica al glifosato en el Grupo E, que significa que no es carcinogénico en humanos. El Instituto Federal de Evaluación de Riesgo (BfR) de Alemania, por su parte, recientemente terminó el borrador de la re-evaluación del glifosato que concluye que “los datos disponibles no muestran propiedades carcinogénicas o mutagénicas del glifosato”.

El BfR emitió un comunicado sobre el anuncio de la OMS en donde afirman que “para la evaluación toxicológica de una sustancia se deben tener en cuenta todos los datos y no sólo una selección más o menos arbitraria de estudios”. Además reitera que el informe del Instituto, basado en más de 30 estudios epidemiológicos y miles de estudios en animales, concluye que no hay una relación significativa entre glifosato y cáncer.

Pero aún si tomáramos el anuncio de la IARC como válido, la realidad está lejos de los titulares tremebundos y los anuncios de validación por parte de grupos anti-transgénicos.

La IARC concluye que existe evidencia limitada en humanos que coloca el uso del glifosato como un factor de riesgo para el Linfoma No-Hodgkins. “Evidencia limitada” no es una caracterización muy impactante ni algo que parezca tan definitivo.

Y es que poner al glifosato en la categoría A2 no dice que realmente sea peligroso. La lista de cosas en la A2 es larga e incluye al mate caliente, las emisiones de frituras a alta temperatura, el trabajo por turnos y ser peluquero. Que sea “probable” sea cancerígeno no dice nada sobre en qué dosis o forma utilización. La evidencia en humanos evaluada por la IARC es de trabajadores del campo, que son quienes tienen mayor contacto y, por lo tanto, mayores riesgos. En palabras de Kate Guyton, de la IARC, “es su uso en agricultura el que tiene el mayor impacto; por el momento, es sólo algo de lo que que las personas deberían estar conscientes”.

En resumen, el informe de la IARC es casi imposible de evaluar y habrá que esperar a la reacción de la comunidad científica. Por el momento, sus conclusiones se contradicen con las de otras agencias reguladoras y no indican que el herbicida sea particularmente peligroso o sea responsable de malformaciones y otras vejaciones.

Finalmente, es interesante recordar la posición de la OMS sobre el uso y consumo de alimentos transgénicos:

No es probable que los alimentos genéticamente modificados actualmente disponibles en el mercado internacional presenten un riesgo para la salud humana. No se observó ningún efecto en la salud humana como resultado del consumo de estos alimentos por la población general en países donde fueron aprobados.

Si la OMS lo dice, debe ser verdad, ¿no?

18mar/15Off

Homeópatas reconocen su dudosa evidencia

Hace pocos días, el Consejo de Salud e Investigación Médica de Australia, publicó una revisión de la evidencia científica sobre la homeopatía. Como era de esperar, concluía lo mismo que casi todas las demás revisiones: no hay evidencia de que la homeopatía funcione.

Ya deberíamos estar acostumbrados a esto. La evidencia científica no cambia según quién la lea, y revisión tras revisión se llega a la misma conclusión. La homeopatía —que consiste en tratar de curar un síntoma, tomando elementos que lo produzcan pero diluidos hasta la inexistencia—no sirve para nada ni puede servir para nada, a excepción de engordar las cuentas bancarias de quienes la venden.

No hay nada nuevo ni controversial en esto, a pesar de que el diario Clarín intente sembrar “polémica” con su bajada. Lo que es interesante es la reacción de los homeópatas que, a pesar de que tampoco es sorprendente, no deja de ser instructiva.

La respuesta local

El artículo de Clarín, por ejemplo, cita a varios médicos homeópatas intentando desesperadamente defender su profesión. Es difícil saber si es debido a la edición de la autora o por propia falta de los homeópatas, pero en ningún momento éstos hablan de evidencia o ciencia. De hecho, la nota abre de la manera más inepta posible:

Gustavo Cataldi terminó con honores la carrera de Medicina y fue, durante 17 años, jefe de Terapia intensiva del Hospital Churruca. Un día se contagió sarna de un paciente y un colega, también médico, le sugirió que tomara homeopatía. Cataldi pensó que era una burla pero se terminó curando con esos glóbulos y, poco tiempo después, decidió estudiar y ser, también, médico homeópata. Su historia es sólo una foto de una película mucho más amplia: mientras un nuevo informe internacional sostiene que la homeopatía “no sirve” para curar enfermedades, en Argentina cada vez más médicos la avalan

Es extremadamente notorio que la “conversión” del Sr. Cataldi involucre una experiencia personal. Cataldi comenzó a practicar la homeopatía, no producto de una lectura objetiva de la literatura científica, sino porque a él "le funcionó". Un médico supuestamente es una persona que se entrega a una práctica científica. Como tal, debe valorar la evidencia por sobre todas las cosas. Sin embargo, Cataldi fue engañado por uno de los sesgos más burdos: correlación no implica causa. Yo si fuera su paciente, huiría despavorido a toda velocidad.

Y si bien hay mucho hablar de “paradigmas” y la usual falsedad de que la medicina sólo trata los síntomas, lo que falta por completo en el artículo es hablar de qué es lo que dice la evidencia científica. Y ésta es clara: no hay evidencia de que la homeopatía funcione.

En el ojo de la tormenta

Pero mientras que en Argentina la repercusión de la noticia llegó bien diluida, en el epicentro el debate está más caliente. Tal es así que la Asociación Homeopática Australiana (AHA) emitió una respuesta más que interesante:

… no hay evidencia suficiente en investigación en humanos para establecer si la homeopatía es efectiva o no para tratar la mayoría de las enfermedades consideradas.

Sí. La Asociación Homeopática de Australia admite que no existe buena evidencia para determinar si la homeopatía es efectiva o no.

Su principal problema es que el reporte es “difícil de entender” y proponen cambiar algunas palabras para que, según ellos, sus conclusiones se apeguen más a la evidencia.

Si uno se pregunta cómo es que la AHA continúa promoviendo la homeopatía si no hay buena evidencia de efectividad, puede seguir leyendo su documento. La respuesta es que ellos aceptan la evidencia de baja calidad como suficiente para promover la homeopatía.

A pesar de que seguramente critiquen a las grandes farmacéuticas por sus continuos intentos de distorsionar la ciencia para vender sus productos, la AHA está perfectamente feliz de promover remedios cuya evidencia proviene de pequeñísimos estudios que no fueron replicados. Por ejemplo, toman como válido un meta-análisis (un estudio de estudios) que analiza datos de sólo 3 estudios con menos de 150 participantes cada uno y que fueron realizados por el mismo autor del meta-análisis. Osea, la opinión de un tipo sobre su propio pésimo trabajo.

La revisión del Consejo de Salud desestimó automáticamente estudios de menos de 150 sujetos por ser poco confiables. Sin embargo, en su respuesta, la AHA critica esta este criterio y propone uno que parece sacado del mundo bizarro: desestimar los estudios pequeños negativos pero aceptar los estudios pequeños positivos. Según dicen:

… si se detecta un efecto clínico en un ensayo pequeño con resultados estadísticamente significativos, esto es más impresionante [que un efecto positivo en un estudio grande].

Esto está mal en múltiples niveles. Es falso ya que los estudios pequeños y preliminares en general están sesgados a favor de encontrar un efecto (ver, por ejemplo el decline effect). Además un criterio de este tipo sería advocar explícitamente a favor del sesgo de publicación, del que tanto se aprovechan las grandes farmacéuticas. Publicar los resultados positivos con todas las fanfarrias y ocultar los negativos debajo de la alfombra.

Pero demostrando que continúan con los pies bien firmes sobre un planeta cuadrado, esto es lo que afirman sobre todos estos estudios positivos de mala calidad:

Para algunas enfermedades, algunos estudios reportaron que algunos tratamientos eran más efectivos que el placebo. Éstos deben ser confirmados por otros estudios grandes y bien diseñados antes de considerarse el uso masivo de el tratamiento estudiado.

Nuevamente, la Asociación Homeopatía Australiana está diciendo que no hay evidencia suficiente para recomendar el uso de tratamientos homeopáticos. ¿Por qué entonces los sigue recomendando?

Las propuestas de la Asociación Homeopática Australiana demuestran mejor que nadie el tipo de pseudociencia que es la homeopatía. Su respuesta al informe del Consejo de Salud e Investigación Médica, demuestra más un profundo desinterés por sus pacientes y un intento de aferrarse a una lógica retorcida, más que un verdadero entendimiento de la ciencia.

Recordemos que en nuestro país la homeopatía se vende tranquilamente en farmacias bajo el disfraz de “recetas magistrales”. El organismo que no debería permitir que esto suceda, la ANMAT, voluntáriamente le da rienda suelta esta pseudomedicina. Esperemos que en algún momento se despierte de su sueño y diga las cosas como son.

16ene/15Off

No duermo… el glifosato me come

piojoIlustración:  Matt Suarez Holze

Parece imposible tener una discusión sobre los Organismos Genéticamente Modificados (OGM) sin que surja el tema del glifosato. A pesar de que el uso o no de plantas transgénicas es independiente del uso o no de pesticidas, la retórica anti-transgénica suele unirlo todo. De esta forma, aún cuando queda establecido que los OGM no son dañinos y que no hay razón para tenerles más miedo que a cualquier otra variedad tradicional, se puede mover el poste y cambiar el eje de la discusión.

En particular, el hombre de la bolsa de los movimientos anti-transgénicos es el glifosato, quizás porque encaja en su narrativa que pone a Monsanto en el centro del eje del mal. Como tantas otras campañas anti-ciencia, el movimiento anti-transgénicos se aferra a un relato claro y conciso, con un villano bien pero bien malo al estilo película de Disney. Demonizar a una persona u organización es muy tentador porque nos hace creer que las cosas son más simples de lo que son en realidad; permite que nos veamos como como héroes de luz dentro de nuestra propia historia.

Pero el globo se pincha apenas uno empieza a indagar un poco. No sólo son falsos muchos mitos alrededor de Monsanto sino que tampoco las creencias populares sobre el glifosato resisten un análisis crítico. Para empezar, la patente del glifosato expiró hace unos 15 años y hace rato que no es monopolio de El Malvado. El malo de la película apenas tiene control sobre el producto.

También hay un problema histórico: el glifosato apareció en el mercado en 1974, mientras que las primeras variedades resistentes se comenzaron a vender recién luego de 1996. El glifosato fue usado durante 20 años antes de la aparición de los transgénicos con resistencia.

Los mata bien muertos

Pero estamos bailando alrededor de la cuestión principal. La objeción más importante sobre el glifosato es que es perjudicial para la salud. Y lejos de ser mentira, es completamente cierto.

El glifosato es un producto tóxico que se usa para matar plantas y no es raro que sea tóxico. Según la clasificación de la Agencia de Protección Ambiental de EE.UU. (EPA), el glifosato está en la categoría 3 de una escala que va del 1 (más tóxico) al 4 (menos tóxico).

En ratas, la LD50 (la dosis que mata a la mitad de los individuos que la consumen) es de unos 5,6 g/kg, mientras que en cabras, conejos y ratones es mayor a 10 g/kg. En comparación, la cafeína tiene una LD50 de sólo 0,2 g/kg. Hay que tomar 30 veces más glifosato que cafeína para tener la misma probabilidad de morir. El insecticida hogareño tiene una toxicidad similar. Irónicamente, los agricultores orgánicos tienen permitido usar nicotina, cuya LD50 es de 0.001 g/kg, lo que significa que es 10.000 veces más tóxica que el glifosato.

Estudios sobre ingesta de grandes cantidades de glifosato (mayormente intentos de suicidio) muestran que la tasa de mortalidad es algo menor que un 10%. En un estudio observacional, un cuarto de los que ingirieron glifosato no presentaron síntomas y dos sextos sólo tuvieron síntomas leves. Y en otro estudio similar que comparó pesticidas muy diversos, se puede ver que el glifosato está lejos de ser el pesticida más tóxico en la actualidad.

journal.pmed.1000357.g001

En resumen, es cierto que el glifosato es tóxico y puede matar, pero esto no es raro ya que esa es su función. Es un herbicida y, como tal, debe ser tratado con los recaudos necesarios. Particular cuidado deben tener los técnicos y aplicadores, quienes mantienen un contacto cotidiano con el producto en estado puro, sin diluir.

Pero, crucialmente, el glifosato está lejos de ser el pesticida más tóxico utilizado actualmente. ¿Por qué hay tanto revuelo en contra del glifosato y poco se dice, por ejemplo, sobre el paraquat que, como se ve en la tabla mata casi a la mitad de las personas que se intoxican?

Crónica de glifosato

Esto es relevante para la ingesta aguda, pero ¿qué hay de la exposición crónica? A pesar del mito popular, la evidencia hasta ahora indica que el glifosato no produce cáncer. Una revisión de la literatura científica de 2012 concluyó que no hay “un patrón de asociación positivo indicando una relación causal entre incidencia total de cáncer ni ningún cáncer específico y la exposición al glifosato”. Por su parte, la EPA clasifica al glifosato dentro del grupo E, que significa que hay evidencia de que no produce cáncer en base a estudios con animales.

Y antes de que alguien salga a decir que la evidencia no es válida porque el estudio fue financiado por la malvada Monsanto, los datos originales provienen, en gran parte, de un estudio enorme denominado Estudio de Salud Agrícola (ESA) realizado por organizaciones estatales como la EPA o el Instituto Nacional del Cáncer. Un estudio publicado específicamente sobre cáncer y glifosato sólo encontró una débil asociación con mieloma múltiple.

Una revisión de las publicaciones usando esa base de datos no encontró ninguna asociación entre la exposición al glifosato y el cáncer aunque sí encontró asociación en 12 de los 32 pesticidas analizados. Todas las publicaciones relacionadas con la misma están listadas en la página del ESA.

De forma similar, otra revisión concluyó que no había un patrón consistente de enfermedades no cancerosas asociadas con el glifosato. Irónicamente, un estudio usando los datos del ESA encontró que tanto el paraquat como el glifosato estaban relacionados con menores síntomas de asma (que los autores hipotetizan que se debe a que quienes sufren de asma reducen su exposición a esos pesticidas).

Eso quiere decir que no hay base científica para vincular el uso de glifosato a supuestos aumentos de cáncer y otras enfermedades en distintos pueblos del país. Si los aumentos son reales, entonces es debido hacer investigaciones serias y rigurosas para identificar la causa (o causas). Culpar inmediatamente al glifosato es anti-científico y potencialmente muy peligroso, ya que puede significar gastar tiempo y recursos en atacar una supuesta causa que al final no es tal.

¿Significa esto que el glifosato es completamente seguro y sin efectos a largo plazo? No, por supuesto que no. Sus efectos deben ser monitoreados constantemente. Tampoco significa que deba ser rociado indiscriminadamente en cualquier contexto y sin tener precauciones para reducir la exposición de la población. En todo esto no es distinto que cualquier pesticida (sintético u orgánico) ni ningún otro producto químico tóxico.

Habiendo tantos pesticidas más tóxicos y con más problemas, ¿por qué el glifosato es el hombre de la bolsa de nuestra sociedad?

7ene/15Off

La importancia de no respetar las ideas

3 Comentarios    

Publicado por:Elio Campitelli.

Etiquetado con: ,

La violencia es el ultimo recurso del incompetente
Salvor Hardin
Primer Alcalde de la Ciudad de Términus

Hoy a las 11:30, hora local, un brutal atentado a la revista francesa Charlie Hebdo dejó al menos 12 muertes y 10 heridos. Los atacantes se identificaron como miembros de Al Qaeda y parecen haber sido motivados por la continua caricaturización del profeta Mahoma por parte del semanario.

El Círculo Escéptico Argentino desde su fundación decidió limitar sus temas al escepticismo científico y dejar, aunque es una realidad que la mayoría de los miembros y seguidores son ateos o no-creyentes de algún tipo, la crítica religiosa en manos de otras agrupaciones. En ese sentido, lo que pasó en Francia no entra dentro de nuestra esfera de incumbencia.

Sin embargo, hay una importante intersección entre este hecho y la práctica habitual de la ciencia. Tanto en los debates sociales como en los científicos hay una máxima que debe ser respetada: el libre intercambio de ideas. La supresión forzada de las ideas es algo completamente inaceptable.

El diálogo abierto es una condición casi indispensable para la práctica científica y el pensamiento crítico. La exposición a ideas distintas a las nuestras es la única forma de reducir nuestros propios sesgos y evitar crearse una cámara de eco en donde todos están de acuerdo y no hay ímpetu para avanzar en el conocimiento.

En mi caso personal, yo considero que mi exposición a las pseudociencias fue, es y será fundamental para mi aprendizaje de la ciencia:

[G]racias a la homeopatía, acupuntura y otras pseudomedicinas aprendí lo que es un ensayo clínico doble ciego con control de placebo. También fue gracias a ellas me curtí en mis primeras lecturas de papers científicos, aprendí a buscarlos y lograr pasar las barreras de pago. También entendí la estructura del efecto placebo con mucha más profundidad de lo que hubiera pensado. Conceptos como regresión a la media, sesgos experimentales ahora son parte de mi lenguaje cotidiano.

Pero esta no es la actitud que tienen quienes valoran más sus propias creencias que el proceso que los llevó a ellas (lo importante es el camino). Ellos van a tomar cualquier medida con tal de que sus creencias no sean desafiadas por nadie que no las comparta. El caso de los asesinos franceses es extremo, claro está, pero anteriormente el mismo semanario había sido objeto de una demanda por parte de la Gran Mesquita de París y la Unión de Organizaciones Islámica de Francia.

Los defensores de pseudociencias y pseudomedicinas también tienen un largo historial de ejercitar el músculo legal para silenciar a sus críticos en vez del músculo cerebral para refutarlos. En todos esos casos, cabe recordar las palabras citadas al inicio del post.

En este mismo blog hablamos de las amenazas legales de Burzynski y de Boiron en contra de bloggers independientes. Ambos casos no llegaron a nada y, por suerte, no lograron más que hacerlos quedar mal.

A la Asociación Británica de Quiropráctica (BCA) no le bastó sólo con amenazar y efectivamente demandó a Simon Singh, quien los había criticado por “promover alegremente tratamientos falsos”. Aunque la BCA perdió el caso miserablemente y la demanda inspiró un movimiento para modificar las leyes de difamación inglesas, los costos monetarios y de tiempos fueron enormes para Singh.

Actualmente Steven Novella está en el medio de una situación similar. Tanto él como la Sociedad para la Medicina Basada en Ciencia actualmente están siendo demandados por el Dr. Edward Tobinick. Se trata de un médico que promueve un tratamiento sin evidencia comprobada y que en su demanda califica a sus críticos como “competidores comerciales” y a los artículos publicados por Novella como “publicidad”. De esta manera logra saltearse las protecciones a la libertad de expresión que existen en EE.UU.

Otro caso reciente fue el de la compañía CrossFit, que inició una demanda contra científicos que publicaron un paper científico crítico sobre su régimen de ejercicios. En vez de contraatacar en la literatura científica, la empresa inició acciones legales acusando de falsear datos.

Algunos van más allá de amenazas legales y realizan amenazas físicas. Mike Adams es el dueño de NaturalNews, un sitio que promueve nociones de pseudomedicina y conspiraciones. Recientemente publicó una nota en la cual acusó a los defensores de los transgénicos de “promover un genocidio”, los comparó con los colaboracionistas nazis y parafraseó al gobierno alemán diciendo que “planear y realizar la matanza de quienes participan en crímenes atroces contra la humanidad” es una obligación moral. En la misma nota que realizó esa apelación a la persecución y asesinato, publicó una lista de los “colaboradores de Monsanto” que él mismo había hecho.

En otras palabras, lo que hizo Mike Adams fue un llamado a la violencia junto con un listado de nombres.

Peor es la situación de Sanal Edamaruku. El escéptico indio, famoso por retar a un gurú tántrico a que lo matara usando sólo magia (obviamente sin éxito alguno), ahora está autoexiliado en Finlandia luego de recibir amenazas de muerte directas y demandas judiciales por parte de grupos católicos por haber refutado un supuesto milagro de una estatua sangrante.

Un colega de Edamaruku, Narenda Dabhollkar, por su parte, no tuvo tanta suerte. Luego de acumular una larga lista de enemigos y amenazas de muerte en su vida de activista racionalista, fue asesinado en agosto de 2013.

La lista podría seguir y abarca un gran abanico de acciones. Desde amenazas vacías hasta asesinatos y masacres, todos son casos más o menos extremos de intentos de suprimir las críticas y callar la disidencia de parte del incompetente.

13nov/14Off

Transgénicos: Más, mejor y más barato

Durante miles de años el hombre modificó su entorno. Al igual que cualquier otro ser vivo, nuestra existencia creó presiones que modificaron los animales y plantas que nos rodean. Ya sea por domesticación intencional o por influencias accidentales, los seres vivos de este planeta tienen nuestra marca en su ADN así como nuestro código genético también está influenciado por nuestro hábitat.

Sin embargo, con el tiempo fuimos aprendiendo a controlar esa influencia. Seleccionando las variedades más convenientes de plantas o animales, su evolución quedó en nuestras manos para bien o para mal. ¿Habrá habido movimientos en contra de la selección artificial en ese entonces? Me imagino agrupaciones en contra de que el hombre decidiera qué tipo de maíz plantar, alegando los inherentes peligros de la modificación genética de nuestros alimentos.

Hace algunas décadas, a nuestro armamento dedicado a la modificación genética se le agregaron técnicas que nos permiten intercambiar genes de una especie a otra. Es sólo una nueva herramienta pero, quizás como en épocas anteriores, existen grupos que se oponen a su uso.

Además de los argumentos basados en su supuesta inseguridad y daños a la salud (potenciales o reales), una de las bases del movimiento anti-transgénicos es que los productos de esta tecnología no son ventajosos. Algunos dicen que en realidad no son más productivos, o que incentivan el uso de pesticidas y prácticas dañinas. Incluso algunos argumentan que como las semillas transgénicas son más caras, al final los agricultores no ven aumento en sus ganancias.

Estas afirmaciones pueden ponerse a prueba y un meta-análisis (un estudio de estudios) recientemente publicado en PLoS ONE sintetiza la información disponible. Usando datos de 147 estudios, tanto de la literatura científica (que pasaron por el brutal proceso de revisión por pares) como la “literatura gris” (artículos de conferencias y reportes institucionales) los autores buscaron compilaron el efecto promedio de los organismos genéticamente modificados en términos de producción, uso y costo de pesticidas, costo total de la producción y ganancia para el agricultor.

El resultado es que los OGM, en promedio, dan más producción y más ganancia para los agricultores, al mismo tiempo que disminuye el uso y costo de pesticidas. Harder, better, faster, stronger.

image

Esto obviamente es un promedio y cada planta genéticamente modificada debe analizarse caso por caso. Por ejemplo, un gran grupo de organismos están modificados para producir su propio insecticida y, como pueden luchar sus propias batallas, necesitan un 40% menos de pesticida. Por otro lado, las plantas resistentes a los herbicidas (como la soja resistente al glifosato) no requieren menos pesticidas ya que no están diseñadas para eso. Sin embargo, el costo de los pesticidas es menor (un 25%). Esto puede ser que explique por qué algunos estudios no encuentran disminución del uso de pesticidas (o incluso aumento) por los transgénicos.

Es interesante que los (sustantivos) aumentos de las ganancias de los agricultores sean significativamente mayores en países en vías de desarrollo. Y, aunque parezca extraño, según los autores los estudios financiados por la industria no tienden a inflar los resultados.

Esto último es difícil de creer, pero es confirmado en cierta medida por un estudio publicado en 2011 que concluyó que la fuente de financiación no está relacionada con resultados favorables. Sin embargo, lo que sí está asociado con resutlados favorables es la afiliación de los autores con la industria, algo que este metaanálisis en particular no investigó.

De todas formas, aún considerando sólo los estudios sin conflictos de intereses, casi el 80% publicó resultados positivos.

Viendo este tipo de evidencia y dada la completa falta de estudios que demuestren daños a la salud, ¿cómo se puede negar que los transgénicos están en el futuro de la alimentación? La modificación genética está en el pasado, el presente y va a estar en el futuro, pero las técnicas han evolucionado. Podemos seleccionar genes específicos de funcionamiento conocido e insertarlo en las plantas para crear nuevas variedades. Es hora de dejar de irradiar semillas con material radiactivo para generar mutaciones a lo pavote.

Hay que cambiar la piedra filosa por el bisturí.

4nov/14Off

Este post va a hacer que te rasques

piojoIlustración:  Matt Suarez Holze

Muchos de mis compañeros de trabajo creen en la homeopatía y tienen ideas muy elaboradas de cuánto hay que tomar de qué tintura y con cuánta dinamización. El otro día dos de ellos estaban charlando y la mujer (que llamaremos Graciela) dijo algo que me llamó la atención.

Ella comentó que siempre antes de tomar un remedio homeopático pone una cucharadita del remedio en un vaso de agua, “la dinamiza un poco”, agarra una cucharadita de esa dilución y repite el proceso un par de veces antes de tomarlo. Pero luego dijo, asombrada, que la hija de un conocido se pone gotitas del remedio directamente en la boca. Algo que, dice ella, “la haría pelota”. “Es increíble cómo cambia según el cuerpo de cada uno”, terminó.

Lo que es increíble es escuchar una discusión sobre la diferencia entre tomar agua directamente o tomar agua previamente diluía en agua. (Dejemos de lado que según los principios de la homeopatía la dilución extra debería potenciar el preparado haciendo que pegue aún más duro).

Pero más interesante es que yo le creo. Estoy seguro que si ella tomara el remedio homeopático sin diluir le ‘pegaría duro’, por decirlo de alguna forma. Pero no tiene nada que ver con el cuerpo de cada uno o, mejor dicho, sólo tiene que ver con una parte específica del cuerpo: la cabeza.

Así como las personas se pueden emborrachar tomando agua tónica siempre que crean que tiene vodka, no tengo la menor duda de que si Graciela tomara 10 gotitas de agua bajo la lengua creyendo que es un remedio homeopático “puro” sufriría efectos adversos.

Esto es lo que se llama “efecto nocebo”, que vendría a ser el lado oscuro del efecto placebo. Si el efecto placebo es la pluma que le daba confianza a Dumbo para poder volar, el efecto nocebo es el pelotudo que dice que las mujeres son malas en matemática, afectando su rendimiento en esta materia (y sí, tiene espada láser color roja y la cara desfigurada).

NOCEBO

El efecto nocebo está ampliamente documentado aunque, por desgracia, no tan estudiado como su contraparte del lado luminoso de la fuerza.

Por ejemplo, en ensayos clínicos los sujetos muestran más probabilidad de sufrir efectos secundarios de una medicación si el médico hace mucho hincapié en ellos. Los efectos secundarios afectan incluso a los sujetos en el grupo control que sólo reciben una píldora inocua.; hasta un 10% de los individuos en el grupo control deciden dejar el tratamiento a causa de efectos secundarios. En un ensayo un 80% del grupo control reportó sufrir insomnio, a pesar de no estar recibiendo el tratamiento.

Estúpidos sujetos experimentales, ¿no? No; esto nos pasa a todos y es menos esotérico de lo que parece. Me arriesgo a pensar que cualquiera sentiría náuseas y vómito si le dicen que un delicioso jugo de manzana que acaba de tomar era en realidad pis de elefante aún si fuera mentira (salvo a quién le guste el pis de elefante; en ese caso, las náuseas serán si se le dice que la deliciosa orina en realidad era jugo de manzana).

O sino, ¿te diste cuenta que cuando alguien habla sobre piojos, te empieza a picar la cabeza? ¿Y te diste cuenta que ahora mismo te estás rascando la cabeza?

Otro caso en el que el efecto nocebo aplica y tiene un fuerte efecto negativo sobre las personas es en el caso de la Sensitividad Química Múltiple. Las personas que sufren SQM sienten que son alérgicas a una multitud de químicos aún en muy bajas concentraciones. En algunos casos severos, las personas se desmayan con solo estar cerca una lata (hermética) que contenga un químico al que supuestamente son sensibles. Sin embargo, varios estudios encuentran que la exposición a los químicos no produce reacción alguna mientras la persona no sepa de qué químico se trate.

De la misma forma, tampoco los que sufren de Hipersensibiliad electromagnética. Personas que tienen síntomas que afectan negativamente su vida cuando creen estar expuestos a campos electromagnéticos aún muy por debajo de los límites permitidos. Sin embargo, este también es un caso de efecto nocebo ya que los estudios realizados hasta la fecha encuentran que los pacientes sólo presentan síntomas cuando creen que hay un campo electromagnético y no puede detectar la existencia de uno si no lo saben de antemano.

Pero que el origen de estas (y muchas otras) patologías esté entre las ojeras de quienes la padecen no desmerecen su sufrimiento y la necesidad de tratarlos para reducir su efecto negativo en su vida diaria. Después de todo, aunque uno no esté infestado de piojos, eso no quiere decir que quiera ir por la vida con picazón en la cabeza… ¡Dejá de rascarte!


Assefi, S., & Garry, M. (2003). Absolut(R) Memory Distortions: Alcohol Placebos Influence the Misinformation Effect Psychological Science, 14 (1), 77-80 DOI: 10.1111/1467-9280.01422

Schmader, T. (2002). Gender Identification Moderates Stereotype Threat Effects on Women's Math Performance Journal of Experimental Social Psychology, 38 (2), 194-201 DOI: 10.1006/jesp.2001.1500

Winfried Häuser, Ernil Hansen, Paul Enck (2012). Nocebo Phenomena in Medicine Dtsch Arztebl Int : 10.3238/arztebl.2012.0459

DASMUNSHI, J., RUBIN, G., & WESSELY, S. (2006). Multiple chemical sensitivities: A systematic review of provocation studies Journal of Allergy and Clinical Immunology, 118 (6), 1257-1264 DOI: 10.1016/j.jaci.2006.07.046

Röösli, M. (2008). Radiofrequency electromagnetic field exposure and non-specific symptoms of ill health: A systematic review Environmental Research, 107 (2), 277-287 DOI: 10.1016/j.envres.2008.02.003

29oct/14Off

En casa de psicólogo, cuchillo de palo

5 Comentarios    

Publicado por:Elio Campitelli.

Etiquetado con: , , ,

La historia de la medicina es la historia del placebo. Durante miles de años los galenos de las distintas culturas no usaban los resultados debidamente analizados de experimentos científicos bien diseñados para sus recomendaciones médicas sino que se basaban en los argumentos de autoridad y las analogías con la naturaleza pero, principalmente, sus observaciones clínicas informales.

Los médicos de antaño no dudaban ni por un minuto que los enemas de humo eran un excelente tratamiento para los casos de ahogamiento; o que lo mejor para <inserte cualquier enfermedad> era una profusa sangría (y no de la que te pone en pedo). Todos estas recomendaciones médicas estaban fundadas en el antiguo arte de la observación clínica. En el diario de Gui Patin, por ejemplo, se puede leer, sobre el caso de un noble de siete años “quien cayó enfermo de una grave pleuresía por haberse sobrecalentado en el juego de pelota” que “lo sangraron trece veces, y sanó en quince días”. Ese era el fundamento de la ciencia médica de estos tiempos.

Pero tanto los desastrosos resultados y el lento avance de la medicina antes de la aplicación del método científico como los resultados de la ciencia psicológica nos demuestran que la observación de casos clínicos sólo puede servir como semillas para nuevas hipótesis, nunca como prueba. Nuestras habilidades para llegar a conclusiones correctas a partir de lo que vemos deja mucho que desear.

Uno pensaría que los psicólogos, tan al tanto de la fiabilidad de nuestras inferencias, deberían entonces ser los primeros en pedir a gritos la revolución experimental en su práctica clínica. Por desgracia, este no es el caso. Si un reciente artículo publicado en Perspectives on Psychological Science es indicativo de lo que sucede, todavía hay muchos psicólogos que se quedaron en la era de Freud y creen que pueden determinar su su tratamiento funciona con sólo ver a los pacientes.

Pero los autores detallan una taxonomía de 26 distintos sesgos y problemas metodológicos divididos en tres categorías que plagan a la observación clínica.

Mejoría ilusoria

Para empezar, somos malísimos observadores. Tenemos un “realismo ingenuo” que nos hace creer que todo es como lo vemos y nos urge a ignorar que nuestra percepción y nuestra selección de lo que percibimos está fuertemente marcada por nuestras nociones previas. Nos sentimos perfectamente justificados en opinar que “las pibas se embarazan para cobrar la Asignación Universal por Hijo” por ver lo que pasa en las villas a pesar de que no hay evidencia que indique eso.

Este tipo de error entra en la primera categoría de sesgos: creer que el paciente mejoró cuando en realidad sigue igual o empeoró. Quizás el paciente salga del diván menos estresado por meterle los cuernos a la esposa, sí, pero luego de la terapia igual se va de trampas con los amigos. En cualquier caso, una supuesta mejora en el ánimo observada por el terapeuta no siempre está relacionada con una mejora en las condiciones objetivas del paciente como bien nos ilustra el siguiente testimonio:


(A partir del minuto 4:25)

Mejorías genuinas que nada tienen que ver con la terapia.

Aún estando en lo correcto sobre lo que creemos ver, en la vida diaria somos malísimos como científicos. Por ejemplo, en vez de considerar múltiples hipótesis que expliquen algo que vemos, rápidamente elegimos cuál es nuestra teoría y el resto del mundo puede irse al tacho. Entonces surgen expresiones como “El problema de Argentina son los corruptos” o “El problema de Argentina es la duplicación de registros” (escuchado por mis propios oídos) en vez de “Quizás el problema del país sean los corruptos, quizás la duplicación de registros o quizás alguna otra alternativa; habría que investigarlo a fondo para llegar a una conclusión”.

La razón por la cual esa persona (que, repito, es real) creía que estaríamos viviendo en un nuevo jardín del Edén si tan sólo dejáramos de duplicar los registros también tiene explicación psicológica. El hombre trabaja como consultor para empresas diseñando y pensando qué registros llevar y cómo hacerlo. Esto se llama “heurística de disponibilidad” y es lo que nos empuja a creer que lo que vemos todos los días es lo más relevante para explicar cualquier situación.

Por otro lado, si las cosas nos tocan de cerca, es aún peor. Queremos creer que controlamos la situación y, pese a toda la evidencia al contrario, preferimos pensar que tenemos un mínimo de injerencia en lo sucede a nuestro al rededor. No hace falta pensarlo mucho para reconocer que elegir el número en la lotería es ridículo ya que (siempre que no haya fraude en el medio) el número que sale es completamente aleatorio. Sin embargo, no sólo sujetos experimentales prefieren elegir ellos mismos el número para apostar, sino que incluso en un grupo repleto de escépticos, más de la la mitad prefirieron eso a dejarlo al azar.

Todo esto es muy relevante para el terapeuta que quiere determinar si su terapia da resultado. Aún cuando la depresión de su paciente se mejore porque al fin consiguió trabajo, el psicólogo va a tender a creer que su tratamiento fue la causa de la mejoría. Es la explicación que tiene más a mano y la que le da más sensación de control. Cualquier otra explicación que no le de la razón será sometida a la más ardua crítica y racionalización.

Mejorías genuinas relacionadas con cualquier terapia.

Finalmente, aún cuando un paciente tenga una mejora genuina y ésta esté relacionada con lo que pasa en la terapia, no significa que sea trivial determinar qué parte de la terapia fue la responsable de la mejoría. El sólo hecho de tener a alguien con quien hablar puede ser terapéutico para una persona, sin importar si el terapeuta aplica las técnicas más rigurosamente probadas o es el más chanta de los lacanianos.

Todo esto importa porque su suma hace que cualquier opinión sobre la efectividad de un tratamiento en base únicamente a la observación clínica sea más sospechoso que billete de tres pesos. La práctica clínica simplemente no cumple las buenas condiciones para hacer este tipo de juicios. Pero eso no es malo, el diván está para aplicar las terapias, no para evaluarlas.

Sin embargo, existen muchos psicólogos que se oponen a esta idea. A pesar de que estos problemas ya se conocían en tiempos de Freud y se usaban para desacreditar sus teorías basadas fundamentalmente en las observaciones de sus pacientes, todavía quedan muchos psicólogos que siguen creyendo estar por encima de todos los sesgos mencionados. Pero esto no es más que otro sesgo más y seguramente producto de un Complejo de Edipo mal resuelto.


Lilienfeld, S., Ritschel, L., Lynn, S., Cautin, R., & Latzman, R. (2014). Why Ineffective Psychotherapies Appear to Work: A Taxonomy of Causes of Spurious Therapeutic Effectiveness Perspectives on Psychological Science, 9 (4), 355-387 DOI: 10.1177/1745691614535216

15oct/14Off

El elogio del éter

No es raro leer personas denigrando una teoría científica contemporánea diciendo que es “el éter del siglo XXI”. Muchas veces esta comparación se hace en relación a la materia oscura, esta misteriosa forma de materia que forma un cuarto de la energía del universo y que no sabemos qué es.

Yo creo que no sólo esto es falso en el caso de la materia oscura ya que sus propiedades son muy distintas de las del éter luminífero, sino que, peor aún, asume incorrectamente que la teoría del éter (el hipotético medio por el cual se transmitiría la luz) fue una idea ridícula de la física del siglo XIX que mejor olvidar; algo así como nuestros años de adolescencia con pelo largo y uñas pintadas de negro.

Pero así como no hay que avergonzarse por sus decisiones de estilo durante el secundario, yo sostengo que no hay que renegar el éter. Tanto el éter como las pulseras de tachas cumplieron su función y para se desechados requirieron una importante maduración del conocimiento pero para entender las razones detrás de estas nociones hay que conocer un poco sobre la tumultuosa adolescencia de la física.

La batalla de la luz

Durante varios siglos hubo un gran debate en la comunidad científica entre dos teorías rivales acerca de la naturaleza de la luz.

De un lado de la cancha estaban los que decían que la luz era una partícula. Liderados por el Newton (el famoso inglés), los campeones de la teoría corpuscular consideraban que en cada rayo de luz se escondía una infinidad de pequeñas ‘pelotitas’ que tenían características distintas según eran pelotitas azules, rojas, amarillas, etc… Esta teoría podía explicar una gran cantidad de observaciones, como la reflexión (entendible para cualquiera que haya jugado a los billares), la refracción y la división de la luz blanca en los colores del arcoíris.

Del otro lado estaba Huygens (un neerlandés no tan conocido) quien comandaba a la patota ondulatoria, quienes defendían la idea de que la luz era mejor entendida como una onda. En vez de pensarla como pequeñas bolitas cruzando el espacio, concebían a la luz eran como olas sobre el agua. Esta teoría podía explicar otros fenómenos que eran difíciles de encajar en la teoría corpuscular como la difracción y los fenómenos de interferencia. El problema de esta teoría era que, como analogía a las olas en el mar o el sonido en el aire, estas ondas lumínicas tenían que propagarse en un medio. El éter luminífero era ese hipotetizado medio; ese océano que transporta las olas lumínicas a través del espacio desde las estrellas más distantes hasta nuestros ojos.

Huygens[9]

Créditos: Apuntes de Óptica Astronómica por Enrique Campitelli (mi viejo)

Durante el siglo XVII, los instrumentos de medición no eran lo suficientemente precisos como para medir las predicciones de la teoría ondulatoria. Y esto, sumado a que Newton era más conocido y autoritativo –y, si se me permite, bastante forro con sus adversarios intelectuales– significó que su teoría corpuscular tuvo más éxito, fue más ampliamente adoptada y el éter no fue necesario. Gol para Newton.

Pero en la ciencia ningún partido dura sólo 90 minutos. A principios del 1800 Thomas Young (otro de los gigantes del pensamiento) revitalizó la teoría ondulatoria con su experimento de la doble ranura. Este gol a favor del nerlandés, sin embargo, significó el regreso del éter luminífero. Durante todo el siglo XIX la teoría ondulatoria se fue refinando más y más hasta que su formalización matemática en las ecuaciones de Maxwell en los ‘60 (del 1800) significaron un golazo de media cancha para el equipo ondulatorio.

Como consecuencia de esta brutal paliza propiciada por la teoría ondulatoria, el éter luminífero fue aceptado como un hecho. Ante la aceptación general de que la luz era una onda, no había otra conclusión posible que postular que esa onda debía propagarse a través de algo. Ese algo tenía que estar en todo el universo ya que de otra forma no podríamos ver estrellas a años luz de distancia. Lejos de ser un invento ridículo o un capricho de físicos ociosos, el éter era un elemento necesario de una teoría respetada e increíblemente exitosa.

Aún así, para esta época, estaba claro que el éter estaba en problemas. Sus propiedades resultaban cada vez más implausibles: tenía que ser extremadamente rígido para trasmitir la onda lumínica, pero a la vez debía fluir libremente en el espacio; además tenía que ser perfectamente transparente, y carecer de viscosidad para no influir en la órbita de los planetas. No sólo eso, sino que el las propias ecuaciones de Maxwell, gran éxito de la teoría ondulatoria, eran en cierta forma contrarias a la existencia del éter por demostrar que la velocidad de la luz era constante; algo que no sucede con otro tipo de ondas, como el sonido o las olas del mar cuya velocidad cambia si nos movemos con respecto al medio.

En este punto parecería que la caricatura del éter como una etapa olvidable de la adolescencia de la física es correcta, pero yo no creo que así sea. Simplemente la ciencia estaba siguiendo su curso, encontrando más y más agujeros en una teoría que en principio parecía necesaria; una crisis al estilo de Kuhn. Es muy fácil juzgar a los defensores del éter sabiendo cómo terminó la historia, pero yo desafío a cualquiera a nacer en el siglo XIX e inventar la noción de que una onda se puede desplazar en el vacío. La idea de que toda onda necesita un medio es razonable y no podemos culpar a los grandes científicos del pasado por no darse cuenta de que la luz era una excepción.

Y para demostrar que sabían lo que hacían, los físicos ya estaba remangados e inmersos en la difícil tarea de medir los efectos del éter. Uno pensaría que medir algo que está en todas partes tendría que ser una papa, pero uno tras otro los distintos e ingeniosos intentos para detectar esta escurridiza substancia fallaron miserablemente.

eterqepdEn 1887, Michelson y Morley famosamente fallan en detectar al éter y, aunque el debate continuó por varios años, en general se considera que este experimento fue el que puso el anteúltimo clavo en el ataúd del famoso éter luminífero. El clavo final, el entierro y el velatorio fueron responsabilidad respectivamente de las transformaciones de Lorenz, que ofrecieron una explicación a los resultados negativos de Michelson que mantenía la existencia del éter, la relatividad especial, que generó la misma explicación que Lorenz sin necesidad del éter, y, finalmente, la Navaja de Occam, que dijo que si no hacía falta postular un ente para explicar lo que observamos, entonces no tenemos por qué creer en su existencia.

Pero si bien este es el final del camino para el éter luminífero, la épica batalla entre ondas y partículas no termina acá. A pesar de que el éter estuviera en problemas y eventualmente sufriera una muerte agonizante, la teoría ondulatoria de la luz siguió en vigencia durante todo el siglo XIX.

También en 1887 se descubre el efecto fotoeléctrico, sólo explicable desde la teoría corpuscular, y la pelota se acercó peligrosamente al arco de Huygens. Luego, ni bien comenzado el siglo XX, luego de que sus profesores le dijeran que en la física “lo esencial ya está todo descubierto”, Max Planck rompe todo y redescubrió la esencia de la física al fundar la física cuántica. Entre otras cosas, esto significó que la luz se dividía en “cuantos” de energía sospechosamente similares a los corpúsculos de Newton. Esa rápida sucesión de tanto para la teoría corpuscular dejó la cancha en un estado de honesta confusión.

Para los años 20, la teoría corpuscular parecía haber agarrado un segundo aire. Aparecían más y más fenómenos que la teoría ondulatoria no podía explicar. Al efecto fotoeléctrico se le sumaba la radiación de cuerpo negro, el efecto Compton, la producción de luz por colisión de partículas, la absorción y emisión de luz de los átomos y una larga lista que, con buena razón, ponían nervioso al espíritu de Huygens.

Sin embargo, en 1924 aparece en la cancha un jugador que pateaba para los dos lados. Luis de Broglie decide irse por la suya y postular que la luz es una onda y la luz es una partícula; es una “ondícula”. Todos esos siglos de confusión se debieron a que el universo es más complejo de lo que pensamos.

La luz, entonces, se comporta como partícula bajo ciertas condiciones y como ondas en otras. Eventualmente la física cuántica determinó que esta dualidad onda-partícula vale también para toda la materia y energía del universo. Marche premio Nobel para de Broglie y declárese empate. Archívese.

Más respeto que soy tu éter.

Quien se ría del éter por sus propiedades aparentemente mágicas y antiintuitivas, ¿qué tiene para decir de la física actual que permite meter un coche en un garage más chico que el mismo? ¿O que hace que el tiempo pase más lento si nos movemos rápido? ¿Realmente es más loco pensar en un éter luminífero que permea todo el cosmos que pensar que un electrón puede interactuar con sigo mismo y estar en dos lugares al mismo tiempo?

Es más, el campo de Higgs no es tan distinto a un éter con la única diferencia que el primero fue confirmado con el descubrimiento del Bosón de Higgs en 2012.

El éter, en mi humilde opinión, no fue un capítulo olvidable de la historia de la ciencia ni mucho menos un fracaso de la física. Fue un elemento que cumplió su función mientras las observaciones eran compatibles con su existencia y que para ser desechado necesitó nada menos que una reformulación total de nuestra idea del espacio y el tiempo protagonizada por la teoría de la relatividad.

29sep/14Off

El CEA presenta: Jornadas de Ciencia y Pensamiento Crítico

CEA_Facebook El Círculo Escéptico Argentino tiene el agrado de invitar a la comunidad a las Jornadas de Ciencia y Pensamiento Crítico a realizarse los días 4 y 11 de octubre de 2014 de 17 a 19hs en la sala Augusto Raúl Cortazar.

El primer día, la Magister María José Guzmán va a mostrar que no sólo vivimos en uno de muchos planetas en uno de muchos sistemas solares en una de muchas galaxias, sino que además no sabemos qué es el 75% de la energía del universo.

La segunda charla estará centrada en el debate al rededor de los Organismos Genéticamente Modificados. Juan Pablo Luppi explicará el detrás de escena de cómo se crean los transgénicos y Federico Espinosa, estudiante de Biotecnología, analizará mitos y verdades que hay sobre los mismos.

El evento en Facebook para el primer encuentro está en este link: https://www.facebook.com/events/302356709956760

¡Los esperamos!