Podcast

Pienso, luego Dudo – Capítulo 18b

Creo que la ciencia ha tenido un éxito extraordinario porque tiene un campo de acción tan limitado y acotado en el cual concentrar sus esfuerzos: el universo.

«Ken Jenkins» según La Internet. Pero no puedo estar seguro

Pienso, luego dudo es el podcast oficial del Círculo Escéptico Argentino. Es una dosis quincenal de escepticismo y ciencia en donde conversamos sobre nuevos descubrimientos y desarrollos científicos; nuevos inventos y fraudes pseudocientíficos; y cualquier cosa que encontremos interesante.

Para escuchar online, hacer click en PLAY:

Descargar este capítulo en MP3

Primer Segmento (descargar)

Segundo Segmento (descargar)

Tercer Segmento (descargar)

Extras (cosas que no entraron en el capítulo) (descargar)

Música que se escucha:

    • George Hrab – Death from the Skies
    • Tales from the Birdbath – The Scientist

Para comentarios, críticas, opiniones, sugerencias sobre este capítulo, o recomendar temas y compartir noticias para el próximo capítulo, pueden ir al foro o utilizar el formulario de contacto.

Pienso, luego dudo – Capítulo 18b (link de descarga)
Canal en iVoox
Subscribirse por RSS
Subscribirse por RSS a la versión segmentada

40 comentarios en «Pienso, luego Dudo – Capítulo 18b»

  • Lo que yo entendi que Bunge quiere decir por «falacia probabilistica» es cuando se dice que la probabilidad de que alguien tenga una enfermedad es la frecuencia de esa enfermedad en la poblacion. Por ejemplo, si el 1% de la poblacion tiene una enfermedad y yo concluyo que por ello la probabilidad de tener esa enfermedad es de 1%, tengo que justificarlo agregando que la distribucion de la probabilidad es uniforme. Como las enfermedades estan causadas por condiciones que no necesariamente tienen distribuciones uniformes en la poblacion, no se puede asumir que cualquiera tiene la misma probabilidad de contraer una enfermedad.

    La frecuencia en la poblacion puede servir en algunos casos como indicador de la verosimilitud de que la probabilidad de que cualquiera tenga la enfermedad sea algun valor p. Pero al haber mas evidencia (como descubrir las causas de la enfermedad) hay mejores estimadores. Para entender la diferencia entre probabilidad y verosimilitud se puede leer el comienzo de este articulo: http://es.wikipedia.org/wiki/Funci%C3%B3n_de_verosimilitud

    Respuesta
  • El problema es que Bunge tiró esta posibilidad por la ventana al descartar a Bayes. Ponele que el 2% de la población tenga cierta enfermedad genética, eso quiere decir que si yo soy médico y entra un paciente por la puerta ya tengo que considerar esa probabilidad como una probabilidad previa 2%. Luego me entero que los síntomas que presenta son consistentes con esa enfermedad (además de varias otras); ahí me da más confianza en que este paciente en particular tenga esa enfermedad. Si encima me entero que tiene un historial familiar ya puedo tener un gran alto grado de certeza de que realmente sufre eso.
    Cuando Bunge dice que esa «probabilidad» no es técnicamente «probabilidad matemática» tiene razón en que no hay azar (aunque quizás algunos físicos cuánticos puedan estar en desacuerdo) pero ante la ignorancia de variables en el sistema creo que puede hablarse de probabilidades tranquilamente.
    La tirada de un dado también es completamente determinista y todo el mundo habla de que la probabilidad de que salga un 6 es 1/6.

    Respuesta
  • en qué parte hablan de Half-Life el videojuego???? lo escuché varias veces y no encontré esa parte; si había relación con el juego (además del nombre), no la sabía y la quiero saber.

    Respuesta
  • Ok, yo mucho de estadística no sé, como ya se habrán dado cuenta. Pero esto me interesa.
    O sea, lo que dice Bunge vendría a ser algo así como que si yo digo que la frecuencia de una enfermedad, como la varicela, en la poblacion es del 1%, entonces si digo que cada individuo tiene una probabilidad del 1% de tener varicela esta mal porque no todos tienen las mismas caracteristicas que los predisponen a tener varicela, como por ejemplo, la edad. Algo así?

    Respuesta
  • Me parece que estás en lo correcto, Suyay. Aunque es un poco más abstracto. Medir la frecuencia de algo en una población es empírico. Medir la frecuencia de algo en una muestra es empírico y teórico (tenés que entender algunas cosas para seleccionar una muestra representativa y no sesgada). La probabilidad es una incógnita teórica, no se puede medir sino sólo deducir. Al menos eso entiendo yo. Supongo que la diferencia no es significativa, pero para un epistemólogo jodido como Bunge debe serla. Desde el momento en que la medición de la frecuencia depende de observaciones, y esas observaciones nunca pueden ser totalmente exactas/completas, no sería correcto equiparar frecuencia con probabilidad.

    Respuesta
  • Ok, eso mas o menos entendí. Pero si estás midiendo la frecuencia de una dada enfermedad en toda la población, no en una parte de la población (ej: niños, adultos mayores,etc.), y supongamos que la muestra que se toma es representativa, igualmente la enfermedad no va a estar presente con la misma frecuencia en toda la población porque siempre va a afectar a una parte de la población más que a otra. O sea, nunca se va a tener una muestra con una distribución uniforme en la población. Por ende, según Bunge, nunca se puede hablar de probabilidad de que un individuo tenga una determinada enfermedad basandose en la frecuencia de la enfermedad en la población.
    Me parece que me estoy haciendo un lío…

    Respuesta
    • No, lo de la distribución uniforme es otra cosa. Se supone que a priori todo el mundo puede tener la enfermedad en cuestión, es decir, la probabilidad de que la tengan es uniforme. Pero quizá no lo sea, quizá en realidad haya algún patrón escondido en los datos por culpa de factores que no podemos medir fácilmente, por ejemplo, la presencia de tales o cuales genes. Si medís la frecuencia de la enfermedad y decís que ésa es la probabilidad de que cualquiera la tenga, estás ignorando esos factores ocultos.

      Respuesta
  • Daneel Olivaw dijo:
    El problema es que Bunge tiró esta posibilidad por la ventana al descartar a Bayes. Ponele que el 2% de la población tenga cierta enfermedad genética, eso quiere decir que si yo soy médico y entra un paciente por la puerta ya tengo que considerar esa probabilidad como una probabilidad previa 2%. Luego me entero que los síntomas que presenta son consistentes con esa enfermedad (además de varias otras); ahí me da más confianza en que este paciente en particular tenga esa enfermedad. Si encima me entero que tiene un historial familiar ya puedo tener un gran alto grado de certeza de que realmente sufre eso.
    Cuando Bunge dice que esa “probabilidad” no es técnicamente “probabilidad matemática” tiene razón en que no hay azar (aunque quizás algunos físicos cuánticos puedan estar en desacuerdo) pero ante la ignorancia de variables en el sistema creo que puede hablarse de probabilidades tranquilamente.
    La tirada de un dado también es completamente determinista y todo el mundo habla de que la probabilidad de que salga un 6 es 1/6.

    Lo que pasa es que Bunge esta a favor de la interpretacion objetivista (la cual comparto) y no de la frecuentista o Bayesiana. A continuacion dejo una breve explicacion de las distintas interpretaciones que se encuentra en uno de sus libros (Chasing Reality, 4. Causation and Chance: Apparent or Real?, 5. Chance as Ignorance):

    An alternative to the realist view of chance and probability is the subjectivist
    doctrine. This is also known as Bayesianism because of its heavy reliance on a
    certain interpretation of Bayes’s theorem. Bayesianism is the opinion that
    probabilities are just opinions: that every probability value is a measure of the
    strength of the belief of a person in a fact or in a statement. (See, e.g., de Finetti
    1972, Jeffreys 1975, Keynes 1957, and Savage 1954.) This opinion was held
    by no less than Jacques and Daniel Bernoulli, Pierre Simon Laplace, Augustus
    De Morgan, and John Maynard Keynes.
    More precisely, Bayesianism holds that (a) probabilities are properties of
    beliefs, propositions, or statements, rather than of facts of a certain kind; and
    (b) “probability measures the confidence that a particular individual has in the
    truth of a particular proposition, for example, the proposition that it will rain
    tomorrow” (Savage 1954: 3).
    […]
    A third reason for adopting Bayesianism is the mistaken belief that it is the
    only respectable alternative to the frequency doctrine proposed by such eminent
    empiricists as John Venn (1962) and Richard von Mises (1926). According
    to it, probability is definable in terms of long-run relative frequency. This
    view is intuitively appealing to experimental scientists because it conflates
    chance (or randomness) with its tests–an instance of the operationist confusions
    of definition with test, and reference with evidence. Indeed, to determine
    whether a given set of data is random, one looks for certain fairly constant
    global properties of the set, particularly the shape and scatter (variance) of a
    distribution, such as the bell curve. In particular, when observed frequencies
    are available, one contrasts them with the corresponding calculated probabilities.
    But one should remember that probabilities (and probability densities) are
    properties of individuals, whereas the statistical parameters are properties of
    aggregates. Besides, statistics are restricted to past events, the only ones on
    which statistical parameters, such as frequencies and variances, can be counted.
    (More in Bunge 1981a and 1988.) Last, but not least, the frequency theory of
    probability happens to be mathematically flawed (Ville 1939).
    So, the frequency theory of probability must be discarded. However, contrary
    to popular belief, Bayesianism is not the sole alternative to it. Indeed, as
    suggested in the previous section, there is a tertium quid, namely, the objectivist
    (or realist or “propensity”) interpretation, the one usually employed in
    theoretical physics and biology. For example, the probability distributions
    calculated in classical statistical mechanics are deemed to be objective properties
    of the systems concerned. Furthermore, those distributions depend on the
    system’s energy and temperature, neither of which can be estimated by counting
    frequencies. When such a count is possible, its serves to test probability
    estimates, not to assign them meanings.

    Cuando se habla de probabilidad matematicamente uno se refiere a algo en particular (es necesario estar en un espacio de probabilidad). Ese mismo concepto es el que se usa en muchos campos cientificos y gracias al cual es correcto elaborar modelos probabilisticos (el teorema de Bayes puede ser una de las herramientas entre muchas). Luego, la Estadistica sirve para poder observar instancias de una variable aleatoria y estimar cual era la probabilidad asociada (u otro parametro) a su distribucion. Esto ultimo esta dado por la verosimilitud, que es otro concepto que tambien requiere asumir previamente algunas cosas (como saber cual es el tipo de distribucion de la variable aleatoria).

    Es decir, un medico podria estimar la probabilidad de que un paciente este enfermo mediante un modelo estadistico. Pero asumir que la distribucion de estar enfermo en la poblacion es uniforme es muy apresurado. De hecho, para muchas enfermedades la distribucion asociada va a ser dependiente de muchas variables (edad, peso, altura, etc.) que no tienen distribuciones uniformes en la poblacion. O sea, ni siquiera parece ser intuitivo.

    Respuesta
  • Aca encontre la explicacion del ejemplo que dio Bunge en la charla (que era dificil de entender porque cada 30 segundos alejaba el microfono a 1 metro de su boca) (Chasing Reality, 4. Causation and Chance: Apparent or Real?, 9. Bayesianism Is Hazardous):

    To appreciate the enormity of the Bayesian attempted counter-revolution,
    consider, for instance, the relation between the HIV virus and AIDS. It is well
    known that, whereas those who have this disease test HIV-positive, the converse
    is not true: some individuals have lived with the virus for a decade or
    more without developing AIDS. Suppose then that a given individual has
    contracted that virus, and that we wish to ascertain the probability that he
    also has, or will soon develop, AIDS. Presumably, a Bayesian would set
    Pr(AIDS | HIV) = Pr(HIV | AIDS) Pr(AIDS) / Pr(HIV). Further, since the individual
    in question has tested HIV-positive, our Bayesian is likely to set Pr(HIV)
    = 1. And, since it is known that whoever has AIDS also has the HIV virus,
    Pr(HIV | AIDS) = 1. Thus, Bayes’s formula simplifies to Pr(AIDS | HIV) =
    Pr(AIDS). However, this is known to be false: in fact, HIV is necessary but not
    sufficient to develop AIDS. So, if AIDS researchers were to adopt Bayesianism,
    they would not try to discover the causes that, jointly with HIV infection, lead
    to AIDS.

    Respuesta
  • PabloDF dijo:
    No, lo de la distribución uniforme es otra cosa. Se supone que a priori todo el mundo puede tener la enfermedad en cuestión, es decir, la probabilidad de que la tengan es uniforme. Pero quizá no lo sea, quizá en realidad haya algún patrón escondido en los datos por culpa de factores que no podemos medir fácilmente, por ejemplo, la presencia de tales o cuales genes. Si medís la frecuencia de la enfermedad y decís que ésa es la probabilidad de que cualquiera la tenga, estás ignorando esos factores ocultos.

    Ah, gracias. Ahora entendí mejor. Pero igual, si los factores que pueden influir en la probabilidad están ocultos y son desconocidos para uno. ¿Como se puede decir que está mal si no se conoce lo que la hace falsa?

    Respuesta
  • Leandro Yampolsky dijo:

    An alternative to the realist view of chance and probability is the subjectivist
    doctrine. This is also known as Bayesianism because of its heavy reliance on a
    certain interpretation of Bayes’s theorem. Bayesianism is the opinion that
    probabilities are just opinions: that every probability value is a measure of the
    strength of the belief of a person in a fact or in a statement. (See, e.g., de Finetti
    1972, Jeffreys 1975, Keynes 1957, and Savage 1954.) This opinion was held
    by no less than Jacques and Daniel Bernoulli, Pierre Simon Laplace, Augustus
    De Morgan, and John Maynard Keynes.
    More precisely, Bayesianism holds that (a) probabilities are properties of
    beliefs, propositions, or statements, rather than of facts of a certain kind; and
    (b) “probability measures the confidence that a particular individual has in the
    truth of a particular proposition, for example, the proposition that it will rain
    tomorrow” (Savage 1954: 3).

    O sea que, básicamente, si uno dice : la probabilidad de tener la enfermedad A es de X. En realidad es solo lo que yo «creo» o la «fe» que tengo en esa proposición?

    Leandro Yampolsky dijo:
    Es decir, un medico podria estimar la probabilidad de que un paciente este enfermo mediante un modelo estadistico. Pero asumir que la distribucion de estar enfermo en la poblacion es uniforme es muy apresurado. De hecho, para muchas enfermedades la distribucion asociada va a ser dependiente de muchas variables (edad, peso, altura, etc.) que no tienen distribuciones uniformes en la poblacion. O sea, ni siquiera parece ser intuitivo.

    Entonces, según lo que entendí, no hay forma de predecir si un paciente se va a enfermar de acuerdo a la frecuencia de una enfermedad en la población.

    Respuesta
  • Leandro Yampolsky dijo:
    Aca encontre la explicacion del ejemplo que dio Bunge en la charla (que era dificil de entender porque cada 30 segundos alejaba el microfono a 1 metro de su boca) (Chasing Reality, 4. Causation and Chance: Apparent or Real?, 9. Bayesianism Is Hazardous):

    To appreciate the enormity of the Bayesian attempted counter-revolution,
    consider, for instance, the relation between the HIV virus and AIDS. It is well
    known that, whereas those who have this disease test HIV-positive, the converse
    is not true: some individuals have lived with the virus for a decade or
    more without developing AIDS. Suppose then that a given individual has
    contracted that virus, and that we wish to ascertain the probability that he
    also has, or will soon develop, AIDS. Presumably, a Bayesian would set
    Pr(AIDS | HIV) = Pr(HIV | AIDS) Pr(AIDS) / Pr(HIV). Further, since the individual
    in question has tested HIV-positive, our Bayesian is likely to set Pr(HIV)
    = 1. And, since it is known that whoever has AIDS also has the HIV virus,
    Pr(HIV | AIDS) = 1. Thus, Bayes’s formula simplifies to Pr(AIDS | HIV) =
    Pr(AIDS). However, this is known to be false: in fact, HIV is necessary but not
    sufficient to develop AIDS. So, if AIDS researchers were to adopt Bayesianism,
    they would not try to discover the causes that, jointly with HIV infection, lead
    to AIDS.

    Se entendió más o menos. Lástima que Bunge eligió el ejemplo del HIV que es bastante malo para esto.

    Respuesta
  • Suyay dijo:
    O sea que, básicamente, si uno dice : la probabilidad de tener la enfermedad A es de X. En realidad es solo lo que yo «creo» o la «fe» que tengo en esa proposición?

    Eso es segun la interpretacion Bayesiana de la probabilidad. Segun la frecuentista, la proposicion quiere decir que la frecuencia relativa de A en la poblacion se acerca a X. Segun la objetivista, la proposicion quiere decir que hay un modelo probabilistico del proceso aleatorio de tener o no la enfermedad A que asigna el valor X a la funcion de probabilidad asociada a la variable aleatoria que dice si alguien tiene o no la enfermedad A.

    Suyay dijo:
    Entonces, según lo que entendí, no hay forma de predecir si un paciente se va a enfermar de acuerdo a la frecuencia de una enfermedad en la población.

    Se puede predecir llevando el problema inverso de diagnostico a distintos problemas directos y contrastandolos con la evidencia. En este caso, la frecuencia de la enfermedad en la poblacion es parte de la evidencia, pero tambien importa la dispersion (varianza) de la enfermedad relativa a la media, cuan independientes son los distintos sintomas en relacion a la enfermedad y otros datos estadisticos, ademas de la evidencia que explique el mecanismo que hace que la enfermedad cause determinados sintomas. Pero en tal caso, se estaria hablando de verosimilitud («likelihood») y no de probabilidad, ya que el proceso de enfermarse no es aleatorio. Lo que puede verse como un proceso aleatorio (en mi opinion) es ver si un paciente que llega al hospital esta enfermo o no (que no es lo mismo que calcular la probabilidad que alguien tiene de enfermarse).

    Respuesta
  • Suyay dijo:
    Se entendió más o menos. Lástima que Bunge eligió el ejemplo del HIV que es bastante malo para esto.

    Por que te parece que el ejemplo del HIV es malo?

    Claramente, se llega al absurdo Pr(AIDS | HIV) = Pr(AIDS) por suponer que Pr(HIV) = 1. Lo que me parece criticable del ejemplo es que cualquier Bayesiano vaya a cometer ese error. A mi me parece que el Bayesiano se volveria un poco frecuentista y utilizaria la frecuencia de HIV en la poblacion como valor de Pr(HIV) o tiraria un valor intuitivo como 0,1.

    Respuesta
  • ¿puede ser que en ciertas situaciones el abordaje frecuentista resulta más apropiado?

    en otras, el abordaje bayesiano puede resultar útil – como para actualizar una probabilidad anterior a la luz de nueva evidencia, no les parece?

    salu2
    carmen

    Respuesta
  • Leandro Yampolsky dijo:
    Eso es segun la interpretacion Bayesiana de la probabilidad. Segun la frecuentista, la proposicion quiere decir que la frecuencia relativa de A en la poblacion se acerca a X. Segun la objetivista, la proposicion quiere decir que hay un modelo probabilistico del proceso aleatorio de tener o no la enfermedad A que asigna el valor X a la funcion de probabilidad asociada a la variable aleatoria que dice si alguien tiene o no la enfermedad A.

    La verdad que no sabía que había tantas posturas diferentes con respecto a este tema. Pensaba que había más consenso. Es muy interesante conocer las diferentes aproximaciones al mismo tema. Creo que logré entender bastante, lo tuve que leer un par de veces, pero igual me parece que me faltan conocimientos como para entenderlo del todo.

    Leandro Yampolsky dijo:
    Lo que puede verse como un proceso aleatorio (en mi opinion) es ver si un paciente que llega al hospital esta enfermo o no (que no es lo mismo que calcular la probabilidad que alguien tiene de enfermarse).

    Esto no lo entendí.

    Respuesta
  • Leandro Yampolsky dijo:
    Claramente, se llega al absurdo Pr(AIDS | HIV) = Pr(AIDS) por suponer que Pr(HIV) = 1. Lo que me parece criticable del ejemplo es que cualquier Bayesiano vaya a cometer ese error. A mi me parece que el Bayesiano se volveria un poco frecuentista y utilizaria la frecuencia de HIV en la poblacion como valor de Pr(HIV) o tiraria un valor intuitivo como 0,1.

    Pero si se esta calculando la probabilidad de un individuo particular de desarrolar SIDA que ya se sabe que es HIV positivo, ¿por que se debería utilizar la frecuencia en la población?

    Leandro Yampolsky dijo:
    Por que te parece que el ejemplo del HIV es malo?

    No se en que epoca habrá escrito esto Bunge, pero ya se sabe que todas las personas que tienen HIV, si no estan medicadas, eventualmente desarrollan SIDA. Salvo que se mueran de otra cosa antes. Cuando dice «algunos individuos han vivido una decada o mas sin desarrollar SIDA» parece que quisiera decir que estos individuos no desarrollan el SIDA, cuando en realidad es parte del desarrollo natural de la enfermedad, que tiene un periodo de latencia muy largo. Se han observado individuos que desarrollan SIDA mas lentamente, que son los «controladores de elite» o «no progresores a largo plazo», pero eventualmente terminan desarrollandolo también. Por otro lado, el diagnostico de SIDA es un diagnostico arbitrario, que puede no incluir el tener una enfermedad oportunista ya que un recuento de linfocitos T CD4+ inferior a 200/microlitro es considerado como SIDA. Por eso tambien el termino SIDA esta empezando a ser reemplazado por el de «infeccion por HIV avanzada» porque no es más que eso. Entonces cuando Bunge habla de que el HIV es necesario pero no suficiente para tener SIDA, considerando que los otros factores a los que se refiere son los agentes infecciosos que provocan las enfermedades oportunistas, en realidad esto no es cierto ya que un individuo puede ser diagnosticado con SIDA sin la presencia de enfermedades oportunistas. Salvo que Bunge estuviera hablando de otra cosa y yo lo haya malinterpretado.

    Respuesta
  • Carmen dijo:
    ¿puede ser que en ciertas situaciones el abordaje frecuentista resulta más apropiado?

    No me imagino que eso ocurra en ninguna situacion. O sea, definir la probabilidad de un evento a partir de una muestra esta mal desde el inicio y no sirve para hacer modelos probabilisticos.

    Carmen dijo:
    en otras, el abordaje bayesiano puede resultar útil – como para actualizar una probabilidad anterior a la luz de nueva evidencia, no les parece?

    No veo cual puede ser la utilidad de actualizar cuan firme es una creencia. Es un fenomeno psicologico, sin duda, que las creencias se vuelven mas o menos fuertes a partir de la evidencia. Por otro lado, si se considera que la probabilidad es una propiedad de un objeto, no tiene sentido «actualizar una probabilidad anterior». Lo que se puede hacer es estimar cual probabilidad tiene mayor verosimilitud en base a modelos estadisticos que sean actualizados a partir de nueva evidencia. Esto seria mas o menos como hacer una medicion de algo que existe.

    Respuesta
  • En los casos en que un experimento puede repetirse tantas veces como uno quiera, todas las intepretaciones de la probabilidad tienen que coincidir, incluso la subjetiva, porque después de todo, dicha subjetividad se basa en algo.

    Por ejemplo, en el caso de la enfermedad de cierta población, si hay 1% de prob. subjetiva, querrá decir que se sabe que la proporción de enfermos es del 1%, y que se elige subjetivamente ese valor como la prob. en cuestión.

    Lo erróneo está en el uso de la prob. de una población para un individuo «específico».
    No es un error de la postura filosófica de la prob., sino del mal uso del modelo.
    Si el modelo está hecho para «individuos tomados al azar de una población», no es lo mismo que la prob. de que un individuo específico se enferme o no.

    Pero al decir «específico» quiere decir que estamos agregando más información al sistema, o sea que tiene que intervenir una prob. ocndicional,
    o si se prefiere, simplemente cambiar el espacio muestral.

    Ahora, el sentido de la prob. de que Juan Pérez esté enfermo sería esto (en modo «frecuentista»):

    * Si p es la prob. de que Juan Pérez esté enfermo, entonces
    * haciendo N diagnósticos a Juan Pérez, obtenemos M veces un análisis de laboratorio que nos dice que Juan Pérez «contrajo la enfermedad».
    * Entonces el cociente M/N tiende a p cuando el número de diagnósticos N se hace «grande».

    El problema con esto es que nadie va a hacerle a Juan Pérez un millón de diagnósticos para saber la prob. p, a lo sumo se le hacen 2 o 3.

    Ese «experimento» sobre Juan Pérez no es lo mismo que el «experimento» de seleccionar individuos al azar de una cierta población y verificar si están enfermos o no.

    ————-

    Los problemas filosóficos con la prob. subjetiva comienzan cuando ninguna otra interpretación es aplicable: la prob. de contraer matrimonio este año, la prob. de ver una nube con forma de corazón antes de que anochezca…

    En esos casos la asignación de prob. tiene que ser subjetiva, no hay otro modo,
    pero en todo caso habría que plantearse si tiene sentido aplicar la teoría de probabilidad a preguntas como esa.

    ————

    Los modelos matemáticos son metáforas de la realidad,
    y ambos caminan en «paralelo» sólo si hemos tenido la suerte de «inventar» un modelo que «se ajusta» adecuadamente a los datos de la realidad.

    Cuando el modelo falla, se lo abandona, y se busca otro mejor. ¿No es eso el método científico?

    Hay situaciones de la realidad a las que caprichosamente se les adjudica un modelo matemático. Ahí empiezan las paradojas y las controversias.

    ————

    Creo que lo que se debe discutir es qué tan amplio es el rango de aplicaciones válidas de la teoría de probabilidad.
    O bien el modo correcto de usarla.

    Haciendo todo correctamente, no creo que haya problemas con la intepretación subjetiva de la probabilidad. Da los mismos resultados que las otras.

    Respuesta
  • Suyay dijo:
    Esto no lo entendí.

    Lo que quiero decir es que los individuos de una poblacion pueden ir llegando o no al hospital en base a distintos datos estadisticos de esa poblacion y la enfermedad tales como la cantidad de individuos enfermos, cuan detectables son los sintomas, cuan conocida es la enfermedad, etc. Esos datos pueden generar un cierto «orden» (porque se esta hablando de una poblacion y no de un individuo) que podria ser modelado.

    Suyay dijo:
    Pero si se esta calculando la probabilidad de un individuo particular de desarrolar SIDA que ya se sabe que es HIV positivo, ¿por que se debería utilizar la frecuencia en la población?

    Porque para calcular la probabilidad condicional se necesita tener la probabilidad de la condicion (tener HIV) y esta es independiente de que el individuo en cuestion tenga o no VIH. O sea, se busca calcular la probabilidad de que ocurran las 2 cosas a la vez (que tenga SIDA y HIV) pero como se supone que lo primero (en un orden atemporal) que ocurre es que tenga VIH, hay que «normalizar» ese valor dividiendo por la probabilidad de que ocurra que el individuo tenga HIV.

    Suyay dijo:
    No se en que epoca habrá escrito esto Bunge, pero ya se sabe que todas las personas que tienen HIV, si no estan medicadas, eventualmente desarrollan SIDA. Salvo que se mueran de otra cosa antes. Cuando dice «algunos individuos han vivido una decada o mas sin desarrollar SIDA» parece que quisiera decir que estos individuos no desarrollan el SIDA, cuando en realidad es parte del desarrollo natural de la enfermedad, que tiene un periodo de latencia muy largo. Se han observado individuos que desarrollan SIDA mas lentamente, que son los «controladores de elite» o «no progresores a largo plazo», pero eventualmente terminan desarrollandolo también. Por otro lado, el diagnostico de SIDA es un diagnostico arbitrario, que puede no incluir el tener una enfermedad oportunista ya que un recuento de linfocitos T CD4+ inferior a 200/microlitro es considerado como SIDA. Por eso tambien el termino SIDA esta empezando a ser reemplazado por el de «infeccion por HIV avanzada» porque no es más que eso. Entonces cuando Bunge habla de que el HIV es necesario pero no suficiente para tener SIDA, considerando que los otros factores a los que se refiere son los agentes infecciosos que provocan las enfermedades oportunistas, en realidad esto no es cierto ya que un individuo puede ser diagnosticado con SIDA sin la presencia de enfermedades oportunistas. Salvo que Bunge estuviera hablando de otra cosa y yo lo haya malinterpretado.

    Lo que yo entiendo quiso decir Bunge es cuando se esta hablando en un instante. Es decir, en un instante dado, si alguien tiene HIV, cual es la probabilidad de que tenga SIDA (i.e. presente los sintomas suficientes para el diagnostico). No seria lo mismo que la probabilidad de que alguien desarrolle SIDA en cualquier momento (hasta el final de su vida) sabiendo que tiene HIV.

    Respuesta
  • Respecto lo que pregunta Carmen, a mí me parece que la postura subjetiva es tan fuerte como las demás.

    Me imagino esta situación:

    Se estudia cierta enfermedad, llamémosla EEE.
    Se usa una herramienta de diagnóstico para detectarla, llamémosla HHH.
    Ahora tomamos la población de cierto país y analizamos sus individuos.

    ¿Puedo aplicar la interpretación frecuencista de la probabilidad?

    Supongamos que deseo saber la prob. de que un individuo (al azar) de PPP tienen la enfermedad EEE.
    Para ello tengo que aplicarle un análisis, una herramienta que diagnostique,
    lo cual no es otra cosa que un procedimiento que «agarra un tipo», le hace «quién sabe qué» y después arroja un resultado: SÍ o NO. Está enfermo o no.

    Contando el número M de casos «SÍ», dividiendo por el número N de casos tomados «al azar», obtenemos un cociente M/N, que se supone que es muy parecido a la prob. p de estar enfermo, o sea: p = prob.(SÍ tiene EEE).

    Pero ese método conlleva un cierto error, porque en realidad estamos asignando al método HHH una fiabilidad absoluta como herramienta de diagnóstico.

    Así que el cálculo no es tan simple, y hay que agregar la prob. (condicional) de que el diagnóstico HHH dé resultados «SÍ» cuando es «SÍ» o que dé «NO» cuando es «NO», o sea, cuando realmente funciona. Dicha prob. digamos que es un número q, que podemos imaginar cercano al 0.99, pero lo importante es que no es 1.

    Ahora pregunto: ¿cómo es que se determinó que la prob. de que HHH «acierte» el diagnóstico correcto es igual a q?

    Se necesita tener cierta «certeza» previa sobre quiénes están enfermos y quiénes no, para saber si realmente el método funciona o no.
    En la práctica esto quizá no sea un problema,
    pero en teoría no tiene sentido, porque para saber si alguien está enfermo de EEE, hay que diagnosticarlo con HHH, que de nuevo, para saber cuán fiable es, hay que testearlo para ver si detecta o no correctamente quién se enfermó de EEE… y así por siempre.

    La cosa no puede «empezar» nunca, es un círculo vicioso.

    Sólo hay dos soluciones: o bien hay «certidumbre» en algún momento, debido a «información previa», o bien uno tiene que «darle comienzo al asunto no más a ojo», o sea, uno tiene que poner «a dedo» un numerito de probalidad, es decir, confiar en ciertos numeritos… en forma subjetiva.

    Si uno tuviera un método más fiable que HHH para tener mayor certidumbre… entonces no usaría HHH, sino el método más fiable.
    Si uno tiene que poner «a dedo» el numerito de probabilidad (en al menos una etapa inicial de todo el estudio), entonces está haciendo prob. subjetiva.

    Los componentes «subjetivos» no se pueden despegar tan fácilmente de la ciencia.
    A lo sumo hay «subjetividades consensuadas», lo cual es bastante lamentable, aunque para no agarrarme a trompadas con la gente hago de cuenta que ese demonio no está… aunque en realidad siempre está.

    No hay jamás una certidumbre absoluta, así que «opinar» desde lo «subjetivo» no es sólo inevitable, sino que me parece un acto de honestidad por parte de un científico el admitir que de eso se tratan las bases de muchas cosas que se toman como punto de partida.

    Pienso que ignorar el componente subjetivo hace más daño que bien a la ciencia, porque es más cotidiano de lo que se piensa.

    Respuesta
  • saibaba dijo:
    Los componentes «subjetivos» no se pueden despegar tan fácilmente de la ciencia.
    A lo sumo hay «subjetividades consensuadas», lo cual es bastante lamentable, aunque para no agarrarme a trompadas con la gente hago de cuenta que ese demonio no está… aunque en realidad siempre está.

    No hay jamás una certidumbre absoluta, así que «opinar» desde lo «subjetivo» no es sólo inevitable, sino que me parece un acto de honestidad por parte de un científico el admitir que de eso se tratan las bases de muchas cosas que se toman como punto de partida.

    Pienso que ignorar el componente subjetivo hace más daño que bien a la ciencia, porque es más cotidiano de lo que se piensa.

    No es cuestion de considerar si una interpretacion es complementaria a la otra, ya que por definicion se esta hablando de cosas distintas cuando se habla de probabilidad. En la interpretacion subjetivista la probabilidad refiere a propiedades de creencias o proposiciones, mientras que en la interpretacion objetivista la probabilidad refiere a propiedades de hechos.

    La Ciencia estudia los hechos independientemente de lo que la gente crea sobre ellos. Por ejemplo, se puede hablar de decaimiento radiactivo de un atomo y calcular su probabilidad de manera independiente a lo que uno crea. Se utiliza un modelo (la formula de decaimiento exponencial) que fue testeado y se sabe que funciona. La subjetividad le importa a la Ciencia solo en el sentido de que es un fenomeno que existe y que debe ser corregido a traves del metodo cientifico para lograr conocimiento objetivo de la realidad.

    Respuesta
  • Leandro Yampolsky dijo:
    No me imagino que eso ocurra en ninguna situacion. O sea, definir la probabilidad de un evento a partir de una muestra esta mal desde el inicio y no sirve para hacer modelos probabilisticos.

    No veo cual puede ser la utilidad de actualizar cuan firme es una creencia. Es un fenomeno psicologico, sin duda, que las creencias se vuelven mas o menos fuertes a partir de la evidencia. Por otro lado, si se considera que la probabilidad es una propiedad de un objeto, no tiene sentido «actualizar una probabilidad anterior». Lo que se puede hacer es estimar cual probabilidad tiene mayor verosimilitud en base a modelos estadisticos que sean actualizados a partir de nueva evidencia. Esto seria mas o menos como hacer una medicion de algo que existe.

    gracias leandro, tenía pensada la posible aplicabilidad respectiva para una situación hipotética (por ej. medicamento X surte efecto F en el organismo Y para cuadro Z).

    salu2
    carmen

    Respuesta
  • Leandro Yampolsky dijo:
    Lo que quiero decir es que los individuos de una poblacion pueden ir llegando o no al hospital en base a distintos datos estadisticos de esa poblacion y la enfermedad tales como la cantidad de individuos enfermos, cuan detectables son los sintomas, cuan conocida es la enfermedad, etc. Esos datos pueden generar un cierto «orden» (porque se esta hablando de una poblacion y no de un individuo) que podria ser modelado.
    Porque para calcular la probabilidad condicional se necesita tener la probabilidad de la condicion (tener HIV) y esta es independiente de que el individuo en cuestion tenga o no VIH. O sea, se busca calcular la probabilidad de que ocurran las 2 cosas a la vez (que tenga SIDA y HIV) pero como se supone que lo primero (en un orden atemporal) que ocurre es que tenga VIH, hay que «normalizar» ese valor dividiendo por la probabilidad de que ocurra que el individuo tenga HIV.
    Lo que yo entiendo quiso decir Bunge es cuando se esta hablando en un instante. Es decir, en un instante dado, si alguien tiene HIV, cual es la probabilidad de que tenga SIDA (i.e. presente los sintomas suficientes para el diagnostico). No seria lo mismo que la probabilidad de que alguien desarrolle SIDA en cualquier momento (hasta el final de su vida) sabiendo que tiene HIV.

    Muchas gracias Leandro! Me aclaraste un montón de dudas

    Respuesta
  • Carmen dijo:

    Me tinga que la gente que espera justificar una certeza determinante de la inferencia inductiva están mál encaminada. Pero, a mi criterio inexperto, se puede normativizar, en base a lo práctico -no te parece?

    No sé a qué te referís exactamente.
    Es un problema epistemológico.
    En un principio las ciencias exactas, tipo física y química, fueron más que nada inductivas.
    La gente pensaba que la inducción estaba bastante «bien» como criterio.
    Otros pensaron que no, y surgió el Falsacionismo.
    El Falsacionismo requiere una teoría que explique los hechos, y cuyas afirmaciones sean «falsables», o sea, que mediante algún experimento quede abierta la posibilidad de que se obtenga un resultado contrario a lo que se afirma.

    Se supone que las teorías científicas son así.
    Pero este ideal no se cumple siempre, porque la ciencia es una comunidad que funciona con una dinámica interna, y hay gente que se ha percatado de que no es cierto que un científico descarta una teoría cuando hay evidencias empíricas en contra.
    Eso no ocurre, sino que en realidad se tiene la tendencia a aferrarse al paradigma existente.

    Kuhn y Lakatos entre otros han reflexionado sobre esto, y han elaborado teorías de la ciencia en las que los paradigmas son lo que cuenta, y no las evidencias empíricas.
    La evidencia empírica a lo sumo va «erosionando» el paradigma, pero por diversas razones no lo aniquila, hasta que se entra en alguna crisis.

    Pero bueno, eso es sobre la parte subjetiva de la ciencia que la gente elige por «conveniencia». Son temas históricos o culturales.

    Yo lo que discuto es que hay una parte de subjetividad que uno no puede «elegir», sino que es inevitable, aún si uno pretende una objetividad absoluta.

    No se me ocurre ninguna analogía decente, pero es como si uno dijera que la matemática es exacta totalmente, y no es capaz de dar la lista completa de los dígitos del número pi.

    Respuesta
  • Leandro Yampolsky dijo:

    Se utiliza un modelo (la formula de decaimiento exponencial) que fue testeado y se sabe que funciona.

    ¿Y cómo es que fue testeado?
    ¿Y cómo se sabe que funciona?
    ¿Dónde empieza la «certeza» de lo que se está hablando?
    ¿En ningún momento/etapa/paso de ese proceso de validación hubo elementos subjetivos?

    Pensar que no es un autoengaño. Creer que la ciencia funciona en todo momento como un relojito… sin el «pecado» de la subjetividad, pienso que es un error.

    Respuesta
  • Carmen dijo:

    Steve Novella, un médico importante en NY que aboga por al medicina científica, comenta que se utiliza el análisis bayesiano en la medicina. Joya. Y otros comentan que se utiliza mucho en estadísitica. Me parece interesante cotejar la forma bayesiana con la forma frecuentista, pero no trabajo en estos rubros. En realidad, la estadística es mi punto flojo

    Bueno, yo tampoco sé cómo se trabaja en estadística.
    Tengo sólo conocimientos matemáticos de probabilidad y algo de teoría estadística que encima me he ido olvidando.
    Pero de lo que hacen en la práctica sólo tengo una idea…

    No obstante, lo que pienso es que si Bayes y otros tipos que han trabajado fuertemente en probabilidad y estadística se han tomado en serio una postura subjetiva, es por alguna razón.
    Será que piensan que «no queda más remedio».

    Yo pienso que tiene sentido, porque en algún momento, al confeccionar un modelo basado en la teoría de probabilidad, no queda más remedio que meter algún parámetro «a ojo», acorde a algún criterio que «a uno le parece correcto».

    Quisiera saber si alguien conoce un ejemplo en detalle donde no aparezcan elementos subjetivos de ninguna especie en ningún momento en la confección de un modelo (no demasiado trivial) que involucre probabilidades.

    Porque lo que dice Leandro, de que la ciencia sólo trabaja en forma objetiva, me parece que es más una «intención» de la ciencia, que un logro.

    Si uno «testea» un modelo, lo tiene que hacer con «una herramienta de testeo»,
    por lo tanto tiene confianza en dicha herramienta de testeo.
    Esa confianza puede ser del 100% o menos, no importa, incluso no importa si se aceptan «errores en un cierto porcentaje», digamos del 0.5%, para ejemplificar.

    Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?
    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».

    Pero para validar cada cosa, necesariamente se necesita estar «seguro» previamente de la herramienta que usa para validar.
    Las herramientas de validación tienen que ser necesariamente diferentes y «distintas», no pueden validarse entre sí.

    Esto genera una secuencia infinita hacia atrás en el proceso de validación: no se puede tener un punto de partida certero.

    Al menos no empíricamente. En algún momento algo hay que «inventar». En algo «hay que creer», porque hay que tener un punto de partida.

    Yo pienso que el test empírico es necesario, pero no veo cómo validar el empirismo.
    El empirismo es algo que yo necesito para tener cierto grado de convencimiento, pero lo cierto es que no le encuentro la punta al ovillo, y no soy capaz de justificarlo.

    Respuesta
  • saibaba dijo:
    ¿Y cómo es que fue testeado?

    Midiendo la masa, la emision de radiactividad de distintos elementos u otros parametros que desconozco. Supongo que en algun libro de historia de la fisica moderna habra detalles.

    saibaba dijo:
    ¿Y cómo se sabe que funciona?

    Porque las pruebas realizadas verifican las predicciones del modelo que es compatible con el resto de la fisica cuantica.

    saibaba dijo:
    ¿Dónde empieza la «certeza» de lo que se está hablando?

    No existe una dicotomia entre «certeza» y «no certeza». Hay distintos grados de certeza, siendo el conocimiento adquirido a traves del metodo cientifico altamente certero.

    saibaba dijo:
    ¿En ningún momento/etapa/paso de ese proceso de validación hubo elementos subjetivos?

    Obviamente que hay elementos subjetivos en cualquier adquisicion de conocimiento sobre la realidad. Seria absurdo negarlo (exceptuando el caso imaginario en que uno sea un ser omnisciente como Dios).

    saibaba dijo:
    Pensar que no es un autoengaño. Creer que la ciencia funciona en todo momento como un relojito… sin el «pecado» de la subjetividad, pienso que es un error.

    La existencia de elementos subjetivos o imprecisos (errores en aparatos de medicion, percepcion de los efectos y no de las causas de los fenomenos, sesgos cognitivos, etc.) no impiden que se pueda lograr adquirir conocimiento objetivo sobre la realidad. El metodo cientifico funciona justamente por superar esas barreras.

    Respuesta
  • saibaba dijo:
    No obstante, lo que pienso es que si Bayes y otros tipos que han trabajado fuertemente en probabilidad y estadística se han tomado en serio una postura subjetiva, es por alguna razón.
    Será que piensan que «no queda más remedio».

    Bayes no tuvo nada que ver con el Bayesianismo. El Bayesianismo lleva su nombre porque se basa en la aplicacion del teorema de Bayes (http://en.wikipedia.org/wiki/Bayes%27_theorem ) que es un enunciado matematico demostrado en teoria de probabilidad. Su uso obviamente no es exclusivo a la interpretacion Bayesiana de la probabilidad.

    saibaba dijo:
    Yo pienso que tiene sentido, porque en algún momento, al confeccionar un modelo basado en la teoría de probabilidad, no queda más remedio que meter algún parámetro «a ojo», acorde a algún criterio que «a uno le parece correcto».

    Quisiera saber si alguien conoce un ejemplo en detalle donde no aparezcan elementos subjetivos de ninguna especie en ningún momento en la confección de un modelo (no demasiado trivial) que involucre probabilidades.

    No es esa la interpretacion Bayesiana. No es lo mismo «la existencia de algun elemento subjetivo» y «la ausencia de objetividad».

    saibaba dijo:
    Porque lo que dice Leandro, de que la ciencia sólo trabaja en forma objetiva, me parece que es más una «intención» de la ciencia, que un logro.

    Hasta ahora el metodo cientifico viene funcionando mejor que cualquier otro para adquirir conocimiento objetivo sobre la realidad. Ese es el logro de la Ciencia.

    saibaba dijo:
    Si uno «testea» un modelo, lo tiene que hacer con «una herramienta de testeo»,
    por lo tanto tiene confianza en dicha herramienta de testeo.
    Esa confianza puede ser del 100% o menos, no importa, incluso no importa si se aceptan «errores en un cierto porcentaje», digamos del 0.5%, para ejemplificar.

    Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?
    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».

    Hay metodos estadisticos para medir el error en aparatos de mediciones, para lo cual generalmente se estima la varianza o la media en una muestra (muchos resultados de mediciones). Es un problema tecnico igualmente, no cientifico.

    saibaba dijo:
    Pero para validar cada cosa, necesariamente se necesita estar «seguro» previamente de la herramienta que usa para validar.
    Las herramientas de validación tienen que ser necesariamente diferentes y «distintas», no pueden validarse entre sí.

    Esto genera una secuencia infinita hacia atrás en el proceso de validación: no se puede tener un punto de partida certero.

    Al menos no empíricamente. En algún momento algo hay que «inventar». En algo «hay que creer», porque hay que tener un punto de partida.

    Nuevamente, es la misma confusion acerca del concepto «certero» (entendiendose como cuan cierto puede ser algo). El que no haya absoluta certeza no implica la ausencia de certeza. Sino, estas cometiendo la falacia del continuo para descartar un concepto vago como «certeza» que existe y se aplica a distintas posibilidades en concordancia con la realidad.

    Respuesta
  • saibaba dijo:
    En un principio las ciencias exactas, tipo física y química, fueron más que nada inductivas.
    La gente pensaba que la inducción estaba bastante «bien» como criterio.

    En realidad eso es en lo que los filosofos se enfocaron y estuvieron discutiendo durante siglos sobre el «problema de la induccion». Pero en la historia de la Ciencia la induccion no jugo nunca el rol mas importante. Mas alla de los metodos de razonamiento deductivos, la induccion pertenece a una categoria de problemas mas importante llamados problemas inversos (o indirectos), como señala Bunge en… bueno, en casi todo lo que escribe o dice

    saibaba dijo:
    Otros pensaron que no, y surgió el Falsacionismo.
    El Falsacionismo requiere una teoría que explique los hechos, y cuyas afirmaciones sean «falsables», o sea, que mediante algún experimento quede abierta la posibilidad de que se obtenga un resultado contrario a lo que se afirma.
    Se supone que las teorías científicas son así.
    Pero este ideal no se cumple siempre, porque la ciencia es una comunidad que funciona con una dinámica interna, y hay gente que se ha percatado de que no es cierto que un científico descarta una teoría cuando hay evidencias empíricas en contra.
    Eso no ocurre, sino que en realidad se tiene la tendencia a aferrarse al paradigma existente.
    Kuhn y Lakatos entre otros han reflexionado sobre esto, y han elaborado teorías de la ciencia en las que los paradigmas son lo que cuenta, y no las evidencias empíricas.
    La evidencia empírica a lo sumo va «erosionando» el paradigma, pero por diversas razones no lo aniquila, hasta que se entra en alguna crisis.
    Pero bueno, eso es sobre la parte subjetiva de la ciencia que la gente elige por «conveniencia». Son temas históricos o culturales.

    Ni Popper, ni Kuhn, ni Lakatos describieron correctamente la investigacion cientifica. El Falsacionismo obviamente falla porque se enfoca en la refutacion de hipotesis sin tener en cuenta la verificacion de las mismas. Por otro lado, las propuestas de Kuhn y Lakatos no son mejores, en el sentido de que no hay «programas», ni «paradigmas» ni ninguna otra estructura cerrada. Hay cuerpos teoricos en distintos campos que interactuan interna y externamente con otras hipotesis en distintos niveles. Esto se evidencia aun mas al existir campos de estudio que surgieron para estudiar las hipotesis entre otros campos que interactuan entre si, como por ejemplo ocurrio con la Bioquimica, que se separo de la Biologia y de la Quimica.

    Respuesta
  • saibaba dijo:
    Pero ese método conlleva un cierto error, porque en realidad estamos asignando al método HHH una fiabilidad absoluta como herramienta de diagnóstico.
    Así que el cálculo no es tan simple, y hay que agregar la prob. (condicional) de que el diagnóstico HHH dé resultados «SÍ» cuando es «SÍ» o que dé «NO» cuando es «NO», o sea, cuando realmente funciona. Dicha prob. digamos que es un número q, que podemos imaginar cercano al 0.99, pero lo importante es que no es 1.

    Por lo menos en lo que respecta a los análisis de laboratorio creo que a lo que te referís es a los resultados falsos positivos y falsos negativos. Pasa con todos los análisis.

    saibaba dijo:
    Se necesita tener cierta «certeza» previa sobre quiénes están enfermos y quiénes no, para saber si realmente el método funciona o no.
    En la práctica esto quizá no sea un problema,
    pero en teoría no tiene sentido, porque para saber si alguien está enfermo de EEE, hay que diagnosticarlo con HHH, que de nuevo, para saber cuán fiable es, hay que testearlo para ver si detecta o no correctamente quién se enfermó de EEE… y así por siempre.

    No entendí muy bien tu ejemplo, pero si, en la práctica es un problema. Por eso se ponen puntos de corte arbitrarios para determinar a quienes se considera enfermos y a quienes no.

    saibaba dijo:
    Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?
    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».
    Pero para validar cada cosa, necesariamente se necesita estar «seguro» previamente de la herramienta que usa para validar.
    Las herramientas de validación tienen que ser necesariamente diferentes y «distintas», no pueden validarse entre sí.
    Esto genera una secuencia infinita hacia atrás en el proceso de validación: no se puede tener un punto de partida certero.

    Creo que en esto puede ser que tengas razón en parte. O sea, por ejemplo, en un análisis de laboratorio para una determinada enfermedad siempre tenés un estandar con el cuál se contrastan las demás pruebas. Pero el estandar se impone como tal arbitrariamente y no hay prueba con el cual contrastarlo. No se si es esto a lo que te referías. Y la verdad que no se como se hacen las validaciones de los estadandares. Supongo que se debe evaluar cada caso en particular.

    Respuesta

Responder a Carmen Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*