Pienso, luego Dudo – Capítulo 18b

Etiquetas: ,

Mostrando 41 respuestas a los debates
  • #33655

    Lo que yo entendi que Bunge quiere decir por «falacia probabilistica» es cuando se dice que la probabilidad de que alguien tenga una enfermedad es la frecuencia de esa enfermedad en la poblacion. Por ejemplo, si el 1% de la poblacion tiene una enfermedad y yo concluyo que por ello la probabilidad de tener esa enfermedad es de 1%, tengo que justificarlo agregando que la distribucion de la probabilidad es uniforme. Como las enfermedades estan causadas por condiciones que no necesariamente tienen distribuciones uniformes en la poblacion, no se puede asumir que cualquiera tiene la misma probabilidad de contraer una enfermedad.

    La frecuencia en la poblacion puede servir en algunos casos como indicador de la verosimilitud de que la probabilidad de que cualquiera tenga la enfermedad sea algun valor p. Pero al haber mas evidencia (como descubrir las causas de la enfermedad) hay mejores estimadores. Para entender la diferencia entre probabilidad y verosimilitud se puede leer el comienzo de este articulo: http://es.wikipedia.org/wiki/Funci%C3%B3n_de_verosimilitud

  • #33656

    El problema es que Bunge tiró esta posibilidad por la ventana al descartar a Bayes. Ponele que el 2% de la población tenga cierta enfermedad genética, eso quiere decir que si yo soy médico y entra un paciente por la puerta ya tengo que considerar esa probabilidad como una probabilidad previa 2%. Luego me entero que los síntomas que presenta son consistentes con esa enfermedad (además de varias otras); ahí me da más confianza en que este paciente en particular tenga esa enfermedad. Si encima me entero que tiene un historial familiar ya puedo tener un gran alto grado de certeza de que realmente sufre eso.

    Cuando Bunge dice que esa “probabilidad” no es técnicamente “probabilidad matemática” tiene razón en que no hay azar (aunque quizás algunos físicos cuánticos puedan estar en desacuerdo) pero ante la ignorancia de variables en el sistema creo que puede hablarse de probabilidades tranquilamente.

    La tirada de un dado también es completamente determinista y todo el mundo habla de que la probabilidad de que salga un 6 es 1/6.

  • #33657
    N3RI
    Superadministrador

    en qué parte hablan de Half-Life el videojuego???? lo escuché varias veces y no encontré esa parte; si había relación con el juego (además del nombre), no la sabía y la quiero saber.

  • #33658
    Suyay
    Participante

    Ok, yo mucho de estadística no sé, como ya se habrán dado cuenta. Pero esto me interesa.

    O sea, lo que dice Bunge vendría a ser algo así como que si yo digo que la frecuencia de una enfermedad, como la varicela, en la poblacion es del 1%, entonces si digo que cada individuo tiene una probabilidad del 1% de tener varicela esta mal porque no todos tienen las mismas caracteristicas que los predisponen a tener varicela, como por ejemplo, la edad. Algo así?

  • #33659
    PabloDF
    Miembro

    Me parece que estás en lo correcto, Suyay. Aunque es un poco más abstracto. Medir la frecuencia de algo en una población es empírico. Medir la frecuencia de algo en una muestra es empírico y teórico (tenés que entender algunas cosas para seleccionar una muestra representativa y no sesgada). La probabilidad es una incógnita teórica, no se puede medir sino sólo deducir. Al menos eso entiendo yo. Supongo que la diferencia no es significativa, pero para un epistemólogo jodido como Bunge debe serla. Desde el momento en que la medición de la frecuencia depende de observaciones, y esas observaciones nunca pueden ser totalmente exactas/completas, no sería correcto equiparar frecuencia con probabilidad.

  • #33660
    Suyay
    Participante

    Ok, eso mas o menos entendí. Pero si estás midiendo la frecuencia de una dada enfermedad en toda la población, no en una parte de la población (ej: niños, adultos mayores,etc.), y supongamos que la muestra que se toma es representativa, igualmente la enfermedad no va a estar presente con la misma frecuencia en toda la población porque siempre va a afectar a una parte de la población más que a otra. O sea, nunca se va a tener una muestra con una distribución uniforme en la población. Por ende, según Bunge, nunca se puede hablar de probabilidad de que un individuo tenga una determinada enfermedad basandose en la frecuencia de la enfermedad en la población.

    Me parece que me estoy haciendo un lío…

  • #33661
    PabloDF
    Miembro

    No, lo de la distribución uniforme es otra cosa. Se supone que a priori todo el mundo puede tener la enfermedad en cuestión, es decir, la probabilidad de que la tengan es uniforme. Pero quizá no lo sea, quizá en realidad haya algún patrón escondido en los datos por culpa de factores que no podemos medir fácilmente, por ejemplo, la presencia de tales o cuales genes. Si medís la frecuencia de la enfermedad y decís que ésa es la probabilidad de que cualquiera la tenga, estás ignorando esos factores ocultos.

  • #33662

    Daneel Olivaw dijo:

    El problema es que Bunge tiró esta posibilidad por la ventana al descartar a Bayes. Ponele que el 2% de la población tenga cierta enfermedad genética, eso quiere decir que si yo soy médico y entra un paciente por la puerta ya tengo que considerar esa probabilidad como una probabilidad previa 2%. Luego me entero que los síntomas que presenta son consistentes con esa enfermedad (además de varias otras); ahí me da más confianza en que este paciente en particular tenga esa enfermedad. Si encima me entero que tiene un historial familiar ya puedo tener un gran alto grado de certeza de que realmente sufre eso.

    Cuando Bunge dice que esa “probabilidad” no es técnicamente “probabilidad matemática” tiene razón en que no hay azar (aunque quizás algunos físicos cuánticos puedan estar en desacuerdo) pero ante la ignorancia de variables en el sistema creo que puede hablarse de probabilidades tranquilamente.

    La tirada de un dado también es completamente determinista y todo el mundo habla de que la probabilidad de que salga un 6 es 1/6.

    Lo que pasa es que Bunge esta a favor de la interpretacion objetivista (la cual comparto) y no de la frecuentista o Bayesiana. A continuacion dejo una breve explicacion de las distintas interpretaciones que se encuentra en uno de sus libros (Chasing Reality, 4. Causation and Chance: Apparent or Real?, 5. Chance as Ignorance):

    Quote:
    An alternative to the realist view of chance and probability is the subjectivist

    doctrine. This is also known as Bayesianism because of its heavy reliance on a

    certain interpretation of Bayes’s theorem. Bayesianism is the opinion that

    probabilities are just opinions: that every probability value is a measure of the

    strength of the belief of a person in a fact or in a statement. (See, e.g., de Finetti

    1972, Jeffreys 1975, Keynes 1957, and Savage 1954.) This opinion was held

    by no less than Jacques and Daniel Bernoulli, Pierre Simon Laplace, Augustus

    De Morgan, and John Maynard Keynes.

    More precisely, Bayesianism holds that (a) probabilities are properties of

    beliefs, propositions, or statements, rather than of facts of a certain kind; and

    (b) “probability measures the confidence that a particular individual has in the

    truth of a particular proposition, for example, the proposition that it will rain

    tomorrow” (Savage 1954: 3).

    […]

    A third reason for adopting Bayesianism is the mistaken belief that it is the

    only respectable alternative to the frequency doctrine proposed by such eminent

    empiricists as John Venn (1962) and Richard von Mises (1926). According

    to it, probability is definable in terms of long-run relative frequency. This

    view is intuitively appealing to experimental scientists because it conflates

    chance (or randomness) with its tests–an instance of the operationist confusions

    of definition with test, and reference with evidence. Indeed, to determine

    whether a given set of data is random, one looks for certain fairly constant

    global properties of the set, particularly the shape and scatter (variance) of a

    distribution, such as the bell curve. In particular, when observed frequencies

    are available, one contrasts them with the corresponding calculated probabilities.

    But one should remember that probabilities (and probability densities) are

    properties of individuals, whereas the statistical parameters are properties of

    aggregates. Besides, statistics are restricted to past events, the only ones on

    which statistical parameters, such as frequencies and variances, can be counted.

    (More in Bunge 1981a and 1988.) Last, but not least, the frequency theory of

    probability happens to be mathematically flawed (Ville 1939).

    So, the frequency theory of probability must be discarded. However, contrary

    to popular belief, Bayesianism is not the sole alternative to it. Indeed, as

    suggested in the previous section, there is a tertium quid, namely, the objectivist

    (or realist or “propensity”) interpretation, the one usually employed in

    theoretical physics and biology. For example, the probability distributions

    calculated in classical statistical mechanics are deemed to be objective properties

    of the systems concerned. Furthermore, those distributions depend on the

    system’s energy and temperature, neither of which can be estimated by counting

    frequencies. When such a count is possible, its serves to test probability

    estimates, not to assign them meanings.

    Cuando se habla de probabilidad matematicamente uno se refiere a algo en particular (es necesario estar en un espacio de probabilidad). Ese mismo concepto es el que se usa en muchos campos cientificos y gracias al cual es correcto elaborar modelos probabilisticos (el teorema de Bayes puede ser una de las herramientas entre muchas). Luego, la Estadistica sirve para poder observar instancias de una variable aleatoria y estimar cual era la probabilidad asociada (u otro parametro) a su distribucion. Esto ultimo esta dado por la verosimilitud, que es otro concepto que tambien requiere asumir previamente algunas cosas (como saber cual es el tipo de distribucion de la variable aleatoria).

    Es decir, un medico podria estimar la probabilidad de que un paciente este enfermo mediante un modelo estadistico. Pero asumir que la distribucion de estar enfermo en la poblacion es uniforme es muy apresurado. De hecho, para muchas enfermedades la distribucion asociada va a ser dependiente de muchas variables (edad, peso, altura, etc.) que no tienen distribuciones uniformes en la poblacion. O sea, ni siquiera parece ser intuitivo.

  • #33663

    Aca encontre la explicacion del ejemplo que dio Bunge en la charla (que era dificil de entender porque cada 30 segundos alejaba el microfono a 1 metro de su boca) (Chasing Reality, 4. Causation and Chance: Apparent or Real?, 9. Bayesianism Is Hazardous):

    Quote:
    To appreciate the enormity of the Bayesian attempted counter-revolution,

    consider, for instance, the relation between the HIV virus and AIDS. It is well

    known that, whereas those who have this disease test HIV-positive, the converse

    is not true: some individuals have lived with the virus for a decade or

    more without developing AIDS. Suppose then that a given individual has

    contracted that virus, and that we wish to ascertain the probability that he

    also has, or will soon develop, AIDS. Presumably, a Bayesian would set

    Pr(AIDS | HIV) = Pr(HIV | AIDS) Pr(AIDS) / Pr(HIV). Further, since the individual

    in question has tested HIV-positive, our Bayesian is likely to set Pr(HIV)

    = 1. And, since it is known that whoever has AIDS also has the HIV virus,

    Pr(HIV | AIDS) = 1. Thus, Bayes’s formula simplifies to Pr(AIDS | HIV) =

    Pr(AIDS). However, this is known to be false: in fact, HIV is necessary but not

    sufficient to develop AIDS. So, if AIDS researchers were to adopt Bayesianism,

    they would not try to discover the causes that, jointly with HIV infection, lead

    to AIDS.

  • #33664
    Suyay
    Participante

    PabloDF dijo:

    No, lo de la distribución uniforme es otra cosa. Se supone que a priori todo el mundo puede tener la enfermedad en cuestión, es decir, la probabilidad de que la tengan es uniforme. Pero quizá no lo sea, quizá en realidad haya algún patrón escondido en los datos por culpa de factores que no podemos medir fácilmente, por ejemplo, la presencia de tales o cuales genes. Si medís la frecuencia de la enfermedad y decís que ésa es la probabilidad de que cualquiera la tenga, estás ignorando esos factores ocultos.

    Ah, gracias. Ahora entendí mejor. Pero igual, si los factores que pueden influir en la probabilidad están ocultos y son desconocidos para uno. ¿Como se puede decir que está mal si no se conoce lo que la hace falsa?

  • #33665
    Suyay
    Participante

    Leandro Yampolsky dijo:

    Quote:
    An alternative to the realist view of chance and probability is the subjectivist

    doctrine. This is also known as Bayesianism because of its heavy reliance on a

    certain interpretation of Bayes’s theorem. Bayesianism is the opinion that

    probabilities are just opinions: that every probability value is a measure of the

    strength of the belief of a person in a fact or in a statement. (See, e.g., de Finetti

    1972, Jeffreys 1975, Keynes 1957, and Savage 1954.) This opinion was held

    by no less than Jacques and Daniel Bernoulli, Pierre Simon Laplace, Augustus

    De Morgan, and John Maynard Keynes.

    More precisely, Bayesianism holds that (a) probabilities are properties of

    beliefs, propositions, or statements, rather than of facts of a certain kind; and

    (b) “probability measures the confidence that a particular individual has in the

    truth of a particular proposition, for example, the proposition that it will rain

    tomorrow” (Savage 1954: 3).

    O sea que, básicamente, si uno dice : la probabilidad de tener la enfermedad A es de X. En realidad es solo lo que yo «creo» o la «fe» que tengo en esa proposición?

    Leandro Yampolsky dijo:

    Es decir, un medico podria estimar la probabilidad de que un paciente este enfermo mediante un modelo estadistico. Pero asumir que la distribucion de estar enfermo en la poblacion es uniforme es muy apresurado. De hecho, para muchas enfermedades la distribucion asociada va a ser dependiente de muchas variables (edad, peso, altura, etc.) que no tienen distribuciones uniformes en la poblacion. O sea, ni siquiera parece ser intuitivo.

    Entonces, según lo que entendí, no hay forma de predecir si un paciente se va a enfermar de acuerdo a la frecuencia de una enfermedad en la población.

  • #33666
    Suyay
    Participante

    Leandro Yampolsky dijo:

    Aca encontre la explicacion del ejemplo que dio Bunge en la charla (que era dificil de entender porque cada 30 segundos alejaba el microfono a 1 metro de su boca) (Chasing Reality, 4. Causation and Chance: Apparent or Real?, 9. Bayesianism Is Hazardous):

    Quote:
    To appreciate the enormity of the Bayesian attempted counter-revolution,

    consider, for instance, the relation between the HIV virus and AIDS. It is well

    known that, whereas those who have this disease test HIV-positive, the converse

    is not true: some individuals have lived with the virus for a decade or

    more without developing AIDS. Suppose then that a given individual has

    contracted that virus, and that we wish to ascertain the probability that he

    also has, or will soon develop, AIDS. Presumably, a Bayesian would set

    Pr(AIDS | HIV) = Pr(HIV | AIDS) Pr(AIDS) / Pr(HIV). Further, since the individual

    in question has tested HIV-positive, our Bayesian is likely to set Pr(HIV)

    = 1. And, since it is known that whoever has AIDS also has the HIV virus,

    Pr(HIV | AIDS) = 1. Thus, Bayes’s formula simplifies to Pr(AIDS | HIV) =

    Pr(AIDS). However, this is known to be false: in fact, HIV is necessary but not

    sufficient to develop AIDS. So, if AIDS researchers were to adopt Bayesianism,

    they would not try to discover the causes that, jointly with HIV infection, lead

    to AIDS.

    Se entendió más o menos. Lástima que Bunge eligió el ejemplo del HIV que es bastante malo para esto.

  • #33667

    Suyay dijo:

    O sea que, básicamente, si uno dice : la probabilidad de tener la enfermedad A es de X. En realidad es solo lo que yo «creo» o la «fe» que tengo en esa proposición?

    Eso es segun la interpretacion Bayesiana de la probabilidad. Segun la frecuentista, la proposicion quiere decir que la frecuencia relativa de A en la poblacion se acerca a X. Segun la objetivista, la proposicion quiere decir que hay un modelo probabilistico del proceso aleatorio de tener o no la enfermedad A que asigna el valor X a la funcion de probabilidad asociada a la variable aleatoria que dice si alguien tiene o no la enfermedad A.

    Suyay dijo:

    Entonces, según lo que entendí, no hay forma de predecir si un paciente se va a enfermar de acuerdo a la frecuencia de una enfermedad en la población.

    Se puede predecir llevando el problema inverso de diagnostico a distintos problemas directos y contrastandolos con la evidencia. En este caso, la frecuencia de la enfermedad en la poblacion es parte de la evidencia, pero tambien importa la dispersion (varianza) de la enfermedad relativa a la media, cuan independientes son los distintos sintomas en relacion a la enfermedad y otros datos estadisticos, ademas de la evidencia que explique el mecanismo que hace que la enfermedad cause determinados sintomas. Pero en tal caso, se estaria hablando de verosimilitud («likelihood») y no de probabilidad, ya que el proceso de enfermarse no es aleatorio. Lo que puede verse como un proceso aleatorio (en mi opinion) es ver si un paciente que llega al hospital esta enfermo o no (que no es lo mismo que calcular la probabilidad que alguien tiene de enfermarse).

  • #33668

    Suyay dijo:

    Se entendió más o menos. Lástima que Bunge eligió el ejemplo del HIV que es bastante malo para esto.

    Por que te parece que el ejemplo del HIV es malo?

    Claramente, se llega al absurdo Pr(AIDS | HIV) = Pr(AIDS) por suponer que Pr(HIV) = 1. Lo que me parece criticable del ejemplo es que cualquier Bayesiano vaya a cometer ese error. A mi me parece que el Bayesiano se volveria un poco frecuentista y utilizaria la frecuencia de HIV en la poblacion como valor de Pr(HIV) o tiraria un valor intuitivo como 0,1.

  • #33669
    Carmen
    Miembro

    ¿puede ser que en ciertas situaciones el abordaje frecuentista resulta más apropiado?

    en otras, el abordaje bayesiano puede resultar útil – como para actualizar una probabilidad anterior a la luz de nueva evidencia, no les parece?

    salu2

    carmen

  • #33670
    Suyay
    Participante

    Leandro Yampolsky dijo:

    Eso es segun la interpretacion Bayesiana de la probabilidad. Segun la frecuentista, la proposicion quiere decir que la frecuencia relativa de A en la poblacion se acerca a X. Segun la objetivista, la proposicion quiere decir que hay un modelo probabilistico del proceso aleatorio de tener o no la enfermedad A que asigna el valor X a la funcion de probabilidad asociada a la variable aleatoria que dice si alguien tiene o no la enfermedad A.

    La verdad que no sabía que había tantas posturas diferentes con respecto a este tema. Pensaba que había más consenso. Es muy interesante conocer las diferentes aproximaciones al mismo tema. Creo que logré entender bastante, lo tuve que leer un par de veces, pero igual me parece que me faltan conocimientos como para entenderlo del todo.

    Leandro Yampolsky dijo:

    Lo que puede verse como un proceso aleatorio (en mi opinion) es ver si un paciente que llega al hospital esta enfermo o no (que no es lo mismo que calcular la probabilidad que alguien tiene de enfermarse).

    Esto no lo entendí.

  • #33671
    Suyay
    Participante

    Leandro Yampolsky dijo:

    Claramente, se llega al absurdo Pr(AIDS | HIV) = Pr(AIDS) por suponer que Pr(HIV) = 1. Lo que me parece criticable del ejemplo es que cualquier Bayesiano vaya a cometer ese error. A mi me parece que el Bayesiano se volveria un poco frecuentista y utilizaria la frecuencia de HIV en la poblacion como valor de Pr(HIV) o tiraria un valor intuitivo como 0,1.

    Pero si se esta calculando la probabilidad de un individuo particular de desarrolar SIDA que ya se sabe que es HIV positivo, ¿por que se debería utilizar la frecuencia en la población?

    Leandro Yampolsky dijo:

    Por que te parece que el ejemplo del HIV es malo?

    No se en que epoca habrá escrito esto Bunge, pero ya se sabe que todas las personas que tienen HIV, si no estan medicadas, eventualmente desarrollan SIDA. Salvo que se mueran de otra cosa antes. Cuando dice «algunos individuos han vivido una decada o mas sin desarrollar SIDA» parece que quisiera decir que estos individuos no desarrollan el SIDA, cuando en realidad es parte del desarrollo natural de la enfermedad, que tiene un periodo de latencia muy largo. Se han observado individuos que desarrollan SIDA mas lentamente, que son los «controladores de elite» o «no progresores a largo plazo», pero eventualmente terminan desarrollandolo también. Por otro lado, el diagnostico de SIDA es un diagnostico arbitrario, que puede no incluir el tener una enfermedad oportunista ya que un recuento de linfocitos T CD4+ inferior a 200/microlitro es considerado como SIDA. Por eso tambien el termino SIDA esta empezando a ser reemplazado por el de «infeccion por HIV avanzada» porque no es más que eso. Entonces cuando Bunge habla de que el HIV es necesario pero no suficiente para tener SIDA, considerando que los otros factores a los que se refiere son los agentes infecciosos que provocan las enfermedades oportunistas, en realidad esto no es cierto ya que un individuo puede ser diagnosticado con SIDA sin la presencia de enfermedades oportunistas. Salvo que Bunge estuviera hablando de otra cosa y yo lo haya malinterpretado.

  • #33672

    Carmen dijo:

    ¿puede ser que en ciertas situaciones el abordaje frecuentista resulta más apropiado?

    No me imagino que eso ocurra en ninguna situacion. O sea, definir la probabilidad de un evento a partir de una muestra esta mal desde el inicio y no sirve para hacer modelos probabilisticos.

    Carmen dijo:

    en otras, el abordaje bayesiano puede resultar útil – como para actualizar una probabilidad anterior a la luz de nueva evidencia, no les parece?

    No veo cual puede ser la utilidad de actualizar cuan firme es una creencia. Es un fenomeno psicologico, sin duda, que las creencias se vuelven mas o menos fuertes a partir de la evidencia. Por otro lado, si se considera que la probabilidad es una propiedad de un objeto, no tiene sentido «actualizar una probabilidad anterior». Lo que se puede hacer es estimar cual probabilidad tiene mayor verosimilitud en base a modelos estadisticos que sean actualizados a partir de nueva evidencia. Esto seria mas o menos como hacer una medicion de algo que existe.

  • #33673
    saibaba
    Miembro

    En los casos en que un experimento puede repetirse tantas veces como uno quiera, todas las intepretaciones de la probabilidad tienen que coincidir, incluso la subjetiva, porque después de todo, dicha subjetividad se basa en algo.

    Por ejemplo, en el caso de la enfermedad de cierta población, si hay 1% de prob. subjetiva, querrá decir que se sabe que la proporción de enfermos es del 1%, y que se elige subjetivamente ese valor como la prob. en cuestión.

    Lo erróneo está en el uso de la prob. de una población para un individuo «específico».

    No es un error de la postura filosófica de la prob., sino del mal uso del modelo.

    Si el modelo está hecho para «individuos tomados al azar de una población», no es lo mismo que la prob. de que un individuo específico se enferme o no.

    Pero al decir «específico» quiere decir que estamos agregando más información al sistema, o sea que tiene que intervenir una prob. ocndicional,

    o si se prefiere, simplemente cambiar el espacio muestral.

    Ahora, el sentido de la prob. de que Juan Pérez esté enfermo sería esto (en modo «frecuentista»):

    * Si p es la prob. de que Juan Pérez esté enfermo, entonces

    * haciendo N diagnósticos a Juan Pérez, obtenemos M veces un análisis de laboratorio que nos dice que Juan Pérez «contrajo la enfermedad».

    * Entonces el cociente M/N tiende a p cuando el número de diagnósticos N se hace «grande».

    El problema con esto es que nadie va a hacerle a Juan Pérez un millón de diagnósticos para saber la prob. p, a lo sumo se le hacen 2 o 3.

    Ese «experimento» sobre Juan Pérez no es lo mismo que el «experimento» de seleccionar individuos al azar de una cierta población y verificar si están enfermos o no.


    Los problemas filosóficos con la prob. subjetiva comienzan cuando ninguna otra interpretación es aplicable: la prob. de contraer matrimonio este año, la prob. de ver una nube con forma de corazón antes de que anochezca…

    En esos casos la asignación de prob. tiene que ser subjetiva, no hay otro modo,

    pero en todo caso habría que plantearse si tiene sentido aplicar la teoría de probabilidad a preguntas como esa.


    Los modelos matemáticos son metáforas de la realidad,

    y ambos caminan en «paralelo» sólo si hemos tenido la suerte de «inventar» un modelo que «se ajusta» adecuadamente a los datos de la realidad.

    Cuando el modelo falla, se lo abandona, y se busca otro mejor. ¿No es eso el método científico?

    Hay situaciones de la realidad a las que caprichosamente se les adjudica un modelo matemático. Ahí empiezan las paradojas y las controversias.


    Creo que lo que se debe discutir es qué tan amplio es el rango de aplicaciones válidas de la teoría de probabilidad.

    O bien el modo correcto de usarla.

    Haciendo todo correctamente, no creo que haya problemas con la intepretación subjetiva de la probabilidad. Da los mismos resultados que las otras.

  • #33674

    Suyay dijo:

    Esto no lo entendí.

    Lo que quiero decir es que los individuos de una poblacion pueden ir llegando o no al hospital en base a distintos datos estadisticos de esa poblacion y la enfermedad tales como la cantidad de individuos enfermos, cuan detectables son los sintomas, cuan conocida es la enfermedad, etc. Esos datos pueden generar un cierto «orden» (porque se esta hablando de una poblacion y no de un individuo) que podria ser modelado.

    Suyay dijo:

    Pero si se esta calculando la probabilidad de un individuo particular de desarrolar SIDA que ya se sabe que es HIV positivo, ¿por que se debería utilizar la frecuencia en la población?

    Porque para calcular la probabilidad condicional se necesita tener la probabilidad de la condicion (tener HIV) y esta es independiente de que el individuo en cuestion tenga o no VIH. O sea, se busca calcular la probabilidad de que ocurran las 2 cosas a la vez (que tenga SIDA y HIV) pero como se supone que lo primero (en un orden atemporal) que ocurre es que tenga VIH, hay que «normalizar» ese valor dividiendo por la probabilidad de que ocurra que el individuo tenga HIV.

    Suyay dijo:

    No se en que epoca habrá escrito esto Bunge, pero ya se sabe que todas las personas que tienen HIV, si no estan medicadas, eventualmente desarrollan SIDA. Salvo que se mueran de otra cosa antes. Cuando dice «algunos individuos han vivido una decada o mas sin desarrollar SIDA» parece que quisiera decir que estos individuos no desarrollan el SIDA, cuando en realidad es parte del desarrollo natural de la enfermedad, que tiene un periodo de latencia muy largo. Se han observado individuos que desarrollan SIDA mas lentamente, que son los «controladores de elite» o «no progresores a largo plazo», pero eventualmente terminan desarrollandolo también. Por otro lado, el diagnostico de SIDA es un diagnostico arbitrario, que puede no incluir el tener una enfermedad oportunista ya que un recuento de linfocitos T CD4+ inferior a 200/microlitro es considerado como SIDA. Por eso tambien el termino SIDA esta empezando a ser reemplazado por el de «infeccion por HIV avanzada» porque no es más que eso. Entonces cuando Bunge habla de que el HIV es necesario pero no suficiente para tener SIDA, considerando que los otros factores a los que se refiere son los agentes infecciosos que provocan las enfermedades oportunistas, en realidad esto no es cierto ya que un individuo puede ser diagnosticado con SIDA sin la presencia de enfermedades oportunistas. Salvo que Bunge estuviera hablando de otra cosa y yo lo haya malinterpretado.

    Lo que yo entiendo quiso decir Bunge es cuando se esta hablando en un instante. Es decir, en un instante dado, si alguien tiene HIV, cual es la probabilidad de que tenga SIDA (i.e. presente los sintomas suficientes para el diagnostico). No seria lo mismo que la probabilidad de que alguien desarrolle SIDA en cualquier momento (hasta el final de su vida) sabiendo que tiene HIV.

  • #33675
    saibaba
    Miembro

    Respecto lo que pregunta Carmen, a mí me parece que la postura subjetiva es tan fuerte como las demás.

    Me imagino esta situación:

    Se estudia cierta enfermedad, llamémosla EEE.

    Se usa una herramienta de diagnóstico para detectarla, llamémosla HHH.

    Ahora tomamos la población de cierto país y analizamos sus individuos.

    ¿Puedo aplicar la interpretación frecuencista de la probabilidad?

    Supongamos que deseo saber la prob. de que un individuo (al azar) de PPP tienen la enfermedad EEE.

    Para ello tengo que aplicarle un análisis, una herramienta que diagnostique,

    lo cual no es otra cosa que un procedimiento que «agarra un tipo», le hace «quién sabe qué» y después arroja un resultado: SÍ o NO. Está enfermo o no.

    Contando el número M de casos «SÍ», dividiendo por el número N de casos tomados «al azar», obtenemos un cociente M/N, que se supone que es muy parecido a la prob. p de estar enfermo, o sea: p = prob.(SÍ tiene EEE).

    Pero ese método conlleva un cierto error, porque en realidad estamos asignando al método HHH una fiabilidad absoluta como herramienta de diagnóstico.

    Así que el cálculo no es tan simple, y hay que agregar la prob. (condicional) de que el diagnóstico HHH dé resultados «SÍ» cuando es «SÍ» o que dé «NO» cuando es «NO», o sea, cuando realmente funciona. Dicha prob. digamos que es un número q, que podemos imaginar cercano al 0.99, pero lo importante es que no es 1.

    Ahora pregunto: ¿cómo es que se determinó que la prob. de que HHH «acierte» el diagnóstico correcto es igual a q?

    Se necesita tener cierta «certeza» previa sobre quiénes están enfermos y quiénes no, para saber si realmente el método funciona o no.

    En la práctica esto quizá no sea un problema,

    pero en teoría no tiene sentido, porque para saber si alguien está enfermo de EEE, hay que diagnosticarlo con HHH, que de nuevo, para saber cuán fiable es, hay que testearlo para ver si detecta o no correctamente quién se enfermó de EEE… y así por siempre.

    La cosa no puede «empezar» nunca, es un círculo vicioso.

    Sólo hay dos soluciones: o bien hay «certidumbre» en algún momento, debido a «información previa», o bien uno tiene que «darle comienzo al asunto no más a ojo», o sea, uno tiene que poner «a dedo» un numerito de probalidad, es decir, confiar en ciertos numeritos… en forma subjetiva.

    Si uno tuviera un método más fiable que HHH para tener mayor certidumbre… entonces no usaría HHH, sino el método más fiable.

    Si uno tiene que poner «a dedo» el numerito de probabilidad (en al menos una etapa inicial de todo el estudio), entonces está haciendo prob. subjetiva.

    Los componentes «subjetivos» no se pueden despegar tan fácilmente de la ciencia.

    A lo sumo hay «subjetividades consensuadas», lo cual es bastante lamentable, aunque para no agarrarme a trompadas con la gente hago de cuenta que ese demonio no está… aunque en realidad siempre está.

    No hay jamás una certidumbre absoluta, así que «opinar» desde lo «subjetivo» no es sólo inevitable, sino que me parece un acto de honestidad por parte de un científico el admitir que de eso se tratan las bases de muchas cosas que se toman como punto de partida.

    Pienso que ignorar el componente subjetivo hace más daño que bien a la ciencia, porque es más cotidiano de lo que se piensa.

  • #33676

    saibaba dijo:

    Los componentes «subjetivos» no se pueden despegar tan fácilmente de la ciencia.

    A lo sumo hay «subjetividades consensuadas», lo cual es bastante lamentable, aunque para no agarrarme a trompadas con la gente hago de cuenta que ese demonio no está… aunque en realidad siempre está.

    No hay jamás una certidumbre absoluta, así que «opinar» desde lo «subjetivo» no es sólo inevitable, sino que me parece un acto de honestidad por parte de un científico el admitir que de eso se tratan las bases de muchas cosas que se toman como punto de partida.

    Pienso que ignorar el componente subjetivo hace más daño que bien a la ciencia, porque es más cotidiano de lo que se piensa.

    No es cuestion de considerar si una interpretacion es complementaria a la otra, ya que por definicion se esta hablando de cosas distintas cuando se habla de probabilidad. En la interpretacion subjetivista la probabilidad refiere a propiedades de creencias o proposiciones, mientras que en la interpretacion objetivista la probabilidad refiere a propiedades de hechos.

    La Ciencia estudia los hechos independientemente de lo que la gente crea sobre ellos. Por ejemplo, se puede hablar de decaimiento radiactivo de un atomo y calcular su probabilidad de manera independiente a lo que uno crea. Se utiliza un modelo (la formula de decaimiento exponencial) que fue testeado y se sabe que funciona. La subjetividad le importa a la Ciencia solo en el sentido de que es un fenomeno que existe y que debe ser corregido a traves del metodo cientifico para lograr conocimiento objetivo de la realidad.

  • #33677
    Carmen
    Miembro

    Leandro Yampolsky dijo:

    No me imagino que eso ocurra en ninguna situacion. O sea, definir la probabilidad de un evento a partir de una muestra esta mal desde el inicio y no sirve para hacer modelos probabilisticos.

    No veo cual puede ser la utilidad de actualizar cuan firme es una creencia. Es un fenomeno psicologico, sin duda, que las creencias se vuelven mas o menos fuertes a partir de la evidencia. Por otro lado, si se considera que la probabilidad es una propiedad de un objeto, no tiene sentido «actualizar una probabilidad anterior». Lo que se puede hacer es estimar cual probabilidad tiene mayor verosimilitud en base a modelos estadisticos que sean actualizados a partir de nueva evidencia. Esto seria mas o menos como hacer una medicion de algo que existe.

    gracias leandro, tenía pensada la posible aplicabilidad respectiva para una situación hipotética (por ej. medicamento X surte efecto F en el organismo Y para cuadro Z).

    :D

    salu2

    carmen

  • #33678
    Suyay
    Participante

    Leandro Yampolsky dijo:

    Lo que quiero decir es que los individuos de una poblacion pueden ir llegando o no al hospital en base a distintos datos estadisticos de esa poblacion y la enfermedad tales como la cantidad de individuos enfermos, cuan detectables son los sintomas, cuan conocida es la enfermedad, etc. Esos datos pueden generar un cierto «orden» (porque se esta hablando de una poblacion y no de un individuo) que podria ser modelado.

    Porque para calcular la probabilidad condicional se necesita tener la probabilidad de la condicion (tener HIV) y esta es independiente de que el individuo en cuestion tenga o no VIH. O sea, se busca calcular la probabilidad de que ocurran las 2 cosas a la vez (que tenga SIDA y HIV) pero como se supone que lo primero (en un orden atemporal) que ocurre es que tenga VIH, hay que «normalizar» ese valor dividiendo por la probabilidad de que ocurra que el individuo tenga HIV.

    Lo que yo entiendo quiso decir Bunge es cuando se esta hablando en un instante. Es decir, en un instante dado, si alguien tiene HIV, cual es la probabilidad de que tenga SIDA (i.e. presente los sintomas suficientes para el diagnostico). No seria lo mismo que la probabilidad de que alguien desarrolle SIDA en cualquier momento (hasta el final de su vida) sabiendo que tiene HIV.

    Muchas gracias Leandro! Me aclaraste un montón de dudas :)

  • #33679
    Carmen
    Miembro

    saibaba dijo:

    No hay jamás una certidumbre absoluta, así que «opinar» desde lo «subjetivo» no es sólo inevitable, sino que me parece un acto de honestidad por parte de un científico el admitir que de eso se tratan las bases de muchas cosas que se toman como punto de partida.

    Pienso que ignorar el componente subjetivo hace más daño que bien a la ciencia, porque es más cotidiano de lo que se piensa.

    Estimado Saiba, gracias por tu aclaración. Considero que la inferencia inductiva es probabilística. Me tinga que la gente que espera justificar una certeza determinante de la inferencia inductiva están mál encaminada. Pero, a mi criterio inexperto, se puede normativizar, en base a lo práctico -no te parece?

    Steve Novella, un médico importante en NY que aboga por al medicina científica, comenta que se utiliza el análisis bayesiano en la medicina. Joya. Y otros comentan que se utiliza mucho en estadísitica. Me parece interesante cotejar la forma bayesiana con la forma frecuentista, pero no trabajo en estos rubros. En realidad, la estadística es mi punto flojo 😳

    Por otra parte, considera el deseo de seguridad. Por ej. cuando vemos que amanece todos los días, ese historial de hechos nos justifica una «disposición actitudinal» de seguridad hacia la proposición de que «mañana, volverá amanecer». El historial de amaneceres satisfacen ese deseo de seguridad, da para considerarla segura, recurrente, fiable, etc… Sin embargo, no es una certeza determinante: podría darse algún suceso inesperado mientras dormimos en Bs As, qué sé yo, ponele un agujero negro que atraviesa la órbita de la tierra y chau!

    :D

    salu2

    carmen

  • #33680
    saibaba
    Miembro

    Leandro Yampolsky dijo:

    Se utiliza un modelo (la formula de decaimiento exponencial) que fue testeado y se sabe que funciona.

    ¿Y cómo es que fue testeado?

    ¿Y cómo se sabe que funciona?

    ¿Dónde empieza la «certeza» de lo que se está hablando?

    ¿En ningún momento/etapa/paso de ese proceso de validación hubo elementos subjetivos?

    Pensar que no es un autoengaño. Creer que la ciencia funciona en todo momento como un relojito… sin el «pecado» de la subjetividad, pienso que es un error.

  • #33681
    saibaba
    Miembro

    Carmen dijo:

    Steve Novella, un médico importante en NY que aboga por al medicina científica, comenta que se utiliza el análisis bayesiano en la medicina. Joya. Y otros comentan que se utiliza mucho en estadísitica. Me parece interesante cotejar la forma bayesiana con la forma frecuentista, pero no trabajo en estos rubros. En realidad, la estadística es mi punto flojo 😳

    Bueno, yo tampoco sé cómo se trabaja en estadística.

    Tengo sólo conocimientos matemáticos de probabilidad y algo de teoría estadística que encima me he ido olvidando.

    Pero de lo que hacen en la práctica sólo tengo una idea…

    No obstante, lo que pienso es que si Bayes y otros tipos que han trabajado fuertemente en probabilidad y estadística se han tomado en serio una postura subjetiva, es por alguna razón.

    Será que piensan que «no queda más remedio».

    Yo pienso que tiene sentido, porque en algún momento, al confeccionar un modelo basado en la teoría de probabilidad, no queda más remedio que meter algún parámetro «a ojo», acorde a algún criterio que «a uno le parece correcto».

    Quisiera saber si alguien conoce un ejemplo en detalle donde no aparezcan elementos subjetivos de ninguna especie en ningún momento en la confección de un modelo (no demasiado trivial) que involucre probabilidades.

    Porque lo que dice Leandro, de que la ciencia sólo trabaja en forma objetiva, me parece que es más una «intención» de la ciencia, que un logro.

    Si uno «testea» un modelo, lo tiene que hacer con «una herramienta de testeo»,

    por lo tanto tiene confianza en dicha herramienta de testeo.

    Esa confianza puede ser del 100% o menos, no importa, incluso no importa si se aceptan «errores en un cierto porcentaje», digamos del 0.5%, para ejemplificar.

    Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?

    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».

    Pero para validar cada cosa, necesariamente se necesita estar «seguro» previamente de la herramienta que usa para validar.

    Las herramientas de validación tienen que ser necesariamente diferentes y «distintas», no pueden validarse entre sí.

    Esto genera una secuencia infinita hacia atrás en el proceso de validación: no se puede tener un punto de partida certero.

    Al menos no empíricamente. En algún momento algo hay que «inventar». En algo «hay que creer», porque hay que tener un punto de partida.

    Yo pienso que el test empírico es necesario, pero no veo cómo validar el empirismo.

    El empirismo es algo que yo necesito para tener cierto grado de convencimiento, pero lo cierto es que no le encuentro la punta al ovillo, y no soy capaz de justificarlo.

  • #33682
    saibaba
    Miembro

    Carmen dijo:

    Me tinga que la gente que espera justificar una certeza determinante de la inferencia inductiva están mál encaminada. Pero, a mi criterio inexperto, se puede normativizar, en base a lo práctico -no te parece?

    No sé a qué te referís exactamente.

    Es un problema epistemológico.

    En un principio las ciencias exactas, tipo física y química, fueron más que nada inductivas.

    La gente pensaba que la inducción estaba bastante «bien» como criterio.

    Otros pensaron que no, y surgió el Falsacionismo.

    El Falsacionismo requiere una teoría que explique los hechos, y cuyas afirmaciones sean «falsables», o sea, que mediante algún experimento quede abierta la posibilidad de que se obtenga un resultado contrario a lo que se afirma.

    Se supone que las teorías científicas son así.

    Pero este ideal no se cumple siempre, porque la ciencia es una comunidad que funciona con una dinámica interna, y hay gente que se ha percatado de que no es cierto que un científico descarta una teoría cuando hay evidencias empíricas en contra.

    Eso no ocurre, sino que en realidad se tiene la tendencia a aferrarse al paradigma existente.

    Kuhn y Lakatos entre otros han reflexionado sobre esto, y han elaborado teorías de la ciencia en las que los paradigmas son lo que cuenta, y no las evidencias empíricas.

    La evidencia empírica a lo sumo va «erosionando» el paradigma, pero por diversas razones no lo aniquila, hasta que se entra en alguna crisis.

    Pero bueno, eso es sobre la parte subjetiva de la ciencia que la gente elige por «conveniencia». Son temas históricos o culturales.

    Yo lo que discuto es que hay una parte de subjetividad que uno no puede «elegir», sino que es inevitable, aún si uno pretende una objetividad absoluta.

    No se me ocurre ninguna analogía decente, pero es como si uno dijera que la matemática es exacta totalmente, y no es capaz de dar la lista completa de los dígitos del número pi.

  • #33683

    saibaba dijo:

    ¿Y cómo es que fue testeado?

    Midiendo la masa, la emision de radiactividad de distintos elementos u otros parametros que desconozco. Supongo que en algun libro de historia de la fisica moderna habra detalles.

    saibaba dijo:

    ¿Y cómo se sabe que funciona?

    Porque las pruebas realizadas verifican las predicciones del modelo que es compatible con el resto de la fisica cuantica.

    saibaba dijo:

    ¿Dónde empieza la «certeza» de lo que se está hablando?

    No existe una dicotomia entre «certeza» y «no certeza». Hay distintos grados de certeza, siendo el conocimiento adquirido a traves del metodo cientifico altamente certero.

    saibaba dijo:

    ¿En ningún momento/etapa/paso de ese proceso de validación hubo elementos subjetivos?

    Obviamente que hay elementos subjetivos en cualquier adquisicion de conocimiento sobre la realidad. Seria absurdo negarlo (exceptuando el caso imaginario en que uno sea un ser omnisciente como Dios).

    saibaba dijo:

    Pensar que no es un autoengaño. Creer que la ciencia funciona en todo momento como un relojito… sin el «pecado» de la subjetividad, pienso que es un error.

    La existencia de elementos subjetivos o imprecisos (errores en aparatos de medicion, percepcion de los efectos y no de las causas de los fenomenos, sesgos cognitivos, etc.) no impiden que se pueda lograr adquirir conocimiento objetivo sobre la realidad. El metodo cientifico funciona justamente por superar esas barreras.

  • #33684

    saibaba dijo:

    No obstante, lo que pienso es que si Bayes y otros tipos que han trabajado fuertemente en probabilidad y estadística se han tomado en serio una postura subjetiva, es por alguna razón.

    Será que piensan que «no queda más remedio».

    Bayes no tuvo nada que ver con el Bayesianismo. El Bayesianismo lleva su nombre porque se basa en la aplicacion del teorema de Bayes (http://en.wikipedia.org/wiki/Bayes%27_theorem ) que es un enunciado matematico demostrado en teoria de probabilidad. Su uso obviamente no es exclusivo a la interpretacion Bayesiana de la probabilidad.

    saibaba dijo:

    Yo pienso que tiene sentido, porque en algún momento, al confeccionar un modelo basado en la teoría de probabilidad, no queda más remedio que meter algún parámetro «a ojo», acorde a algún criterio que «a uno le parece correcto».

    Quisiera saber si alguien conoce un ejemplo en detalle donde no aparezcan elementos subjetivos de ninguna especie en ningún momento en la confección de un modelo (no demasiado trivial) que involucre probabilidades.

    No es esa la interpretacion Bayesiana. No es lo mismo «la existencia de algun elemento subjetivo» y «la ausencia de objetividad».

    saibaba dijo:

    Porque lo que dice Leandro, de que la ciencia sólo trabaja en forma objetiva, me parece que es más una «intención» de la ciencia, que un logro.

    Hasta ahora el metodo cientifico viene funcionando mejor que cualquier otro para adquirir conocimiento objetivo sobre la realidad. Ese es el logro de la Ciencia.

    saibaba dijo:

    Si uno «testea» un modelo, lo tiene que hacer con «una herramienta de testeo»,

    por lo tanto tiene confianza en dicha herramienta de testeo.

    Esa confianza puede ser del 100% o menos, no importa, incluso no importa si se aceptan «errores en un cierto porcentaje», digamos del 0.5%, para ejemplificar.

    Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?

    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».

    Hay metodos estadisticos para medir el error en aparatos de mediciones, para lo cual generalmente se estima la varianza o la media en una muestra (muchos resultados de mediciones). Es un problema tecnico igualmente, no cientifico.

    saibaba dijo:

    Pero para validar cada cosa, necesariamente se necesita estar «seguro» previamente de la herramienta que usa para validar.

    Las herramientas de validación tienen que ser necesariamente diferentes y «distintas», no pueden validarse entre sí.

    Esto genera una secuencia infinita hacia atrás en el proceso de validación: no se puede tener un punto de partida certero.

    Al menos no empíricamente. En algún momento algo hay que «inventar». En algo «hay que creer», porque hay que tener un punto de partida.

    Nuevamente, es la misma confusion acerca del concepto «certero» (entendiendose como cuan cierto puede ser algo). El que no haya absoluta certeza no implica la ausencia de certeza. Sino, estas cometiendo la falacia del continuo para descartar un concepto vago como «certeza» que existe y se aplica a distintas posibilidades en concordancia con la realidad.

  • #33685

    saibaba dijo:

    En un principio las ciencias exactas, tipo física y química, fueron más que nada inductivas.

    La gente pensaba que la inducción estaba bastante «bien» como criterio.

    En realidad eso es en lo que los filosofos se enfocaron y estuvieron discutiendo durante siglos sobre el «problema de la induccion». Pero en la historia de la Ciencia la induccion no jugo nunca el rol mas importante. Mas alla de los metodos de razonamiento deductivos, la induccion pertenece a una categoria de problemas mas importante llamados problemas inversos (o indirectos), como señala Bunge en… bueno, en casi todo lo que escribe o dice :P

    saibaba dijo:

    Otros pensaron que no, y surgió el Falsacionismo.

    El Falsacionismo requiere una teoría que explique los hechos, y cuyas afirmaciones sean «falsables», o sea, que mediante algún experimento quede abierta la posibilidad de que se obtenga un resultado contrario a lo que se afirma.

    Se supone que las teorías científicas son así.

    Pero este ideal no se cumple siempre, porque la ciencia es una comunidad que funciona con una dinámica interna, y hay gente que se ha percatado de que no es cierto que un científico descarta una teoría cuando hay evidencias empíricas en contra.

    Eso no ocurre, sino que en realidad se tiene la tendencia a aferrarse al paradigma existente.

    Kuhn y Lakatos entre otros han reflexionado sobre esto, y han elaborado teorías de la ciencia en las que los paradigmas son lo que cuenta, y no las evidencias empíricas.

    La evidencia empírica a lo sumo va «erosionando» el paradigma, pero por diversas razones no lo aniquila, hasta que se entra en alguna crisis.

    Pero bueno, eso es sobre la parte subjetiva de la ciencia que la gente elige por «conveniencia». Son temas históricos o culturales.

    Ni Popper, ni Kuhn, ni Lakatos describieron correctamente la investigacion cientifica. El Falsacionismo obviamente falla porque se enfoca en la refutacion de hipotesis sin tener en cuenta la verificacion de las mismas. Por otro lado, las propuestas de Kuhn y Lakatos no son mejores, en el sentido de que no hay «programas», ni «paradigmas» ni ninguna otra estructura cerrada. Hay cuerpos teoricos en distintos campos que interactuan interna y externamente con otras hipotesis en distintos niveles. Esto se evidencia aun mas al existir campos de estudio que surgieron para estudiar las hipotesis entre otros campos que interactuan entre si, como por ejemplo ocurrio con la Bioquimica, que se separo de la Biologia y de la Quimica.

  • #33686
    Suyay
    Participante

    saibaba dijo:

    Pero ese método conlleva un cierto error, porque en realidad estamos asignando al método HHH una fiabilidad absoluta como herramienta de diagnóstico.

    Así que el cálculo no es tan simple, y hay que agregar la prob. (condicional) de que el diagnóstico HHH dé resultados «SÍ» cuando es «SÍ» o que dé «NO» cuando es «NO», o sea, cuando realmente funciona. Dicha prob. digamos que es un número q, que podemos imaginar cercano al 0.99, pero lo importante es que no es 1.

    Por lo menos en lo que respecta a los análisis de laboratorio creo que a lo que te referís es a los resultados falsos positivos y falsos negativos. Pasa con todos los análisis.

    saibaba dijo:

    Se necesita tener cierta «certeza» previa sobre quiénes están enfermos y quiénes no, para saber si realmente el método funciona o no.

    En la práctica esto quizá no sea un problema,

    pero en teoría no tiene sentido, porque para saber si alguien está enfermo de EEE, hay que diagnosticarlo con HHH, que de nuevo, para saber cuán fiable es, hay que testearlo para ver si detecta o no correctamente quién se enfermó de EEE… y así por siempre.

    No entendí muy bien tu ejemplo, pero si, en la práctica es un problema. Por eso se ponen puntos de corte arbitrarios para determinar a quienes se considera enfermos y a quienes no.

    saibaba dijo:

    Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?

    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».

    Pero para validar cada cosa, necesariamente se necesita estar «seguro» previamente de la herramienta que usa para validar.

    Las herramientas de validación tienen que ser necesariamente diferentes y «distintas», no pueden validarse entre sí.

    Esto genera una secuencia infinita hacia atrás en el proceso de validación: no se puede tener un punto de partida certero.

    Creo que en esto puede ser que tengas razón en parte. O sea, por ejemplo, en un análisis de laboratorio para una determinada enfermedad siempre tenés un estandar con el cuál se contrastan las demás pruebas. Pero el estandar se impone como tal arbitrariamente y no hay prueba con el cual contrastarlo. No se si es esto a lo que te referías. Y la verdad que no se como se hacen las validaciones de los estadandares. Supongo que se debe evaluar cada caso en particular.

  • #33687
    saibaba
    Miembro

    Suyay dijo:

    Por lo menos en lo que respecta a los análisis de laboratorio creo que a lo que te referís es a los resultados falsos positivos y falsos negativos. Pasa con todos los análisis.

    No entendí muy bien tu ejemplo, pero si, en la práctica es un problema. Por eso se ponen puntos de corte arbitrarios para determinar a quienes se considera enfermos y a quienes no.

    Creo que en esto puede ser que tengas razón en parte. O sea, por ejemplo, en un análisis de laboratorio para una determinada enfermedad siempre tenés un estandar con el cuál se contrastan las demás pruebas. Pero el estandar se impone como tal arbitrariamente y no hay prueba con el cual contrastarlo. No se si es esto a lo que te referías. Y la verdad que no se como se hacen las validaciones de los estadandares. Supongo que se debe evaluar cada caso en particular.

    No me refiero a los falsos positivos y negativos, porque eso se tiene en cuenta en la probabilidad de «acierto» asociada a una herramienta de diagnóstico.

    En cuanto a lo demás, lo mío fue una especulación lógica, pero según vos en la práctica eso se ve: en algún momento se decide a ojo dónde trazar la línea.

    Mis afirmaciones van en ese sentido.

    En cuanto a lo que Leandro dice sobre el bayesianismo y la subjetividad,

    bueno, en realidad no es que no lo sé, sino que elegí irme para el lado de la subjetividad, porque me pareció que se estaba discutiendo ese aspecto al hablar de probabilidad subjetiva.

    Hice una mezcla media rara, quizá no debiera haberlo hecho.

    Las respuestas que Leandro me da cuando dice: «hicieron mediciones de masa, etc., y verificaron…», no me convence, porque al menos «momentáneamente» no confío en los métodos de medición.

    Estoy jugando a que no confío, y me pregunto dónde es que uno puede empezar a confiar.

    No me parecieron satisfactorias las respuestas, porque sigo con la misma pregunta.

    O sea, bárbaro: yo mido la masa y me dio el resultado esperado.

    Pero cuando hice la «medición» la hice con un instrumento. ¿y por qué confío en ese instrumento?

    No puedo confiar en él porque me dio las masas que «tiene que dar», porque estaría validando tanto al instrumento y a la teoría que intento validar, ambas a la vez.

    Eso es falaz, hasta donde yo sé.

    Lograr certidumbre y objetividad donde hay en un comienzo incertidumbre y subjetividad… no digo que no pueda ocurrir.

    Si eso ocurre, no entiendo cómo puede pasar.

    Pero hemos coincidido, creo, en admitir que hay elementos subjetivos en la ciencia, de los que uno no se puede despegar.

    Que luego eso tenga remedio, es otra cosa.

    Por ejemplo, si hay algún teorema que demuestra que una «suma de subjetividades» con ciertas características, permiten «inducir» de algún modo un conocimiento fiable, entonces ya toma otro color.

    Yo pienso que un tal resultado o teorema es necesario, e ignoro si existe.

    O peor, ignoro si realmente lo ignoro. Quizá lo ví alguna vez y me olvidé…

  • #33688
    Suyay
    Participante

    saibaba dijo:

    No me refiero a los falsos positivos y negativos, porque eso se tiene en cuenta en la probabilidad de «acierto» asociada a una herramienta de diagnóstico.

    Es que lo que dijiste antes, «que el diagnóstico HHH dé resultados «SÍ» cuando es «SÍ» o que dé «NO» cuando es «NO»», es prácticamente la definición de falsos positivos y falsos negativos.

    La verdad que me perdí un poco sobre el punto al que estás tratando de llegar. Pero supongo que la confianza en los instrumentos de medición se adquiere por la recopilación de datos con el paso del tiempo y su correlación con la realidad y las hipótesis propuestas.

  • #33689
    saibaba
    Miembro

    Leandro Yampolsky dijo:

    No es esa la interpretacion Bayesiana. No es lo mismo «la existencia de algun elemento subjetivo» y «la ausencia de objetividad».

    Me parece bien.

    Ocurre que cuando escucho hablar investigadores que no se preocupan por las cuestiones epistemológicas, o averiguar qué es realmente el método científico, pareciera que tienen ciertas «creencias», como por ejemplo: que objetividad y subjetividad son enemigas, y que los subjetivo es enemigo de la ciencia.

    Con tal de reflexionar un poco, siempre llego a la conclusión de que los elementos subjetivos son inevitables, y que hay que encauzarlos de algún modo.

    El problema está en que, al aceptar ingredientes subjetivos, enseguida van a «saltar» los tipos que se sienten atacados por los científicos.

    O sea, cuando se le critica a un pseudocientífico o religioso de «subjetivo», ¿es correcto hacerlo?

    Porque al criticar así, se presume que los científicos son durante su trabajo, 0% subjetivos, y yo pienso que no es así, y que siempre hay algo que se ajusta «a ojo», y que además no queda más remedio.

    Quote:
    Hasta ahora el metodo cientifico viene funcionando mejor que cualquier otro para adquirir conocimiento objetivo sobre la realidad. Ese es el logro de la Ciencia.

    ¿Qué significa «viene funcionando mejor»?

    ¿En qué sentido «funciona mejor»?

    ¿Con qué parámetro o criterio puede uno comparar un cierto «cuerpo de afirmaciones» con otro, para decir que es «mejor»?

    Me parece que discutir este punto a fondo, no lleva más que a «tautologías».

    Es «mejor porque es mejor».

    Quote:

    Hay metodos estadisticos para medir el error en aparatos de mediciones, para lo cual generalmente se estima la varianza o la media en una muestra (muchos resultados de mediciones). Es un problema tecnico igualmente, no cientifico.

    Eso de pensar que es «un problema técnico» y no «científico»,

    me parece que es ocultar el problema bajo la alfombra.

    Los problemas «técnicos» existen obligadamente porque la realidad es de determinada manera y no de otra.

    Los problemas técnicos son, o debieran ser, parte del problema científico, porque es todo parte de lo mismo. ¿Siempre se posterga el problema para achacárselo a otro?

    Si no se consideran las limitaciones técnicas, es que el paradigma científico no está bien constituido. Dichas limitaciones son parte integral de la realidad misma que se estudia.

    Quote:
    Nuevamente, es la misma confusion acerca del concepto «certero» (entendiendose como cuan cierto puede ser algo). El que no haya absoluta certeza no implica la ausencia de certeza. Sino, estas cometiendo la falacia del continuo para descartar un concepto vago como «certeza» que existe y se aplica a distintas posibilidades en concordancia con la realidad.

    No sé si cometí «falacia del continuo».

    Quizá cometí alguna falacia, por eso exhibí mi razonamiento a ver si alguien ve la falla.

    Siempre pareciera que me estás mandando a algún otro lado, adonde supuestamente se resuelve definitamente el problema.

    Pero a mí se me sigue escapando la tortuga.

    Unos conocimientos se apoyan en otros, y unos instrumentos se validan usando otros, así como unas teorías se contrastan aceptando previamente otras.

    Si uno empieza a hurgar en serio en la cadena de razonamientos, y se fija con cuidado cómo está estructurado TODO el conocimiento científico, estoy seguro que «al menos un huequito dudoso» ha quedado.

    Mi razonamiento de ir «validando hacia atrás infinitamente» es una simplificación que intenta mostrar el problema. Cuando los conocimientos son más complicados, ese problema es más difícil de advertir.

    A mí me sigue pareciendo obvio que si me dan un instrumento, digamos I1, no puedo saber a priori si «sirve» o no.

    Pero me dicen que hay una teoría científica T1 que avala a I1.

    Pero esa teoría se tuvo que «verificar» con algún instrumento, digamos I2.

    El cual a su vez está avalado por una teoría T2.

    Y así sucesivamente, I3, T3, I4, T4, etc.

    Sigo sin poder encontrar un «punto de partida» definitivo.

    Y sigo sin entender dónde está realmente la falacia en esta forma de pensar el asunto.

    Ya que la ciencia existe, es que las teorías y los instrumentos utilizadas «han empezado alguna vez».

    Así que alguno de ellos se ha puesto «a dedo», porque parece «a ojo» que eso tiene que ser así.

    ¿Qué está mal en este razonamiento que hago?

    Quote:
    Ni Popper, ni Kuhn, ni Lakatos…

    Bueno, son epistemólogos, y dicen lo que dicen, y a veces le pegan y a veces no.

    Pienso que sus observaciones son necesarias, porque sacan de la ingenuidad a los mismos científicos.

    Pero en todo caso, lo erróneo es que los científicos sigan creyendo que la ciencia es «inductiva» o es «falsacionista» o es «lo-que-fuere», o que ellos mismos aplican un método que no aplican.

    O que usen subjetividad o algún otro «criterio» sin reconocerlo, creyendo que no lo hacen.

    Cuando los estadísticos «corrigen» datos «anómalos» están claramente decidiendo por su cuenta qué debe considerarse un dato «anómalo». Es terreno muy pantanoso.

  • #33690
    saibaba
    Miembro

    Suyay dijo:

    Es que lo que dijiste antes, «que el diagnóstico HHH dé resultados «SÍ» cuando es «SÍ» o que dé «NO» cuando es «NO»», es prácticamente la definición de falsos positivos y falsos negativos.

    Sí, tal cual, es lo de los falsos positivos.

    Lo tuve que nombrar porque venía en el «paquete».

    Pero no es el punto que estoy discutiendo.

    No me molestan los falsos positivos y negativos,

    sino «cómo se saben» los porcentajes de los mismos.

    Un instrumento puede ser bastante fiable… pero después que alguien lo validó de algún modo. ¿Cómo lo hizo? Con teorías e instrumentos previamente validados.

    ¿Cómo se validaron estos? Igual, con cosas que ya se «sabían» de antes.

    ¿Dónde empezó el asunto entonces?

    Como tiene que haber empezado en algún lugar, tiene que haber una etapa, en donde alguno de los instrumentos o teorías se aceptó «porque sí», porque «a ojo se ve que eso tiene que ser así», o por mera necesidad de la situación: «acá trazamos la línea».

    A lo mejor ese «comienzo a ojo» es algo bien básico, una intuición que nadie negaría, como que todos los días sale el Sol… pero no aplican el método científico.

    Es un dilema lógico lo que planteo.

    Si este dilema tiene solución, me avisan.

    Me ayudaría mucho a salir de la bruma de ideas y cosas que me cuesta aceptar de las ciencias «experimentales».

  • #33691
    Carmen
    Miembro

    saibaba dijo:

    …Pero, ¿cómo se sabe que la herramienta de testeo usada tiene tal o cual grado de fiabilidad?

    Seguro es que alguien la ha «testeado» antes con algún otro fenómeno del que «previamente» se tenía «certeza».

    Saiba, tocaste un par de temas importantes.

    1. Criterios, normas, etc…

    2. cómo justificar dichos criterios

    ya se discutió «el problema» de la inducción (Hume). Quedamos en que la inducción da probabilidades, no certezas determinantes. Solo se hace problema si se espera que este proceso brinde una certeza determinante*. Por otra parte, los candidatos más prometedores para justificarla (a mi criterio inexperto) son 1. justificación coherentista (J. S. Mill, Hempel, et al) y 2. justificación fiabilista (Alvin Goldman).

    Dado el objetivo general de conocimiento fiable, interesan procesos fiables. ¿Cómo se sabe que son fiables? en base a experiencias anteriores: análisis fiabilista. Dale el O.K. práctico en base a la fiabilidad demostrada históricamente por tal o cual proceso. No es perfecta, pero «funciona».

    La fiabilidad fue muy deseable en la historia de la ciencia experimental. Por eso, a Boyle y otros de su época le interesaba tanto la repitibilidad, mediciones exactas, tomar buenos apuntes, ir cotejar los resultados actuales de tal o cual proceso teórico o experimental con los resultados históricos, etc… Justamente, la ciencia experimental ganó cierto prestigio en el siglo 19 porque se demostró más fiable que la especulación sola, la introspección, las intuiciones, etc…

    :D

    salu2

    carmen

    * hay que cuestionar ¿por qué motivo esperar una certeza absoluta? tal vez un deseo de seguridad?

  • #33692
    Suyay
    Participante

    Saiba, igual creo que depende mucho de que rama de las ciencias estes hablando. Probablemente con las matematicas y la fisica puedas tener una mayor exactitud y fiabilidad en los instrumentos de medición que con las ciencias naturales. Entiendo lo que decís y se me ocurren unos cuantos ejemplos al respecto sobre análisis de laboratorio. Pero no se si se puede generalizar a todas las ramas de las ciencias.

  • #33693

    saibaba dijo:

    ¿Qué significa «viene funcionando mejor»?

    ¿En qué sentido «funciona mejor»?

    ¿Con qué parámetro o criterio puede uno comparar un cierto «cuerpo de afirmaciones» con otro, para decir que es «mejor»?

    Me parece que discutir este punto a fondo, no lleva más que a «tautologías».

    Es «mejor porque es mejor».

    Funciona mejor en el sentido de que permite describir la realidad con mayor compatibilidad con la evidencia (gracias a la experimentacion). No es lo mismo decir «la homeopatia cura» y «los antibioticos curan» porque en un caso hay evidencia y en el otro no.

    saibaba dijo:

    Eso de pensar que es «un problema técnico» y no «científico»,

    me parece que es ocultar el problema bajo la alfombra.

    Los problemas «técnicos» existen obligadamente porque la realidad es de determinada manera y no de otra.

    Los problemas técnicos son, o debieran ser, parte del problema científico, porque es todo parte de lo mismo. ¿Siempre se posterga el problema para achacárselo a otro?

    Me refiero a que el problema tecnico es poder elaborar una herramienta de medicion precisa. Si no la hay, evidentemente el cientifico que investiga va a tener un problema porque no va a poder apoyarse en la evidencia que quiere medir.

    saibaba dijo:

    No sé si cometí «falacia del continuo».

    Quizá cometí alguna falacia, por eso exhibí mi razonamiento a ver si alguien ve la falla.

    Siempre pareciera que me estás mandando a algún otro lado, adonde supuestamente se resuelve definitamente el problema.

    Pero a mí se me sigue escapando la tortuga.

    Unos conocimientos se apoyan en otros, y unos instrumentos se validan usando otros, así como unas teorías se contrastan aceptando previamente otras.

    Si uno empieza a hurgar en serio en la cadena de razonamientos, y se fija con cuidado cómo está estructurado TODO el conocimiento científico, estoy seguro que «al menos un huequito dudoso» ha quedado.

    Mi razonamiento de ir «validando hacia atrás infinitamente» es una simplificación que intenta mostrar el problema. Cuando los conocimientos son más complicados, ese problema es más difícil de advertir.

    A mí me sigue pareciendo obvio que si me dan un instrumento, digamos I1, no puedo saber a priori si «sirve» o no.

    Pero me dicen que hay una teoría científica T1 que avala a I1.

    Pero esa teoría se tuvo que «verificar» con algún instrumento, digamos I2.

    El cual a su vez está avalado por una teoría T2.

    Y así sucesivamente, I3, T3, I4, T4, etc.

    Sigo sin poder encontrar un «punto de partida» definitivo.

    Y sigo sin entender dónde está realmente la falacia en esta forma de pensar el asunto.

    Ya que la ciencia existe, es que las teorías y los instrumentos utilizadas «han empezado alguna vez».

    Así que alguno de ellos se ha puesto «a dedo», porque parece «a ojo» que eso tiene que ser así.

    ¿Qué está mal en este razonamiento que hago?

    «Sigo sin poder encontrar un ‘punto de partida’ definitivo.»

    Esa es la falacia, porque asumis que existe tal «punto de partida» cuando se esta utilizando conceptos vagos, como certeza o verificacion. No se aplica el principio de induccion en estos casos simplemente porque la realidad no es lo mismo que las matematicas.

  • #33694
    saibaba
    Miembro

    Carmen dijo:

    * hay que cuestionar ¿por qué motivo esperar una certeza absoluta? tal vez un deseo de seguridad?

    Para subjetividades difusas, ambigüedades y contradicciones ya tengo las religiones y las supercherías. Nada de eso tiene que haber en la ciencia.

  • #33695
    saibaba
    Miembro

    Leandro Yampolsky dijo:

    «Sigo sin poder encontrar un ‘punto de partida’ definitivo.»

    Esa es la falacia, porque asumis que existe tal «punto de partida» cuando se esta utilizando conceptos vagos, como certeza o verificacion.

    No son conceptos vagos, son actos.

    En la historia de la ciencia ha habido sólo una cantidad finita de experimentos, verificaciones y teorías científicas.

    Así que hubo un momento en la historia en que ocurrió el primer experimento, la primer teoría científica y se usó la primer herramienta de verificación.

    Todo se acepta sólo tras realizar experimentos con ciertas «herramientas» o «aparatos» que se usan para verificar.

    Hubo en la historia humana una primera de tales herramientas.

    Sea cual sea, se la tiene que haber aceptado porque sí, porque antes no había nada científico en qué basarse.

  • Mostrando 41 respuestas a los debates
    • Debes iniciar sesión para responder a este tema.