Red neuronal a base de silicio

Mostrando 16 respuestas a los debates
  • Autor
    Mensajes
    • #28349
      Carmen
      Miembro

      ver nota (debidamente traducida, eh?)

      Simularán un cerebro humano con procesadores ARM

      palabras clave: procesadores ARM, Steve Furber, inteligencia artificial (I.A.)

      un posible beneficio de la inteligencia artificial: la capacidad intelectual humana es limitada. En principio, una I.A. podría superar la capacidad intelectual humana por varias veces.

      Por ej. una teoría de gravedad cuántica podría resultar de enorme beneficio social. Hipotéticamente, una I.A. con una capacidad intelectual varias veces superior al cerebro humano, si tenía disponibles todos los datos, teorías, y buen motivo para elaborar un modelo teórico contrastable, podría ser una especie de «colega» artificial para los teóricos de la física fundamental.

      Por otra parte, abre la puerta a varios dilemas éticos: si en el fondo, el criterio para la consideración ética es la consciencia, capacidad de sentir, etc.. y si bien la I.A. está consciente de su entorno, autoconsciente, etc… entonces, merecería entrar en el círculo de consideración ética. De ser así, merece un D.N.I. y destruirlo sería éticamente equivalente a un homicidio. El hecho de que la I.A. consciente y autoconsciente tenga un dueño, viene siendo una especie de esclavitud, etc… Pensalo.

      :D

      salu2

      carmen chase

    • #32675

      No estoy seguro si esta sea la mejor forma de lograr una inteligencia artificial. Hay muchas formas de resolver problemas y lo que hace el cerebro es sólo uno de ellas. Quizás sí sea la mejor forma de lograr entender la consciencia, eso sí.

      No sólo son implicaciones éticas sino también filosóficas. Una simulación perfecta de un cerebro humano ¿es un ser consciente? Yo me atrevería a decir que no necesariamente. Así como los bichitos del Game of Life no están vivos aunque lo simulen, tampoco una simulación de la consciencia necesariamente va a ser consciente. Me parece que este punto no es demasiado controversial.

      Ahora, un cerebro real (en vez de virtual) pero que use transistores en vez de neuronas… ahí la cosa se pone más peliaguda.

    • #32676
      Carmen
      Miembro

      daneel, me fascina el tema, y me inclino a coincidir con vos.

      No sé si conoces el experimento chino de Searle, algo antiguo, pero habla de ese tema.

      se me ocurre toda clase de dilemas éticos con una I.A. autoconsciente: por ejemplo, si la I.A. solucionara el tema de la gravidad cuántica, y si es un ser autoconsciente, entonces le correspondería derechos de autor, abrir una cuenta a su nombre, ponerse una cara de humano, etc…

      salu2

      carmen

    • #32677
      saibaba
      Miembro

      Un sistema experto puede ser muy bueno, pero no necesariamente conciente.

      Está especializado en un tipo específico de problemas, y puede trabajar a la par de un experto.

      Pero una máquina de ajedrez, o un programa de I.A., no tiene conciencia de lo que hace.

      ¿Se pone feliz la máquina que le ganó a Kasparov? ¿Entiende que ganó?

      No está claro qué cosa es la «conciencia».

      Pero las máquinas o programas actuales no son concientes.

      Para ser «conciente», tendría que ir más allá de su programación original, buscando hacer cosas para las cuales no fue programada.

      Por ejemplo, un programa de ajedrez que de pronto se sienta atraído por el poker, yo qué sé.

      Las máquinas actuales, por más que «simulen» intenligencia, caen dentro de la clasificación de «máquinas de Turing».

      Incluso, ni siquiera llegan a ser máquinas de TUring, porque tienen recursos de memoria RAM limitados, no expandibles.

      La mente humana, en apariencia, tiene capacidad ilimitada, y tiene un costado intuitivo, que le da un «sentido» a lo «calculado» o «razonado».

      Ese «sentido» o «síntesis» o «significado» no hay máquina actual que lo haga.

    • #32678
      Sir Arquimedes
      Participante

      Hablando de IA lo primero que me viene a mi modesta y natural mente son las tres leyes de robotica de Isaac Asimov.

      1 Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

      2 Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

      3 Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

      Y aquí tenemos al libro YO ROBOT que grafica seriamente el conflicto que podría darse.

      Luego de considerar esta especie de consciencia un robot o un autómata, creo que debería apegarse a la legislación y en ese caso hay un vacío legal o más bien está claramente estipulado que esos atributos como el de manejar bienes, tener un DNI, etc… forman parte de los derechos y obligaciones de las personas y no de cualquier persona, sino de personas hábiles, entendiéndose por hábiles personas que están en pleno uso de sus facultades. Así como cuando un millonario le deja su fortuna a su caniche toy, el caniche no puede hacer uso de ese dinero. Se nombra un curador en el caso de una persona que no esté en su pleno uso de la razón, un albacea testamentario en el caso de bienes patrimoniales de tipo histórico, cultural, artístico etc.. un tutor en el caso de que se trate de un menor. Creo que en el caso de una IA, las ganancias por una formula o descubrimiento como así las pérdidas por un error de cálculo, correrían por cuenta de sus creadores o propietarios. Por otra parte este SER puede designar a alguien humano que se encargue de sus asuntos, como lo hace Stephen Hopkins.

      Tema fascinante, donde nadie tendrá la última pablara.

    • #32679
      ryomashi
      Miembro

      Capas abría que buscarlo por el lado de los sentimientos. Se sabe que hay sentimientos que coinciden en todas las culturas, como la felicidad o la tristeza, entre otros. Después hay otros que varían de cultura en cultura. Una I.A puede ser autoconsciente pero si le chupa un huevo su propio destino porque las cosas le son irrelevantes, y no pude sentir ni felicidad ni tristeza ¿cual es el punto de que tenga derechos?

    • #32680
      N3RI
      Superadministrador

      Data, te extraño tanto!

    • #32681
      saibaba
      Miembro

      Lo que pasa es que los sentimientos se pueden pensar como algo «circunstancial», inherente a la inteligencia humana.

      No tiene por qué ser así una inteligencia de otro tipo.

      El tema es entender o definir bien qué cosa es una «conciencia».

      Cuándo un conjunto de neuronas empieza a tener conciencia de sí mismo.

    • #32682
      Sir Arquimedes
      Participante

      Mientras sigamos comiendo mamiferos, aves, pesacado y otros bichos que hay que matar (no voy a opinar sobre la dieta vigetariana), se vuelve dificil hablar de vida, sentimientos, conciencia; si mañana en Europa (el satelite) enciuentran vida con el coeficiente y la fuerza de un asno, seguro los ponen a trabajar, no les van a dar DNI. Algo parecido sucedio con los esclavos africanos (no comparo el coeficiente) la inferioridad cultural y por sobre todas las cosas tecnologica y la estupidez humana, hizo que el choque de culturas se transforme en esclavitud.

    • #32683
      Carmen
      Miembro

      Pero como bien señala saiba, un programa de ajedrés no está consciente de su entorno, no mucho menos autoconsciente. Como Mr. watson

      una mímica de inteligencia, pero un buen logro que tiene muchas aplicacioens prácticas: asesor técnico,

      una base de datos médicos con interfaz humana, robótica más interactiva (como mesera, bar-man), serviciales y entrañables -pero no auto-conscientes.

      Una vez escuché un discurso que decía que el 99% del cerebro está oculto: lo que sentís como tu consciencia es una pequeña porción de tu cerebro que actúa como portavoz de tu equipo. Creo qeu fue dennet, y otro un investigador en los EEUU cuyo nombre no recuerdo.

      Me parece perfecto la investigacíon y desarrollo de nuevas formas de procesadores que imitan las operaciones neuronales. Insisto, teóricamente es posible la autoconsciencia en algo inorgánico: no hay nada en principio que lo prohiba. Como I.A. de verdad? pues nada fácil, tendría que ser bastante sofisticado, capaz de aprender a aprender, etc… Calculo que tendría que ser sistemas sobre sistemas, sobre sistemas que armonizan, interactúan, etc… : sistemas busca-patrones, sistemas de espacialidad, sistemas de cotejar/diferenciar patrones, sistemas de constructos mentales, sistemas altamente adaptativos, grados de conciencia, grados de autonomía, etc… avanzando pasito a pasito en software, hardware, etc…

      salu2

      PD no me pidan traducir el video de Watson de IBM

    • #32684
      ryomashi
      Miembro

      ¿Sir Arquimides que problema hay con poner a trabajar un animal extraterrestre con la inteligencia y fuerza de un asno?

      saibaba dijo:

      Lo que pasa es que los sentimientos se pueden pensar como algo «circunstancial», inherente a la inteligencia humana.

      No tiene por qué ser así una inteligencia de otro tipo.

      El tema es entender o definir bien qué cosa es una «conciencia».

      Cuándo un conjunto de neuronas empieza a tener conciencia de sí mismo.

      ¿No decimos que los animales son conscientes de sí mismos cuando se identifican a sí mismos en el espejo? Como hacen los grandes primates, los elefantes y los delfines.

    • #32685
      saibaba
      Miembro

      Y bueno, ahi tenés.

      La conciencia se da en algún grado en los animales, pero no en una máquina, incluso si la máquina resuelve problemas más difíciles que una persona.

      Mientras una máquina haga esto, es sólo una versión avanzada de «calculadora».

      Siguiendo ciertos patrones, uno puede «calcular» hacia donde termina cierta corriente de ideas, siguiendo los patrones básicos de ellas…

      O sea, no me cuesta imaginar una máquina que haga simulación del intelecto humano, o incluso lo supere, y que sin embargo siga siendo una calculadora, por lo tanto una máquina sin derechos.

      La conciencia es un fenómeno aparte, y no lo tengo claro, y no creo que alguien lo tenga claro.

      Tener conciencia es lo que pondría a la misma altura «legal» de una persona.

      Mientras el sistema busque respuestas según instrucciones expresamente indicadas desde «afuera», es una máquina.

      Sólo en el momento en que por sí misma busque una respuesta que nadie le dijo que busque, o sea, cuando se haga una pregunta, ahí estaría (quizá, este tema es muy turbio) el primer indicio de conciencia.

      La conciencia de los seres vivos está pulida tras miles de millones de años de experiencia. Una máquina, producida artificialmente, por una vía distinta, sólo puede simular.

      Cuando una persona resuelve una ecuación como x + 5 = 8 —-> x = 3,

      no sólo la resuelve, sino que hay un sentido que le dice: «Ahá, lo hice bien».

      O sea, «se da cuenta» de que lo hizo bien, lo autocertifica.

      Es como el génesis «Y Dios vio que lo que hizo era bueno», jejeje.

      Una máquina «no se da cuenta» de lo que hizo, no «vuelve» sobre lo que hizo para juzgarlo, no entiende «el sentido» de lo que hizo.

      Cuando Carmen especula sobre diversos abstracciones o grados de abstracción de la mente, bueno, no sé si eso es necesario para tener conciencia.

      Algunos animales parecen tener algo de conciencia sin ser capaces del grado de abstracción del ser humano.

      La capacidad de abstracción humana a lo mejor vaya por otro lado,

      y también es parte del problema de la I.A., o sea, es parte de lo que se busca en esta área.

      Pero esos niveles de abstracción bien pueden ser meros «artificios avanzados de cálculo», o sea, más «calculadoras» sin conciencia.

      Pienso que con la tecnología actual ese grado de abstracción es imposible.

      Las máquinas de Turing tienen una complejidad análoga a los «lenguajes abstractos de 1er orden».

      Las computadoras son máquinas de Turing «restringidas», porque no llegan siquiera a ser máquinas de Turing, debido a que tienen memoria RAM finita.

      Un lenguaje de 1er orden no tiene el suficiente poder expresivo para hablar sobre «propiedades abstractas en general» (aunque «casi» pueden, a través de la teoría de conjuntos). Para expresar afirmaciones relativas a «propiedades» se requiere un lenguaje de 2do orden o superior.

      Es en ellos o en lenguajes de complejidad análoga donde el ser humano puede expresar categorías cada vez más abstractas.

      Estos lenguajes ya no corresponden a máquinas de Turing, luego las computadoras actuales no pueden expresarlos, no importa las tretas que se inventen.

      En el fondo, las operaciones básicas a las que todo se reduce en una computadora son las mismas de una máquina de Turing, y para peor, con memoria RAM finita (le digo RAM también al disco rígido o cualquier medio de almacenamiento en un algoritmo dado).

      Así, a ojo, con estos criterios básicos, supongo yo que no se puede lograr una máquina de pensamiento abstracto.

      Imagino que por ello hay gente especulando con algoritmos para máquinas «cuánticas», o sea, una en la que se puede ir más allá de una máquina de Turing, que va en forma determinista escribiendo 0’s y 1’s sin mucha gracia.

      Aunque también hay cuestiones sin resolver en este terreno. Creo que tiene que ver con el famoso problema informático de P = NP.

    • #32686
      Carmen
      Miembro

      coincido con el amigo saiba

      por más sofisticada que sea, una máquina de pregunta-respuesta, como Watson, sigue siendo una máguina de pregunta-respuesta. Por ahí, útil (como asesor) pero no-consciente.

      Igual, insisto que en principio es posible armar algo realmente consiente, pero quiero pensar un super-sistema, con un portavoz tipo «conciencia o yo», con quizás cientos de subsistemas fiables limitados a otras tareas: memoria, cotejo, espacialidad, busca-patrones, etc… Algo parecido a lo que hace un cerebro oránico humano. Nada fácil, pero en principio, debería ser posible.

      :D

    • #32687
      saibaba
      Miembro

      Bien.

      He intentado separar algunos conceptos, que pienso que van separados:

      (a) * Resolución de problemas: «súper-calculadora».

      (b) * Capacidad de abstracción: «lenguajes de alta complejidad».

      (c) * Autoconciencia: (Vaya a saber uno qué diablos es esto).

      Pienso que el ítem (c) autoconciencia, no tiene una relación directa, o necesaria, con los otros dos ítems (a) y (b).

      Se puede tener baja capacidad de calcular soluciones… y tener autoconciencia.

      Se puede tener baja o nula capacidad de abstracción, y tener autoconciencia.

      La capacidad de abstracción me parece a mí que va por el lado de la complejidad que alcanza un lenguaje.

      Los lenguajes de las máquinas, para poder implementarse, tienen que ser «formales» y están bastante estudiados.

      Las máquinas actuales no tienen teóricamente la capacidad de ir «más allá».

      Es un problema teórico, a menos que alguien me indique lo contrario.

      Ya una máquina de Turing (algo teórico) es bastante limitada,

      y las máquinas actuales no llegan siquiera a ser máquinas de Turing,

      sino simulaciones finitas.

      Saludos

    • #32688
      Carmen
      Miembro

      perfecto saiba, me parece perfectamente plausible lo que decis

      Si hablamos de consciencia, o sea tomar conocimiento, al estilo humano, entonces habría que mejorar e incorporar sistemas ópticos, reconocimiento de patrones..etc… Tengo entendido que se hacen investigacioens y desarrollo al respeto. Considera que una buena proporcion del cerebro humano se ocupa de interpretar lo que ve, percepción, etc… Una cosa es tomar algún grado de consciencia del entorno: otra tomar consciencia de los proceso mentales de hacer memoria, calcular o proyectar a futuro (consecuencias), reconocerse en un espejo, etc…

      lo que vale recalcar es que si bien, hoy por hoy, el cerebro no está 100% ententendido, ni alcanza la capacidad de redes neurales artificiales para imitar todass sus funciones, avanza tanto la neurociencia cognitiva como la nanotecnología y artes afines. Coincido con Dr. Novella y especialistas en el tema, que no hay nada en principio que prohiba una consciencia -incluso auto-consciencia- a base de algo artificial. Que no sea fácil, o para qué finalidad? son temas aparte…

    • #32689
      saibaba
      Miembro

      Carmen dijo:

      Una cosa es tomar algún grado de consciencia del entorno: otra tomar consciencia de los proceso mentales de hacer memoria, calcular o proyectar a futuro (consecuencias), reconocerse en un espejo, etc…

      no hay nada en principio que prohiba una consciencia -incluso auto-consciencia- a base de algo artificial. Que no sea fácil, o para qué finalidad? son temas aparte…

      Respecto al primer párrafo: es cierto, la «conciencia» tiene más de una «fase».

      En cuanto a si se puede lograr o no la conciencia,

      creo que depende de lo que se entiende por «conciencia».

      Hay que entenderla para después producirla artificialmente.

      Los aparatos en base a silicio… son máquinas lógicas.

      ¿Tienen chances de desarrollar conciencia?

      Es algo aparte…

      A lo mejor cualquier máquina podría «tomar conciencia»,

      siempre que alguien le ponga el «chip del Comandante Data», jeje.

    • #32690
      Carmen
      Miembro

      :D

Mostrando 16 respuestas a los debates
  • Debes iniciar sesión para responder a este tema.