Red neuronal a base de silicio
Etiquetas: inteligencia artificial, procesadores ARM, yo robot
- Este debate tiene 16 respuestas, 6 participantes y ha sido actualizado por última vez el hace 13 años, 4 meses por Carmen.
-
AutorMensajes
-
-
13 julio, 2011 a las 16:39 #28349CarmenMiembro
ver nota (debidamente traducida, eh?)
palabras clave: procesadores ARM, Steve Furber, inteligencia artificial (I.A.)
un posible beneficio de la inteligencia artificial: la capacidad intelectual humana es limitada. En principio, una I.A. podría superar la capacidad intelectual humana por varias veces.
Por ej. una teoría de gravedad cuántica podría resultar de enorme beneficio social. Hipotéticamente, una I.A. con una capacidad intelectual varias veces superior al cerebro humano, si tenía disponibles todos los datos, teorías, y buen motivo para elaborar un modelo teórico contrastable, podría ser una especie de «colega» artificial para los teóricos de la física fundamental.
Por otra parte, abre la puerta a varios dilemas éticos: si en el fondo, el criterio para la consideración ética es la consciencia, capacidad de sentir, etc.. y si bien la I.A. está consciente de su entorno, autoconsciente, etc… entonces, merecería entrar en el círculo de consideración ética. De ser así, merece un D.N.I. y destruirlo sería éticamente equivalente a un homicidio. El hecho de que la I.A. consciente y autoconsciente tenga un dueño, viene siendo una especie de esclavitud, etc… Pensalo.
salu2
carmen chase
-
13 julio, 2011 a las 17:29 #32675Elio CampitelliMiembro
No estoy seguro si esta sea la mejor forma de lograr una inteligencia artificial. Hay muchas formas de resolver problemas y lo que hace el cerebro es sólo uno de ellas. Quizás sí sea la mejor forma de lograr entender la consciencia, eso sí.
No sólo son implicaciones éticas sino también filosóficas. Una simulación perfecta de un cerebro humano ¿es un ser consciente? Yo me atrevería a decir que no necesariamente. Así como los bichitos del Game of Life no están vivos aunque lo simulen, tampoco una simulación de la consciencia necesariamente va a ser consciente. Me parece que este punto no es demasiado controversial.
Ahora, un cerebro real (en vez de virtual) pero que use transistores en vez de neuronas… ahí la cosa se pone más peliaguda.
-
13 julio, 2011 a las 18:46 #32676CarmenMiembro
daneel, me fascina el tema, y me inclino a coincidir con vos.
No sé si conoces el experimento chino de Searle, algo antiguo, pero habla de ese tema.
se me ocurre toda clase de dilemas éticos con una I.A. autoconsciente: por ejemplo, si la I.A. solucionara el tema de la gravidad cuántica, y si es un ser autoconsciente, entonces le correspondería derechos de autor, abrir una cuenta a su nombre, ponerse una cara de humano, etc…
salu2
carmen
-
13 julio, 2011 a las 23:08 #32677saibabaMiembro
Un sistema experto puede ser muy bueno, pero no necesariamente conciente.
Está especializado en un tipo específico de problemas, y puede trabajar a la par de un experto.
Pero una máquina de ajedrez, o un programa de I.A., no tiene conciencia de lo que hace.
¿Se pone feliz la máquina que le ganó a Kasparov? ¿Entiende que ganó?
No está claro qué cosa es la «conciencia».
Pero las máquinas o programas actuales no son concientes.
Para ser «conciente», tendría que ir más allá de su programación original, buscando hacer cosas para las cuales no fue programada.
Por ejemplo, un programa de ajedrez que de pronto se sienta atraído por el poker, yo qué sé.
Las máquinas actuales, por más que «simulen» intenligencia, caen dentro de la clasificación de «máquinas de Turing».
Incluso, ni siquiera llegan a ser máquinas de TUring, porque tienen recursos de memoria RAM limitados, no expandibles.
La mente humana, en apariencia, tiene capacidad ilimitada, y tiene un costado intuitivo, que le da un «sentido» a lo «calculado» o «razonado».
Ese «sentido» o «síntesis» o «significado» no hay máquina actual que lo haga.
-
14 julio, 2011 a las 00:04 #32678Sir ArquimedesParticipante
Hablando de IA lo primero que me viene a mi modesta y natural mente son las tres leyes de robotica de Isaac Asimov.
1 Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3 Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Y aquí tenemos al libro YO ROBOT que grafica seriamente el conflicto que podría darse.
Luego de considerar esta especie de consciencia un robot o un autómata, creo que debería apegarse a la legislación y en ese caso hay un vacío legal o más bien está claramente estipulado que esos atributos como el de manejar bienes, tener un DNI, etc… forman parte de los derechos y obligaciones de las personas y no de cualquier persona, sino de personas hábiles, entendiéndose por hábiles personas que están en pleno uso de sus facultades. Así como cuando un millonario le deja su fortuna a su caniche toy, el caniche no puede hacer uso de ese dinero. Se nombra un curador en el caso de una persona que no esté en su pleno uso de la razón, un albacea testamentario en el caso de bienes patrimoniales de tipo histórico, cultural, artístico etc.. un tutor en el caso de que se trate de un menor. Creo que en el caso de una IA, las ganancias por una formula o descubrimiento como así las pérdidas por un error de cálculo, correrían por cuenta de sus creadores o propietarios. Por otra parte este SER puede designar a alguien humano que se encargue de sus asuntos, como lo hace Stephen Hopkins.
Tema fascinante, donde nadie tendrá la última pablara.
-
14 julio, 2011 a las 00:05 #32679ryomashiMiembro
Capas abría que buscarlo por el lado de los sentimientos. Se sabe que hay sentimientos que coinciden en todas las culturas, como la felicidad o la tristeza, entre otros. Después hay otros que varían de cultura en cultura. Una I.A puede ser autoconsciente pero si le chupa un huevo su propio destino porque las cosas le son irrelevantes, y no pude sentir ni felicidad ni tristeza ¿cual es el punto de que tenga derechos?
-
14 julio, 2011 a las 01:25 #32680N3RISuperadministrador
Data, te extraño tanto!
-
14 julio, 2011 a las 02:04 #32681saibabaMiembro
Lo que pasa es que los sentimientos se pueden pensar como algo «circunstancial», inherente a la inteligencia humana.
No tiene por qué ser así una inteligencia de otro tipo.
El tema es entender o definir bien qué cosa es una «conciencia».
Cuándo un conjunto de neuronas empieza a tener conciencia de sí mismo.
-
14 julio, 2011 a las 03:22 #32682Sir ArquimedesParticipante
Mientras sigamos comiendo mamiferos, aves, pesacado y otros bichos que hay que matar (no voy a opinar sobre la dieta vigetariana), se vuelve dificil hablar de vida, sentimientos, conciencia; si mañana en Europa (el satelite) enciuentran vida con el coeficiente y la fuerza de un asno, seguro los ponen a trabajar, no les van a dar DNI. Algo parecido sucedio con los esclavos africanos (no comparo el coeficiente) la inferioridad cultural y por sobre todas las cosas tecnologica y la estupidez humana, hizo que el choque de culturas se transforme en esclavitud.
-
14 julio, 2011 a las 04:01 #32683CarmenMiembro
Pero como bien señala saiba, un programa de ajedrés no está consciente de su entorno, no mucho menos autoconsciente. Como Mr. watson
una mímica de inteligencia, pero un buen logro que tiene muchas aplicacioens prácticas: asesor técnico,
una base de datos médicos con interfaz humana, robótica más interactiva (como mesera, bar-man), serviciales y entrañables -pero no auto-conscientes.
Una vez escuché un discurso que decía que el 99% del cerebro está oculto: lo que sentís como tu consciencia es una pequeña porción de tu cerebro que actúa como portavoz de tu equipo. Creo qeu fue dennet, y otro un investigador en los EEUU cuyo nombre no recuerdo.
Me parece perfecto la investigacíon y desarrollo de nuevas formas de procesadores que imitan las operaciones neuronales. Insisto, teóricamente es posible la autoconsciencia en algo inorgánico: no hay nada en principio que lo prohiba. Como I.A. de verdad? pues nada fácil, tendría que ser bastante sofisticado, capaz de aprender a aprender, etc… Calculo que tendría que ser sistemas sobre sistemas, sobre sistemas que armonizan, interactúan, etc… : sistemas busca-patrones, sistemas de espacialidad, sistemas de cotejar/diferenciar patrones, sistemas de constructos mentales, sistemas altamente adaptativos, grados de conciencia, grados de autonomía, etc… avanzando pasito a pasito en software, hardware, etc…
salu2
PD no me pidan traducir el video de Watson de IBM
-
14 julio, 2011 a las 04:32 #32684ryomashiMiembro
¿Sir Arquimides que problema hay con poner a trabajar un animal extraterrestre con la inteligencia y fuerza de un asno?
saibaba dijo:
Lo que pasa es que los sentimientos se pueden pensar como algo «circunstancial», inherente a la inteligencia humana.
No tiene por qué ser así una inteligencia de otro tipo.
El tema es entender o definir bien qué cosa es una «conciencia».
Cuándo un conjunto de neuronas empieza a tener conciencia de sí mismo.
¿No decimos que los animales son conscientes de sí mismos cuando se identifican a sí mismos en el espejo? Como hacen los grandes primates, los elefantes y los delfines.
-
14 julio, 2011 a las 05:30 #32685saibabaMiembro
Y bueno, ahi tenés.
La conciencia se da en algún grado en los animales, pero no en una máquina, incluso si la máquina resuelve problemas más difíciles que una persona.
Mientras una máquina haga esto, es sólo una versión avanzada de «calculadora».
Siguiendo ciertos patrones, uno puede «calcular» hacia donde termina cierta corriente de ideas, siguiendo los patrones básicos de ellas…
O sea, no me cuesta imaginar una máquina que haga simulación del intelecto humano, o incluso lo supere, y que sin embargo siga siendo una calculadora, por lo tanto una máquina sin derechos.
La conciencia es un fenómeno aparte, y no lo tengo claro, y no creo que alguien lo tenga claro.
Tener conciencia es lo que pondría a la misma altura «legal» de una persona.
Mientras el sistema busque respuestas según instrucciones expresamente indicadas desde «afuera», es una máquina.
Sólo en el momento en que por sí misma busque una respuesta que nadie le dijo que busque, o sea, cuando se haga una pregunta, ahí estaría (quizá, este tema es muy turbio) el primer indicio de conciencia.
La conciencia de los seres vivos está pulida tras miles de millones de años de experiencia. Una máquina, producida artificialmente, por una vía distinta, sólo puede simular.
Cuando una persona resuelve una ecuación como x + 5 = 8 —-> x = 3,
no sólo la resuelve, sino que hay un sentido que le dice: «Ahá, lo hice bien».
O sea, «se da cuenta» de que lo hizo bien, lo autocertifica.
Es como el génesis «Y Dios vio que lo que hizo era bueno», jejeje.
Una máquina «no se da cuenta» de lo que hizo, no «vuelve» sobre lo que hizo para juzgarlo, no entiende «el sentido» de lo que hizo.
Cuando Carmen especula sobre diversos abstracciones o grados de abstracción de la mente, bueno, no sé si eso es necesario para tener conciencia.
Algunos animales parecen tener algo de conciencia sin ser capaces del grado de abstracción del ser humano.
La capacidad de abstracción humana a lo mejor vaya por otro lado,
y también es parte del problema de la I.A., o sea, es parte de lo que se busca en esta área.
Pero esos niveles de abstracción bien pueden ser meros «artificios avanzados de cálculo», o sea, más «calculadoras» sin conciencia.
Pienso que con la tecnología actual ese grado de abstracción es imposible.
Las máquinas de Turing tienen una complejidad análoga a los «lenguajes abstractos de 1er orden».
Las computadoras son máquinas de Turing «restringidas», porque no llegan siquiera a ser máquinas de Turing, debido a que tienen memoria RAM finita.
Un lenguaje de 1er orden no tiene el suficiente poder expresivo para hablar sobre «propiedades abstractas en general» (aunque «casi» pueden, a través de la teoría de conjuntos). Para expresar afirmaciones relativas a «propiedades» se requiere un lenguaje de 2do orden o superior.
Es en ellos o en lenguajes de complejidad análoga donde el ser humano puede expresar categorías cada vez más abstractas.
Estos lenguajes ya no corresponden a máquinas de Turing, luego las computadoras actuales no pueden expresarlos, no importa las tretas que se inventen.
En el fondo, las operaciones básicas a las que todo se reduce en una computadora son las mismas de una máquina de Turing, y para peor, con memoria RAM finita (le digo RAM también al disco rígido o cualquier medio de almacenamiento en un algoritmo dado).
Así, a ojo, con estos criterios básicos, supongo yo que no se puede lograr una máquina de pensamiento abstracto.
Imagino que por ello hay gente especulando con algoritmos para máquinas «cuánticas», o sea, una en la que se puede ir más allá de una máquina de Turing, que va en forma determinista escribiendo 0’s y 1’s sin mucha gracia.
Aunque también hay cuestiones sin resolver en este terreno. Creo que tiene que ver con el famoso problema informático de P = NP.
-
14 julio, 2011 a las 17:18 #32686CarmenMiembro
coincido con el amigo saiba
por más sofisticada que sea, una máquina de pregunta-respuesta, como Watson, sigue siendo una máguina de pregunta-respuesta. Por ahí, útil (como asesor) pero no-consciente.
Igual, insisto que en principio es posible armar algo realmente consiente, pero quiero pensar un super-sistema, con un portavoz tipo «conciencia o yo», con quizás cientos de subsistemas fiables limitados a otras tareas: memoria, cotejo, espacialidad, busca-patrones, etc… Algo parecido a lo que hace un cerebro oránico humano. Nada fácil, pero en principio, debería ser posible.
-
14 julio, 2011 a las 18:21 #32687saibabaMiembro
Bien.
He intentado separar algunos conceptos, que pienso que van separados:
(a) * Resolución de problemas: «súper-calculadora».
(b) * Capacidad de abstracción: «lenguajes de alta complejidad».
(c) * Autoconciencia: (Vaya a saber uno qué diablos es esto).
Pienso que el ítem (c) autoconciencia, no tiene una relación directa, o necesaria, con los otros dos ítems (a) y (b).
Se puede tener baja capacidad de calcular soluciones… y tener autoconciencia.
Se puede tener baja o nula capacidad de abstracción, y tener autoconciencia.
La capacidad de abstracción me parece a mí que va por el lado de la complejidad que alcanza un lenguaje.
Los lenguajes de las máquinas, para poder implementarse, tienen que ser «formales» y están bastante estudiados.
Las máquinas actuales no tienen teóricamente la capacidad de ir «más allá».
Es un problema teórico, a menos que alguien me indique lo contrario.
Ya una máquina de Turing (algo teórico) es bastante limitada,
y las máquinas actuales no llegan siquiera a ser máquinas de Turing,
sino simulaciones finitas.
Saludos
-
14 julio, 2011 a las 18:57 #32688CarmenMiembro
perfecto saiba, me parece perfectamente plausible lo que decis
Si hablamos de consciencia, o sea tomar conocimiento, al estilo humano, entonces habría que mejorar e incorporar sistemas ópticos, reconocimiento de patrones..etc… Tengo entendido que se hacen investigacioens y desarrollo al respeto. Considera que una buena proporcion del cerebro humano se ocupa de interpretar lo que ve, percepción, etc… Una cosa es tomar algún grado de consciencia del entorno: otra tomar consciencia de los proceso mentales de hacer memoria, calcular o proyectar a futuro (consecuencias), reconocerse en un espejo, etc…
lo que vale recalcar es que si bien, hoy por hoy, el cerebro no está 100% ententendido, ni alcanza la capacidad de redes neurales artificiales para imitar todass sus funciones, avanza tanto la neurociencia cognitiva como la nanotecnología y artes afines. Coincido con Dr. Novella y especialistas en el tema, que no hay nada en principio que prohiba una consciencia -incluso auto-consciencia- a base de algo artificial. Que no sea fácil, o para qué finalidad? son temas aparte…
-
15 julio, 2011 a las 02:52 #32689saibabaMiembro
Carmen dijo:
Una cosa es tomar algún grado de consciencia del entorno: otra tomar consciencia de los proceso mentales de hacer memoria, calcular o proyectar a futuro (consecuencias), reconocerse en un espejo, etc…
no hay nada en principio que prohiba una consciencia -incluso auto-consciencia- a base de algo artificial. Que no sea fácil, o para qué finalidad? son temas aparte…
Respecto al primer párrafo: es cierto, la «conciencia» tiene más de una «fase».
En cuanto a si se puede lograr o no la conciencia,
creo que depende de lo que se entiende por «conciencia».
Hay que entenderla para después producirla artificialmente.
Los aparatos en base a silicio… son máquinas lógicas.
¿Tienen chances de desarrollar conciencia?
Es algo aparte…
A lo mejor cualquier máquina podría «tomar conciencia»,
siempre que alguien le ponga el «chip del Comandante Data», jeje.
-
15 julio, 2011 a las 17:09 #32690CarmenMiembro
-
-
AutorMensajes
- Debes iniciar sesión para responder a este tema.