Re: Red neuronal a base de silicio

#32685
saibaba
Miembro

Y bueno, ahi tenés.

La conciencia se da en algún grado en los animales, pero no en una máquina, incluso si la máquina resuelve problemas más difíciles que una persona.

Mientras una máquina haga esto, es sólo una versión avanzada de «calculadora».

Siguiendo ciertos patrones, uno puede «calcular» hacia donde termina cierta corriente de ideas, siguiendo los patrones básicos de ellas…

O sea, no me cuesta imaginar una máquina que haga simulación del intelecto humano, o incluso lo supere, y que sin embargo siga siendo una calculadora, por lo tanto una máquina sin derechos.

La conciencia es un fenómeno aparte, y no lo tengo claro, y no creo que alguien lo tenga claro.

Tener conciencia es lo que pondría a la misma altura «legal» de una persona.

Mientras el sistema busque respuestas según instrucciones expresamente indicadas desde «afuera», es una máquina.

Sólo en el momento en que por sí misma busque una respuesta que nadie le dijo que busque, o sea, cuando se haga una pregunta, ahí estaría (quizá, este tema es muy turbio) el primer indicio de conciencia.

La conciencia de los seres vivos está pulida tras miles de millones de años de experiencia. Una máquina, producida artificialmente, por una vía distinta, sólo puede simular.

Cuando una persona resuelve una ecuación como x + 5 = 8 —-> x = 3,

no sólo la resuelve, sino que hay un sentido que le dice: «Ahá, lo hice bien».

O sea, «se da cuenta» de que lo hizo bien, lo autocertifica.

Es como el génesis «Y Dios vio que lo que hizo era bueno», jejeje.

Una máquina «no se da cuenta» de lo que hizo, no «vuelve» sobre lo que hizo para juzgarlo, no entiende «el sentido» de lo que hizo.

Cuando Carmen especula sobre diversos abstracciones o grados de abstracción de la mente, bueno, no sé si eso es necesario para tener conciencia.

Algunos animales parecen tener algo de conciencia sin ser capaces del grado de abstracción del ser humano.

La capacidad de abstracción humana a lo mejor vaya por otro lado,

y también es parte del problema de la I.A., o sea, es parte de lo que se busca en esta área.

Pero esos niveles de abstracción bien pueden ser meros «artificios avanzados de cálculo», o sea, más «calculadoras» sin conciencia.

Pienso que con la tecnología actual ese grado de abstracción es imposible.

Las máquinas de Turing tienen una complejidad análoga a los «lenguajes abstractos de 1er orden».

Las computadoras son máquinas de Turing «restringidas», porque no llegan siquiera a ser máquinas de Turing, debido a que tienen memoria RAM finita.

Un lenguaje de 1er orden no tiene el suficiente poder expresivo para hablar sobre «propiedades abstractas en general» (aunque «casi» pueden, a través de la teoría de conjuntos). Para expresar afirmaciones relativas a «propiedades» se requiere un lenguaje de 2do orden o superior.

Es en ellos o en lenguajes de complejidad análoga donde el ser humano puede expresar categorías cada vez más abstractas.

Estos lenguajes ya no corresponden a máquinas de Turing, luego las computadoras actuales no pueden expresarlos, no importa las tretas que se inventen.

En el fondo, las operaciones básicas a las que todo se reduce en una computadora son las mismas de una máquina de Turing, y para peor, con memoria RAM finita (le digo RAM también al disco rígido o cualquier medio de almacenamiento en un algoritmo dado).

Así, a ojo, con estos criterios básicos, supongo yo que no se puede lograr una máquina de pensamiento abstracto.

Imagino que por ello hay gente especulando con algoritmos para máquinas «cuánticas», o sea, una en la que se puede ir más allá de una máquina de Turing, que va en forma determinista escribiendo 0’s y 1’s sin mucha gracia.

Aunque también hay cuestiones sin resolver en este terreno. Creo que tiene que ver con el famoso problema informático de P = NP.