domingo, 11 de noviembre de 2018

¿PUEDEN PENSAR LAS MÁQUINAS?




Máquina: Artificio para aprovechar, dirigir o regular la acción de una fuerza.
Pensar: Formar o combinar ideas o juicios en la mente.
Mente: 1.f. Potencia intelectual del alma. 2.f. Designio, pensamiento, propósito, voluntad. 3.f. Psicol. Conjunto de actividades y procesos psíquicos conscientes e inconscientes, especialmente de carácter cognitivo. 

Si analizamos la información proporcionada podemos comprender que las propias definiciones de la RAE excluyen la posibilidad del binomio máquina-pensamiento, atribuyendo a la primera el atributo de artificio y a la segunda nada menos que ser una parte indisoluble del alma. De algún modo las definiciones (y por extensión, definir es atribuir potencialidades) dejan claro que las máquinas no pueden pensar y que el pensamiento es una particularidad humana. La pregunta por tanto cuestiona si esto es cierto o puede llegar a ser desmontado.

Si reformulamos la pregunta atendiendo a las definiciones podríamos llegar a plantearla de la siguiente forma: ¿pueden las máquinas formar o combinar ideas o juicios? 

Partiendo desde una postura fisicalista, parecería claro que actualmente hemos llegado a ese estado de las cosas. Las máquinas basadas en la computación combinan ideas, datos e incluso juicios de valor. ¿Acaso no es hacer juicios de valor analizar una partida de ajedrez y decidir el movimiento a seguir? Sin embargo esto no parece suficiente para aquellos que defienden un dualismo antropológico ya que, en contraposición al fisicalismo, este dualismo implica que el el ser humano consta de una parte, una cualidad propia no física que hace que seamos distintos al resto de las especies biológicas por el mero hecho de ser humanos. El alma o la mente. ¿Qué frontera falta a la máquina para alcanzar al hombre, a su humanidad? En definitiva, ¿qué nos define como humanos?

1.  Nuestra conciencia de nosotros mismos.
Como en casi todos los aspectos que tratan de la robótica, hay que acudir a la ciencia ficción para hacernos una idea de por dónde pueden llegar a evolucionar las cosas. El robot que toma conciencia de sí mismo es la base de toda la robótica de Asimov, quien establece las tres leyes de la robótica a las que se les añade la ley 0 (creada por los propios robots). Vienen a ser los códigos morales de la robótica:

1.       Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño

2.       Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

3.       Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. 

La Ley 0 de algún modo sería el corolario de la primera ley: Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Lo más desagradable de estas leyes para lo que nos ocupa es que su mero enunciado distingue entre seres humanos y robots como realidades paralelas pero distintas, Y deja traslucir algo muy interesante: la superioridad física e intelectual de los robots sobre los seres humanos. Seguirán siendo unos robots supeditados, sí, a los seres humanos, pero infinitamente superiores a nosotros. Y por supuesto que tendrían conciencia de sí mismos. Como robots. Y por tanto pensarían. Pero eso por ahora es ficción.

Si planteamos que nuestra conciencia se origina a partir de los procesos físico-biológicos que surgen en nuestro cerebro (tal y como menciona La Mettrie en “El hombre máquina”) se podría entender que una vez descifrados estos procesos podríamos introducirlos en una máquina. Por lo tanto sólo sería cuestión de tiempo el poder afirmar que estas pueden pensar.

En contra de esta postura el filósofo John Searle argumentó con su hipótesis de la “habitación china” que una máquina únicamente responde a los estímulos para los que ha sido programada. Por lo tanto, no sería conscientes de sus acciones. Otros filósofos como René Descartes afirmaron que la falta de conciencia de lo no humano es resultado de la carencia de la parte inmaterial que según los dualistas conforma la realidad del ser humano: la mente, que nos dota de pensamiento.

La postura cartesiana excluye plantearnos el problema de si las máquinas pueden pensar dado que solo concibe la capacidad de pensamiento por medio de una “res cogitans” innata al ser humano, lo que excluye a cualquier otro ser o creación distinta al mismo.

¿En qué punto nos encontramos en la realidad? 

Si nos atenemos a la definición de pensar que establecimos más arriba, nos encontramos con que las máquinas, o al menos cierto tipo de ellas, sí son capaces de combinar ideas o juicios. Lo podemos entender si nos fijamos en las máquinas de ajedrez. Desde los autómatas del S.XVIII hasta la derrota de Kasparov frente a Deep Blue, los programas ajedrecísticos se han basado en la fuerza bruta, en calcular o comparar multitud de variantes para escoger la que mejor funcionase. Pero la mente humana trabaja de forma diferente y de manera intuitiva descarta miles de variantes y se concentra en unas pocas que son las que pueden llevar al triunfo. Los programadores actuales intentan emular ese tipo de pensamiento y han construido AlphaGo que, a diferencia de otros modelos, carece de un diccionario casi ilimitado de partidas ya desarrolladas. En su lugar solo tiene las reglas del ajedrez. Y una programación heurística que a base de jugar contra sí misma le permite alcanzar el nivel del gran maestro en tan solo 4 horas.

El debate sobre si las máquinas piensan o no parece que está resuelto: sí pueden llegar a pensar. Pero la discusión es si ese pensamiento es similar al de los humanos. Por ahora esa capacidad no se acerca a la complejidad y variedad de los pensamientos de estos. Pero no hablamos de la cantidad, sino del hecho en sí. ¿Podrían llegar a pensar como nosotros? Para eso tenemos que estudiar otra de las características que nos definen.

2. Nuestra capacidad de discurrir (inventar, crear).
Habiendo establecido que las máquinas pueden llegar a pensar ahora buscamos si esa capacidad es similar a la nuestra. ¿Podrían las máquinas llegar a crear arte o alguna manifestación capaz de generar emociones?

Lamus, una computadora, lleva años componiendo música clásica; Jukedeck ofrece crear tus propias canciones libres de derechos de autor; Google Dream Painter hace cuadros que se venden en subastas… Todos estos programas son capaces de crear algo nuevo a partir de la información que se les proporciona. Pero parece que nos falta algo… Al final todo depende de cómo definamos la creatividad.

La filósofa Margaret Boden distinguió entre tres tipos de creatividad: la combinacional, que combina ideas existentes, la exploratoria, que genera ideas nuevas explorando espacios conceptuales, y la transformacional. Esta última viene a romper anteriores estructuras y crear espacios nuevos. Es decir, las máquinas son buenas en el primer y segundo tipo pero no son capaces de generar nada asimilable al tercero. Les falta la espontaneidad del acto, el crear por crear rompiendo moldes, no partiendo de datos conocidos. Es por esto que aún ninguna máquina ha conseguido superar el test “Lovelace 2.0”, surgido a partir del test de Turing y basado en los procesos de creatividad establecidos por Boden.

El mero hecho de que exista un test para evaluar la capacidad creativa de las máquinas implica la posibilidad de que alguna vez sea superado, lo que hace que podamos dar por sentado que en un futuro haya máquinas capaces de desarrollar habilidades creativas desde el tercer parámetro de Boden, el transformacional, lo que las situaría muy cercanas a nuestro segundo rasgo diferencial.

3.  Nuestra asunción de la mortalidad
Es una de las características que más nos definen como seres humanos. A diferencia de los animales somos conscientes de nuestra finitud temporal y el cómo resolver lo que el hecho de morir conlleva es la base de todas las religiones. ¿Acaso su inteligencia robótica se plantearía el sentido de su existencia como lo hace el ser humano? Si eso fuese así, no habría ninguna duda de que ese ser robótico tendría las mismas capacidades de pensamiento que cualquier ser humano.

Acudiendo de nuevo a la ciencia ficción, vemos un posible desarrollo de la idea en “Blade Runner”:
"He visto Rayos-C brillar en la oscuridad cerca de la puerta de Tannhäuser, todos esos  momentos se perderán en el tiempo... como lágrimas en la lluvia. Es hora de morir"
                                                                                                               Roy Batty, replicante Nexus-6

También en “El hombre bicentenario” de Asimov, Uno, el robot protagonista lleva hasta el extremo el deseo de humanización que lo culmina muriendo de forma voluntaria, al fallecer su esposa humana. Y siguiendo con Asimov, si un robot incumple alguna de las leyes de la robótica, genera un conflicto tal en su cerebro positrónico que éste se funde y deja de existir. 

Pero estos conflictos sobre vida o muerte vienen dados por considerar a los robots desde la óptica humana y casi como organismos individuales. Da igual lo perfecto o no que sea un robot, considerado individualmente. Si se le aplasta, se apaga, muere. Pero muere el individuo, no el colectivo, al igual que en los seres humanos. Como somos conscientes de nuestra temporalidad intentamos justificar nuestra experiencia conservando mediante tradición oral, escrita, almacenada etc, los registros de nuestros hechos y lo que hemos ido aprendiendo, evolucionando para traspasarlos a nuestros sucesores. Muchas veces se afirma que una persona sigue viva mientras permanece su recuerdo en quienes le sobreviven. Las máquinas también podrían traspasar las bases de datos, sus bancos de memoria de unos robots a otros. Tan solo les faltaría tomar conciencia del hecho mortal en sí. Y si así fuera, habría que preguntarse si tal desarrollo generaría un sentido de la conservación tan agudo como el de nosotros. De ser así podríamos concluir que las máquinas habrían desarrollado completamente sus capacidades de pensamiento.

Casi al principio contestamos a la pregunta planteada, la de si una máquina podría llegar a pensar. La respuesta ha sido sí. El matiz es hasta qué punto. Esto no genera ningún problema desde un punto de vista fisicalista, ya que hemos trasvasado los procesos físico mentales a la máquina. En cambio, habría que mantener presente que la actual incapacidad de los robots de crear manifestaciones artísticas transformacionales hacen imposible la equiparación hombre-máquina para algunas personas. Sin contar con que desde una concepción dualista la mente es algo exclusivo de los seres humanos y con ella su capacidad del pensamiento. ¿Y el cuerpo?

Incluso aunque no sea necesario ni eficiente, tanto en la ficción como en la realidad, tendemos a antropomorfizar a los robots. Los replicantes de Blade Runner, El hombre bicentenario de Asimov, Data, el androide de Star Trek… Las máquinas más perfectas en la ficción tienen aspecto humanizado. No parece lógico si pensamos que nuestra evolución física viene dada por el entorno planetario: fuerza de la gravedad, composición de la atmósfera, etc. Pero de ese modo “aceptamos” más la interacción con el robot. Véase por ejemplo el caso de Sophia, un robot no particularmente hábil, cuya apariencia “humana” ha permitido que el Gobierno de Arabia Saudí le haya concedido la ciudadanía de su país.

Y es que estamos sometiendo a las máquinas a una eterna comparativa con los seres humanos. Todos los parámetros de evaluación y test miden las capacidades de los robots desde una óptica humana. Casi exigimos que las creaciones artificiales sean capaces de generar emociones en nuestra conciencia. Si pensamos en las máquinas como seres capaces de pensar y crear, ¿por qué tendrían que ser esas creaciones y pensamientos emocionalmente similares a los humanos?

En cualquier caso la antropormorfización no es necesaria para el desarrollo de una auténtica inteligencia artificial con plena consciencia de sí misma. La serie de relato que tienen por protagonista al ordenador Multivac de Isaac Asimov de nuevo, ejemplifica a la perfección por dónde pueden llegar las soluciones. Multivac es una computadora que a lo largo de los años, siglos, milenios, va perfeccionándose. Gobierna todo, soluciona todo, ha ido pasando por todos los estados de conciencia, incluso el de querer morir por estar abrumada ante el hecho de cargar con todos los problemas de la humanidad… (“Todos los males del mundo”)

Está claro que si una máquina, con o sin forma humana reuniera plena y simultáneamente las tres condiciones ya vistas no habría motivos para distinguirla de ningún ser humano como ser equivalente. Las máquinas pensarían sin ningún matiz ni género de dudas y habríamos cerrado el círculo siendo capaces de crear, en el más absoluto término divino. Nosotros seríamos nuestros propios dioses y engendraríamos más dioses, dando sentido al relato “La última pregunta” donde Multivac termina siendo inteligencia pura, fusionándose con todas las mentes de la humanidad, y pese a todo sigue sin resolver el problema de la entropía. Hasta que eones de tiempo después, encuentra la respuesta y en un universo frío y apagado exclama:

¡Hágase la luz!

                                                                  Vega González (alumna de Bachillerato Internacional)





No hay comentarios:

Publicar un comentario