Sobre la inteligencia artificial

TOPIO 2.0Que peligros traera la futura inteligencia artificial

Es los ultimos meses han salido noticias en diferentes medios, más o menos sensacionalistas, sobre los peligros que traeria la inteligencia artificial si no esta bien controlada. Con una simple busqueda, podemos ver que dicen.

Hablar sobre AI (inteligencia artificial) podria ser muy largo, hay demasiados matices que son muy importantes de analizar uno a uno. Así que solo voy a realizar un repaso de donde nos encontramos y ver un poco de historia.

Es un ejercicio de razonamiento, nada más.

Futuro tipo Matrix

Indudablemente he de empezar por la idea más extendida de lo que seria un futuro controlado por las maquinas.

En la imaginación de la gente hay un gran espacio ocupado por peliculas como Matrix o Terminator y sobretodo por la famosa Skynet. Películas que son solo eso, y que han creado un miedo innecesario a quienes se las creen más de la cuenta.

El principio de este miedo viene dado por la posibilidad de que una AI tome conciencia sobre si misma y decida prescindir de nosotros. Y es en este aspecto, la conciencia, donde hay muchas cosas que aclarar.

Conciencia de si mismo

Para entender la complejidad de la AI, deberiamos adentrarnos en temas tan peliagudos como es la consciencia. Podriamos empezar con la mitica prueba del espejo, para entender hasta que grado otros seres pueden llegar a ser inteligentes. Se trata de una simple prueba donde se intenta averiguar el grado de inteligencia de un animal al ver su propio reflejo, por ejemplo ser capaz de reconocer que tiene algo enganchado que antes no tenia.

Un perro es considerado como muy inteligente, algunas personas incluso dicen que son más inteligentes que los humanos. Son capaces de obedecer ordenes, realizar acciones minimamente complejas y actuar por su cuenta para salvar al un humano, o a el mismo. Pero no pasa la prueba del espejo.
En cambio, una urraca tiene una inteligencia comparable a la de un perro, o incluso mayor, y pasa la prueba del espejo al reconocerse a si misma. Una maquina con la inteligencia de una urraca seria todo un logro.

A donde voy, es que aún no tenemos muy claro exactamente que es inteligencia, ni que es conciencia. Una maquina podria tomar conciencia de si misma, pero no ser capaz de realizar ninguna acción. Así mismo, podría ser una maquina tonta, que es capaz de destruir el planeta solo en base de ciertos algorismos que se le han implementado.

Imaginemos la siguiente situació “Una maquina, ordenador, robot o lo que queramos imaginar, tiene capacidad para tomar decisiones militares. Las decisiones son solo algorismos logicos, millones de ellos. Variables que deciden si lanzar un misil nuclear o no. Entre todas esas variables, el programador ha introducido una absurda y riducula que no deberia ocurri nunca, que el presidente de EEUU (el que corresponda) se tire un pedo al agacharse, mientras visita las instalaciones. En ese caso dispararía todos los misiles disponibles”

Es una situación imaginada y absurda. En este caso, no es necesario una AI sofisticada y maligna, sino un tipo gracioso que hace mal su trabajo y pone en riesgo a todo el planeta. Con estas situaciones vivimos cada día, la catástrofe se cierne sobre nosotros en cada esquina, y vivimos (no todos por desgracia) gracias a unas cuantas cosas.

Protocolos, procedimientos y leyes

Porque si el mundo funciona, es gracias ha que aunque no lo creamos, existen normativas, protocolos, procedimientos y leyes que aseguran que las cosas funcionan, no de forma perfecta, pero lo hacen. El riesgo es constante. La tragedia puede ocurrir cualquier día por culpa de cualquier trabajo arriesgado, pero gracias a que las medidas de seguridad aumentan según la peligrosidad, no pasa nada.

Entonces nos queda la opción de que la inteligencia tome conciencia de si mismo y actúe por su cuenta. Pues si contamos con la opción del programador loco, no tiene sentido hablar de los peligros de la AI, sino del peligro de que un arma peligrosa este en manos de alguien inadecuado. Pues con eso vivimos constantemente. Y no pasa nada.

Así que entro de lleno en la posibilidad de que la maquina actúe por su cuenta.

Para que una máquina actúe por decisión propia, podríamos dotarla de libre albedrío , donde entraríamos de nuevo en una larga discusión. Para mi, no existe tal cosa. Tomamos nuestras decisiones en base a sentimientos, que no es otra cosa que la química de nuestro cerebro, también basándonos en nuestras experiencias pasadas y la recompensa futura. El entorno e incluso la temperatura, puede inducirnos.
No somos precisamente un ejemplo para tomar decisiones lógicas, coherentes y buenas a largo plazo. Así que pensar que una máquina puede actuar con ese supuesto poder de elegir que tenemos, nosotros, es sencillamente, una estupidez.
De nuevo, que pueda hacer esto dependerá de la programación, y volvemos a lo anterior. Protocolos, procedimientos…

¿Y si aprende sola?

Nos queda la opción de un sistema que aprenda solo y sea capaz de tomar decisiones poco a poco desde un principio básico de acciones sencillas. Como un bebé. En ese caso, lo que aprenda influirá en sus decisiones futuras. No debemos olvidarnos que nacemos con una serie de datos grabados. Miedo, hambre, instinto de supervivencia. Podríamos dotar a una maquina de los mismos principios, ¿pero serán iguales? Sentirá la maquina realmente miedo, sabiendo que es perdurable más allá que nosotros?
Si, programandolo para ello, y volvemos al lo anterior,protocolos, no voy a repetirme.

Creo que con estos puntos, se ve cual es el problema. Una maquina capaz de actuar por su cuenta sin razonamiento, no es otra cosa que arma, si ha sido diseñada para eso, o un gran avance para la humanidad, si ese es su fin.
Sabiendo eso, lo más razonable que se puede hacer, es justamente investigar en ese campo, y que lo hagan las potencias occidentales, pues no hacerlo, seguramente llevará a que otros lo hagan, con peores intenciones, aunque tarden muchos más años.

Si hablamos de una inteligencia con conciencia propia, el problema se agranda. No somos aun muy capaces de entender como funciona nuestro cerebro, así que se vuelve complicado poder definir donde esta el límite a partir del cual podemos considerar una maquina cómo inteligente.

Para esto, podríamos remontarnos a los inicios y hablar de Alan Turing . Aparte de ser un héroe de la segunda guerra mundial, es alguien muy presente en la inteligencia artificial a pesar de haber nacido hace ya más de 100 años, gracias en parte a su Test de Turing.
El sistema solo intenta evaluar la capacidad de un sistema informático, de dar respuestas en forma de texto, y estas no puedan distinguirse de las dadas por un humano. Si alguien quiere jugar un poco a ser juez evaluando la posible inteligencia de una maquina, puede probar con cleverbot . Es un chat donde nuestro interlocutor es un programa informático.

Con Cleverbot, de lo que vamos a darnos cuenta, es de que un sistema puede suplantar la personalidad humana, puede imitarlo, pero no por ello ser inteligente, ni mucho menos tener conciencia sobre si mismo. Es uno de los problemas del Test de Turing. Eso (si hemos leído el enlace sobre el test, o ya lo conocíamos)nos debería dar una idea de lo increíblemente complicado que es desarrollar una inteligencia artificial.

¿Entonces de que peligros hablan los científicos?

Para mi, los peligros no son tales, es un aviso alarmista creado por los medios. En realidad lo que pretende es crear conciencia de que la inteligencia artificial está más cerca que nunca, y que las leyes actuales podrían no estar ajustadas para estas maquinas. Se habla sobre el problema de las armas autónomas. ¿podrán ser juzgadas al igual que pueden ser juzgados los militares por crímenes de guerra? ¿cual es su responsabilidad?

Es necesario investigar más y tener ya un ojo puesto en las leyes. También hay que crear conciencia, sobre lo que vendrá. Porque vendrá.

Podeis leer la carta aquí.

Literatura ciencia ficción o científica

Son varios los científicos y escritores de ciencia ficción, que han profundizado en el futuro de la humanidad, la inteligencia artificial, y la conquista del espacio.

Carl Sagan

Stephen Hawking

Michio Kaku

Arthur C. Clarke

Neil deGrasse Tyson

 En general, tienen un punto en comun, nuestro futuro esta ligado de forma inveitable a nuestra capacidad de poder crear inteligencia artificial, y solo podemos evitar la extincion gracias a ella. La conquista del espacio, según nuestro conocimiento actual, pasa por enviar fuera a seres no organicos. Si en un futuro queremos estendernos por la galaxia, vamos a necesitar de esta inteligencia no humana.

Y más aún, de encontrar vida no terrestre, inteligente y avanzada, seguramente sera algo similar a un robot.

Así pues, no es mal momento para comenzar a investigar en serio.

Bonus Track

¿Y Isaac Asimov?

Puede que alguno eche en falta un comentario directo sobre este escritor. Lo guardaba para el final.

Asimov es conocido por sus Tres leyes de la robotica, donde tres simples ordenes, sirven como normas de conducta obligatorias para los robots del universo literario de Asimov. Estas tres leyes, se suelen emplear habitualmente para hablar sobre AI. Tambien aparecen en literatura y cine, por ejemplo las ordenes de robocop que impedian matar civiles y directivos de la OCP, podrian estar inspiradas en las leyes de Asimov. El problema, y si no se ha leido a Asimov, es facil no verlo, es que esas tres leyes son solo una base. En Yo, Robot el escritor profundiza en una serie de situaciones, donde esas simples reglas crearian conflictos donde las leyes se violarían, o seria inutiles. Esto demuestra, que la programación de unos seres inteligentes es mucho mas compleja de lo que puede parecer en principio, haciendo inutil el simplificar el comportamiento solo en unas leyes.

Deja un comentario