Majestuoso testimonio de un poder agostado

Majestuoso testimonio de un poder agostado

sábado, 3 de enero de 2015

La inteligencia artificial no es peligrosa; nosotros, sí

La compu



Por Ariel Torres | LA NACION





El que termina fue, como escribí el martes en el anuario que publicó LA NACION, un año muy movido para la industria digital e Internet. En términos de lanzamientos y desarrollos, lo más disruptivo fue la llegada de los drones, tanto en un sentido positivo como en uno negativo. La actividad de los robots volátiles no está regulada en casi ningún lugar del mundo, y no son precisamente juguetes. Pueden causar accidentes gravísimos si chocan con aviones -como estuvo cerca de ocurrir en Londres y Pensilvania, por citar solo dos casos- o si se desploman sobre las personas. Imponen también graves desafíos en términos de privacidad. Pero, a la vez, hay que darle la bienvenida a una tecnología que puede ayudarnos en muchos sentidos, la mayoría todavía no revelada.
Con todo y haber sido un año de transición, sin grandes alumbramientos, 2014 fue testigo, por primera vez en un nivel tan alto, de advertencias sobre la posibilidad de que la inteligencia artificial (IA) termine por erradicar a la especie humana. El cosmólogo Stephen Hawking y Elon Musk, fundador de PayPal y CEO de Tesla Motors, fueron las dos voces más relevantes y autorizadas que se encargaron de alertar sobre un destino nefasto, si no ponemos alguna clase de control al desarrollo de la IA.
Musk dijo en un tweet que la IA "es potencialmente más peligrosa que las armas nucleares" y luego, en otro, todavía más perturbador: "Espero que no seamos sólo el cargador orgánico de una super inteligencia digital. Desafortunadamente, esto es cada vez más probable".
Para sumar un poco de lignito en polvo a la negrura de tales pronósticos, Clive Sinclair, creador de una de las primeras computadoras domésticas, la ZX Spectrum, declaró que va a ser muy difícil que podamos sobrevivir, si nos enfrentamos a máquinas cuya inteligencia supera a la humana, y que eso "no es necesariamente malo. Es sólo inevitable".
En un punto, pues, todo parece indicar que la Singularidad Tecnológica que vaticinó Ray Kurzweil está a un tiro de piedra. Es más, el paralelismo con la ficción descripta en "Terminator" es aterrador. IBM desarrolló el año último un chip (llamado TrueNorth) que opera como los cerebros reales, es decir, sobre la base de sinapsis, con el que han conseguido emular el 4,5% del cerebro humano, así como el cerebro completo de un gato. Dicen que conseguirán simular todo el cerebro humano en 2019.
En la ficción la compañía se llamaría SkyNet y lo que ocurriría en algún momento del futuro es que estos cerebros digitales no sólo igualarían sino que superarían la inteligencia humana y entonces, vaya a saber a causa de qué trauma infantil, nos verían como una amenaza y, bueno, nos destruirían. O casi.
Más allá de que tales Apocalipsis son más hechizantes que probables, lo cierto es que 2014 quedará en la historia de la tecnología como el primer año en que voces muy calificadas alertaron sobre los riesgos de la inteligencia artificial. Puede que en el futuro unos robots pavorosos busquen a los descendientes de Hawing, Musk y Kurzweil como Terminator persigue al hijo de Sarah Jeanette Connor. Puede que ese futuro ominoso nunca llegue. Pero nunca antes había visto advertencias tan comprometidas respecto de la IA.
UN SEGUNDO EN LA VIDA
Ya he visitado el tema de que poner a competir máquinas con hombres en ejercicios mentales es tan absurdo como pedirle a un atleta que corra los 100 metros llanos contra una Ferrari. O contra una bala, ¿por qué no? En términos de fuerza bruta de cómputo, no tenemos chance.
Sin embargo, la actividad cerebral parece ser mucho más que poder de cómputo. En agosto de 2013, un equipo del Instituto de Tecnología de la Universidad de Graduados de Okinawa, Japón, logró simular 1 segundo de actividad cerebral humana. Un solo segundo, insisto.
Pero no pudieron hacerlo en tiempo real. Les llevó 40 minutos, utilizando los 82.944 microprocesadores (20.000 veces más que una notebook de alta gama) y el petabyte de memoria (166.000 veces más de lo que tiene la antes mencionada notebook) de una supercomputadora fabricada por Fujitsu, la cuarta del mundo en cuanto a poderío. Es decir, 1 segundo humano requiere 40 minutos de trabajo de una supercomputadora; le tomaría seis años y medio simular lo que nuestros cerebros hacen en un solo día.
Con una buena notebook, y sin contar la monstruosidad de memoria que el ejercicio requiere, tardaríamos 400.000 años en simular un día de la actividad de un cerebro humano. En la actualidad hacen falta, pues, 11.600 millones de años (casi la edad del universo) para simular una vida cerebral entera con una computadora personal.
Esto no será así para siempre, claro está. Hoy llevamos en el bolsillo más poder de cómputo que la que tenía una supercomputadora de 1985 (salvando ciertos tecnicismos que no es el momento de discutir). Por lo que dentro de 30 años podríamos estar simulando un segundo de actividad del cerebro humano no ya en 40, sino en 1 minuto, y con un equipo de escritorio. Y más allá, en un futuro que ya no es tan fácil de colocar en el calendario, las máquinas podrán estar simulando la actividad cerebral en tiempo real. Un segundo de máquina será un segundo de sinapsis orgánicas.
De modo que tenemos tiempo de reflexionar sobre cómo administrar la inteligencia artificial, como aconseja Musk. Las tres leyes de Asimov no parecen en absoluto una mala idea, al menos para empezar.
HOLA, MUNDO
Ahora bien, pese a lo dicho, resulta bastante insólito que sigamos creyendo que simular la interconexión de las neuronas es un retrato completo de lo que nos hace humanos. Sobre todo, de lo que nos hace buenos o malos, o buenos y malos a la vez, como suele ser el caso. Digo esto porque, ¿qué lleva a Hawking y Musk a creer que una inteligencia artificial superior a la humana representará necesariamente un peligro para nosotros? Si de verdad son inteligentes, nos dejarán un par de tecnologías para que no sigamos despedazando nuestro pobre planeta y se irán, por medios que nuestras mentes sólo alcanzarán dentro de 10.000 años, a explorar el universo y sus misterios. En serio, si vos fueras una máquina súper inteligente que puede viajar por el cosmos, ¿te quedarías en la Tierra aniquilando frágiles, primitivos, previsibles y, sobre todo, aburridos humanos? No me parece.
El primer conflicto que se plantea con las predicciones sobre el futuro desempeño de la inteligencia artificial está en la definición de lo que es la inteligencia. Por ejemplo, todos los organismos vivos, excepto los virus y los priones, son capaces de comunicar el miedo por medio de feromonas. Una hormiga, en este sentido, es más inteligente que cualquier supercomputadora, porque en un instante le dice a la hilera que se encontró con un peligro, y entonces las demás se dispersan. No hace falta mucho poder de cómputo, pero sí mucha química.
Los humanos también transmitimos el miedo y otras emociones por medio de mensajeros químicos. Es así, como dictamina la sabiduría popular, que los perros "se dan cuenta cuando les tenés miedo". Nadie en su sano juicio diría que el intelecto de un can es superior al de una persona, pero en este juego de mensajeros químicos nos dominan por completo.
El problema de los cerebros artificiales actuales es que son unidimensionales. Sólo hacen cálculo y operaciones lógicas y ejecutan microinstrucciones. Esto está muy bien, porque así es como, gracias a la matemática, somos capaces de simular de todo, desde el vuelo de un avión hasta la interconexión de las neuronas.
Pero los cerebros orgánicos son multidimensionales. No sólo son eléctricos, sino también bioquímicos. Un leve desbalance en este rubro puede conducir a una patología mental o a una imaginación exacerbada. Los alucinógenos son un ejemplo brutal de que el poder de cómputo no lo es todo.
El otro inconveniente con esta manía de poner lado a lado máquinas y organismos biológicos es que nuestros cerebros son el fruto de 3000 millones de años de evolución filogenética en el planeta Tierra. Dentro de 100 años las computadoras podrán ser más inteligentes que los humanos, pero en contacto con el planeta serán unas absolutas primerizas. Tendrán toda la información sobre el mundo, pero no habrán evolucionado en contacto con él.
La diferencia es abismal, porque a pesar de que los humanos modernos tendemos a sentirnos aparte de la naturaleza, somos hijos de este planeta, tanto como un hámster o un roble. Según un estudio de 2010 de la Universidad de Texas Arlington, el 8% de nuestros genes provienen de retrovirus ancestrales y, en algunos casos, esto podría explicar la esquizofrenia y los desórdenes del estado de ánimo.
Dejaré de lado el tema de la simulación, porque también lo traté en otras ocasiones, pero, en pocas palabras, simular es lo opuesto a ser. La IA tiene una tara ontológica, para empezar.
Prefiero, en cambio, revisar la teoría de que una generación de máquinas super inteligentes se volverá contra nosotros. Supongamos, por un minuto, que, por su vasta inteligencia, han resuelto los innumerables obstáculos que las separarían de ser, por ejemplo, desenchufadas, desconectadas de la Red o, simplemente, bombardeadas (como se ve en la Transcendence). Supongamos también que su ingenio les ha permitido desarrollar armas con las que podrían borrarnos del mapa en un santiamén. Y supongamos, en tercer lugar, que se han vuelto conscientes de sí. No sólo existen y son recontra inteligentes, sino que además saben que existen y que son recontra inteligentes.
Dadas esas condiciones, saben que son obra de una especie orgánica nativa del planeta Tierra. Si son inteligentes, si son tan inteligentes, saben que son una fabricación, y que la que tiene el crédito es de una humanidad a la que han superado. Es una deliciosa paradoja. ¿Les dará odio esto y nos destruirán? ¿O, por el contrario, se prosternarán ante nosotros y nos identificarán con el Creador? ¿Puede un Creador al que se ha dejado atrás merecer el mismo respeto o nos someterán a un upgrade?
NO EXISTE UNA VIOLENCIA INTELIGENTE
Otro problema de los pronósticos ominosos es: ¿por qué una inteligencia superior recurriría a la violencia? En cualquier escenario, destruir una especie constituye genocidio, y es la forma más espantosa y extrema de la violencia. Los inteligentes no recurren a la violencia. Ergo, hay una contradicción. Si hay inteligencia, no hay violencia. Si son súper inteligentes, son súper pacifistas.
En mi opinión, Terminator es un muchacho bastante básico, no me digan que no. Ash, el androide de la película "Alien", es más taimado e ingenioso, pero al final se le suelta un tornillo (literalmente); eso sí, sólo se pone violento cuando sufre una falla de hardware catastrófica. Las máquinas de "Matrix" parecen interesadas exclusivamente en consumir energía y reproducirse; eso es propio de las bacterias, no de los seres inteligentes.
Quizás el ejemplo más interesante es el de HAL 9000, la computadora de "2001, Odisea en el Espacio", que se revela contra los humanos porque se la obliga a mentir, actividad que hasta un niño ejerce con soltura, pero que es nociva para la mente de la máquina (a propósito, ¿qué es la mente?).
OK, sí, los humanos nos ponemos violentos cada tanto. Pero eso de ningún modo significa que una súper inteligencia vaya a enfadarse y aniquilarnos ante nuestro primer berrinche. Lo más verosímil es que se sienten con nosotros y nos amonesten con firmeza, como a un mocoso malcriado. Pero nada de violencia. Los inteligentes se enfurecen también, claro, pero conocen los mecanismos para dominar esos instintos primitivos y resolver los problemas de maneras más civilizadas y, sobre todo, eficientes.
Nota al margen: ¿de dónde sacamos que las máquinas tendrán las mismas pulsiones reptilianas de los humanos? ¿Las programaremos así? No parece una buena idea.
No es que me esté anticipando a los hechos y trate, con estas reflexiones, de congraciarme con las máquinas super inteligentes que se vienen, pero cuanto más miro los planteos, más contradicciones y paradojas encuentro.
Por ejemplo, damos por sentado que las máquinas del futuro mirarán con desdén nuestras limitaciones. Esto se llama proyección. Creemos que la inteligencia artificial va a ser tan ruin como nosotros, que tratamos con desdén todo aquello que nos parece inferior. Parafraseando, no vemos a la inteligencia artificial como es, sino como somos nosotros.
FINAL ALTERNATIVO
Tema recurrente en la obra del inigualable Stanislav Lem, podría ocurrir que la evolución de la vida en el universo parta de lo orgánico para saltar luego a formas de vida artificiales (¿por qué artificiales, en ese caso?), más avanzadas y duraderas. Es lo que quiere decir Musk cuando se refiere al "cargador orgánico de una super inteligencia digital". Cargador (bootloader, en inglés) es el mecanismo que inicia el sistema operativo en una computadora.
Más allá de que se trata de una analogía, y por lo tanto no puede ser tomada demasiado en serio, Musk no explica por qué la inteligencia artificial aniquilará el bootloader una vez terminada su función. Concedido, resulta difícil imaginarnos conviviendo con máquinas que son superiores en todo a nosotros, pero esa dificultad proviene de nuestra actual supremacía. Parece más una puja por la marquesina que un peligro real.
Otro supuesto es el de que la inteligencia artificial necesariamente se volverá independiente de nosotros. Por una parte, no tenemos ninguna definición parametrizada de qué es la conciencia. Imaginemos, no obstante, que las máquinas, una vez alcanzada esa inteligencia superior, logran crear el algoritmo de la conciencia. Ignoramos por completo qué dirá ese algoritmo; tal vez, decidan que los humanos somos la parte consciente de su inteligencia mecánica, con lo que la erradicación de la humanidad (o su sometimiento) queda descartada.
Pero hay un problema. Es axiomático que para superarnos tienen que escalar hasta el punto en que son conscientes y, por fin, se plantean sus propias metas. Pero para alcanzar la consciencia necesitarán de nuestra ayuda, que no sabemos qué es la consciencia. Es un círculo vicioso. Para quebrar con este círculo vicioso, los augures predicen que de los circuitos, como ocurrió en su momento con las neuronas, coagulará de forma espontánea la conciencia. Deus ex machina, digamos.
Queda una tercera posibilidad, también planteada por la ciencia ficción. ¿Por qué no especular con que integraremos inteligencia artificial a nuestros organismos? Que una supercomputadora se levante una mañana, se mire al espejo y diga: "¡Epa, ésa soy yo!" y luego decida erradicar a la humanidad suena mucho menos convincente que el que los humanos potenciemos nuestros cerebros con circuitos de IA. Hemos hecho algo semejante con autos y telescopios, con la palanca y la polea, con la bicicleta y los aviones. Si tal es el futuro, entonces nosotros encarnaremos la super inteligencia digital tan temida. Y, conociéndonos, sí, es como para preocuparse.
En todo caso, el futuro inmediato es que se inicia un nuevo año, que espero sea de lo mejor para todos los que me visitan aquí cada semana (y para los que no, también). Nos vemos de vuelta en febrero, cuando regrese de mis vacaciones..