La compu
El que
termina fue, como escribí el martes en el anuario que publicó LA NACION, un año muy movido
para la industria digital e Internet. En términos de lanzamientos y
desarrollos, lo más disruptivo fue la llegada de los drones, tanto en un
sentido positivo como en uno negativo. La actividad de los robots volátiles no
está regulada en casi ningún lugar del mundo, y no son precisamente juguetes.
Pueden causar accidentes gravísimos si chocan con aviones -como estuvo cerca de
ocurrir en Londres y Pensilvania, por citar solo dos casos- o si se desploman
sobre las personas. Imponen también graves desafíos en términos de privacidad.
Pero, a la vez, hay que darle la bienvenida a una tecnología que puede
ayudarnos en muchos sentidos, la mayoría todavía no revelada.
Con todo y haber sido un año de transición, sin
grandes alumbramientos, 2014 fue testigo, por primera vez en un nivel tan alto,
de advertencias sobre la posibilidad de que la inteligencia artificial (IA)
termine por erradicar a la especie humana. El cosmólogo Stephen Hawking y Elon
Musk, fundador de PayPal y CEO de Tesla Motors, fueron las dos voces más
relevantes y autorizadas que se encargaron de alertar sobre un destino nefasto,
si no ponemos alguna clase de control al desarrollo de la IA.
Musk dijo en un tweet que la IA "es
potencialmente más peligrosa que las armas nucleares" y luego, en otro,
todavía más perturbador: "Espero que no seamos sólo el cargador orgánico
de una super inteligencia digital. Desafortunadamente, esto es cada vez más
probable".
Para sumar
un poco de lignito en polvo a la negrura de tales pronósticos, Clive Sinclair,
creador de una de las primeras computadoras domésticas, la ZX Spectrum, declaró
que va a ser muy difícil que podamos sobrevivir, si nos enfrentamos a máquinas
cuya inteligencia supera a la humana, y que eso "no es necesariamente malo. Es sólo inevitable".
En un punto, pues, todo parece indicar que la
Singularidad Tecnológica que vaticinó Ray Kurzweil está a un tiro de piedra. Es
más, el paralelismo con la ficción descripta en "Terminator" es
aterrador. IBM desarrolló el año último un chip (llamado TrueNorth) que opera
como los cerebros reales, es decir, sobre la base de sinapsis, con el que han
conseguido emular el 4,5% del cerebro humano, así como el cerebro completo de
un gato. Dicen que conseguirán simular todo el cerebro humano en 2019.
En la ficción la compañía se llamaría SkyNet y lo
que ocurriría en algún momento del futuro es que estos cerebros digitales no
sólo igualarían sino que superarían la inteligencia humana y entonces, vaya a
saber a causa de qué trauma infantil, nos verían como una amenaza y, bueno, nos
destruirían. O casi.
Más allá de que tales Apocalipsis son más
hechizantes que probables, lo cierto es que 2014 quedará en la historia de la
tecnología como el primer año en que voces muy calificadas alertaron sobre los
riesgos de la inteligencia artificial. Puede que en el futuro unos robots
pavorosos busquen a los descendientes de Hawing, Musk y Kurzweil como
Terminator persigue al hijo de Sarah Jeanette Connor. Puede que ese futuro
ominoso nunca llegue. Pero nunca antes había visto advertencias tan
comprometidas respecto de la IA.
UN SEGUNDO EN LA VIDA
Ya he visitado el tema de que poner a competir
máquinas con hombres en ejercicios mentales es tan absurdo como pedirle a un
atleta que corra los 100 metros llanos contra una Ferrari. O contra una bala,
¿por qué no? En términos de fuerza bruta de cómputo, no tenemos chance.
Sin embargo, la actividad cerebral parece ser mucho
más que poder de cómputo. En agosto de 2013, un equipo del Instituto de
Tecnología de la Universidad de Graduados de Okinawa, Japón, logró simular 1
segundo de actividad cerebral humana. Un solo segundo, insisto.
Pero no pudieron hacerlo en tiempo real. Les llevó
40 minutos, utilizando los 82.944 microprocesadores (20.000 veces más que una
notebook de alta gama) y el petabyte de memoria (166.000 veces más de lo que
tiene la antes mencionada notebook) de una supercomputadora fabricada por
Fujitsu, la cuarta del mundo en cuanto a poderío. Es decir, 1 segundo humano
requiere 40 minutos de trabajo de una supercomputadora; le tomaría seis años y
medio simular lo que nuestros cerebros hacen en un solo día.
Con una buena notebook, y sin contar la
monstruosidad de memoria que el ejercicio requiere, tardaríamos 400.000 años en
simular un día de la actividad de un cerebro humano. En la actualidad hacen
falta, pues, 11.600 millones de años (casi la edad del universo) para simular
una vida cerebral entera con una computadora personal.
Esto no será así para siempre, claro está. Hoy
llevamos en el bolsillo más poder de cómputo que la que tenía una
supercomputadora de 1985 (salvando ciertos tecnicismos que no es el momento de
discutir). Por lo que dentro de 30 años podríamos estar simulando un segundo de
actividad del cerebro humano no ya en 40, sino en 1 minuto, y con un equipo de
escritorio. Y más allá, en un futuro que ya no es tan fácil de colocar en el
calendario, las máquinas podrán estar simulando la actividad cerebral en tiempo
real. Un segundo de máquina será un segundo de sinapsis orgánicas.
De modo que
tenemos tiempo de reflexionar sobre cómo administrar la inteligencia
artificial, como aconseja Musk. Las tres leyes de Asimov no
parecen en absoluto una mala idea, al menos para empezar.
HOLA, MUNDO
Ahora bien, pese a lo dicho, resulta bastante
insólito que sigamos creyendo que simular la interconexión de las neuronas es
un retrato completo de lo que nos hace humanos. Sobre todo, de lo que nos hace
buenos o malos, o buenos y malos a la vez, como suele ser el caso. Digo esto
porque, ¿qué lleva a Hawking y Musk a creer que una inteligencia artificial
superior a la humana representará necesariamente un peligro para nosotros? Si
de verdad son inteligentes, nos dejarán un par de tecnologías para que no
sigamos despedazando nuestro pobre planeta y se irán, por medios que nuestras
mentes sólo alcanzarán dentro de 10.000 años, a explorar el universo y sus
misterios. En serio, si vos fueras una máquina súper inteligente que puede
viajar por el cosmos, ¿te quedarías en la Tierra aniquilando frágiles,
primitivos, previsibles y, sobre todo, aburridos humanos? No me parece.
El primer conflicto que se plantea con las
predicciones sobre el futuro desempeño de la inteligencia artificial está en la
definición de lo que es la inteligencia. Por ejemplo, todos los organismos
vivos, excepto los virus y los priones, son capaces de comunicar el miedo por
medio de feromonas. Una hormiga, en este sentido, es más inteligente que
cualquier supercomputadora, porque en un instante le dice a la hilera que se
encontró con un peligro, y entonces las demás se dispersan. No hace falta mucho
poder de cómputo, pero sí mucha química.
Los humanos también transmitimos el miedo y otras
emociones por medio de mensajeros químicos. Es así, como dictamina la sabiduría
popular, que los perros "se dan cuenta cuando les tenés miedo". Nadie
en su sano juicio diría que el intelecto de un can es superior al de una
persona, pero en este juego de mensajeros químicos nos dominan por completo.
El problema de los cerebros artificiales actuales
es que son unidimensionales. Sólo hacen cálculo y operaciones lógicas y
ejecutan microinstrucciones. Esto está muy bien, porque así es como, gracias a
la matemática, somos capaces de simular de todo, desde el vuelo de un avión
hasta la interconexión de las neuronas.
Pero los cerebros orgánicos son multidimensionales.
No sólo son eléctricos, sino también bioquímicos. Un leve desbalance en este
rubro puede conducir a una patología mental o a una imaginación exacerbada. Los
alucinógenos son un ejemplo brutal de que el poder de cómputo no lo es todo.
El otro inconveniente con esta manía de poner lado
a lado máquinas y organismos biológicos es que nuestros cerebros son el fruto
de 3000 millones de años de evolución filogenética en el planeta Tierra. Dentro
de 100 años las computadoras podrán ser más inteligentes que los humanos, pero
en contacto con el planeta serán unas absolutas primerizas. Tendrán toda la
información sobre el mundo, pero no habrán evolucionado en contacto con él.
La
diferencia es abismal, porque a pesar de que los humanos modernos tendemos a
sentirnos aparte de la naturaleza, somos hijos de este planeta, tanto como un
hámster o un roble. Según un estudio de 2010 de la Universidad de Texas
Arlington, el 8% de nuestros genes provienen de retrovirus ancestrales y, en
algunos casos, esto podría explicar la esquizofrenia y los desórdenes
del estado de ánimo.
Dejaré de lado el tema de la simulación, porque
también lo traté en otras ocasiones, pero, en pocas palabras, simular es lo
opuesto a ser. La IA tiene una tara ontológica, para empezar.
Prefiero, en
cambio, revisar la teoría de que una generación de máquinas super inteligentes
se volverá contra nosotros. Supongamos, por un minuto, que, por su vasta
inteligencia, han resuelto los innumerables obstáculos que las separarían de
ser, por ejemplo, desenchufadas, desconectadas de la Red o, simplemente,
bombardeadas (como se ve en la Transcendence). Supongamos también que su ingenio les
ha permitido desarrollar armas con las que podrían borrarnos del mapa en un
santiamén. Y supongamos, en tercer lugar, que se han vuelto conscientes de sí.
No sólo existen y son recontra inteligentes, sino que además saben que existen
y que son recontra inteligentes.
Dadas esas condiciones, saben que son obra de una
especie orgánica nativa del planeta Tierra. Si son inteligentes, si son tan
inteligentes, saben que son una fabricación, y que la que tiene el crédito es
de una humanidad a la que han superado. Es una deliciosa paradoja. ¿Les dará
odio esto y nos destruirán? ¿O, por el contrario, se prosternarán ante nosotros
y nos identificarán con el Creador? ¿Puede un Creador al que se ha dejado atrás
merecer el mismo respeto o nos someterán a un upgrade?
NO EXISTE UNA VIOLENCIA INTELIGENTE
Otro problema de los pronósticos ominosos es: ¿por
qué una inteligencia superior recurriría a la violencia? En cualquier
escenario, destruir una especie constituye genocidio, y es la forma más
espantosa y extrema de la violencia. Los inteligentes no recurren a la
violencia. Ergo, hay una contradicción. Si hay inteligencia, no hay violencia.
Si son súper inteligentes, son súper pacifistas.
En mi opinión, Terminator es un muchacho bastante
básico, no me digan que no. Ash, el androide de la película "Alien",
es más taimado e ingenioso, pero al final se le suelta un tornillo
(literalmente); eso sí, sólo se pone violento cuando sufre una falla de
hardware catastrófica. Las máquinas de "Matrix" parecen interesadas
exclusivamente en consumir energía y reproducirse; eso es propio de las
bacterias, no de los seres inteligentes.
Quizás el ejemplo más interesante es el de HAL
9000, la computadora de "2001, Odisea en el Espacio", que se revela
contra los humanos porque se la obliga a mentir, actividad que hasta un niño
ejerce con soltura, pero que es nociva para la mente de la máquina (a
propósito, ¿qué es la mente?).
OK, sí, los humanos nos ponemos violentos cada
tanto. Pero eso de ningún modo significa que una súper inteligencia vaya a
enfadarse y aniquilarnos ante nuestro primer berrinche. Lo más verosímil es que
se sienten con nosotros y nos amonesten con firmeza, como a un mocoso
malcriado. Pero nada de violencia. Los inteligentes se enfurecen también,
claro, pero conocen los mecanismos para dominar esos instintos primitivos y
resolver los problemas de maneras más civilizadas y, sobre todo, eficientes.
Nota al margen: ¿de dónde sacamos que las máquinas
tendrán las mismas pulsiones reptilianas de los humanos? ¿Las programaremos
así? No parece una buena idea.
No es que me esté anticipando a los hechos y trate,
con estas reflexiones, de congraciarme con las máquinas super inteligentes que
se vienen, pero cuanto más miro los planteos, más contradicciones y paradojas
encuentro.
Por ejemplo, damos por sentado que las máquinas del
futuro mirarán con desdén nuestras limitaciones. Esto se llama proyección.
Creemos que la inteligencia artificial va a ser tan ruin como nosotros, que tratamos
con desdén todo aquello que nos parece inferior. Parafraseando, no vemos a la
inteligencia artificial como es, sino como somos nosotros.
FINAL ALTERNATIVO
Tema recurrente en la obra del inigualable
Stanislav Lem, podría ocurrir que la evolución de la vida en el universo parta
de lo orgánico para saltar luego a formas de vida artificiales (¿por qué
artificiales, en ese caso?), más avanzadas y duraderas. Es lo que quiere decir
Musk cuando se refiere al "cargador orgánico de una super inteligencia
digital". Cargador (bootloader, en inglés) es el mecanismo que inicia el
sistema operativo en una computadora.
Más allá de que se trata de una analogía, y por lo
tanto no puede ser tomada demasiado en serio, Musk no explica por qué la
inteligencia artificial aniquilará el bootloader una vez terminada su función.
Concedido, resulta difícil imaginarnos conviviendo con máquinas que son
superiores en todo a nosotros, pero esa dificultad proviene de nuestra actual
supremacía. Parece más una puja por la marquesina que un peligro real.
Otro supuesto es el de que la inteligencia
artificial necesariamente se volverá independiente de nosotros. Por una parte,
no tenemos ninguna definición parametrizada de qué es la conciencia.
Imaginemos, no obstante, que las máquinas, una vez alcanzada esa inteligencia
superior, logran crear el algoritmo de la conciencia. Ignoramos por completo
qué dirá ese algoritmo; tal vez, decidan que los humanos somos la parte
consciente de su inteligencia mecánica, con lo que la erradicación de la
humanidad (o su sometimiento) queda descartada.
Pero hay un problema. Es axiomático que para
superarnos tienen que escalar hasta el punto en que son conscientes y, por fin,
se plantean sus propias metas. Pero para alcanzar la consciencia necesitarán de
nuestra ayuda, que no sabemos qué es la consciencia. Es un círculo vicioso.
Para quebrar con este círculo vicioso, los augures predicen que de los
circuitos, como ocurrió en su momento con las neuronas, coagulará de forma
espontánea la conciencia. Deus ex machina, digamos.
Queda una tercera posibilidad, también planteada
por la ciencia ficción. ¿Por qué no especular con que integraremos inteligencia
artificial a nuestros organismos? Que una supercomputadora se levante una
mañana, se mire al espejo y diga: "¡Epa, ésa soy yo!" y luego decida
erradicar a la humanidad suena mucho menos convincente que el que los humanos
potenciemos nuestros cerebros con circuitos de IA. Hemos hecho algo semejante
con autos y telescopios, con la palanca y la polea, con la bicicleta y los
aviones. Si tal es el futuro, entonces nosotros encarnaremos la super
inteligencia digital tan temida. Y, conociéndonos, sí, es como para
preocuparse.
En todo caso,
el futuro inmediato es que se inicia un nuevo año, que espero sea de lo mejor
para todos los que me visitan aquí cada semana (y para los que no, también).
Nos vemos de vuelta en febrero, cuando regrese de mis vacaciones..