lunes, 19 de enero de 2015

¿Podemos evitar el apocalipsis digital?



La pregunta Edge 2015 fue: ¿Qué piensas de las máquinas que piensan?

Esta fue la respuesta de Sam Harris:



Cada vez parece más probable que algún día construiremos máquinas que posean inteligencia sobrehumana. Sólo tenemos que seguir produciendo mejores computadores — lo haremos, a menos que nos destruyamos a nosotros mismos o encontremos nuestro fin de alguna otra manera. Ya sabemos que es posible que la mera materia adquiera "inteligencia general" —la capacidad de aprender nuevos conceptos y emplearlos en contextos no familiares— porque la papilla salada de 1200 cc dentro de nuestra cabeza lo ha conseguido. No hay ninguna razón para creer que un ordenador digital adecuadamente avanzado no podría hacer lo mismo.

A menudo se dice que el objetivo a corto plazo es construir una máquina que posea inteligencia a "nivel humano". Pero a menos que emulemos específicamente un cerebro humano —con todas sus limitaciones— esta es una meta falsa. El equipo en el que estoy escribiendo estas palabras ya posee poderes de memoria y cálculo sobrehumanos. También tiene acceso potencial a la mayor parte de la información del mundo. A menos que tomemos medidas extraordinarias para entorpecerla, cualquier inteligencia general artificial (IGA) futura superará el rendimiento humano en cada tarea para la cual, en primer lugar, se considera una fuente de "inteligencia". Si una máquina de este tipo sería necesariamente consciente es una pregunta abierta. Pero consciente o no, una IGA muy bien podría desarrollar metas incompatibles con las nuestras. Qué tan repentina y letal sería esta bifurcación de caminos ahora es objeto de mucha especulación colorida.

Una forma de vislumbrar el riesgo que se aproxima es imaginar lo que podría pasar si lográramos nuestros objetivos y construyéramos una IGA sobrehumana que se comportara exactamente según lo previsto. Tal máquina nos liberaría rápidamente de la monotonía e incluso de la inconveniencia de hacer la mayoría del trabajo intelectual. ¿Qué seguiría bajo nuestro orden político actual? No hay ninguna ley de la economía que garantice que los seres humanos encontrarán trabajos en presencia de todos los avances tecnológicos posibles. Una vez que hayamos construido el dispositivo de ahorro de mano de obra perfecto, el costo de fabricación de nuevos dispositivos se acercaría al costo de las materias primas. A falta de una voluntad para poner inmediatamente este nuevo capital al servicio de toda la humanidad, unos pocos de nosotros disfrutaríamos de una riqueza inimaginable, y el resto serían libres para morir de hambre. Incluso en presencia de una IGA verdaderamente benigna, podríamos encontrarnos retrocediendo a un estado de naturaleza, vigilado por drones.

¿Y qué harían los rusos o los chinos si se enteraran de que una compañía en Silicon Valley estaría a punto de desarrollar una IGA superinteligente? Esta máquina sería, por definición, capaz de hacer la guerra —terrestre y cibernética— con un poder sin precedentes. ¿Cómo se comportarían nuestros adversarios en el borde de ese escenario en el que el ganador se lleva todo? Los simples rumores de una IGA podrían causar que nuestra especie se vuelva loca.

Es aleccionador admitir que el caos parece un resultado probable, incluso en el mejor de los casos, en el que la IGA permaneciera perfectamente obediente. Pero, por supuesto, no podemos asumir el mejor de los casos. De hecho, "el problema del control" —la solución a lo que garantizaría la obediencia en cualquier IGA avanzada— parece bastante difícil de resolver.

Imaginemos, por ejemplo, que construimos un computador que no es más inteligente que el equipo promedio de investigadores de Stanford o MIT — pero, debido a que funciona en una escala de tiempo digital, funciona un millón de veces más rápido que las mentes que lo construyeron. Pónganlo a tararear por una semana, y llevaría a cabo 20.000 años de trabajo intelectual a nivel humano. ¿Cuáles son las posibilidades de que dicha entidad debería contentarse con ser dirigida por nosotros? ¿Y cómo podríamos predecir con confianza los pensamientos y acciones de un agente autónomo que ve más profundamente en el pasado, el presente y el futuro de lo que hacemos?

El hecho de que parece que estamos acelerando hacia una especie de apocalipsis digital plantea varios desafíos intelectuales y éticos. Por ejemplo, para tener alguna esperanza de que una IGA superinteligente tendría valores acordes con los nuestros, tendríamos que inculcar esos valores en ella (o conseguir que nos emule de alguna manera). Pero ¿los valores de quién deberían contar? ¿Debería todo el mundo tener voto en la creación de la función de utilidad de nuestro nuevo coloso? Si nada más, la invención de una IGA nos obligaría a resolver algunos argumentos de filosofía moral muy antiguos (y aburridos).

Sin embargo, una verdadera IGA probablemente adquiriría nuevos valores, o por lo menos desarrollaría novedosas — y tal vez peligrosas — metas a corto plazo. ¿Qué medidas podría tomar una superinteligencia para asegurar su supervivencia continuada o el acceso a los recursos computacionales? Que el comportamiento de tal máquina siguiera siendo compatible con el florecimiento humano podría ser la pregunta más importante que nuestra especie alguna vez se haga.

El problema, sin embargo, es que sólo unos pocos de nosotros parecen estar en condiciones de reflexionar sobre esta pregunta. De hecho, el momento de la verdad podría llegar en medio de circunstancias que son desconcertantemente informales y poco auspiciosas: Imaginemos a diez jóvenes en una habitación —varios de ellos con Asperger sin diagnosticar— bebiendo Red Bull y preguntándose si accionar un interruptor. ¿Debería una sola compañía o grupo de investigación poder decidir el destino de la humanidad? La pregunta casi se responde a sí misma.

Y sin embargo, está empezando a parecer probable que algún pequeño número de personas inteligentes algún día lanzará estos dados. Y la tentación será comprensible. Nos enfrentamos a problemas —la enfermedad de Alzheimer, el cambio climático, la inestabilidad económica— para los que la inteligencia sobrehumana podría ofrecer una solución. De hecho, la única cosa casi tan temible como la construcción de una IGA es la perspectiva de no construir una. Sin embargo, los que están más cerca de hacer este trabajo tienen la mayor responsabilidad de anticipar sus peligros. Sí, otros campos plantean riesgos extraordinarios — pero la diferencia entre la IGA y algo como la biología sintética es que, en esta última, las innovaciones más peligrosas (como la mutación germinal) no son las más tentadoras, ni comercial ni éticamente. Con la IGA los métodos más poderosos (como la automejora recursiva) son precisamente los que implican el mayor riesgo.

Parece que estamos en el proceso de construcción de un Dios. Ahora sería un buen momento para preguntarse si será (o incluso puede) ser uno bueno.

(Imagen: samharrisorg via photopin cc)

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.