Jerry Kaplan, experto en inteligencia artificial, vaticina un futuro en el que las máquinas acabarán con el trabajo de muchas personas y en el que la humanidad tendrá que decidir si considera a estas como una nueva forma de vida.
La ciencia ficción es un género al que se le presupone un cierto valor profético. Ha vaticinado un presente atestado de cámaras de seguridad (George Orwell), satélites geoestacionarios (Arthur C. Clarke) y astronautas en la Luna (Julio Verne). Pero, según Jerry Kaplan (White Plains, Nueva York, 1952), experto en Inteligencia Artificial (IA), doctor en Filosofía y profesor en la Universidad de Stanford, muchas de las fantasías que han reverberado gracias a la ciencia ficción también han suscitado un miedo injustificado hacia los robots y las máquinas inteligentes. Según Kaplan, sin embargo, "al menos en un futuro previsible, no hay nada de que preocuparse. Los robots no van a levantarse contra nosotros, son meras herramientas que hacen nuestro trabajo sucio".
En la ficción, robots e inteligencias artificiales han entrado en conflicto con el hombre una y otra vez. Se han rebelado contra el yugo de sus creadores y han despertado hondas cuestiones filosóficas sobre la naturaleza del ser humano o la definición de inteligencia. ¿Puede sufrir o ser consciente de sí mismo un robot? ¿Es el cerebro una máquina elaborada con materiales biológicos? A pesar de su formación, en Inteligencia Artificial, Kaplan no se ha centrado en la filosofía. Ha descrito a robots e inteligencias artificiales como meras herramientas, al estilo de un empresario o un ingeniero (de hecho, es fundador de cuatro empresas tecnológicas en Silicon Valley y ha desarrollado tabletas y smartphones. Mientras estaba en la universidad, Kaplan diseñó el programa del primer piano completamente digital, el Synergy).
Las máquinas no están predestinadas a enfrentarse al hombre, según Kaplan. Los peligros futuros de robots y otros dispositivos inteligentes "no están relacionados con la filosofía o la naturaleza de la inteligencia artificial, sino con problemas de ingeniería". Es decir, con el mal diseño de las máquinas, tal como puede ocurrir con una lavadora o un motor defectuoso. Aunque ya hay investigadores, como Geoffrey Hinton, que trabajan con redes neurales que imitan a las neuronas humanas, para Kaplan la relación entre organismos biológicos y la inteligencia artificial es más bien metafórica, o sencillamente mera inspiración. Al menos durante los próximos 50 años. "Nuestro único modelo acerca de cómo son las máquinas es nuestra propia experiencia humana. Pero si piensas como un ingeniero, el propósito de la IA no es recrear la inteligencia del hombre ,sino expandir las máquinas para hacer todo tipo de tareas", dice Jerry Kaplan.
CONFLICTOS INEVITABLES
El experto vaticina que la tecnología seguirá su imparable carrera y que "las generaciones futuras verán nuestros miedos como algo idiota". Pero habrá algunos conflictos: "Las máquinas evaporarán el trabajo y dejarán sin empleo a muchas personas". Las habilidades de muchos quedarán obsoletas: conductores, cocineros o recepcionistas perderán su razón de ser cuando las máquinas hagan su trabajo de forma más eficiente. Junto a esta transformación, el experto cree que hay un riesgo de que la inteligencia artificial "aumente las desigualdades sociales", puesto que será una herramienta de generación de riqueza solo al alcance de los más privilegiados.
Por encima de todo, a medida que las máquinas sean más potentes, veloces y cercanas a los hombres, las consecuencias de sus errores serán más catastróficas, predice el futurólogo. Empleados como artilugios militares engendrarán armas más letales, más selectivas, más peligrosas. "Pero lo más inquietante", según Kaplan, "es que instituciones, organizaciones y grupos terroristas podrán aprovecharse de esta tecnología para causar enormes daños. Algo que hoy realmente no pueden hacer". ¿Qué pasaría si coches autónomos o armas robóticas quedasen bajo su control?
Kaplan cree que a largo plazo la sociedad tendrá que tomar una decisión fundamental. Sostiene que es posible que en el futuro "humanos y máquinas se fusionen, expandiendo nuestra capacidad a unos niveles semidivinos". La alternativa es que «sigamos pensando que los humanos son humanos y que las máquinas son meras herramientas", añade. El hecho de que lleguemos a ver a las máquinas como simples objetos, o como algo más, "dependerá, en general, de cómo queramos usar la tecnología en el futuro".
En el campo de la inteligencia artificial, este pensador considera que la cuestión de fondo es si las generaciones futuras considerarán a las máquinas como objetos de ética y empatía, o si las considerarán como una nueva forma de vida. Que lo hagan o no, dependerá de cómo sean definidas estas máquinas. La palabra 'robot' nació en una obra del autor teatral checo Karel Capek, publicada en 1920, Robots universales de Rossum, y deriva de la palabra checa robota, que significa trabajo forzado. Desde entonces ha servido para definir a máquinas autónomas que hacen alguna tarea física. Con el imparable perfeccionamiento de la inteligencia artificial (concepto que cristalizó en una conferencia celebrada en Dartmouth, Estados Unidos, en 1956), resultó evidente que las máquinas podían aprender. Desde entonces, la distinción entre la máquina y ser vivo empezó a difuminarse y a resultar más problemática de lo que se pensaba. "La filosofía de la IA", escribe Kaplan, "se plantea la cuestión de si puede decirse que las computadoras tienen mente y/o piensan. Pero la respuesta depende de lo que queramos decir con mente y pensar". La complejidad de la pregunta explica que el debate lleve décadas sobre la mesa.
JUEGO DE IMITACIÓN
Entonces, ¿pueden pensar? El matemático inglés Alan Turing construyó el 'juego de imitación' para tratar de averiguar si tenía sentido aplicar el término 'pensar' a las inteligencias artificiales, y consideró que no. El filósofo John Searle propuso que los programas informáticos podían simular el pensamiento, pero no duplicar el proceso de las mentes humanas, tal como un piano informático ejecuta una obra de Chopin.
Las dudas se multiplican cuando se plantea el dilema de si las máquinas podrían llegar a tener consciencia o libre albedrío. "Nuestra noción sobre el libre albedrío es inconsistente con las evidencias científicas", sostiene Kaplan. "Así que estamos forzados a este razonamiento: o las máquinas y nosotros tenemos libre albedrío, o ninguno de los dos lo tenemos".
La ciencia ficción pronosticó un futuro donde se alcanzaba la 'singularidad', un fenómeno por el cual las máquinas serán lo suficientemente inteligentes como para mejorarse a sí mismas. Otros han sugerido que podremos transferir nuestras mentes a ordenadores. Para Jerry Kaplan lo primero es "tan probable como que aterrice una nave alienígena en la Tierra", y lo segundo, remoto. "Es difícil relacionar la tecnología real de nuestro tiempo con esas visiones de futuro".
De momento, todo apunta a que la inteligencia artificial y los robots serán nuestros aliados durante las próximas décadas. La inteligencia artificial ya se usa usa en traductores simultáneos, reconocimiento de imágenes y coches sin conductor. Los robots exploran el espacio, nos entretienen, van a la guerra y hacen tareas ingratas. El motor de búsqueda de Google ya es capaz de automejorarse y aprender. Podría llegar a responder a preguntas subjetivas y personalizadas, o a convertirse en un tirano con sus propios objetivos. Todo dependerá de la intención con la que los humanos sigan desarrollando esta máquina.