A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones
A partir de lo que ya cabría considerar como “fenómeno ChatGPT”, se ha puesto de moda someter a esta sufrida “inteligencia” artificial a toda suerte de torturas y tensiones con la finalidad de averiguar hasta qué punto es o no es inteligente.
Los abstrusos problemas matemáticos de cualidades virtualmente irresolubles, por socorridos para tal fin, se han convertido en opción preferencial para este rigurosísimo examen.
Nosotros mismos hemos sucumbido a la tentación al solicitarle que nos demostrara el teorema del par primo o conjetura de Goldbach, enunciado por el matemático alemán Christian Goldbach (1690-1764) en 1742, cosa que, obviamente, no logró hacer.
Del mismo modo, fracasó reiteradamente en la resolución de una pregunta sencilla como: “¿Es cierto que entre dos números primos cualesquiera hay un número par?”. Lo cual nos confirmó sin lugar a la duda que el razonamiento matemático no es precisamente el fuerte de su arquitectura.
ChatGPT aprueba el test de Turing
Si nos ceñimos a las convenciones de lo que habría de ser una inteligencia artificial eficiente, tal y como se enuncia en el clásico test de Turing, bastaría con que el algoritmo respondiera con sentido a cualquier cuestión que se le formulara para considerarlo “inteligente”. Y esta prueba, al menos en principio, ChatGPT la supera con creces.
De hecho, cuando decidimos preguntarle por su identidad sexual nos ofreció una respuesta que el propio Alan Turing (1912-1954) habría aplaudido por su sinceridad, claridad y rigor:
El problema subyacente reside en qué podríamos considerar “inteligente” en términos propiamente humanos. Es en este territorio evanescente en el que ChatGPT –al igual que el enunciado de Turing y el concepto mismo de “inteligencia artificial”– comienza a deslizarse por una pendiente muy resbaladiza.
¿Ser o parecer inteligente?
Se trata de un viejo problema intelectual, el de la propuesta de la IA fuerte, que aqueja a este ámbito de investigación desde sus mismos orígenes y que, aún hoy, más allá de entusiasmos infundados, permanece en el contexto de lo infranqueable.
Al fin y al cabo, un algoritmo no deja de ser un producto humano que procesa datos en determinado orden para ofrecer un resultado específico ya predeterminado en el algoritmo de base. Y esto sirve tanto para una calculadora de bolsillo como para el más avanzado ordenador. Es, en suma, un producto humano, gestionado por humanos y diseñado con fines específicamente humanos.
En realidad, ninguna inteligencia artificial es inteligente como las personas (inteligente en un sentido autoconsciente) porque procesa escasa información ambiental (límite sensoperceptivo), no aprende cosa alguna en términos absolutos (no sabe que sabe), ni es capaz de generar nuevos conocimientos a partir de cuanto almacena (no crea nuevas ideas porque ignora estar teniendo alguna).
Así, imitando estos procesos, se limita a procesar e incorporar nueva información a su base de datos, en el curso de sus limitadas interacciones, a fin de poder “tirar” de ella en el futuro con mejor o peor fortuna. La cuestión, entonces, es si realmente es necesario el afán imitativo más allá de un mero fin publicitario.
Una máquina de gestión de datos
El propio ChatGPT, al ser interpelado, comete el mismo error que quienes se han esmerado en construirlo, a saber, creer que manejar datos con eficacia es la base misma de cualquier conocimiento que pudiera considerarse, en algún sentido, inteligente:
Tal respuesta es relevante porque nos ofrece la pauta misma de lo que es ChatGPT: un máquina de búsqueda, acumulación y gestión automatizada de datos (la denominación de machine learning para este proceso suena excesivamente optimista). No más, pero tampoco menos. En consecuencia, carecerá por completo de sentido pedirle que resuelva problemas que, en la práctica, escapen a su banco de datos, o bien que produzca ideas y conocimientos nuevos o, cuando menos, originales. El razonamiento creativo, que adopta la forma de hipótesis y preguntas intencionales motivadas en decisiones conscientes, simplemente no existe.
Hablemos de algo…
No obstante, con la finalidad de comprobar hasta qué punto el programa era capaz de interactuar con nosotros en pie de igualdad, procedimos a sostener un animado diálogo que resultó extraordinariamente esclarecedor.
Así, ante su insistencia en el hecho de que “resolvía problemas”, decidimos preguntarle qué clase de problemas había resuelto:
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:
Las limitaciones de ChatGPT
A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones:
En definitiva, se nos presentó como una herramienta interesante, una enciclopedia colosal, o un instrumento ideal para salvar de la quema al vago de la clase. Pero siempre se comportó, como no podía ser de otro modo, de forma bastante más artificial que inteligente.
Por lo que parece, el día en que las temidas máquinas, cual Terminators, suplanten a la humanidad, aún anda bastante lejos. Que no cunda el pánico.
Francisco Pérez Fernández, Profesor de Psicología Criminal, Psicología de la Delincuencia, Antropología y Sociología Criminal e investigador, Universidad Camilo José Cela y Heriberto Janosch, Profesor Doctor e Investigador, Universidad Camilo José Cela
Este artículo fue publicado originalmente en The Conversation. Lea el original.