Tanto, que de un artículo al final saldrán dos. Inicialmente quería abordar directamente la IA y la educación, pero pronto me di cuenta de que era esencial sentar unas bases. Tanto, que este contexto introductorio ya merecía su propio espacio. Solución: dividamos esto en dos. Una primera parte donde intentaré acercaros a qué es esto de la IA de manera cercana y natural. Como si le estuviera pidiendo a ChatGPT que os lo explicara, pero escrito todo por mí, palabra por palabra. En estos tiempos que corren, me hace ilusión poder hacerlo de esta manera. Porque veremos en la segunda parte cómo la IA puede afectarnos de una manera que igual no imaginamos. Pero no quiero hacer spoilers. Disfruta de este texto 100% hecho a mano, compártelo con tu gente, y si quieres debatir sobre ello, estaré encantado de hacerlo en mi Instagram @alfon_creatics.
Así que vamos con un poco de contexto. Muchas de las ideas que se comentarán aquí están relativamente simplificadas para poder abordarlas en un formato manejable, pero todas son susceptibles no solo de mayor profundización, sino también de debate. Aunque creo que servirán para despertar inquietud y comprender un poco más la situación en la que estamos. Vamos a hablar de IA y educación, pero, ¿qué es la IA?
Primero, ¿qué significa inteligencia artificial?
Cuando explico a los niños conceptos, siempre me gusta ir por partes. Vayamos aquí por partes también. Inteligencia, ¿qué significa inteligencia? Pues ya aquí nos encontramos un problema. Podemos ir a la definición “formal” o podemos entrar en un debate que empieza en lo etimológico, pasa por lo filosófico hasta llegar a lo metafísico. Así que voy a ir a lo simple, pese a que lo que más me interesa es lo otro. La RAE nos define inteligencia como capacidad de entender o comprender, de resolver problemas, entre otras cosas. Dejémoslo aquí, que luego volveremos. Artificial, ¿qué significa artificial?, volviendo al diccionario, algo hecho o producido por el ser humano. También nos dice el diccionario algo no natural, falso. Atención que esta segunda acepción, ‘falso’ o ‘no natural’, podría zanjar rápidamente muchos debates sobre si la IA es ‘realmente’ inteligente, apuntando a la idea de falsa. Inteligencia artificial, ¿qué significa inteligencia artificial? Bueno, esta tercera consulta en el diccionario nos dice que se trata de una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.
Entonces, ¿es inteligente?
Hay mucho debate sobre si la IA es inteligente. Como decíamos, depende de qué entendamos por inteligencia, y para ello, depende de qué entendamos por entender o comprender… Así que la respuesta es un debate abierto. Tú qué piensas, ¿es inteligente? Para los propósitos de este artículo nos centraremos en su capacidad para ejecutar tareas y generar respuestas que antes considerábamos exclusivamente humanas, independientemente de si lo llamamos ‘inteligencia’ en el sentido más profundo o no. Hemos hablado de lo que significa y realmente no está muy claro, pero posiblemente sea más fácil entender lo que es. Ahí es donde igual podemos empezar a encontrar respuestas un poco más concisas, aunque parezca mentira.
¿Qué es la inteligencia artificial? De Turing a ChatGPT
La IA surge como una rama de la computación que, de alguna manera, resuelve problemas que podríamos decir que antes eran del dominio humano exclusivamente. Tras las primeras propuestas de Alan Turing, a finales de los 50 las máquinas ya demostraban teoremas. Máquinas procesando información para darnos respuestas que, hasta ese momento, habrían requerido un proceso cognitivo humano. Da para mucha ciencia ficción. Luego, vinieron los primeros chatbots, entre otras tecnologías. Estos funcionaban de manera muy limitada, con diagramas de flujo más o menos complejos, pero con caminos preestablecidos. Se les daban instrucciones del estilo: si te dicen esta cosa, tú responde esta. O incluso, para que parecieran más humanas, se les podía enriquecer con varias posibles respuestas y coger una de manera aleatoria. De esa manera, ante una misma entrada, no siempre respondería lo mismo. Muy humano todo. O no.
También surgieron robots que eran capaces de recorrer espacios y planificar rutas. Otro de los usos más populares de la IA fueron (y son) los Sistemas expertos. Sistemas capaces de “tomar decisiones” en su dominio, el cual está muy bien definido. Tienen una base de conocimiento muy grande, algoritmos para funcionar, memoria… Y una interfaz de usuario adaptada al entorno en el que se usan.
Estos sistemas fueron evolucionando de la mano de los nuevos tiempos, con ordenadores más potentes capaces de hacer más cálculos y, sobre todo, cada vez con más datos: la era de Internet.
Términos como “redes neuronales” o “deep learning” seguro que te suenan. La combinación de estos dio pie a utilidades con las que llevamos años conviviendo en nuestro día a día. Por ejemplo, los asistentes de voz (Alexa, Siri, Hey Google…), traductores, recomendaciones en redes sociales, medicina… Pero había una diferencia fundamental. La IA antes buscaba qué respuesta ya existía para nuestra pregunta. Ahora, la IA decide cuál cree que debería ser la respuesta y la genera en el momento de manera única y exclusiva para ti. ¿Cómo es esto posible? Este salto cualitativo, de buscar a generar, fue posible gracias a un avance fundamental: los Transformers.
Los Transformers lo cambiaron todo
En 2017 aparece una idea que cambiaría la historia de la IA, y de la humanidad para siempre. Los Transformers. La idea detrás de esto, poner atención en lo que realmente importa. Imagina un texto. Cuando lo lees hay palabras más importantes que otras. Dotar a la máquina de la habilidad de saber cuáles son más relevantes era una idea esencial si queríamos que la máquina entendiera nuestro lenguaje. Pero, además, la capacidad de ver todas las palabras a la vez fue fundamental. Ir una a una de manera secuencial, sin saber lo que venía, complicaba mucho las cosas. El sentido del lenguaje no es secuencial. Tomar perspectiva ayudó mucho a la máquina para “entender” lo que estaba leyendo. Y, por último, hacer esto en varias dimensiones de “profundidad” para poder entender letras, palabras, ideas… Con este sistema se empezó a entrenar modelos de lenguaje que predecían la siguiente palabra de una frase. Por ejemplo, le dábamos una entrada como: “Tengo mucho sueño, creo que me tomaré un…” y el sistema, sabía que, con este contexto, lo más probable era que la siguiente palabra fuera: “café”. Estos sistemas se entrenaban de muchas formas. Entre otras, de manera automática haciéndose exámenes de autoevaluación y corrigiendo el modelo con los aciertos y fallos para conseguir mejores resultados. Esto, escalado a una ingente cantidad de parámetros y datos y con mucho poder de cómputo, dio lugar a los modelos de lenguaje que conocemos ahora.
Como consecuencia de todo esto han aparecido ya multitud de tecnologías que no solo escriben y chatean, hablan de manera indistinguible como humanos, generan imágenes, vídeo, música… Y lo que queda por venir.
En conclusión y lo que no debemos obviar
Me parece importante transmitir tres cosas fundamentales.
Por la parte más técnica, estos modelos son impresionantes. Se han escalado tanto que empezaron completando frases, pero ahora mismo son capaces de completar conversaciones o generar vídeos realistas basándose en esas ideas. Ven la información como “un todo” (dentro de sus limitaciones de contexto) y esto nos da posibilidades espléndidas. Son tan potentes que cambiarán el mundo como pocas tecnologías lo han hecho. En muy poco tiempo, hemos dotado a las máquinas de capacidades que hasta ahora eran solo ciencia ficción y que parecía que así sería por mucho tiempo.
Sobre sus respuestas y la calidad de estas. Dependen del modelo, su entrenamiento, cantidad de datos. Las respuestas de estos modelos (entrenados principalmente por grandes empresas, recordemos esta información) dependen de los datos usados en su entrenamiento y del refinamiento que se haya hecho del mismo. Esto es un problema con muchas aristas. Por poner ejemplos. Primero, su conocimiento es probabilístico y hay que ser conscientes. Para que me entiendas, la IA generativa funciona igual que cuando te presentas a un examen e intentas rascar unas décimas respondiendo a una pregunta que no te sabes muy bien. Tirará de intuición e imaginación: para la IA, las respuestas más probables, pero que no tienen por qué ser correctas. Y no dudará en darte una respuesta que pueda parecer verdadera pese a no tenerla muy clara. Y, por otro lado, y aún más grave, si la entrenamos con datos sesgados, sus respuestas tenderán a perpetuar esos sesgos. Ojito.
Por último, sea como sea, tenemos que recordar que son modelos predictivos. Un chatbot como ChatGPT lo “único” que hace es generar el texto más probable según su entrenamiento y el contexto de la conversación que estemos teniendo con ellos. Es importantísimo entender y grabarnos a fuego que todo lo que devuelven es consecuencia de un cálculo probabilístico. ¿Piensan? ¿Razonan? Depende de lo que entendamos que significan esas cosas. En muchas tareas nos dan resultados mejores que los de la media humana. Cualquiera que haya probado los últimos modelos no puede negarlo. Pero ¿sienten? ¿son conscientes? ¿son empáticos? ¿son humanamente inteligentes? Sin duda ya pueden simular estas facetas del comportamiento humano, pero carecen totalmente de conciencia e intencionalidad. Son máquinas que calculan qué respuesta es más probable que nos parezca mejor y nos la dan. Estos modelos tienen una sintaxis, pero vacía de significado hasta que nosotros se lo damos. El filósofo John Searle dice: “Tener una mente es algo más que tener procesos formales sintácticos… la mente tiene más que una sintaxis, tiene una semántica.”
Comprender estos fundamentos es crucial antes de explorar cómo esta tecnología está transformando, y transformará, el panorama educativo.
Por: Alfonso Sanz López (@alfon_creatics)



