Tecnología

el auténtico visionario de la IA es este profesor que casi nadie conoce

0

Una sola página de ficción puede abarcar 1.000 años de tiempo en la historia; 1.000 páginas de historia pueden tener lugar en un instante. Se trata de una magia asombrosa que molesta profundamente a los estudiosos de la literatura. Los expertos llevan años (décadas, incluso) intentando calcular la velocidad de la mayoría de los relojes. Han contado las palabras de miles de libros; han programado a mano programas informáticos para medir el paso del tiempo en la ficción. Pero a pesar de todos sus esfuerzos, no se ponían de acuerdo en algo tan sencillo como cuánto tiempo abarca una página media de ficción.

Así que fue fantástico cuando ChatGPT lo consiguió.

Con un prompt bien diseñado y un texto de ficción, ChatGPT podía aportar una estimación rápida y precisa del tiempo transcurrido en ese texto. ¿Un fragmento de Jane Eyre? Alrededor de una semana. ¿Otro de El gran sueño? 75 minutos. En los últimos 100 años, calculaba el bot, el tiempo literario se ha ido ralentizando. La página media de literatura solía cubrir un día entero de tiempo; ahora, apenas llega a una hora.

El prompt tan bien diseñado vino de Ted Underwood, profesor de inglés y ciencias de la información de la Universidad de Illinois. En un mundo lleno de escépticos de la IA y alarmistas de los chatbots, Underwood es uno de los defensores más sólidos y convincentes del valor de la inteligencia artificial. Mientras algunos (yo entre ellos) temen que la IA sea un motor de mierda que fabule, plagie, propague prejuicios y amenace con provocar el fin de la civilización tal y como la conocemos, Underwood está bastante seguro de que la nos ayudará a todos a pensar más profundamente y a los estudiosos a descubrir nuevas y apasionantes verdades sobre la gran extensión de la cultura humana. Trabajar con grandes LLM (el software que se esconde bajo el capó de un chatbot) le ha convertido en una de las cosas más raras del sector de las humanidades: un optimista de la IA.

Para que quede claro, los chatbots no leen, y Underwood lo sabe. No opinan sobre lo buen detective que es Philip Marlowe. Pero sí pueden hacer todo tipo de tareas interpretativas que solían ser carne de tesis para estudiantes de literatura sobrecargados de trabajo. Y a partir de esos datos, Underwood cree que por fin seremos capaces de ver el panorama completo, uno que solo se puede comprender estudiando y analizando siglos de literatura en cientos de idiomas.

«Lo que realmente desconocíamos, lo importante, se encontraba en esta gran escala. No podíamos verlo porque era como la curva del horizonte. Hay que ponerle distancia», afirma Underwood. Y la mejor manera de conseguir esa distancia, cree el profesor, es entrenar un modelo digital del lenguaje sobre escritura humana.

En otras palabras, utilizar la IA.

Mark Zuckerberg, fundador de Facebook y CEO de Meta.

El padre de Underwood era informático, y de niño aprendió a programar. Pero en la década de 1990, justo cuando los ordenadores personales empezaban a transformar el mundo, Underwood decidió estudiar inglés con una «sincronización impecable», como él mismo describe.

Como estudiante, Underwood intentó utilizar herramientas digitales para analizar la literatura. No obstante, en aquella época no había bases de datos con suficientes textos para que resultara práctico. Los primeros ordenadores no estaban tan bien informados como el estudiante medio de posgrado en literatura.

Entonces llegó Google Libros. El intento de Google de incorporar todo el material publicado en el mundo a sus insaciables fauces informativas puede que no fuera un gran avance para las bibliotecas o los escritores, pero sí lo fue para los científicos de datos y para los analistas literarios con mentalidad analítica como Underwood.

Antes de Google, el análisis literario digital se parecía mucho al analógico: leer, reaccionar, quizá contar las ocurrencias de algo que se estaba estudiando (lugares, pronombres, dinero, etc.). Pero ahora, con Google Libros, Underwood podía crear modelos estadísticos no de fragmentos o libros completos, sino de géneros enteros. Ciencia ficción, misterio, romance… ¿qué los diferenciaba concretamente? Su libro Horizontes lejanos se propuso responder a esa pregunta. ¿Son libros como Frankenstein y La guerra de los mundos ciencia ficción, aunque se escribieran antes de que el editor Hugo Gernsback acuñara el término? Resulta que sí. Midiendo la presencia de conceptos como la inmensidad y el infinito, así como de cosas más mundanas, como los pronombres humanos y los grandes números, Underwood fue capaz de determinar cuál es la ficción más científica.

Poco después de la publicación de Horizontes lejanos en 2019, aparecieron en escena grandes modelos lingüísticos (LLM por sus siglas en inglés, Large Language Model) como ChatGPT. Eso cambió el juego del análisis literario aún más de lo que lo había hecho Google Libros. Los LLM, en su nivel más básico, funcionan calculando las probabilidades estadísticas de qué palabras tienen más posibilidades de ir después de cuáles. No «entienden» ni «saben» nada. Solo convierten palabras en números y resuelven ecuaciones. Pero entre sus cálculos, se encuentra también la relación entre las palabras, basándose en su contexto.

Underwood espera que la IA, con sus sofisticados modelos del lenguaje, pueda ayudarnos a descubrir nuevos conocimientos sobre nuestra propia mente

En lingüística, la idea de que las palabras adquieren significado a partir del contexto se denomina semántica distribucional. Este concepto podría explicar por qué los modelos lingüísticos han demostrado habilidades aparentemente sorprendentes, como ser capaces de decir dónde y cuándo tuvieron lugar un montón de acontecimientos famosos, o inferir las relaciones entre los colores (por ejemplo, el naranja se parece más al rojo que al azul). El lenguaje transmite todo tipo de conocimientos y sabiduría cultural, y los LLM también lo hacen.

Esto sí que es filosofía. El lenguaje no es solo comunicación; es un sustrato para el pensamiento y una forma de transmitir la cultura. Y Underwood cree que los modelos lingüísticos están sintonizados con esa forma. Para los académicos, el objetivo de la lectura, la escritura y el estudio del lenguaje no es solo elaborar un ensayo o criticar un poema, sino averiguar qué pensamos y cuál es la mejor manera de expresarlo. Underwood confía en que los LLM, con sus sofisticadas estadísticas del lenguaje, nos ayuden a comprender mejor nuestra propia mente. En su opinión, hacen algo más que repetir lo que dicen sus fuentes, no porque «piensen», sino porque estamos ahí para escucharles. 

«No soy de los que piensan que estos modelos puedan ser ligeramente conscientes. Pero sí creo que sus declaraciones tienen un significado. No quiero decir que haya una mente consciente en la máquina. Quiero decir que estoy describiendo la interacción entre el ordenador y yo», indica Underwood.

Underwood está visiblemente entusiasmado con el tipo de conocimientos que esta asociación entre IA y humanos puede ofrecer sobre la literatura. «Vamos a poder hablar de cosas como la trama y la motivación de los personajes. No nos limitaremos a contar las veces que aparece dinero en un texto, sino que nos preguntaremos qué significado tiene el dinero en la trama», señala. La IA podría incluso ser capaz de modelar algo tan inefable como lo que hace que la gente siga leyendo página tras página, o lo que hace que una novela de Stephen King sea irresistible. Podría desentrañar las estructuras que mejor generan… 

¡suspense! 

La IA bien entrenada será capaz de obtener nuevos conocimientos sobre las partes más divertidas de las historias que nos gusta leer y contar. Tal vez suene a algo que solo interesa a unos pocos. ¿A quién le importan cosas como cuantificar el suspense o cronometrar el paso del tiempo literario? Pero lo que Underwood quiere decir es que la IA puede ayudar a que el mundo de la crítica literaria, demasiado estrafalario, vuelva a la tierra. «Nos preocupamos de estas cosas porque a la gente le gustan las historias. Y ese debería ser el foco de lo que hacemos», explica.

Sin embargo, incluso una alianza bienintencionada con los robots es controvertida. La semántica distributiva no es la única forma de concebir el lenguaje y el significado. También existe un enfoque «de denotación», que básicamente dice que las palabras significan aquello de lo que hablan: la cosa real. Y si eso es cierto, los modelos lingüísticos son demasiado estúpidos para funcionar.

En la universidad viví un semestre en Tokio y pasé una semana con una familia local. Un día, mientras paseábamos en coche, el hijo y la hija me ofrecieron un caramelo. Pero ten cuidado, me advirtieron, porque el caramelo era muy [palabra que no conocía]. Les pedí que me lo repitieran y que me dijeran qué significaba, pero mi japonés no era lo bastante bueno como para entenderles. 

Al final, me comí el caramelo, que resultó tener un sabor muy fuerte a limón. Así aprendí, que «suppai» significa «agrio».

Hoy, casi 35 años después, suppai no es solo «agrio» para mí. Es «ese caramelo de ultralimón que me comí en la parte trasera de un coche en un suburbio de Tokio». Eso pesa más que cualquier cosa que pueda buscar en un diccionario. 

Ninguna IA puede aprender así. Por eso es difícil confiar en ellas. Los humanos aportan al lenguaje algo más que mero vocabulario. «Si la distribución de las palabras es lo único que entiendes, las conclusiones serán demasiado planas», afirma Emily M. Bender, lingüista computacional de la Universidad de Washington, una voz que incide en los peligros de los LLM de los chatbots. «Nadie niega que la semántica distribucional exista, que palabras con significados similares aparezcan en contextos similares. Pero es el siguiente paso a la conclusión de ‘esta cosa tiene un modelo del mundo’, lo que puede ser problemático», añade.

Mark Zuckerberg, CEO de Meta, pronuncia un discurso mientras aparecen en pantalla las letras AI de inteligencia artificial.

La clave está en lo que realmente hay en los datos de entrenamiento: lo «grande» del modelo lingüístico. Si los investigadores se limitan a utilizar un bot como ChatGPT para sacar conclusiones sobre Anna Karenina o Todo se desmorona, tienen un problema. Porque las empresas que están detrás de esos bots mantienen sus datos en secreto en su mayor parte, lo que hace que cualquier investigación basada en ellos resulte sospechosa. ¿De qué textos aprendieron los robots? ¿Qué supuestos culturales alimentan sus análisis? ¿Cuáles son sus puntos ciegos? Los investigadores no tienen forma de saberlo.

Pero si los investigadores entrenan a un chatbot en los textos que les interesan, entonces se podría disponer de una poderosa herramienta académica. Underwood afirma que las universidades y los académicos deberían aunar recursos para crear sus propios modelos de gran tamaño, construidos a partir de materiales específicos para sus necesidades de investigación. Existe un nuevo modelo del lenguaje, MonadGPT, que se entrenó con 11.000 textos del siglo XVII o anteriores. En teoría, puede representar una mentalidad del siglo XVII como ningún ser humano vivo podría hacerlo.

«Creo que es fundamental entrenar LLM capaces de modelar múltiples perspectivas. Si se utilizan en la enseñanza, no queremos en absoluto que los estudiantes se queden con la idea de que hay una única sabiduría sobre el mundo», comenta Underwood.

Lamentablemente, el enfoque de Underwood podría salir terriblemente mal de muchas formas. Si un modelo lingüístico se puede entrenar con textos del siglo XVII, también se puede entrenar con foros de QAnon o con un conjunto de datos que presuponga la superioridad de una religión o un sistema político. Si se utiliza una máquina de burbujas profundamente sesgada como esa para intentar comprender un libro, una película o los historiales médicos de alguien, los resultados estarán intrínsecamente sesgados en contra de lo que sea (o de quien sea) que haya quedado fuera del material de entrenamiento.

Pero ese peligro es precisamente la razón por la que Underwood cree que tenemos que aprender a utilizar la IA para explorar cuestiones más profundas de la cultura y el conocimiento. Abandonados a los dispositivos de Silicon Valley y de la América corporativa, los LLM tenderán inevitablemente hacia el secreto comercial. Pero en las humanidades, sus sesgos se harán visibles, y puede que incluso útiles.

«La próxima etapa para hacer avanzar estas cosas va a implicar decisiones del tipo que consideramos propio de las humanidades. Si las humanidades no quieren quedarse obsoletas, tenemos que sentarnos en esa mesa y hablar de alternativas para esta tecnología. Nada en contra de Google y Microsoft, pero no deberían determinar por completo cómo pensamos y escribimos», argumenta Underwood.

 Para un optimista de la IA como él, no es de la IA de lo que tenemos que desconfiar.

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: BI PRIME, Trending, Inteligencia artificial, Robots, Libros, ChatGPT

Tres mujeres y un bebé resultan heridos al ser atropellados por un coche policial en el distrito de Salamanca

Previous article

¿Cuáles son los pasos involucrados en la selección de personal?

Next article

You may also like

Comments

Leave a reply

More in Tecnología