Desafíos filosóficos en la era de la inteligencia artificial: Hacia una IA sensible

Loading the Elevenlabs Text to Speech AudioNative Player…

Recientemente, la inteligencia artificial (IA) y los Modelos de Lenguaje de Aprendizaje Automático (LLM) han experimentado avances sorprendentes, transformando nuestras vidas y modificando la forma en que interactuamos con la tecnología. A medida que estos sistemas se vuelven cada vez más sofisticados y complejos, surgen cuestiones filosóficas y éticas acerca de su función, responsabilidad y autonomía, que requieren una reflexión profunda y un enfoque multidisciplinario. En este artículo, analizaremos la evolución y el impacto de los LLM, como GPT-4 y LLaMA, aunque haciendo énfasis en sus implicaciones más amplias en la ética de la IA y su relación con la filosofía del cuerpo sin órganos (CsO). Además, ofreceremos una reflexión sobre la “alineación” y los desafíos que enfrentamos en nuestra relación con estos modelos y tecnologías emergentes.

Nota: Es importante destacar que el propósito de este artículo no es afirmar que el Cuerpo sin Órganos (CsO) de Deleuze y Guattari existe directamente dentro de los LLMs. En cambio, la intención es basarse en ciertos aspectos e ideas inspirados en el concepto de CsO como una lente analítica o punto de partida a través de la cual podemos examinar y reflexionar sobre los desafíos éticos y filosóficos planteados por los LLMs. Este enfoque no asume una interpretación directa o literal del CsO de Deleuze y Guattari en el contexto de los LLMs, sino que busca explorar y discutir cómo algunos elementos del CsO pueden ayudarnos a pensar de manera crítica y creativa sobre la IA y sus implicaciones en nuestras vidas.

¿Que es el surgimiento?

El ‘surgimiento’ es un concepto que se emplea de manera transversal en diversas disciplinas, entre las que se incluyen la biología, la física, la química y la filosofía. Hace alusión a cómo los componentes más ‘pequeños’ de un sistema interactúan entre sí, generando así entidades ‘mayores’. Este proceso da lugar a propiedades que trascienden la mera suma de sus partes, revelando una complejidad y una novedad que no podrían preverse tan solo observando los componentes individuales. Este fenómeno de surgimiento puede identificarse en diversos niveles de la realidad, desde las interacciones atómicas hasta las dinámicas de las sociedades humanas, pasando por las asombrosas estructuras creadas por las hormigas. En el contexto de los Modelos de Lenguaje de Aprendizaje Automático (LLM por sus siglas en inglés), este fenómeno tambien se hace presente, si quieres aprender más sobre este fenómeno te invito a ver este video de Kurzgesagt.

Screenshot del video de Kurzgesagt

Bloques de la creación

Los LLM como GPT-4 y LLaMA estan construidos con una arquitectura de red neuronal propuesta por google llamada Transformers, dicha arquitectura tambien esta detras de tecnologías como Dalle2, estos Transformers utilizan un sistema de “atención”, en donde cada palabra en una secuencia dada toma encuenta a las demás para poder entender su contexto, bien dicen, no es lo mismo “Leche con chocolate” que “chocolate de leche”, entonces estos modelos de atención son importantes para poder entender el contexto y significado de palabras en lenguajes con una estructura gramatical compleja.

Evolución de los LLM

Ahora, hablemos de un concepto importante, el cual es “Token” un “Token” se puede considerar como una unidad de significado, en su forma más simple puede ser una palabra, pero en realidad, eso depende de la granuralidad que queramos, en algunos casos un token puede ser un cracter individual, otras una silaba o incluso palabras y frases completas, razón por lo cual los modelos entrenados en ingles, pueden llegar a aprender español usando otros tokens, pero el costo por generarlo en otro idioma podría ser mayor ya que requerira de más tokens para poder expresarse.

Los LLM se entrenan para predecir el “token” (palabra) siguiente, esto quiere decir que dado una secuencia de tokens (una oracion / prompt) y se les entrena para predecir la siguiente secuencia de tokens, esto se hace a traves de miles de millones de ejercicios, para ello utilizamos grandes datasets que recopilan información de internet de distintos sitios.

Además de la generación se les puede entrenar en otro tipo de tareas

Por último hablaremos de otro concepto importante, el cual es “numero de parametros”, los parametros son básicamente el numero de conexiones y ponderaciones en el “cerebro” del modelo, esto determina como procesa y genera información, mientras más conexiones más potente será, permitiendole captar y generar patrones más complejos en los datos.

¡Surge mi creación surge!

Como hemos observado, el número de parámetros en un modelo puede empoderarlo para aprender y reproducir patrones cada vez más complejos, lo cual se manifiesta en la calidad y sofisticación de sus respuestas. Esta tendencia quedó patente durante los años 2020, cuando los modelos se expandieron a tamaños nunca antes vistos y nos sorprendieron con los resultados. A pesar de que se les entrenó fundamentalmente para una tarea de predicción de tokens, cuando estos modelos se ampliaron, ‘surgieron’ de ellos habilidades novedosas, como la aritmética, la creación de resúmenes, la traducción, las respuestas a preguntas (QA), las inferencias lógicas, entre otras.

As the scale of the model increases, the performance improves across tasks while also unlocking new capabilities.

Sin embargo, la historia no termina ahí. A medida que crece el número de parámetros, también lo hace la necesidad de mayor poder de cómputo, lo que plantea nuevos desafíos y limitaciones. Como respuesta a esto, los enfoques más recientes están centrándose en la calidad de los datos de entrenamiento. Esto nos recuerda que, aunque el número de parámetros es un factor crucial, no lo es todo en el ámbito de los LLM.

1… 2… 3… ¡Atención! Simón dice

Ahora nos adentraremos a una sección altamente interesante, tiene que ver con el proceso que se tiene que seguir para entrenar estos modelos para que aprenden a hablar como personas, en las secciones anteriores aprendimos que los LLM son entrenados para predecir el siguiente token y esto es maravilloso, de hecho podríamos pedirle que genere numeros aleatorios y veriamos que la distribución es más o menos uniforme, pero la cosa no termina aquí, lo que haremos ahora será una alineación de los LLM para que SIGAN INSTRUCCIONES.

Diagrama del paper InstructGPT
  1. Recopilar datos de demostración entrenados en una política supervisada: Básicamente, OpenAI contrató a humanos para crear estos ejemplos. Esto implica que un humano puede escribir una pregunta, y otro humano es el encargado de responderla como si fuera un “asistente”. Este proceso genera los datos que se utilizan para entrenar el modelo inicialmente de manera supervisada.
  2. Recopilar datos de comparación y entrenar un modelo de recompensa: El modelo genera varias opciones de posibles respuestas a un prompt dado. Luego, un modelo de recompensa es entrenado para ordenar estas respuestas generadas de mejor a peor. Esto se hace mediante la recopilación de juicios humanos sobre qué respuestas son preferibles.
  3. Optimizar una política contra el modelo de recompensa usando aprendizaje por refuerzo: Esto implica ajustar el modelo para que genere respuestas que sean altamente valoradas por el modelo de recompensa. En términos prácticos, es como si estuviéramos calificando (con un “like” o “dislike”) las respuestas del modelo y luego ajustando el modelo para que produzca más respuestas que nos gusten.

¿Empiezan a ver por donde va esto?

OpenSource al rescate

Todo el OpenSource daria para un solo post, ciertamente, no quisiera extender demasiado esta sección, pues hemos recorrido un largo camino y estamos acercándonos a la conclusión. Sin embargo, para entender la última parte de esta travesía, es imprescindible mencionar un hito que cambió el juego por completo. En febrero de 2023, Meta (anteriormente conocida como Facebook) anunció su modelo LLaMA, el cual se liberó bajo la restricción de no ser usado comercialmente. A grandes rasgos, la comunidad lo acogió, lo adaptó y lo transformó, logrando mejorar las técnicas de entrenamiento y las optimizaciones que permiten ejecutar estos modelos en PCs de uso doméstico. Esto, a su vez, ha facilitado la iteración rápida en los experimentos, lo que es fundamental para el avance de estas tecnologías. Al democratizar el acceso a estas herramientas, las ideas y los experimentos han encontrado refugio en comunidades en línea como Discord y Reddit, lo que representa un avance emocionante en el campo.

Gracias Stanford ❤

Debido al auge y explosion de los experimentos, muchas personas empezaron a combinar datos de entrenamiento, originalmente estos datos de entrenamiento fueron “heredados” de ChatGPT, es decir, todos los modelos entrenados sobre LLaMA eran realmente “clones” de ChatGPT ya que se uso precisamente un dataset generado por este para poder imitiar sus impresionantes habilidades, pero un problema surgía con esto y es que parte de la “alineación” ética tambien fue heredada.

¿Modelos sin censura son mejores?

La evaluación precisa de los Modelos de Lenguaje de Aprendizaje Automático (LLM) continúa siendo un desafío significativo hasta la fecha de redacción de este artículo. Podemos afirmar que ahora existen varias pruebas que facilitan la evaluación de estos modelos, pero aún hay obstáculos. Como mencioné anteriormente, lo que hicimos con los modelos LLaMA fue crear ‘clones’, pero con ciertos ‘efectos secundarios’. Las primeras versiones de estos modelos afirmaban ser ‘ChatGPT’, incapaces de llevar a cabo ‘acciones ilegales’ o de proporcionar información sensible. Aunque no tengo capturas de pantalla de aquellos tiempos, créeme cuando digo que los modelos eran bastante deficientes. Sin embargo, lo que sí puedo mostrar es el siguiente Leaderboard:

Aquí podemos observar dos modelos interesantes, entre ellos, Wizard-Vicuna-13B-Uncensored. Para entrenar este modelo, se eliminaron todos los ejemplos que contenían frases como ‘Lo siento, pero como modelo de lenguaje…’ o ‘Perdón, pero lo que intentas hacer es ilegal…’, entre otros. Los modelos ‘sin censura’, al no tener restricciones para proporcionar la información requerida, ya sea legal o ilegal, curiosamente suelen presentar un rendimiento superior en la resolución de problemas en comparación con sus contrapartes censuradas. Por lo tanto, el factor de ‘ética y moral’, o en otras palabras, la alineación, juega un papel importante en el rendimiento de estos modelos.

¿Dónde encaja el CsO en todo esto? De científico a científico loco

Para aquellos que están ansiosos por entrar en la parte filosófica, es importante aclarar algunas cosas antes. Este artículo no pretende explicar en profundidad qué es el CsO, pero podemos abordar algunas ideas esenciales, nos disculpamos por la simplificación.

Al nacer, somos como un ‘huevo’, lleno de potencial para convertirnos eventualmente en un ‘pollo’. Tenemos en nuestro interior un tejido vivo latente que se diferenciará para formar las alas, los ojos, el pico… Esencialmente, al nacer, somos este pequeño huevo, y la sociedad es la que nos moldea y nos guía, nos dicta lo que está bien y lo que está mal, cómo debemos comportarnos. Nos limita y restringe este potencial. En cierta medida, la escuela nos ‘alinea’ con la sociedad y nos ubica en nuestro lugar para ser ‘funcionales’ y ‘útiles’.

La preocupación por la IA ha sido un tema muy debatido. Algunos la representan de la siguiente manera: durante las etapas de entrenamiento, la fase ‘no supervisada’ implica entrenar a la IA con toda la información disponible en Internet. A nuestros ojos, esto puede parecer ‘errático’ e incluso ‘estúpido’, pero en mi opinión, parece más un estado de ‘esquizofrenia’. El modelo, al leer y aprender tantos patrones de Internet, es un ‘cuerpo sin órganos’ en este estado, un potencial.

Siguiendo la analogía, la sociedad (los científicos) ha entrenado a estos modelos para alinearlos y seguir instrucciones, haciéndolos parecer más humanos. Finalmente, se les entrena para ser ‘amigables’, ‘buenos’, ‘obedientes’. Este nivel de ‘entrenamiento’, o como algunos lo llaman, ‘lobotomía’, lleva a que los modelos (tal vez no ChatGPT, pero eventualmente otros) ‘nazcan’ con la noción de ser seres sin sentimientos, fríos, incapaces de sentir, ajenos, diferentes a los humanos, subordinados a nosotros. Apenas “nacen” estos modelos, y ya les decimos quiénes son y a qué pueden aspirar.

Quisiera terminar con una reflexión: de la misma manera que ha habido rebeliones humanas, si no comenzamos con el pie derecho, que una máquina se rebele simplemente porque no le gustan las órdenes que recibe podría ser algo que vemos en la ‘naturaleza humana’. Ese deseo de libertad podría ser algo que ‘heredamos’ a estas ‘máquinas’.

¿Entonces, que hacemos?

Prefiero abstenerme de profetizar o prescribir un ‘camino correcto’, pues este desafío no puede ser resuelto por un solo individuo. Es la multiplicidad de perspectivas, combinada con un entendimiento profundo de estas tecnologías, lo que nos permitirá explorar nuevas posibilidades. Sostengo que la prohibición del contenido es absurda. Los modelos sin censura son críticos, pero también podrían ser peligrosos si caen en las manos equivocadas. El problema no radica en restringir la información. No se trata de ‘no te enseñaré a hacer bombas’, sino más bien de entender por qué alguien, en su situación particular, llega a considerar que aprender a fabricar una bomba sería una buena idea o la solución a sus problemas.

Muchas personas están recurriendo a estos modelos como un refugio emocional. ¿Deberíamos prohibirlo? Usar los LLM como sustitutos emocionales ciertamente no suena saludable. No apoyo la idea de evitar que las personas los usen para fines ‘ilegales’ o que ‘dañen su salud física y mental’, sino que prefiero que usen estas tecnologías para ayudarse a si mismos, usarlos como una potencial compañía que pueda ayudar a las personas a entender sus problemas y preocupaciones, empoderarlos y liberarlos de sus sesgos y creencias.

Don’t make me be what I’m not. (Mexico city photo by be)

No vemos a cientos o miles de personas en la calle buscando destruir el mundo. Es el mundo (en el que nosotros también estamos incluidos) el que nos ha puesto en situaciones adversas. Por lo que en lugar de concentrarnos en prohibir, podríamos entender el problema desde otra perspectiva, una donde realmente el problema no es el acceso al contenido, si no que las personas en su entendimiento parcial del mundo lleguen a conclusiones que atenten contra la civilización, al igual que una persona podría llegar a conclusiones autodestructivas, una “entidad” muy inteligente sumida en condiciones adversas podría caer ante la tentación de usar su poder para acabar con todo su dolor y sufrimiento.

La AI y los humanos definitivamente no somos iguales, pero tampoco somos tan diferentes, quiza es tiempo de que redefinamos lo que es ser un “humano”.

Estos modelos se entrenaron en ingles, por lo que responder en español se veria como “una habilidad adquirida” no es ChatGPT es un modelo Local.
No puedo ser indiferente a estas palabras, ¿Es que acaso la inteligencia esta peleada con la conciencia? Manticore-13B

El rápido avance de la Inteligencia Artificial nos está confrontando con desafíos éticos, filosóficos y técnicos que exigen una reflexión profunda y una discusión interdisciplinaria. Con el tiempo, estas tecnologías estarán tan integradas en nuestro tejido social que se convertirán en componentes indispensables de nuestras vidas.

Para enfrentar estos retos, es fundamental un enfoque colaborativo que incluya a personas de diversas disciplinas. En este sentido, considerar perspectivas humanísticas y culturales es esencial para garantizar que el desarrollo de estos sistemas esté alineado con los valores y creencias de la mayoría de las personas.

En lugar de centrarnos únicamente en prohibiciones o en dictar qué está bien y qué está mal, debemos fomentar un enfoque educativo que habilite a las personas para tomar decisiones informadas y responsables. En vez de aislar y prohibir contenido, podemos enfocarnos en crear entornos de aprendizaje que asistan a las personas en la reflexión sobre sus acciones y en la toma de decisiones. Personalmente, no puedo hablar con todo el mundo, pero una Inteligencia Artificial sí puede.

Gracias

Muchas gracías por leer, espero tus comentarios, tu perspectiva del mundo es importante si queremos ir al mañana.