Después de 2024, las herramientas de IA han penetrado en todos los rincones de nuestras vidas. Desde pequeños robots que responden automáticamente a los mensajes en LINE hasta asistentes inteligentes utilizados por las empresas para generar informes y escribir programas, la IA parece haberse convertido en parte de nuestro trabajo y de nuestra vida. Como usuario de al menos cinco herramientas de IA diferentes cada día, a menudo me sorprende su fluidez e inteligencia. ¡En algunos momentos, incluso siento que me entienden mejor que yo mismo!
Pero debido a esto, comienza a surgir una sensación de inquietud: ¿entendemos realmente cómo estas IA llegan a sus conclusiones? Cada vez que veo una IA completar un informe casi perfecto, inevitablemente surge una pregunta en mi mente: ¿Realmente entiende estos resultados o es solo una coincidencia?
Si tuviera que utilizar una imagen para describir la IA actual, probablemente sería: es como una planta extraña que puede crecer por sí sola. Lo vemos florecer con hermosas flores y dar frutos atractivos, pero cuando tomamos una lupa, descubrimos que no tenemos idea de cómo interactúan entre sí sus raíces, tallos y hojas.
Un estudio publicado recientemente por Anthropic es un intento de abrir esta caja negra. Utilizaron un enfoque casi biológico para analizar los mecanismos operativos internos de grandes modelos lingüísticos como Claude 3.5. En lugar de simplemente mirar las entradas y salidas, podemos observar las células y rastrear las neuronas e intentar responder a la pregunta: "¿Qué está haciendo cada célula de esta extraña planta?"
Si en el futuro la IA realmente entra en campos tan sensibles como la medicina, el derecho y las finanzas, no podemos limitarnos a mirar los resultados de rendimiento, sino que debemos comprender verdaderamente si su proceso de razonamiento es fiable, seguro y controlable. ¡Hoy, exploremos cómo funciona el cerebro de la IA a través de la investigación de Anthropic!