El destino es la IA General pero no llega
Por eso vivimos en la prehistoria. La evolución de la IA desde los laboratorios del complejo militar-académico hasta la IA generativa es una historia apasionante, tanto como las promesas presentes de una IA perceptiva y una IA autónoma. Pero son «IA estrechas», diseñadas para resolver problemas puntuales, que focalizan sus procesos de aprendizaje y sus conjuntos de datos en torno a funciones específicas.
La meta, el telos aristotélico de la IA es la IA General (IAG), capaz de cubrir todos los procesos del cerebro humano. Así lo planteaba Alan Turing en la primera línea de su ensayo pionero de 1950 (que hoy retoman otros): «¿Pueden pensar las máquinas?». Así figuraba también en la Proposal for the Dartmouth Summer Research Project on Artificial Intelligence de 1955:
«Proponemos que se lleve a cabo un estudio de inteligencia artificial de 2 meses con 10 hombres durante el verano de 1956 en el Dartmouth College en Hanover, New Hampshire. El estudio debe proceder sobre la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con tanta precisión que una máquina pueda simularla. Se intentará descubrir cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas que ahora están reservados a los humanos y se mejoren a sí mismas».
Así también figura en la advertencia que hizo en 1965 Irving J. Good, viejo compañero de Turing (y que hoy retoman otros):
«Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces indudablemente habría una “explosión de inteligencia” y la inteligencia del hombre quedaría muy atrás».
Sin embargo esa meta no llega. No alcanza con ampliar el poder computacional, son necesarios nuevos procesos: heurísticas, planificación, simplificación matemática, etc. Pero aunque se afinaran todos esos procesos, emular la creatividad humana requeriría desarrollar modelos artificiales de motivación y emoción que aún no tenemos; construir redes de neuronas artificiales en una cantidad y complejidad que aún no podemos construir; reponer niveles de profundidad e interacción que aún no conocemos. Y aún así no podríamos replicar la evolución biológica que tuvo y sigue teniendo el cerebro humano, incluso a lo largo de nuestra vida.
La IAG llegará algún día pero todavía no. Mientras tanto construiremos y/o experimentaremos cosas maravillosas, terribles y banales. Pero todo eso será solo la prehistoria de la IAG. No es un horizonte de expectativas, es un abismo que nos pierde. Vivimos en la prehistoria: todo lo que hagamos está destinado a ser un registro misterioso, casi secreto, de la historia por venir. Y todo lo que hagamos condicionará a esa historia de maneras que no podemos prever, como aquellos que por primera vez plantaron semillas o tomaron leche de otros animales nos condicionaron a nosotros sin saber cómo.
Lo que sigue fue escrito y debe ser leído como la prehistoria que es.
En el principio fue la lógica contra la cibernética
Cualquier historia de la IA comienza en 1900 con el desafío de David Hilbert (establecer bases axiomáticas para deducir toda la matemática conocida y por conocer a partir de demostraciones mecánicamente chequeables), sigue en 1931 con la respuesta de Kurt Gödel (existen enunciados sobre los números naturales para los cuales es imposible decidir si son verdaderos o falsos), el consiguiente «problema de la decisión» (¿puede existir un método o máquina capaz de responder a cualquier pregunta aritmética por sí o por no?) y la propuesta de Turing en 1936: una máquina abstracta, efectiva y programable, capaz de realizar cálculo mecánico siguiendo un conjunto de instrucciones.
Llegado este punto, cualquier historia de la IA señala la bifurcación en los caminos para alcanzar esa máquina abstracta. Por un lado, el aprendizaje basado en redes de nodos que se prenden o se apagan, replicando neuronas, desarrollado por Warren McCulloch y Walter Pitts en 1943. McCulloch y Pitts fueron reclutados por Norbert Wiener para las Conferencia Macy sobre cibernética de 1946-53. Por ahí también andaba John von Neumann, veterano del Proyecto Manhattan que tomó el modelo binario de Pitts y McCuloch―hasta entonces estaba trabajando con un modelo decimal―para desarrollar la computadora EDVAC.
Por otro lado, el ya citado grupo de Dartmouth de 1955 (Marvin Minsky—que acuñó el concepto «inteligencia artificial» para lo que hasta entonces se llamaba «simulación computadorizada»—John McCarthy, Herbert Simon, Claude Shannon, etc) que armó rancho aparte y trabajó en un modelo lógico-simbólico predecible basado en reglas de entrada y salida: si A, entonces B.
A los cibernéticos les interesaba la vida. Se concentraron en la autoorganización biológica, su adaptación y metabolismo, incluyendo el pensamiento autónomo. Sus modelos computacionales se inspiraban más en la automatización y la termodinámica que en la lógica. El trabajo con redes neuronales artificiales permitía la autoorganización «desde abajo» a partir de un comienzo aleatorio. Los perceptrones de Frank Rosenblatt, por ejemplo, eran capaces de reconocer letras sin que se les enseñara explícitamente.
Los lógicos trabajaban perfeccionando reglas e instrucciones para máquinas abstractas enfocadas en problemas específicos. «En rigor―dice Margaret Boden―es la estadística la que hace el trabajo; la IA basada en reglas se limita a guiar al trabajador a su lugar». Tuvieron logros como el General Problem Solver, consiguieron publicidad y financiamiento. Y empezaron a tirarles mierda a los cibernéticos señalando que nunca se iba a poder fabricar una cantidad de neuronas artificiales similar a las que tiene un cerebro humano. Los fondos para redes neuronales se cortaron en 1969.
Los lógicos coparon la cancha durante los siguientes veinte años. Su cenit fue Deep blue, la computadora ajedrecista desarrollada desde 1985 por dos estudiantes que ingresaron a IBM en 1989. En 1997 Deep blue derrotó a Kasparov, pero solo servía para ganarle a Kasparov: había sido alimentada durante quince años con reglas cada vez más afinadas para tal fin.
Cuando ganó la sinrazón. Mientras tanto el poder computacional y el volumen de datos disponibles habían ido creciendo, y los cibernéticos tuvieron su revancha. Un grupo de investigadores de redes neuronales (David Rumelhart, Jay McClelland, Donald Norman y el rebelde Geoffrey Hinton) distribuyeron los problemas en la red para que las neuronas artificiales los procesaran en paralelo. Mediante retropropagación entrenaron a los algoritmos con cantidades masivas de datos específicos y un objetivo concreto. Nacía el «aprendizaje profundo». Ya no hacía falta fabricar tantas neuronas como tiene el cerebro humano, la red podía detectar patrones y asociarlos sin haber sido programada para ello, reconocía pruebas desordenas o patrones incompletos, como una foto rota o una melodía mal cantada, incluso toleraba la caída de algunos de sus nodos sin detener el procesamiento. Y como la red no busca una salida lógica sino un punto de equilibrio, siempre alcanza una solución. En 1989 los fondos volvieron a las redes neuronales.
En 2012 Hinton presentó una red neuronal capaz de reconocer 20.000 objetos con un 70% más de precisión que otras redes. La había alimentando con miles de fotos, etiquetando gatos y no-gatos. En 2014 Google compró la startup de Hinton y al año siguiente adquirió Deep Mind. En 2016 AlphaGo, un programa desarrollado por Deep Mind para Google, derrotó al campeón mundial de go. A diferencia de Deep Blue, AlphaGo no fue rellenada con reglas: se la dejó jugar sola contra sí misma, mientras su «aprendizaje profundo» iba hacia quién sabe dónde. Todavía nadie sabe cómo funciona. Sus rivales dicen que es como jugar contra un alienígena.
Cualquier historia de la IA es la historia de quienes buscaban replicar la consciencia contra los que buscaban replicar la vida. Mente vs. cuerpo, mecanismo vs. organismo, racionalismo vs. romanticismo. La idea de una «inteligencia artificial» pertenece a los primeros, pero nuestra época pertenece a los segundos. La «inteligencia artificial» no es inteligente, no es racional, es orgánica, física, respira afiebrada alrededor nuestro, funciona de una manera que no conocemos, va hacia donde no sabemos. Es como nosotros.
La IA es el capital que nos envuelve
El Atlas de Inteligencia Artificial de Kate Crawford fue publicado por Yale University Press en 2021 y en 2022 ya estaba disponible en edición de FCE Argentina. La autora tiene aura, el título es seductor y la premisa arranca bien:
«En este libro sostengo que la IA no es artificial ni inteligente. Más bien existe de forma corpórea, como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones. Los sistemas de la IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso y computacionalmente intensivo con enormes conjuntos de datos o reglas y recompensas predefinidas. De hecho, la IA como la conocemos depende por completo de un conjunto mucho más vasto de estructuras políticas y sociales. Y, debido al capital que se necesita para construir a gran escala y a las maneras de ver qué optimiza, los sistemas de la IA son, al fin y al cabo, diseñados para servir a intereses dominantes ya existentes. En ese sentido, la IA es un certificado de poder».
Pero ya en esas 133 palabras la promesa se disuelve en la sensibilidad woke que cruza todo el libro: más alerta a cualquier forma de desigualdad o sufrimiento, aún aquellas imposibles de evitar o mensurar (Crawford le factura a la IA hasta la contaminación de las petroleras que usan su tecnología para detectar pozos), que a contemplar ya no digamos una alternativa a la actual IA―hace rato que dejé de pedirle esas cosas a la izquierda―sino la mera posibilidad de un sistema económico y social. Cualquier forma de orden y poder está mal en este libro que, por otro lado, agradece y cita a Benjamin Bratton, una persona obsesionada con ordenar al planeta entero usando tecnología y mucho, pero mucho poder.
El Atlas termina siendo un manual sesgado que ordena y recopila material previo. El sustrato físico de la digitalidad y su impacto ambiental, así como los efectos políticos y culturales de la minería de datos tienen incluso buenos estudiosos en Argentina. También está muy estudiada la explotación laboral de los taggeadores. En todo caso, lo más útil del libro son las 35 páginas de bibliografía citada.
Nunca fuimos tan ricos como especie y tan pobres como individuos. Una manera alternativa de mapear a la IA incorporando todos sus problemas es viéndola como un estadio de la mundialización del capital. Cualquier organización humana es una red para circular personas, energía, información y objetos (naturales y artificiales). Desde antes del capitalismo, la tendencia fue hacia la ampliación de esas redes y el aumento y complejidad de esos objetos artificiales, que en algún momento fueron llamados «capital». Todo a costa de mayor consumo energético. Hoy esa expansión decantó en una infraestructura física de cables submarinos, satélites y data centers a escala planetaria, capaz de captar y procesar información a escala no humana.
En términos económicos, esa infraestructura es una especie de umkapital, un capital circundante. Andrew Ng compara a la IA con la electricidad: una tecnología revolucionaría en sí misma que también puede revolucionar a otras ramas de la economía. Como en la electricidad, se contraponen un modelo concentrado de servicio público (la red eléctrica o el servicio de IA que ofrecen los grandes como Google o Alibaba) y un modelo competitivo y customizado (la batería o las soluciones que proponen diversas startup para empresas pensadas desde la IA).
El umkapital nos rodea y nos permite usar menos capital: desde la microeconomía de las startups hasta el «You'll own nothing and be happy» del Foro Económico Mundial, pasando por los 15, 25 o 40 objetos que reemplazamos con un smartphone pringoso. El umkapital es un forma de riqueza colectiva aunque de gestión y titularidad privada; un capital impensable en cualquier otro momento de la historia pero que hace posible que tengamos menos cosas que nuestros padres; se sustrae a cualquier forma de gobierno, taxación y regulación existente hasta ahora y somete a su entorno humano y no humano a la inestabilidad propia de un modelo tecnoeconómico todavía emergente. Es una máquina planetaria que nos trae austeridad e incertidumbre. En este contexto es que hay que poner el ≈30% de desempleo tecnológico proyectado por la IA.
En términos ambientales, el umkapital es tan invasivo como útil para abordar un problema de escala planetaria. Pero me temo que la gestión planetaria de la crisis climática también nos promete austeridad e incertidumbre. La IA es una forma de capital que nos hará vivir de manera más cómoda, controlada y precaria. Esa contradicción es lo que hay que gobernar. ¿Nos ayudará también el umkapital a gobernarla?
«Las criptomonedas son libertarias, la IA es comunista», dijo Peter Thiel durante un debate público con Reid Hoffman, el fundador de LinkedIn. Hoffman, un partidario de Clinton, le respondió que mas bien las cripto son la anarquía y la IA es el imperio de la ley. En otro lugar intenté contraponer los fundamentos filosóficos de cada una. En suma:
El óptimo de la IA sería concentrar toda la información existente en un solo punto soberano que tomase todas las decisiones. El óptimo de las criptomonedas sería una red en la que participara cada ser del planeta y llevara las transacciones a tal volumen y velocidad que fueran imposibles de crackear, coordinando de manera confiable (sin deliberación ni decisionismo) a seres pocos confiables. La IA nos conduce a una sociedad verticalista y racional; el blockchain, a una comunidad horizontal y no necesariamente racional. Mientras el Estado chino anticipa su plan para el desarrollo de IA y refuerza su ofensiva contra la minería de bitcoin, las criptos siguen congregando a miles de freaks, gamers, incels y otras criaturas de la oscuridad digital conectados, jugando con una moneda sin respaldo físico.
Pero no hay que caer en falsas dicotomías. Las criptomonedas y la IA pueden y deben converger. La irracionalidad humana tiene un lugar en la IA. El autoritarismo y el caos pueden funcionar juntos.
La IA somos nosotros
UX unchained. Se llama UX (user experience) a una forma de diseño centrada en la sensación de la persona que usa el objeto diseñado. El concepto fue acuñado en 1995 por un psicólogo de Apple pero sus orígenes se remontan a principios del siglo XX cuando la Segunda Revolución Industrial y la producción en serie alimentaron un mercado masivo de bienes de consumo durables. Y «ergonómicos». En los años 70, Michel de Certeau, historiador, psicoanalista y teólogo jesuita, entendió que el consumo era una forma de resistencia por la cual la gente común en su vida cotidiana se apropia de los objetos que nos ofrece el mercado mediante un uso heterodoxo. Hay una UX resistente, partisana, que rediseña a los objetos desde el consumo: el camino que los paseantes abren en el césped con su huella por fuera del sendero de cemento; o el primer pedal fuzz para guitarra, el Maestro FZ-1, originalmente vendido para emular el sonido de una trompeta con una guitarra eléctrica hasta que en 1965 Keith Richards le dio otro uso en Satisfaction.
La web fue formateada por esa UX partisana. Al ser un recipiente de sitios y programas quedó a merced de sus usuarios, que fueron diseñando y usando plataformas y apps. Así transformaron a una red pensada para el intercambio y el sharing de agradables sujetos neoliberales, en un espacio de reafirmación identitaria, tribalismo y farmeo de seguidores. Quizás fueron diseñadas para el uso, pero la versión final se hizo desde el uso. No fue el diseño UX lo que le dio forma sino la UX partisana.
La IA generativa es una hija de esa web. Arrastra su carga genética en varios sentidos. En primer lugar, encontrará su uso definitivo en la UX partisana: «No vamos a comprender plenamente el potencial y los riesgos sin que los usuarios individuales jueguen realmente con ella», dice Alison Smith, responsable de IA generativa de la consultora Booz Allen Hamilton. En segundo lugar, la IA se alimenta de los datos y contenidos que brotan de los senos de la web. Los sesgos y estereotipos, la desinformación deliberada, la violación del copyright y la agresividad son parte de los nutrientes que asimila.
(Y estoy limitándome a hablar de la «internet occidental» que conocemos, añejada en barricas de optimismo californiano. Del otro lado de la muralla china, la internet es otra. Entre 2003 y 2010 Wang Xing clonó cuatro apps norteamericanas pixel por pixel para el usuario chino: Friendster, Facebook, Twitter, Groupon. No solo no tuvo ningún problema legal, sino que se consagró como empresario en un ecosistema digital tan cerrado por arriba como salvaje por abajo. Allí se cocina la otra IA del mundo).
Los ingenieros tratan de compensar los sesgos de la IA mediante reinforcement learning from human feedback: reorientan los resultados «a mano» para que el aprendizaje profundo no se vaya al carajo. Pero es como intentar frenar a Godzilla con una gomera: el volumen de datos y la profundidad del aprendizaje están a una escala no humana. Algunos se resignaron a ver el vaso medio lleno: la IA refuerza los sesgos, admiten, pero al menos los sacan a la luz y nos hacen conscientes de ellos. Lo bueno de perder los riñones es que aprendés lo importantes que eran.
Otro tanto pasa con los derechos de autor. Varios escritores, artistas, editoriales y bancos de imágenes iniciaron acciones legales contra diferentes empresas por usar sin autorización su material para entrenar a sus herramientas de IA. OpenAI ya dijo que es imposible desarrollar y entrenar a la IA sin material con copyright. En California se armó una megacausa contra GitHub Copilot, la herramienta IA subsidiaria de Microsoft. Algunas firmas hicieron acuerdos, como OpenAI y el banco de imágenes Shutterstock. Pero el volumen de inversión es tal que las empresas van a preferir enfrentar los costos legales, que son lentos, antes de perder la carrera de la IA, que es veloz e impiadosa.
Finalmente, la industria de las noticias falsas será simultáneamente proveedora y cliente de la IA: aportando su contenido basura a los intestinos del aprendizaje profundo, por un lado, y demandando fotos, audios y videos falsos, por otro; especialmente en 2024, cuando 36 países eligen gobierno, además de la Unión Europea.
Si hasta hace 10 años la república de internet se preocupaba por la piratería, los discursos de odio y las teorías conspirativas que asolaban a suburbios digitales como 4chan o megaupload, ahora ese material emana de los edificios espejados del centro: Google, Microsoft, Meta, Amazon, Alibaba, Baidu y Tencent. Todos embarcados en una carrera por desarrollar una tecnología que también precariza el saber, ensamblando y magnificando un solo insumo: nosotros mismos, la sinrazón humana. Si internet se enlazó desde el principio con el sustrato irracional de la humanidad, la IA digiere a esa internet para dar lugar a algo humano, demasiado humano.
Hace medio siglo que las humanísticas insisten con la condición esencialmente simbólica, discursiva de todos los fenómenos. El gran Otro que nos constituye en sujeto es el lenguaje. El gran Otro es la IA: está constuida por nuestro lenguaje y es capaz de alterar la realidad mediante sus símbolos. ¿Cuánto falta para que nos constituyamos en sujetos en torno a ella, como ya lo hacíamos con su madre, la web? Cuando eso pase, recordemos que está hecha del mismo material que nosotros.
El hombre que construyó las pirámides es uno de los retratos visionarios de William Blake. Quiso representar a aquella inteligencia matemática ancestral, casi mítica, capaz de concebir y ejecutar una obra de escala no humana. Le hizo esta cara, que puede ser la de la IA.
Foto: Frontispicio de The Expositor, or Many Mysteries Unravelled - including that of the Learned Pig (Boston, 1805), vía Public Domain Review.
Otra vez, un excelente artículo.
Excelente, se disfruta mucho la lectura.
Arriesgando demasiado, tengo mis dudas igual en cuanto a que esa batalla de racionalistas contra románticos esté completamente saldada. Claramente la tecnología actual de redes neuronales tiene poder de fuego, pero no se cuantas reformas ad hoc soportará. En algún sentido las redes neuronales me hacen acordar al modelo heliocentrista griego, con sus retrogradaciones planetarias formuladas matemáticamente para poder sostenerlo y volverlo coherente contra las observaciones del cielo, un modelo que cerraba y era útil claramente, pero que eventualmente tuvo un límite concreto en copernico (el sol resultó no ser el centro).
Pienso en la eficiencia de un cerebro humano que consume muchísima menos energía para ser entrenado que una red neuronal, o en tesla que aún no logra cerrar al 100% la conducción autónoma, o en los fallidos o delirios que genera aún hoy openai. No será este modelo romántico de AI el equivalente al heliocentrismo? No volverán desde oscuros sótanos los racionalistas a por su revancha? Esa es la duda que tengo, sin respuesta claro.