logo

DES-INTELIGENCIA ARTIFICIAL POR JULIETA MASSACESE

O cómo lo que hacemos con las máquinas aumenta nuestra estupidez

Ensayo.

Tecnologías como captchas, bots, smartphones y ChatGPT han pasado a integrar nuestro vocabulario con inusitada rapidez: ¿máquinas inteligentes o humanos estúpidos? Por fuera del solucionismo o el apocalipsis tecnológico, una reflexión comprometida que historiza y analiza la des-inteligencia artificial.

Por Julieta Massacese

La inteligencia es difícil de definir, en general usamos el término para referirnos a la capacidad intelectual de comprender y razonar, así como de resolver problemas. Cuando se aplica a Estados, el significado adquiere el tono de la seguridad interna y externa, del espionaje y de la guerra. En todos los casos, puede ser útil recordar que la caracterización de nuestras facultades en términos de inteligencia no es muy antigua. Otros conceptos eran los que de alguna forma referían a algunos aspectos de lo que podemos entender como inteligencia (conciencia, intelecto, genio, espíritu). La inteligencia es hija de finales de siglo XIX y principios del XX, bajo la idea de una capacidad general que, para algunos, podía y necesitaba ser medida cuantitativamente. En Argentina, estos test fueron utilizados por la policía para determinar la peligrosidad de los individuos hasta bien entrado el siglo XX. El desarrollo de tests, la adaptación estadounidense de estas corrientes, los problemas de su aplicación, la idea de “heredabilidad genética” y de “gen de la inteligencia”, que usualmente arrastró aspectos racistas y eugenésicos, han sido espacio de controversia. En su libro Metamorfosis de la inteligencia (La Cebra, 2024), la filósofa francesa Catherine Malabou historizó la inteligencia desde los tests de coeficiente intelectual del siglo XX hasta los contemporáneos desarrollos en neurociencias e inteligencia artificial (IA). Esta última provocaría, para la autora, una cuarta herida narcisista al género humano: “Después de Darwin, después de Copérnico, después del psicoanálisis, viene la cuarta herida: la captura de la inteligencia por su propia simulación”. Sin embargo, ella no es pesimista, ya que en la pérdida (como en los casos de las tres heridas anteriores) hay importantes oportunidades. La pregunta que podría saltar a la vista esta vez es más bien: ¿Quiénes son los dueños de la inteligencia artificial y para quiénes serán los beneficios de este salto tecnológico? 

Ya había dicho la historiadora de la ciencia y filósofa Donna Haraway en Testigo_Modesto (Rara Avis, 2021) que el principal peso social de la tecnociencia se sostiene en sus promesas y amenazas, que siempre vienen en tándem. Malabou también señala esto en relación con la IA: “La insistencia en el nuevo rostro del peligro tecnológico permite a quienes lo manipulan tener un doble discurso. Un discurso que puede calificarse de razonamiento del bombero pirómano”. Ella toma el caso del empresario Elon Musk, que mientras es uno de los inversores claves del desarrollo de la IA, busca su control absoluto, supuestamente en aras de la toda la humanidad, al mismo tiempo que anuncia escenarios de amenaza global. Entre las fantasías de solucionismo tecnológico y apocalipsis, aparece el típico tropo de la ciencia ficción: la IA que cobra singularidad, una característica hasta ahora sólo predicable de organismos vivos. La máquina, emancipada, contra el ser humano. 

¿Han visto como los captchas se vuelven más exigentes? Me refiero a aquellas pruebas que, en línea, piden una comprobación de que el usuario es un Homo sapiens y no un programa informático. Hace tiempo se trataba de copiar unos pocos caracteres, alguna secuencia numérico-alfabética, hoy en día en algunos casos requieren de una o más pruebas (por ejemplo, seleccionar las imágenes que contienen bicicletas, luego aquellas que contienen sendas peatonales, etcétera). ¿Los bots se han vuelto más inteligentes o simplemente han aprendido a resolver mejor estos acertijos de prueba de humanidad? Antes de que existieran los smartphones, los teléfonos “inteligentes” que en realidad son pequeñas computadoras, existió un matemático llamado Alan Turing. Él, nacido en Inglaterra, era además lógico y filósofo. Se le atribuye haber diseñado el primero de estos tests. Pero Turing sabía que era difícil y quizá irrelevante preguntarse si las máquinas podían pensar, por lo que eligió la pregunta de si las máquinas podían simular lo suficientemente bien frente a un ser humano, al punto que otro humano no pudiera distinguir entre un congénere y un artefacto.

Turing participó del desarrollo de una de las primeras computadoras, la Colossus, que se utilizó para descifrar los mensajes criptográficos nazis. Tanto la Colossus, como las máquinas alemanas, eran dispositivos científico-militares ligados a las comunicaciones (secretas), eran asuntos de inteligencia. Las computadoras comerciales llegarían recién después de la guerra, de forma muy lenta, cara y aparatosa, como Clementina, la primera computadora argentina para fines científicos. Clementina tenía 18 metros de largo y otros dos de altura y llegó al país en 1960. Quien la programó fue Cecilia Berdiche, matemática polaca de nacimiento y argentina por decisión. Su nieto cuenta que Berdiche aprendió a usar la computadora con Cicely Popplewell, con quien luego se harían grandes amigas, que venía de trabajar con Turing en Inglaterra. En ese momento, Berdiche estaba atascada con un complejo problema de física, por lo que la inglesa le mostró algunas funciones de la máquina: “La serie debía llegar a un cierto resultado, que no llegaba nunca, y que ya estaba tomando demasiado tiempo de cálculo sin producirse. Después de recibir la lección de Cicely, lo programé en menos de media hora y el problema quedó resuelto en pocos minutos. Es por esta anécdota que algunos me consideran la primera programadora de la Argentina”. 

A pesar de la intensa “masculinización” de la matemática, la historia de la computación está repleta de mujeres, homosexuales y/o personas trans. A pesar de haber servido a la causa aliada contra los nazis y de haber hecho increíbles aportes a los campos de la lógica y las ciencias de la computación, Turing fue procesado por homosexualidad en 1952: se negó a disculparse por sus conductas. Obligado a hormonarse contra su voluntad bajo un esquema de castración química, se suicidó dos años más tarde y recién fue indultado, postmortem, en 2016. Cuando escribo “masculinización” me refiero, desde ya, al estereotipo de las mujeres como seres emocionales en oposición a los varones racionales, que viene desde la época de Pitágoras y que se extiende a la idea de que un gran matemático no puede (ni debe) presentar conductas homosexuales; sin embargo, el prejuicio de que las mujeres no son buenas para las matemáticas ha sido reciclado durante el siglo XX de la mano de diversas disciplinas y narrativas, al punto que aún hoy las carreras llamadas STEM (por sus siglas en inglés, Ciencia, Tecnología, Ingeniería y Matemáticas) son el último reducto que se resiste a la feminización de la universidad. En el resto de las disciplinas, las mujeres son mayoría. 

También al mirar la historia de la computación encontramos figuras heroicas, artesanas y no tan conocidas, como la de Elizabeth Hamilton, que programó el sistema operativo para las misiones Apolo y lo llamó “ingeniería de software”. Todo lo que ahora se hace con impulsos electromagnéticos y microchips, antes se hacía a mano y, a lo sumo, con tarjetas perforadas. Sabemos que en todo el globo para el trabajo manual extenuante se ocupa mayormente a mujeres, debido a que, perdónenme la generalización, somos más dóciles y prolijas. La historia de la industria textil, también ligada a máquinas desde su mecanización, ha corrido una suerte similar y lo mismo pasa hoy con quienes trabajan en la industria tecnológica y sueldan microchips y celulares: son mujeres. Desde Taiwan a Tierra del Fuego, las ocultas industrias tecnológicas prueban que la “nube” es solo una metáfora. Sí, es cierto que los satélites cumplen un papel fundamental en las telecomunicaciones, pero incluso ellos son construidos por Homo sapiens en fábricas más cercanas a las fuerzas del suelo que a las del cielo (al menos en lo que respecta a ubicación geográfica y trabajo necesario). Otro tanto podría decirse de las criptomonedas y su aparente virtualidad, que no hace más que enmascarar la carga ambiental que producen (en particular, Bitcoin). Pero contra esta increíble fuente de especulación –por el momento– las condiciones de existencia sobreimprimen algo más modesto. Malabou lo resume del siguiente modo: “En realidad, los desarrollos de la inteligencia artificial son muy controlados”. El problema persiste en el modo de la pregunta: ¿por quiénes y para quiénes?

Luego de haberse vuelto un tema pasado de moda hacia la década de 1970, para haber sido retomado en los 80 y 90 con las redes neuronales y el reconocimiento de caracteres, la IA volvió con todo a partir de la empresa OpenIA y su producto más famoso, ChatGPT. Este producto desbordó los nichos de nerds y especialistas: en dos meses tenía más de cien millones de personas que la usaban activamente. Esta comenzó como una empresa de código abierto y sin fines de lucro: “OpenAI es una empresa de investigación e implementación de IA. Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad”. Esto cambió rápidamente. Steven Levy, columnista histórico de la revista Wired, cuenta este viraje en su artículo “What OpenAI Really Wants” (Qué es lo que quiere realmente OpenAI). Comenta que llegado un momento, el carácter abierto (open) de la empresa se cerró o, como se dice actualmente, se reperfiló. El periodista lo relata de esta forma: “Musk creía que tenía derecho a poseer OpenAI. «No existiría sin mí», dijo más tarde a CNBC. «¡Se me ocurrió el nombre!»”. Y así fue que el fundador de OpenAI, Sam Altman, que se resistió a formar parte del patrimonio de Musk, renunció. Es cierto que Musk había inyectado miles de dólares en el proyecto, también es cierto que se le había ocurrido el nombre. Pero al nuevo modelo de OpenAI lo que le quedaría de abierto (open) sería solo una parte pequeña, mientras que el resto se iría a aplicaciones comerciales. “Abierto” tiene un significado específico en informática: se refiere a aquellos proyectos cuyo código puede ser descargado y modificado por la comunidad, permitiendo todo tipo de aplicaciones. Ya no es el caso de OpenAI, que mientras permite que alimentemos su base de datos con preguntas a ChatGPT4 de forma no remunerada y voluntaria, nos vende sus servicios, entre ellos ChatGP5.

Estos increíbles modelos de simulación del lenguaje natural han comenzado, sin embargo, a mostrar sus riesgos. El laboral hace tiempo que se discute, ya que la automatización (en sentido amplio) no es nueva. La irrupción de estas tecnologías en la vida cotidiana, cuyo caso paradigmático es el del ChatGPT, ha levantado sospechas en varios ámbitos. Mucho se podría decir sobre la producción de imágenes (que promete reemplazar a artistas y diseñadores y nos enfrenta a simulaciones de personas reales, incluidas menores de edad), pero excede los límites de este texto. Quedémonos en la parte escrita, por el momento. Para las personas que somos docentes el uso de tecnologías hace tiempo que nos suscita preguntas. Nunca creí en lo de los “nativos digitales”: aprender a consumir un producto muy bien y muy rápido no implica en lo más mínimo un saber sobre cómo funciona o cómo podría funcionar de otra manera. La preocupación actual ha sido muy bien sintetizada por el filósofo y epistemólogo Miguel Benasayag: “Toda la comunidad científica está de acuerdo en que la delegación de las funciones del cerebro en la Inteligencia Artificial (IA) es perjudicial”. Él opone los verbos existir y funcionar. Mientras que algo puede funcionar muy bien para una máquina, eso no implica que sea positivo para la existencia concreta de un ser vivo (más bien, parecería darse una relación inversa). 

Cuando usamos nuestro tiempo en el celular, que en Argentina (líderes en la región) ronda las nueve horas diarias per cápita, lo que estamos haciendo es prestar nuestro cuerpo, nuestro cerebro, nuestras habilidades y decisiones a una red más extensa que busca, permítanme la terminología marxista, aumentar la tasa de ganancia. Cada vez que preguntamos algo a ChatGPT, lejos de servirnos del banquete de la inteligencia, en realidad somos la materia de la que la tecnología se alimenta. Pero no solo usamos tiempo y si se quiere prestamos memoria RAM y de almacenamiento a este sistema, sino que olvidamos habilidades que, dada la velocidad del desarrollo tecnológico, no alcanzamos a reciclar en otras: en palabras de Benasayag, “esta delegación de funciones masiva, que no es solamente unidireccional. Cuando vos delegás las funciones, la máquina te formatea el cerebro”. El problema, entre otros, es que es demasiado rápido. 

El fantasma de Turing sobrevuela los ejércitos de bots programados para atacar desde la producción pública de conocimiento hasta nuestros derechos sexuales y reproductivos. Usan noticias falsas, títulos anzuelo (baits) y movilizan pánicos morales, rencores, estereotipos. Quizá este fantasma, en su vuelo exploratorio, sabe que hay tanto cuentas con personas que redactan (labor muy precarizada, aquí y también del otro lado del globo), como cuentas robots y un gran trabajo de coordinación y automatización. En todo caso, hay muchas personas, con distintos niveles de responsabilidad, en este gran juego de simulaciones. Un juego que llega a tocar tanto a los sectores empresariales como a los gobiernos, que a veces son la misma cosa, desde Argentina hasta Estados Unidos. Turing (no el fantasma, sino el histórico) sabía que la cuestión no estaba en si las máquinas podían pensar, sino en qué eran capaces de simular. Él mismo no pasó la prueba de ser reconocido como un humano, como un semejante, ante las autoridades homofóbicas de su tiempo. El problema no parece ser que las máquinas piensen, porque hacen muchas cosas y muy bien, sobre todo simular; permítanme, entonces, reelaborar ligeramente este drama. Más que tratarse de que las máquinas se conviertan en nuestros semejantes, más bien implica –al menos en el orden de las prioridades– el viejo y trillado asunto de reconocernos entre semejantes (en lugar de funcionar, como dice Benasayag, bajo la lógica de las máquinas). Organismos que, como los de otras especies y reinos, viven en ecosistemas de los que dependen. 

La especialista argentina Flavia Costa nos advierte en su libro Tecnoceno (Taurus, 2021) los peligros del manejo y del procesamiento de información a gran escala y grandes velocidades, a tal punto que no llegamos a percibir (ni mucho menos predecir) los efectos de estos poderes. Si miramos las aplicaciones actuales de la IA encontramos un gran potencial en las áreas de salud y diagnóstico, pero también en la guerra y el asedio militar (el caso testigo es Gaza) y en las políticas comunicacionales que están posicionando a las nuevas derechas en todo el mundo. Sobre todo porque esta tecnología, que debería estar abierta al bienestar general y al desarrollo sustentable de la humanidad y los ecosistemas, se encuentra totalmente bajo la lógica del capital. ¿De qué nos sirve esta inteligencia si nos vuelve menos inteligentes? ¿De qué nos sirve si reproduce los mismos sesgos que las personas que hacemos ciencia intentamos mejorar? ¿De qué nos sirve si solo sirve a las personas multimillonarias, ligadas a la especulación financiera, mientras donamos nuestro tiempo, nuestros cuerpos y habilidades a su desarrollo? Si miramos con una mirada panorámica, la IA parece traer menos beneficios que problemas: dada su requerida especialización y su exigente necesidad de procesadores muy caros, parece lejana la idea de que esta antorcha del conocimiento pueda ser robada a los dioses, como hizo Prometeo, para devolvérnosla a las simples y los simples mortales. Quizá podamos articular proyectos de software realmente abierto y libre de IA que puedan ser emancipatorios; no parece ser el caso por ahora, pero la historia está abierta. Por el momento, habrá que pensar en otro tipo de capacidad, otro tipo de virtud colectiva, tan corporal como esta inteligencia que intentan mostrar desencarnada, que pueda proponernos un camino diferente.

Julieta Massacese (Esquel, 1989) es Profesora de Filosofía (UBA) y Doctora en Estudios de Género. Es profesora universitaria en la Universidad de Buenos Aires y en la Universidad de Ciencias Empresariales y Sociales. Investiga temas de filosofía contemporánea en el cruce de feminismo, nuevas tecnologías y estudios animales. Es editora de Rara Avis. Prologó el libro El museo apagado. Pornografía, arquitectura, neoliberalismo y museos, de Paul B. Preciado. Publicó capítulos en volúmenes colectivos: Antología del ensayo joven en Argentina (Fondo de Cultura Económica), Nadie viene sin un mundo; Bisexualidades feministas, contra relatos de una disidencia situada y El discurso no es destino: debates feministas sobre el cuerpo, la naturaleza y las ciencias (Madreselva); Críticas sexuales a la razón punitiva (Ediciones Precarias); Metafísicas sexuales. Canibalismo y devoración de Paul B. Preciado en América Latina (Egales); y ¿Un futuro automatizado? Perspectivas críticas y tecnodiversidades (UNSAM Edita). Publicó artículos en revistas científicas especializadas como Mora, Daimon: Revista Internacional de Filosofía, Contrastes, Ideas. Revista de filosofía moderna y contemporánea y Revista de Estudios Críticos Animales y en periódicos y publicaciones de divulgación y debate cultural. Realizó y participó en numerosos congresos, jornadas y workshops de tipo académico, así como en conferencias, duelos filosóficos y mesas de debate en La Noche de la Filosofía, en la Universidad Di Tella, en CCEBA y otros.

Comparti la nota

Facebook
Twitter
LinkedIn
WhatsApp
Telegram