Alexa, ¿qué está pasando con la inteligencia artificial?

portada

Por Martina Dubini
Ilustración por inteligencia artificial craiyon.com

Natalia Fischetti y Gabi Balcarce,investigadores de CONICET, se animan a charlar con Beba sobre ChatGPT, la IA y el modelo de ciencia patriarcal que se esconde detrás de discursos hegemónicos como el de Elon Musk.

Mientras Theodore camina dentro de un centro comercial, evalúa las parejas que lo rodean. A partir de sus rostros, él trata de adivinar cuánto tiempo llevan juntes, qué características tiene cada une, quién en la pareja está más enamorade. Samantha escucha las evaluaciones de Theodore y se ríe. A él le gusta que ella se ría. “Siento que te puedo decir lo que sea” le dice, y al hacerlo se da cuenta de que en eso hay una pequeña revelación. Encontró en Samantha una voz tierna, inteligente y comprensiva. Pero es solo eso. Una voz en un auricular que Theodore lleva puesto. No hay piel, ni miradas, ni pasos que lo acompañen, sólo el espectro invisible de la inteligencia artificial.

En la película Her (2013) dirigida por Spike Jonze y protagonizada por Joaquin Phoenix, nos encontramos con una IA que se presenta como una entidad intuitiva que te escucha, te entiende y te conoce. OS1, mejor conocida como “Samantha”, es una asistente virtual ficticia que no está muy alejada de las voces que responden en nuestros celulares y computadoras al llamado de “Hola Siri”, “Hola Alexa”, “Hola Cortana”. Ellas obedecerán y buscarán, nos traerán soluciones, y en caso de no encontrarlas, responderán cordialmente con un: “Lo siento”.

A propósito de las lógicas que guían el trabajo de las asistentes virtuales, conversamos con Natalia Fischetti, doctora en Filosofía por la Universidad Nacional de Córdoba e investigadora adjunta en el Instituto de Ciencias Humanas, Sociales y Ambientales (INCIHUSA) que conforma, con otras unidades, el Centro Científico Tecnológico CONICET Mendoza.

Se desenvuelve, además, dentro de la Red Federal de Filosofía de la Técnica donde explora un campo filosófico feminista de la tecnología que, según comenta, “es una rama que durante mucho tiempo fue marginada”. “En ciertos momentos, los feminismos fueron o bien optimistas o bien pesimistas con respecto a la posibilidad de liberación de las mujeres y las disidencias en relación a la tecnología, como por ejemplo con la aparición de Internet. Esta es una dicotomía de la que también es preciso salir”, indica.

¿Qué ocurre con las subjetividades femeninas que están presentes en la IA, como por ejemplo, a través de asistentes virtuales?

NF: Acá hay una cuestión muy interesante que plantea Kate Crawford, autora del Atlas de Inteligencia Artificial. Ella dice que es necesario hacer una historia del “secretariado” para ver que la palabra secretaria surge del “secreter”, es decir, de escritorio. El segundo paso aparece con la asistente personal de los jefes, quien en teoría guardaba secretos. Entonces surge una combinación de “escritorio” y “secretos” que da lugar a la idea de “asistente”, y es desde ese concepto que estamos pensando en Alexa, Cortana o Siri, cuando en realidad son una herramienta de vigilancia.

¿Cuál es tu posición sobre los debates feministas en torno a la tecnología?

NF: Corrernos, por un lado, de las ideas tecno-pesimistas que involucran ciertas distopías. Y por otro lado, no caer en ideas transhumanistas de la ultraderecha que tienen una actitud bastante celebratoria y sostienen que la tecnología determina a la sociedad. Es decir, que ésta es el agente del cambio social y que, además, posee un carácter neutral y universal. Así buscamos posiciones situadas, o un conocimiento situado, en palabras de Dora Haraway. En nuestro caso eso sería comprender que debido a nuestra posición en el sur global, tenemos una bajada tecnológica que viene desde el Norte, precisamente de Silicon Valley, y que está liderada por varones blancos de clase alta.

¿Qué perspectivas feministas existen hoy?

NF: Hay un feminismo más liberal que estuvo y hoy está también en auge que quiere más mujeres trabajando como ingenieras o dedicándose al Big Data. Es decir, que cree que con sólo incorporar mujeres a las tecnologías y su diseño se alcanzaría la liberación de las mujeres. Esto se contrapone a otros feminismos que piensan que se debe hacer una crítica más profunda de las tecnologías en donde resulta crucial pensar en el entramado entre capitalismo, colonialismo y patriarcado, que es mucho más difícil de desanudar y que aparece cuando te corres de la discusión técnica.

Desde ahí podríamos pensar la cuestión de los sesgos, ¿no? Como es el caso de Joy Buolamwini, investigadora del MIT, que denunció que la IA utilizada en el reconocimiento facial no detectaba los rostros de mujeres negras.

NF: En el libro Data Feminism, las autoras Catherine D’Ignazio y Lauren F. Klein señalan que no se trata de corregir los sesgos para que el reconocimiento facial no tenga errores, sino de ver qué estructuras de opresión están detrás de esa tecnología. Esto no significa que no haya que denunciar sesgos como, por ejemplo, la estructura de clasificación binaria de la IA que solo distingue hombres y mujeres. Lo que buscamos es entender que detrás de esas lógicas de clasificación de reconocimiento facial está la idea de que a partir de la biología del rostro se puede determinar todo lo que es social y cultural. Vemos una vuelta a un biologismo del siglo XIX donde se suponía que se podía reconocer a los delincuentes por el tamaño o la forma del cráneo. Así se ve que este disfraz de la innovación tecnológica esconde una cuestión ideológica.

La pregunta por quiénes están detrás de estos “avances” y qué intereses representan, resulta ineludible. La carta difundida y firmada por Elon Musk, Steve Wozniak, cofundador de Apple, y Sam Altman, director de OpenAI propietario de ChatGPT, entre otros empresarios, muestra algunos de los protagonistas del momento actual.

En el escrito publicado en mayo, se alerta sobre los desarrollos de un nuevo tipo de inteligencia artificial más conocida como GPT-5 (Artificial General Intelligence) que vendría a representar un salto cualitativo respecto del funcionamiento de GPT-4 (Artificial Narrow Intelligence). Debido a las consecuencias políticas que tendría esto, quienes firmaron, concluyen: “Los sistemas potentes de IA deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”. ¿Pero cuáles son los riesgos tolerables? ¿Dónde radica el límite? Acerca de esto, conversamos con Gabi Balcarce, Doctore en Filosofía por la Universidad de Buenos Aires.

Elle trabaja como investigadore adjunte del CONICET y docente en la carrera de Filosofía de las materias Metafísica, Problemas Especiales de Metafísica y Filosofía de la Animalidad (UBA). Además, dirige la revista Estudios Posthumanos. Para Gabi, hablar de inteligencia artificial desde los feminismos coincide con discutir abiertamente su “dimensión política”. “Deberíamos hacerlo porque sino lo que se reproduce es el modelo de ciencia patriarcal que critica Donna Haraway en el Manifiesto Cyborg, uno de los primeros textos feministas sobre estudios de tecnología”, señala.

¿Esta ciencia patriarcal está presente en la carta que firmó Elon Musk y compañía?

GB: Por supuesto, ellos tienen una mirada transhumanista que redobla la concepción de la ciencia moderna. Es decir, recuperan a la Ilustración y al Renacimiento en el sentido de la búsqueda de la inmortalidad del hombre y quieren utilizar la tecnología para la extensión de la vida de ciertos humanos, y acá no uso la “e” porque me parece claro que las mujeres, las disidencias y demás seres vivos no estamos incluides. Así continúan con la idea del hombre como una superación y separación de la naturaleza. Esto coincide con la idea de la conquista de Marte, que Elon Musk lleva a cabo con SpaceX, que también es muy llamativa porque implica una visión de lo humano como algo que puede sobrevivir más allá y también a costa de su contexto.

¿Es decir que habría una relación entre el modelo de ciencia patriarcal, la tecnología y la idea de naturaleza que hoy tenemos?

GB: Me parece que el problema es que, a veces, se evalúan las cosas por separado y creo que es momento para pensar en composición porque acá hay varios factores que atender. Es decir que para evaluar la inteligencia artificial, hay que proponer miradas interdisciplinarias o transdisciplinarias ya que eso nos permite anudar problemas que parecen desconectados.

En relación a esta incorporación de distintas miradas, ¿podemos rastrear usos alternativos de la IA?

GB: Ivana Felddeber es la cofundadora de Data Género y tradujo el libro Data feminism. Una de las cuestiones que se mencionan ahí es que en el mundo de la programación no sólo hay una mayoría masculina, sino también una binaria y que sólo el 14% de las investigaciones sobre inteligencia artificial, son de mujeres. Entonces, aparece Ivana Felddeber que, junto con otras mujeres, lidera un proyecto que utiliza inteligencia artificial para poner a disposicion datos sobre violencia de género a partir de sentencias judiciales como parte del proyecto de reforma judicial feminista.

Newsletter de Beba

Newsletter de Beba