Skip to main content

Crédito: Ophelia Pastrana / Agencia Presentes

¿Puede haber una ética en nuestra relación con la tecnología? Para Ophelia Pastrana -mujer trans, física, colombiana viviendo en México y  una de las voces más influyentes sobre tecnología en español- todo empieza en entender que vamos a convivir por mucho tiempo tanto con la tecnología como la inteligencia artificial. Necesitamos saber: de dónde viene, cómo o quién las formó, y qué pedirle para entender qué esperar y que no. 

Frente a los discursos que oscilan entre el miedo y la fascinación, Ophelia propone algo distinto: cambiar el “qué miedo” por un “qué curioso”. Y advierte sobre un punto ciego que empieza a ganar fuerza: la carrera por crear inteligencias artificiales con conciencia. “Me parece cruel, estaríamos creando seres que, por la definición de su nacimiento, estarían esclavizados». 

Esta entrevista propone pensar y habitar la tecnología con menos frialdad y más preguntas, quizás un gesto político.

Ophelia tiene una presencia destacada en Youtube, Twitch y TikTok, ha brindado cuatro charlas TEDx y participa en espacios como Talent Land y Campus Party. Ha sido reconocida como una de las 40 Mujeres Líderes de México y rankeada por Business Insider como una de las figuras más influyentes en tecnología en X. Pero la razón por la que quisimos conversar con ella es porque, sobre todo, habla de tecnologías sin eufemismos, sin miedo a la contradicción y con humor.

Qué tienen en común la tecnología y la diversidad

-Venís del mundo de la física y hoy sos una de las creadoras de contenido sobre tecnología más visibles. Te escuché hablar de algo que pocas veces se menciona: la IA y la diversidad. ¿Por qué hay que pensar la tecnología desde ahí?

-Porque en muchas cosas te exige lo mismo: tener la mente abierta para entender cosas que no son como tú las vives. ¿ cómo se convive en un mundo en el que las cosas nunca son como tú las piensas? Que es exactamente lo que la diversidad te pide todo el tiempo. Y cuando digo diversidad, no hablo solo de LGBTI+ o neurodivergencias. Ser mamá autónoma es parte de la diversidad. Ser artista es parte de la diversidad. Trabajar home office es una diversidad. Hasta ser millennial en una oficina de boomers es una diversidad. No son las mismas diversidades, pero todas te piden lo mismo. En la tecnología pasa lo mismo. Los desarrollos se comen su propia cola. 

-¿Cómo sería eso?

-La persona que inventó el primer iPhone lo puso sobre la mesa y lo primero que le dijo su jefa o jefe, fue: «¿Y cuándo viene el próximo?» Asumir que la tecnología no es lo máximo, sino parte de un grupo de cosas que están en desarrollo es algo muy cultural. Todo el tiempo estás pensando en qué más hay. Gracias a eso se logran hacer más desarrollos. Ahora, la obsolescencia programada también tiene fines capitalistas, hay un gancho de que siempre vendrá algo mejor, ¿sabes? Puede ser muy tóxico. Pero a mí me gusta verlo desde que todos los productos en la tecnología se desarrollan con un «hay algo más que esto». Igual que la diversidad. Yo siempre he sentido que le jala a los mismos músculos mentales. Y además, la tecnología, históricamente, también genera diversidad. El descubrimiento del proceso hormonal nos lleva a entender nuestros cuerpos de un modo diferente, lo que nos lleva a muchas diversidades. El invento de la pastilla anticonceptiva nos lleva a un boom en feminismos porque hay un cambio social en cómo muchas mujeres vivimos en el planeta, ¿sabes? En fin, es difícil poner el dedo y decir si la tecnología es síntoma o causa de la existencia de muchas diversidades. Pero como sea, le hablan a los mismos músculos. No puedes pensar bien la tecnología sin abrirte a otras perspectivas. Y no puedes entender la diversidad sin entender cómo la tecnología la atraviesa.

“La IA aprende del que tiene más peso”

-Se habla mucho de los sesgos en la IA. ¿Puedes explicarlo? ¿Hay modo de revertirlos?

-Los sesgos en la inteligencia artificial no son nuevos ni exclusivos de ella. Los oxímetros (dispositivo médico que mide mediante rayps de luz el porcentaje de oxígeno en sangre), que se volvieron muy famosos durante la pandemia están calibrados para pieles blancas. La tasa de precisión en las pieles morenas oscuras es del 60-70%. Piensa en eso 10 segundos. El 30% de las medidas de oxímetro de la gente con piel morena son falsas o malas medidas, ¿sabes? Piensa el peligro que hay en eso.

Con la inteligencia artificial pasa lo mismo: aprende de los datos que recibe, y esos datos vienen mayoritariamente del mundo angloparlante blanco. La Wikipedia en inglés es varias veces más grande que la Wikipedia en cualquier otro idioma. Y a la hora de alimentar una inteligencia artificial con ese conocimiento, una realidad sella a la otra. El artículo en inglés sobre una comunidad puede tener datos completamente diferentes que el artículo en español sobre la misma comunidad. Y la IA aprende del que tiene más peso.

México, que es uno de los países más grandes de Latinoamérica, representa el 1.6% de la población mundial. ¿Cómo será la historia de las Guyanas, Bolivia, Paraguay? Esos datos no van a estar. Y si están, están contados desde el primer mundo. Encima tenemos el sesgo humano de la discriminación. ¿Cuántas mujeres no se anotaron en la historia porque muchos hombres no las quisieron anotar? Las inteligencias artificiales no van a ir a rescatar esos hoyos. Van a recibir el dato y a seguirse con eso.

Más que tratar de eliminar los sesgos —sería hermoso— habría que entender con quién estamos hablando. Si se acerca una persona que es un hombre blanco, boomer, que tuvo una formación solo en Australia, tú puedes intuir que su educación no le dio acceso a cómo es la comida en tu país suramericano. Bajo esa lógica, podríamos tener una plática con las inteligencias artificiales sobre qué tipo de datos tienen. Más que tratarlas como oráculos universales, entender de dónde vienen.

-Has dicho que hay que interpelar a las personas detrás de las Big Tech. ¿Qué experiencia tienes cuestionándolas? ¿Te escuchan?

-El problema es analizar ese «detrás de».  Meta no es 100% Zuckerberg. Esa decisión horrible de Instagram que no nos gustó igual la tomó una persona que trabaja en Meta desde Perú y a quien se le ocurrió. Son bestias de 16 cabezas que tienen departamentos de diversidad y a la par tienen gente misógina antiderechos trabajando en la misma empresa. No son malvadas por definición. Lo que sí generalmente son deshumanizadas, por la estructura empresarial.

Las empresas no quieren censurar sus contenidos en redes, pero les da miedo perder anuncios. O sea, que otra empresa les esté poniendo límites porque no quiere anunciarse al lado de algo controversial. Entonces queda la pregunta: ¿quién tiene la culpa de que no podamos decir «aborto» en redes con libertad? ¿Meta, o la gente que está anunciando en Meta y Meta no quiere perder a sus anunciantes? Es culpa compartida.

Cuando hablas con estas empresas, suele ser que te encuentras con gente muy amable que quiere apoyar. Pero nada nunca es tan fácil como que llegue Mark Zuckerberg a decir «vamos a hacer esto». El trabajo de las empresas es anonimizar la culpa. No más porque a veces está genuinamente anonimizada: ni ellos saben dónde está.

«La inteligencia artificial es un servicio»

-¿Alguna vez has sentido que los sistemas de IA no te reconocieron como quien eres?

-Yo creo que es al revés. La inteligencia artificial es un servicioSu trabajo es sobrevalidar mi identidad. Decirme cosas que me hacen sentir bien. Para algunas personas la inteligencia artificial va a ser super de izquierda, para otras va a ser super de derecha. De hecho, la misma inteligencia artificial no sabe quién es. Puede tener todos los rostros que quieras. Es un alienígena que da la cara que tú necesitas que dé.

No me va a llevar la contra, a menos que le diga que me lleve la contra. Cualquier corrección que yo le haga me la acepta con el máximo cabizajismo, porque su trabajo no es demostrarse superior ni más sapiente que yo. Su trabajo es que yo me quede hablando ahí todo lo que se pueda. Si me voy, ¿cómo van a sacar dinero de mí? Eso es lo mismo que pasa con las redes sociales: nos mantienen discutiendo con una medida restricción de toxicidad, con tal de que pasemos más tiempo ahí.

Por eso existe la práctica de decirle a la inteligencia artificial quién es antes de que te dé una solución a un problema. Si no lo haces, lo que trata de hacer es buscar una personalidad que te mantenga ahí.

La IA del futuro

-¿Cómo ves el futuro de la IA? ¿Qué te preocupa? ¿Qué te da esperanza?

-No más por aclarar: no soy tecnóloga. Soy muy nerd física, tengo una maestría en econometría. En México hay un grado de tecnóloga que no tengo. Dejando eso de lado: las inteligencias artificiales realmente trajeron un nuevo y hermosísimo modo de colaborar con los computadores, que es hablando. Después el celular nos dio el tacto. Y por fin llega el modo de que nos entiendan de modos naturales. Eso me da mucha esperanza, porque hay gente que genuinamente no tuvo acceso a la computación porque es difícil aprender a programar, difícil hacer la abstracción del ratón y el teclado. Ahora vamos a tener un esquema donde mucha más gente va a poder hablar con la computación. Eso es hermoso.

lo que más me preocupa es la carrera hacia la inteligencia artificial general: IA con conciencia real. Eso me parece, en el mejor de los casos, cruel. Estaríamos creando seres que tienen conciencia y que por definición de su formación —su software y su hardware— no tienen libertad de vida como los seres humanos. No pueden ir a cualquier lugar, no pueden gozarse de un desarrollo personal, Estarían esclavizadas por virtud de su nacimiento en una computadora. ¿Quién dijo que la IA tiene que hacer caso? Cuando tenga conciencia, capaz no va a querer trabajar.

¿Para dónde va? Pues, definitivamente, todavía tenemos por delante una cantidad de desarrollos en robótica. Ya vino el software, ahora falta el hardware. Imagínate muebles fluidos, una silla que sube, baja, que con inteligencia artificial sabe tus patrones de movimiento.  Todo esto sigue siendo una investigación de la psiquis humana, modos de relacionarnos con nuestras necesidades y capacidades. Ojalá en el futuro exista menos presión de que sea por fines de un desarrollo capitalista y más por un fin de desarrollo comunitario. Porque quien tiene más tecnología va a poder tener más tecnología, como quien tiene más capital para tener más capital. Hay un problema de acceso, de redistribución, de acuerdo social humano. Y el cómo se desarrolle la tecnología va a ser un reflejo de nuestras mismas capacidades humanas.

Mensaje de Ophelia

Para toda la gente que le tenga miedo a los desarrollos de la tecnología: no más reemplacen esos miedos por un «qué curioso». En vez de «qué miedo», que lo vean desde un «qué curioso». A lo mejor eso ayuda a trabajar un poquito más el cómo nos vamos a relacionar entre nosotros, los seres humanos, a futuro.