Por Nathalia Castillo, Jaime Eloy Sotelo Ramírez y Katherine Valenzuela
El 23 de marzo de 2016 nace Tay, una inteligencia artificial creada por Microsoft para interactuar en redes sociales con jóvenes entre 18 y 24 años, lo curioso es que al día siguiente de su “Hello World” tuvo que ser desactivada. En tan sólo 24 horas los usuarios de Twitter le habían “enseñado” a desarrollar un “comportamiento neonazi racista enloquecido por el sexo”. ¿Cómo fue esto posible? la respuesta está en la forma en que aprenden las máquinas.
El constante avance de la tecnología ha permitido que muchas veces, y para tareas muy específicas, la Inteligencia Artificial (IA) sea mucho más eficiente que el ser humano al momento de tomar decisiones y brindar soluciones. Esto es posible gracias a sus algoritmos flexibles y los datos de entrenamiento, que le permiten a la IA analizar la situación o tarea siguiendo el proceso para la que fue programada, y así ofrecer y superar los resultados esperados. Ciertamente, convivimos e interactuamos con las IA diariamente, y de las 35,000 decisiones que un ser humano toma al día, un buen porcentaje se debe al uso de la IA, y la confianza que depositamos en ella por el tipo de información que sabemos que contiene, pero que muchas veces desconocemos.
Para la IA ha sido fácil reproducir las injusticias sociales y sesgos.
Sin embargo, hay que reconocer que la IA aún no ha sido capaz de incorporar en sus decisiones el sentido común, la moral o la ética. Aunque pareciera que está cada vez más cerca de emular estas habilidades propiamente humanas, lo que sí le ha sido fácil de reproducir -o amplificar- son las injusticias sociales y los sesgos derivados de los datos provistos por quienes las entrenan. ¿Es más fácil reproducir una conducta negativa incluso para la IA? ¿De qué depende que en estos aspectos la IA pueda asemejarse al comportamiento incorrecto de los seres humanos? He aquí que debemos deternos a pensar en “las conductas que transmitimos a la IA” como ese factor clave de riesgo.
En 2014 un equipo de Amazon desarrolló una IA para revisar currículums. Un año después se percataron que el algoritmo marginaba a las mujeres de los puestos técnicos, esto porque la IA había sido entrenada usando los datos de selección de personal de los últimos 10 años, “aprendiendo” que los varones eran “preferibles” ya que normalmente eran los que más se postulaban a esas posiciones.
Pedro Crisostomo MsC en Computer Science experto en IA y profesor de la PUCP, señala que el pensamiento binario ha estado muy presente en las diferentes disciplinas que rigen la sociedad, y también en el desarrollo de la tecnología. Él recomienda usar la información disponible y un análisis óptimo de la misma para tomar decisiones que se alejen de una perspectiva “blanco y negro”, que es cómo funciona la IA. “Mi nueva ley de vida es que todo se puede cuantificar», enfatiza el ingeniero con respecto a que en diferentes aspectos de la sociedad el uso de métricas correctas permitirán una evolución progresiva y sostenible. Para ello destaca, que las generaciones más jóvenes además de aprender a programar, deben sobre todo conocer todos los conceptos alrededor de IA para poder orientarse a tomar mejores decisiones.
Pero la toma de decisiones involucra muchas variables, que traducidas a IA representan muchas cantidades de información. Esta información es provista por seres humanos que cargan con una mochila de prejuicios, intereses propios y sesgos. Cuando esto es llevado al tema digital a un sistema experto, es más evidente el “toque humano” en los resultados provenientes de la IA. Pedro afirma no temer a la inteligencia artificial; por el contrario, la considera una herramienta neutra y resalta que la polémica alrededor del temor o riesgo en IA nace de la taras humanas y la manipulación ambiciosa de grupos de poder que pueden hacer mal uso de la IA.
“el temor a la IA nace de la taras humanas y la manipulación ambiciosa de grupos de poder que pueden hacer mal uso de ella”
Por otro lado, Rodrigo Chaname, compatriota Científico de datos en Meta, explica que muchas veces cuando se piensa en IA, se le asocia a robots autónomos cada vez más parecidos a los humanos, aunque eso aún se encuentra alejado de la realidad. La IA está presente en el día a día, cuando se introduce información en las búsquedas en la Web, al buscar una película en Netflix, ver algún video en YouTube o escuchar una canción en Spotify. Esta información es captada y como respuesta se obtienen “recomendaciones” en base a las preferencias del usuario. Al respecto, el especialista indica “la IA son recomendaciones y decisiones muy simples, con opciones A y B, donde uno dainstrucciones o información (conjunto de datos/entradas) y la IA ofrece respuestas (conjunto de datos/salidas)”, aunque no siempre se sepa cómo funciona.
En campos como la seguridad pública, en julio de este año, la Universidad de Chicago presentó una IA que predice la ocurrencia de delitos en la ciudad y que al parecer también funciona para otras ciudades de los EEUU. Sin embargo, lo que en verdada predice son los incidentes que va a registrar la policía en las próximas 2 semanas, y es conocido que los registros policiales sólo ven una parte de la realidad, ya que la mayoría de denuncas de incidentes se reciben de barrios pudientes y justamente son las zonas donde se concentran más las actividades de vigilancia y patrullaje; de ahí que la IA termine sesgando su predicción, ya que no tiene pocos datos históricos sobre la ocurrencia de incidentes en las zonas más pobres.
Rodrigo recomienda auditar la información, revisar los algoritmos, verificar la data, testearla. No cree posible que la IA pueda salirse de control. Señala que el mayor problema radica en los usuarios que la consumen y no en los que lo desarrollan. “El más grande problema de la IA está en las decisiones que los usuarios puedan tomar”, explica. Por otra parte, comenta que las compañías se encuentran cada vez más empeñosas en asegurarse que los algoritmos funcionen bien con temas como ética, integridad, privacidad, confianza, etc.
Se podría decir que lo que realmente se necesita son mejores seres humanos para poder crear mejores tecnologías. El ser humano detrás del desarrollo de la IA es quien representa el mayor riesgo, la IA por sí sóla no podría llegar a impactos negativos con la información correcta, no se ha llegado aún a ese nivel de autonomía artificial. Por el contrario, la IA puede resultar muy justa regulando incluso los intereses propios. En las olimpiadas, por ejemplo, con la finalidad de otorgar un puntaje lo más justo posible a los deportistas, se eliminan las dos peores y las dos mejores calificaciones emitidas por los jueces, luego, se promedian los puntajes restantes para obtener así la calificación final.
El aspecto ético y moral, subyacente en el progreso y uso de la IA, no va caminar por sí sólo va a requerir de 2 factores. En primer lugar, reducir el riesgo alrededor de la IA exige la implementación de un marco legal especializado y políticas de gobierno que permitan regular los avances de la IA desde su preconcepción hasta la puesta en práctica. Por otro lado, el involucramiento interdisciplinario es esencial para alcanzar una alfabetización tecnológica desde diferentes frentes, la IA no yace únicamente en el conocimiento de experto en tecnología, se convierte en una responsabilidad de todos los actores de la sociedad.
Tengamos en cuenta, que la IA es finalmente una máquina estadística, por lo que no necesariamente toma mejores decisiones, sino que las toma de manera más eficiente, siempre a partir del análisis de datos históricos con los que ha sido entrenada. Nos queda, entonces, reflexionar acerca de nuestra responsabilidad sobre la calidad de los datos así como sobre las conductas, prejuicios y prioridades que se representan allí.
Te invitamos a explorar los siguientes enlaces para profundizar en el tema
- Estudio: algoritmo predice delitos con una semana de antelación. DW.COM.
- El chatbot racista de Microsoft, el mejor ejemplo a evitar para la IA. MIT Technology Review.
- Sesgos en la programación de la inteligencia artificial. Expansión.