En los medios

iProfesional
29/08/21

Este experto anticipa el debate que se viene sobre el "cerebro" de la inteligencia artificial

Daniel Yankelevich, director académico del programa Inteligencia Comercial, de Educación Ejecutiva, fue entrevistado sobre la ética en el desarrollo de algoritmos.

Por Cesar Dergarabedian


La inteligencia artificial (IA) utiliza algoritmos para crear máquinas que piensan como personas. El desarrollo de esos algoritmos no es una tarea inocente sino que requiere de una ética para evitar que caigan en sesgos, como los descriptos en una reciente convocatoria tecnológica regional.

Fundar es un nuevo laboratorio de ideas de políticas públicas creado por el matemático y empresario argentino radicado en EEUU Sebastián Ceria. Cuenta con un área de datos que dirige Daniel Yankelevich, que este año otorgó las becas FunDatos a cuatro estudiantes que presentaron proyectos de investigación académica en temas relacionados a ética en inteligencia artificial; ética en uso de datos; sesgos en algoritmos; sesgos en datos; privacidad y anonimización; e intercambio seguro de datos e información.

Yankelevich es informático, licenciado en la ESLAI en Argentina y recibió su PhD en la Universidad de Pisa. Realizó un postdoctorado en Carolina del Norte, EEUU. Socio fundador de Practia, un grupo de empresas dedicadas a la consultoría e informática en América latina, donde se desempeñó además como CEO del grupo. Actualmente está a cargo del programa de datos y negocios en la Universidad Di Tella (UTDT).

En la siguiente entrevista de iProfesional, Yankelevich analiza la necesidad de un debate amplio sobre la ética en los algoritmos, que cada vez tienen más influencia en la vida de las personas:

-¿Por qué decidieron abrir en Fundar un área de datos? ¿Qué propósitos tienen?

-Los datos y el uso estratégico de la información constituyen hoy una capacidad clave para las organizaciones. En los últimos años, el sector privado desarrolló estas capacidades más que el sector público, que aún tiene un camino por recorrer. El uso de datos es clave al planificar, diseñar y evaluar políticas públicas, y al imaginar futuros posibles para nuestro país.

El objetivo del área es acompañar el desarrollo de capacidades de análisis de datos y uso de algoritmos en el sector público, contribuyendo a la discusión pública con una visión especializada que equilibre conocimiento técnico con objetivos de bien público.

-¿Cuáles son los riesgos del desarrollo de algoritmos carentes de ética?

-Lamentablemente, esta pregunta ya no es teórica: tuvimos algunos ejemplos de lo que ocurre cuando se desarrollan algoritmos sin considerar temas relacionados con la ética.

En 2016, Microsoft presentó un chatbot inteligente llamado Tay, entrenado con información de redes sociales, que apenas fue puesto en funcionamiento mostró inclinaciones fascistas y racistas, discriminando e insultando a minorías.

Un concurso de belleza, en el cual las fotos de los participantes eran evaluadas por algoritmos de inteligencia artificial, terminó en escándalo por la clara inclinación de los algoritmos a descartar gente de color o de determinados tipos étnicos, privilegiando la imagen de belleza blanca y rubia.

Hay ejemplos más brutales, como el uso de inteligencia artificial en armas autónomas y los potenciales errores al confundir una escuela con un bunker —esto nunca confirmado ni refutado por las autoridades involucradas—.

Un sistema de asistencia a jueces en Estados Unidos denominado Compass consideraba más peligrosos a las personas de color que a los blancos. Estos son algunos ejemplos.


Los datos y el uso estratégico de la información constituyen hoy una capacidad clave para las organizaciones.

La necesidad de un marco ético

-¿Cómo se construye una ética de los algoritmos?

-La ética de los algoritmos empieza por el diseño: los algoritmos y modelos que incorporan esta preocupación desde su concepción tienen más probabilidades de acercarse a valores de bien social que aquellos en los que la preocupación por la ética aparece sólo al final.

Es importante acordar que este es un tema necesario y preguntarnos cuáles son los puntos para tener en cuenta, a esto se denomina marco ético. El acuerdo entre humanos es previo a incorporar elementos de ética en cualquier algoritmo.

-¿Existen diferentes éticas sobre los algoritmos? ¿Se diferencian por las tecnologías empleadas, por sus países de origen u otras causas?

-Existen varias decenas de marcos que reflejan preocupaciones, intereses, o valores de diferentes grupos. Algunos fueron propuestos por organismos internacionales, gobiernos de países o uniones (China, USA, la Unión Europea, entre otros), otros por grupos académicos, grupos de interés, asociaciones de práctica, o grupos ad-hoc.

En general incluyen guías de uso y aplicación, y difieren en el foco y en los aspectos culturales. Por ejemplo, algunas propuestas ponen más énfasis en la privacidad o en el control de armamentos autónomos, otras incluyen factores culturales y el impacto social.

Alguno aspectos son comunes, por ejemplo casi todos consideran aspectos de privacidad, no discriminación, justicia, responsabilidad y seguridad. Varios hablan sobre el marco legal o las necesidades regulatorias.

No deberíamos adoptar un marco ético diseñado por un grupo en el cual no tenemos participación ni voz ni voto, como país o grupo de interés. Es importante que pensemos y participemos activamente en la discusión, con la perspectiva particular de un país con las características del nuestro. Algunas propuestas del primer mundo nos resultan distantes.

Daniel Yankelevich:

Daniel Yankelevich: "Este es un tema necesario y preguntarnos cuáles son los puntos para tener en cuenta".

-¿Cómo se encuentra el debate y el desarrollo de una ética de los algoritmos en la Argentina?

-El debate es incipiente, pero existe una comunidad interesada y muy formada en el tema, sobre todo en las instituciones académicas. En Fundar hemos otorgado becas para investigadores en temas de ética y algoritmos.

Hemos recibido muchas postulaciones de grupos de todo el país, que incluyen temas de sesgo en la representación de un grupo, discriminación por género, sesgos de racialización en el uso de algoritmos de diagnóstico por imágenes, entre otros. El desafío es sacar la discusión del ámbito académico y llevarla a los lugares donde se toman las decisiones.

-¿Qué roles deberían tener la academia, el Estado y las empresas para evitar los sesgos en los algoritmos?

-Resulta muy interesante que se piense este tema como algo a futuro, eso no es real. El uso de algoritmos en la toma de decisiones es algo que está ocurriendo hoy, desde las publicidades y ofertas que se muestran a cada persona y cómo se otorgan los créditos, hasta reconocer datos biométricos. Son temas que tenemos que resolver hoy.

La preocupación no es sólo del Estado, esto impacta a todos los que usan, proponen, compran o desarrollan algoritmos e inteligencia artificial, o usan datos en la toma de decisiones, es decir, a todos.

Tampoco es una discusión que pueda restringirse a un sector o a un grupo: si bien hay aspectos técnicos que requieren cierto conocimiento, el principal impacto es social y por lo tanto la sociedad toda debe estar involucrada.