Si bien las preocupaciones acerca del desarrollo de la inteligencia artificial no son nuevas, se han intensificado en los últimos tiempos por diversas razones que van desde reemplazo laboral hasta la educación e incluyendo a los ahora famosos chatbots.

Ya en 2015 Stephen Hawking había hablado de “objetivos alineados” durante una conferencia en Londres. “Una súper inteligente IA será extremadamente buena en conseguir sus objetivos y si esos objetivos no están alineados con los nuestros, estamos en problemas” había indicado el físico en ese momento.

Más cerca en el tiempo, diversos medios se hicieron eco de una nota publicada por el New York Times el pasado 1 de mayo en la cual Geoffrey Hinton, una de las mentes detrás del desarrollo de la IA, dejó Google para poder hablar más libremente de los peligros de este nuevo desarrollo.

Las opiniones que advierten acerca de los inconvenientes actuales y futuros de la IA no provienen de aficionados. Tal vez esto sea una razón para prestarles atención, sin entrar en pánico pero tampoco desechándolas como teorías sin asidero.

¿Cómo enfrentar entonces estos potenciales peligros? Se necesitan nuevos desarrollos teóricos y herramientas prácticas para entender cómo operan los famosos algoritmos y cómo interaccionan con los humanos. En definitiva, parecemos necesitar una nueva ciencia.

En una nota publicada por la revista Nature, J. Nathael Matias (Departamento de Comunicación, Universidad de Cornell) analiza el desarrollo de un nuevo campo de estudio que se ocupe de la relación algoritmos-humanos. Una relación compleja, dinámica y por ende cambiante, donde ambas partes se retroalimentan y modifican de manera permanente. Todo un reto.

A esta altura se hace cada vez más evidente que las derivaciones de la IA van mucho más allá del simpático y disruptivo chat GPT. Prueba de ello es la demanda sobre la cual la Corte Suprema de Justicia de los EE.UU. tendrá que fallar a fines de junio.

Recomendaciones peligrosas

Nohemi Gonzalez era una estudiante norteamericana asesinada en noviembre de 2015 durante los ataques terroristas perpetrados por el grupo ISIS en París. En febrero pasado, sus padres presentaron una demanda ante la Corte Suprema de los EE.UU. haciendo responsable a YouTube (y su propietaria Google) por recomendar material referente al reclutamiento de integrantes para la organización terrorista a través de su algoritmo.

La Corte también debe expedirse en otra demanda por causas similares presentada en contra de Facebook y Twitter por un atentado en Estambul del 2017. La industria se encuentra ahora expectante ante un fallo que debe emitirse a fines de junio de 2023 y que podría cambiar la manera de trabajar. Su decisión convertiría a las plataformas en responsables por el contenido que promocionan sus algoritmos.

En caso de fallar en contra de Google, la Corte Suprema daría por tierra con el escudo que ha protegido a las empresas desde 1996: la sección 230 de la ley por la Decencia de las Comunicaciones. Este estatuto protege a las compañías de Internet de ser acusadas por el contenido publicado por terceras partes en sus plataformas y se considera un pilar que ayudó a crear la Internet como la conocemos hoy. Es la primera vez que se le pide a la Corte Suprema que se expida sobre el alcance de la sección 230.

La posición de los jueces hasta el momento no se conoce, salvo la de Clarence Thomas quien apoya un mayor control de la industria. Según se indica, no hay conexión entre los atacantes de Gonzalez y los videos de YouTube lo cual complicaría demostrar la responsabilidad de la empresa.

Una nueva ciencia

Según describe Matias en su nota, se necesita una nueva ciencia que clasifique, explique y prediga estas interacciones humano-algoritmo para desarrollar acciones tendientes a evitar situaciones problemáticas. Una de las preguntas que expertos y comunidad se hacen es cómo controlar a los algoritmos adaptativos, los cuales cambian continuamente en respuesta al comportamiento humano.

¿De qué hablamos cuando nos referimos a un algoritmo adaptativo? El término describe a un software que modifica y es modificado en su comportamiento de manera regular y que es determinado en base a acciones colectivas (comportamiento social, tendencias y patrones de visualización) Por ejemplo, el algoritmo modifica la elección de un usuario al recomendar un video. La reacción del usuario, a su vez, modificará el comportamiento del algoritmo el que recordará la elección del usuario para una próxima sugerencia.

Si bien muchos tecnólogos trabajan para prevenirlo, años de investigación han demostrado que los algoritmos de YouTube y otras plataformas muestran a sus usuarios contenido problemático aunque esos usuarios no lo hayan buscado.

¿Prohibir todo es la solución? Evidentemente no, ya que además de bloquear fines nefastos impediría también juntar a gente con fines loables. Los algoritmos adaptativos no tienen capacidad para decidir si está bien o mal conectar a determinadas personas o grupos. Muy pocos patrones de esta interacción humano-algoritmo son buenas o malas de por sí. En las restantes, entramos en una zona gris donde el algoritmo, evidentemente, no tiene criterio para decidir.

Al mismo tiempo, una prohibición indiscriminada iría en contra de la libertad de asociación.

Por todo lo expuesto, es muy difícil para los tecnólogos predecir esta maraña moral y científica antes de lanzar al mercado un algoritmo.

Estudiando la interacción algoritmo-humano

La explicación para esta interacción necesita de modelos y lenguajes, que ni los técnicos ni los cientistas sociales tienen en este momento. ¿Cómo poder predecir entonces qué puede salir mal?

En su nota, Matías considera que los informáticos no tienen el conocimiento del comportamiento humano necesario para introducir cambios en un algoritmo que contribuye a reclutar terroristas. Les resulta imposible, en este momento, predecir si un algoritmo se volverá dañino o útil con el tiempo.

Por su parte, los investigadores en humanidades y ciencias sociales tratan de explicar el comportamiento colectivo en base a lo que les aportan los algoritmos. Un estudio realizado en 2021 con usuarios de Twitter determinó que tendían a expresar más “me gusta” a posteos con indignación moral comparado con otras emociones. Esto hacía que los usuarios tuvieran más expresiones de indignación moral en el futuro. Pero, hasta el momento, los estudios no pueden explicar cómo los algoritmos contribuyen a esta dinámica.

Lo que aparece como un avance viene desde afuera del ámbito académico-científico. La Fundación Mozilla, una organización sin fines de lucro con sede en San Francisco, creó el proyecto YouTube Regrets donde 37.000 voluntarios ingresan información sobre videos recomendados por YouTube que encontraron inexactos, ofensivos o violentos. Esta información fue usada por los abogados del padre de Nohemi Gonzalez en su presentación ante la Corte Suprema de Justicia, si bien el proyecto no se centra en terrorismo. La conclusión de los investigadores fue que la plataforma recomienda miles de videos problemáticos. YouTube respondió que le da a sus usuarios control sobre el manejo del contenido que ve, incluyendo la posibilidad de bloquear videos o canales.

Entre las medidas que ya se están tomando para profundizar en el estudio de la relación entre algoritmos y humanos se encuentra el Observatorio Nacional de Internet lanzado por la Universidad del Noreste, en Boston, Massachusetts. El proyecto busca estudiar la interacción algoritmo-humanos en la vida cotidiana. Se espera que empresas de este tipo ayudarán a dilucidar por qué los algoritmos hacen lo que hacen.

Resulta claro que el avance en el estudio de la interacción humanos-algoritmos necesita del esfuerzo coordinado de distintos actores: diseñadores de algoritmos, medios, universidades y comunidades, entre otros. También se necesitan fondos y revistas que publiquen los resultados.

Clasificar es la cuestión

En principio, tanto investigadores como legisladores necesitan compartir un lenguaje que claramente describa lo que está pasando. Por ejemplo, el fenómeno de clustering (agrupamiento) participa en eventos tan distintos como polarización, radicalización o la organización de movimientos sociales.

O sea que se necesita un conocimiento más profundo que no solo incluya a los algoritmos sino a las fuerzas sociales participantes. ¿Cómo diferenciar el clustering de su opuesto, un algoritmo que separa a las personas o grupos? Dado que periodistas y audiencias están entre los primeros en notar problemas derivados de los algoritmos, Matías considera que estos grupos deberían participar de las investigaciones.

"Para construir este sistema de clasificación, los investigadores necesitan recursos compartidos de casos y evidencia", indica Matías. El investigador destaca que "los tecnólogos han comenzado a recolectar casos en la base de datos de Incidentes con IA, un registro de daños o cuasi daños involucrando a sistemas de IA, basado principalmente en el periodismo". Al mismo tiempo, las empresas temen demandas por hechos asociados a sus algoritmos, por lo cual pueden ser reticentes a brindar información ante problemas.

Prevenir e intervenir

Se hace necesario, entonces, encontrar mecanismos para determinar qué cambios producen alteraciones en el comportamiento de los algoritmos. Las simulaciones de la interacción entre poblaciones y recomendaciones hechas por los algoritmos podrían aportar luz en este sentido. Por ejemplo, el laboratorio de Matias viene analizando el comportamiento de los algoritmos previo a oleadas de mensajes intimidatorios y tiene experimentos en marcha analizando predicciones que permitan la distribución de mensajes tendientes a reducir o prevenir el acoso en redes.

La intervención, por otra parte, implica desarrollar mecanismos confiables y efectivos para evitar daños. A este respecto, YouTube Regrets hizo una prueba con más de 20.000 personas instalando en la plataforma un botón para evitar las recomendaciones. Los controles habilitados de esta manera reducen las recomendaciones no deseadas entre un 11 y un 43 %. A pesar de ello, YouTube continúa recomendando grandes cantidades de material no solicitado.

El estudio de la interacción algoritmos-humanos necesita expandir sus fronteras para incluir grupos diversos que aporten otras miradas a las problemáticas detectadas. Los proyectos de ciencia ciudadana deben tener un mayor protagonismo al mismo tiempo que la interacción entre tecnólogos, ciencias sociales y humanidades debe fortalecerse.

Pero, ¿es posible prevenir? Los más pesimistas consideran que el comportamiento humano es tan cambiante que no se podrá avanzar mucho. Por su parte, muchos temen que lo que puedan avanzarse en la comprensión de los algoritmos se vea invalidado por cambios de base realizados por las empresas.

Como destaca Matias, una razón por la cual los algoritmos son tan predecibles se relaciona con las similitudes de sus creadores. "Los creadores de algoritmos operan en ambientes legales similares, enfrentan condiciones económicas similares, reciben entrenamiento similar y usan grupos de datos similares", enfatiza.

Al mismo tiempo, las compañías son poco colaborativas cuando se trata de detectar fallas en los productos que desarrollan. Matias considera que se necesitarán avances en la parte legal, ética y de privacidad. Sirva como ejemplo una reciente decisión de la Unión Europea permitiendo que los investigadores tengan acceso a información de las empresas involucradas en este tema.

Lo que viene

Esta nueva ciencia de la interacción entre algoritmos y humanos podrá desarrollarse en los próximos 10-20 años. Lo que es claro es que se necesitará la participación de la sociedad y distintas disciplinas científicas para avanzar en la comprensión de esta dinámica.

Algo claro es que para que el daño producido por los algoritmos sea mínimo o nulo y que sus beneficios se maximicen, se necesita desarrollarlos y controlarlos con ciencia confiable.

La demanda presentada por los padres de Nohemi Gonzalez puede ser un catalizador que ayude a repensar la Internet. Como expresa Matias, "independientemente de lo que la Corte Suprema decida, el caso de la familia Gonzalez en contra de las empresas tecnológicas debería estimular a que la ciencia y la sociedad actúen".

 

Claudio Pairoba es bioquímico, farmacéutico y doctor por la Universidad Nacional de Rosario. Master en Análisis de Medios de Comunicación y Especialista en Comunicación Ambiental. Miembro de la Escuela de Comunicación Estratégica de Rosario y la Red Argentina de Periodismo Científico. Acreditado con la American Association for the Advancement of Science (Science) y la revista Nature.

 

Notas relacionadas

Objetivos alineados
http://planetciencia.blogspot.com/2018/04/objetivos-alineados.html

Google implementará inteligencia artificial en todos sus productos: desde redacción de emails hasta diagnósticos
https://www.rosario3.com/tecnologia/Google-implementara-inteligencia-artificial-en-todos-sus-productos-desde-redaccion-de-emails-hasta-diagnosticos-20230510-0060.html

‘The Godfather of A.I.’ Quits and More: The Week in Reporter Reads
https://www.nytimes.com/2023/05/05/podcasts/ai-google-banks.html

El "padrino" de la inteligencia artificial deja Google y avisa de los peligros de esta tecnología
https://www.iprofesional.com/tecnologia/381167-el-padrino-de-la-inteligencia-artificial-deja-google

Humans and algorithms work together – so study them together
https://www.nature.com/articles/d41586-023-01521-z

Comenzó en Francia el juicio por los atentados terroristas de 2015 en París
https://cnnespanol.cnn.com/2021/09/08/comenzo-francia-juicio-atentados-terroristas-2015-paris-trax/

Supreme Court weighs liability shield for internet giants
https://apnews.com/article/islamic-state-group-technology-oregon-government-california-paris-3a2122b3456bb232baa5643b70fe676a

US Supreme Court wary of removing tech firms' legal shield in Google case
https://www.bbc.com/news/world-us-canada-64727712 

La UE crea un centro de investigación para analizar los algoritmos de inteligencia artificial de grandes empresas tecnológicas
https://es.cointelegraph.com/news/eu-sets-up-research-hub-to-analyze-big-tech-s-ai-algorithms