Gobernanza de la IA para Latam: mapa de los foros globales y regionales más relevantes (Parte 1)

Los foros en que se discute sobre la gobernanza de la Inteligencia Artificial (IA), actualmente son tantos y tan diversos que, en ocasiones, generan sensación de agobio en quienes seguimos de cerca las múltiples actividades o agendas en las que se habla de la IA con el objetivo de acordar principios, normas o estándares técnicos y de derechos humanos aplicados a su diseño, despliegue, funcionamiento y usos. 

Ahora bien, no todos los foros y espacios tienen relevancia directa o inmediata para América Latina. De toda la maraña de foros en que se discute este tema, solo un puñado involucran a los Estados de nuestra región y, por lo mismo, se tornan relevantes por los compromisos que éstos asumirían y en los cuales la ciudadanía y la sociedad civil podría participar y ejercer escrutinio. 

Aquí centramos la atención en esos espacios, en particular, a lo que sucede en el G20, la CEPAL, los BRICS+, la OEA, y el más reciente Consejo Intergubernamental para la IA. Sin embargo, sabemos que hay escenarios que de manera indirecta pueden influenciar a nuestros Estados, como lo que sucede, por ejemplo, en el Consejo de Europa y su regulación de la IA, pero ¿Qué hay de los espacios secretos de regulación bilateral de la IA que estamos perdiendo de vista y que pueden influenciar indirectamente la discusión a nivel regional y global?

Gobernanza de la IA: ¿todo a la vez en todas partes al mismo tiempo?

Como dijimos, hay otros procesos de regulación que escapan deliberadamente al consenso público. Se trata de los encuentros bilaterales entre las Big Tech y dos países en concreto: Estados Unidos y China, que a diferencia de países de América Latina –y buena parte del mundo- no solo consumen sistemas de IA, sino que los producen. Los acuerdos relevantes sobre el futuro de la regulación y gobernanza de la IA están sucediendo allí.

Es en esos espacios, cerrados y poco transparentes y que por lo tanto escapan al escrutinio social, donde surgen los acuerdos regulatorios que deberían importarnos, quizá tanto o más que las otras discusiones sobre regulación y gobernanza que tienen lugar en los foros regionales o globales más conocidos –de los cuales enlistamos más abajo solo unos cuantos—.

Por ejemplo, sabemos, gracias a la prensa, que el gobierno de los Estados Unidos y las Big Tech sostienen diálogos en las que éstos últimos sugieren cómo ser regulados, una estrategia discursiva que a cualquiera le haría creer que ‘piden’ una regulación bajo la narrativa de los ‘riesgos existenciales’ que sugiere premura y preocupación, pero que desprecia los perjuicios actuales y reales asociados a sus productos. Una narrativa que, en el fondo, busca instrumentalizar a los tomadores de decisiones para que actores dominantes del ecosistema digital puedan imponer su propia agenda que, para empezar, suprime de la ecuación la transparencia con el público.

La relación entre las Big Tech y China es aún más opaca. En una nota periodística reciente publicada por el Financial Times FT sobre la diplomacia secreta entre representantes de compañías como OpenIA, Anthropic o Cohere y representantes de ese gobierno, éstos no solo se negaron a dar declaraciones sobre los asuntos conversados en dichos encuentros que, de acuerdo a la nota, incluyeron aspectos asociados a la regulación de sus productos; sino que se espera que las conversaciones continúen a futuro para seguir abordando los retos de alineación de los sistemas de IA con los códigos y normas sociales ¿de qué país o países? La nota no lo señala, pero incluso allí se mantiene la misma narrativa sobre los ‘riesgos existenciales’.

Entonces, hay foros globales y regionales que voltean la vista a las discusiones sobre la gobernanza de la IA que convocan a múltiples partes y permitirían visibilizar y articular otros intereses y derechos en juego -con mayores o menores tropiezos, en todo caso-. Pero quizá no todos los foros de discusión sean igualmente relevantes o quizá no todos merezcan el mismo nivel de atención si lo que se busca, ante el desasosiego que generan su diversidad y heterogeneidad, es priorizar y enfocar la atención en los que resultan más críticos por su falta de apertura y transparencia.

Ante los escenarios de interacción opaca y secreta en que se discute el futuro de una tecnología con impactos trascendentales para las sociedades del mundo actual y futuro, ¿qué estrategias emplear para transparentar los acuerdos entre las Big Tech y algunos Estados, y cómo abrir dichas discusiones a la participación social?, ¿qué contrapesos imaginar para que en las decisiones bilaterales sobre el futuro de una tecnología crítica sean considerados otros valores en juego? 

Por ahora, conviene que reconozcamos que los foros y espacios abiertos al diálogo -apertura y participación que en la práctica puede ser más o menos criticable- son numerosos, pero que los pocos entornos opacos y cerrados a la participación social ejercen un contrapeso relevante en la discusión sobre gobernanza de la IA.