Ramiro Rosario, concejal en la Cámara Municipal de Porto Alegre, Estado de Río Grande do Sul, Brasil, deseaba promover una norma para exonerar a los contribuyentes del pago de compensaciones ante el robo de hidrómetros.
Tal vez por curiosidad tecnológica, ahorro de tiempo, molicie o todas esas razones al mismo tiempo, tuvo la idea de pedirle a la herramienta ChatGPT que le preparara un borrador de ley municipal.
Según ha contado el mismo Rosario, el ayudante virtual elaboró en pocos segundos un texto con ocho artículos, incluyendo su justificación y también la sugerencia de cambios a la propuesta inicial sugerida por el concejal.
El concejal presentó la iniciativa tal como la recibió de ChatGPT, recibió el dictamen favorable de las autoridades legislativas locales, y finalmente, el 18 de octubre de 2023 fue aprobada por el pleno de la Cámara Municipal.
Rosario contó la forma en que se elaboró el proyecto, solo luego de que terminara el proceso legislativo, el día 23 de noviembre, cuando el alcalde de Porto Alegre, Sebastiao Melo, adoptó la nueva ley.
Conocidos lo hechos, se abrió un debate en el municipio gaúcho.
Mientras Rosario defendió su actuación y manifestó que la inteligencia artificial mejorará la productividad, el presidente de la Cámara Municipal señaló que lo ocurrido sienta un antecedente peligroso, que puede provocar impactos imprevistos en casos de leyes más complejas y que se requiere un marco legal para la inteligencia artificial.
Otras opiniones se han centrado en quitarle relevancia a la forma en que se elabora un proyecto de ley, resaltando que, donde se requiere necesariamente la presencia humana es al momento de debatir y aprobar las leyes en el órgano legislativo.
Reconocido o no, seguramente situaciones similares a la narrada antes se deben estar dando en muchas instituciones públicas y en entidades privadas, a lo largo y ancho del planeta.
Todo indica, entonces, que se hace necesario construir marcos jurídicos apropiados para atender a la inteligencia artificial (AI) que apunta a desarrollarse cada vez más.
Así lo han entendido desde ya hace años tanto organismos internacionales como también varios Estados que han avanzado en la temática.
A nivel global, se destacan los principios de IA adoptados por la Comisión de Inteligencia Artificial de la Organización para la Cooperación y Desarrollo Económico (OCDE) y también la Recomendación sobre la Ética de la Inteligencia Artificial del año 2021 de UNESCO que proporciona un marco universal de valores, principios y acciones para orientar a los Estados y privados en la formulación de sus leyes, políticas u otros instrumentos relativos a la IA, de conformidad con el derecho internacional, a fin de asegurar la incorporación de la ética en todas las etapas del ciclo de vida de los sistemas de IA.
La Unión Europea ha avanzado notablemente en esta relevante temática.
El 9 de diciembre de 2023, la Presidencia del Consejo Europeo y los negociadores del Parlamento Europeo han alcanzado un acuerdo provisional sobre una propuesta que establece normas armonizadas sobre inteligencia artificial (IA), iniciativa que se ha denominado “ley de inteligencia artificial”.
El proyecto pretende garantizar que los sistemas de IA comercializados en el mercado y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. La propuesta también pretende estimular la inversión y la innovación en IA en Europa.
La idea principal es regular la inteligencia artificial (IA) en función de su capacidad para causar daño a la sociedad siguiendo un enfoque basado en riesgos: a mayor riesgo, normas más estrictas.
La iniciativa incluye regulación sobre modelos de IA de alto impacto que pueden causar riesgos sistémicos en el futuro, así como un sistema de gobernanza con algunos poderes de ejecución a nivel de la Unión Europea, así como requisitos y obligaciones para acceder al mercado de la UE.
Estos requisitos se han aclarado y ajustado de manera que sean técnicamente factibles y menos onerosos para que las partes interesadas cumplan, por ejemplo, en lo que respecta a la calidad de los datos o en relación con la documentación técnica que las pequeñas y medianas empresas deben elaborar para demostrar que sus sistemas de IA de alto riesgo cumplen con los requisitos.
El acuerdo provisional prohíbe, por ejemplo, la manipulación cognitivo-conductual, la recolección no selectiva de imágenes faciales de internet o de grabaciones de circuito cerrado de televisión (CCTV), el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles, como la orientación sexual o creencias religiosas, y algunos casos de policía predictiva para individuos.
También se prohíbe la puntuación basada en comportamientos sociales o características personales, sistemas de IA que manipulen el comportamiento humano para eludir su libre albedrío, así como el uso de la IA para explotar las vulnerabilidades de las personas (debido a su edad, discapacidad, situación social o económica).
A nivel global, el 21 de marzo de 2024, la Asamblea General de la ONU adoptó por aclamación una resolución sobre la promoción de sistemas de inteligencia artificial “seguros y fiables” que beneficien al desarrollo sostenible para todos en pleno respeto de la protección y la promoción de los derechos humanos en el diseño, el desarrollo, el despliegue y el uso de la IA.
La histórica resolución (primera vez que el órgano toma una resolución sobre la temática) fue presentado por los EEUU pero “patrocinado” por más de 120 países, lo cual refleja una notable aquiescencia sobre lo aprobado.
Más recientemente, el día 5 de abril de 2024, al cierre de la 55 sesión del Consejo de Derechos Humanos de la ONU, el órgano adoptó cinco resoluciones relacionadas con la situación de los territorios palestinos incluyendo la denuncia el uso de inteligencia artificial para ayudar a la toma de decisiones militares en conflictos que puedan contribuir a crímenes internacionales.
En ese sentido, el Secretario General de la ONU, Antonio Guterres, manifestó su preocupación debido a informes que indican que la campaña de bombardeos del ejército israelí incluye la inteligencia artificial como herramienta en la identificación de objetivos, especialmente en zonas residenciales densamente pobladas, lo que provoca un alto nivel de víctimas civiles.
Expresó, también, que “La inteligencia artificial debe utilizarse como una fuerza del bien para beneficiar al mundo; no para contribuir a hacer la guerra a nivel industrial, desdibujando la responsabilidad”.
En cuanto a lo ocurrido en países específicos, un reciente estudio da cuenta de varios esfuerzos gubernamentales hacia la regulación de la IA y su integración en la tecnología de los servicios públicos.[1]
Tal es el caso de la República de Corea que ha incorporado la IA en su Plataforma Digital del Gobierno, o del Reino Unido que trata de mejorar su Servicio Nacional de Salud respaldando la investigación e innovación de nuevas tecnologías de detección de enfermedades mediante IA.
El informe mencionado divulga un ranking global sobre el desarrollo de la IA en el planeta en el cual, América Latina y el Caribe (LAC) presenta una puntuación promedio de 41.50, ubicándose en el sexto lugar entre las 9 regiones cubiertas. Dentro de la región hay disparidades notables: por ejemplo, Brasil, que ocupa el primer lugar, está casi 42 puntos por delante de Haití, que ocupa el último lugar con 21.97.
Cinco países, Brasil, Chile, Uruguay, Colombia y Argentina destacan del resto, con puntuaciones entre 63.70 y 57.72 puntos. La República Dominicana se ha destacado recientemente por ser el primer país del Caribe en lanzar su Estrategia Nacional de IA. Cuba, Jamaica y México también anuncian acciones concretas en el futuro inmediato sobre esta temática.
En el año 2023 uno de los desarrollos más destacados en la región fue la firma de la Declaración de Santiago por parte de 20 gobiernos de América Latina y el Caribe, como resultado principal de la Cumbre de ministros y Altas Autoridades de América Latina y el Caribe sobre Inteligencia Artificial, organizada por el CAF (Banco de Desarrollo de América Latina), la UNESCO y el gobierno de Chile.[2]
La declaración reconoce la necesidad de una participación proactiva por parte de los gobiernos para aprovechar las oportunidades que ofrece la IA, al tiempo que aborda sus riesgos. Este es un paso relevante en cuanto a la colaboración regional en la preparación para la IA.
En la Declaración, los Estados decidieron:
Profundizar el diálogo regional respecto al desarrollo y al despliegue de la IA en la región, desde un punto de vista que refleje las necesidades e intereses de América Latina y el Caribe.
Aprobar el establecimiento de un Grupo de Trabajo con miras a la constitución de un Consejo intergubernamental de Inteligencia Artificial para América Latina y el Caribe, en el marco de la Recomendación sobre la Ética de la IA de la UNESCO, con el propósito de fortalecer las capacidades regionales en la materia.
La urgencia y enorme importancia de la temática no admite demoras ni renuncias por lo cual es de esperarse que los acuerdos alcanzados en Santiago den paso a acciones efectivas que les den concreción.
[1] Oxford Insights, Government AI Readiness Index, UK, December 2023
[2] Cumbre Ministerial y de Altas Autoridades de América Latina y el Caribe Santiago de Chile, 23-24 de octubre de 2023, Declaración de Santiago “Para promover una inteligencia artificial ética en América Latina y el Caribe”