Ramiro Rosário, vereador da Câmara Municipal de Porto Alegre, no Rio Grande do Sul, Brasil, queria promover uma regulamentação para isentar os contribuintes do pagamento de indenização pelo roubo de hidrômetros.
Talvez por curiosidade tecnológica, economia de tempo, molice ou todos esses motivos ao mesmo tempo, ele teve a ideia de pedir à ferramenta ChatGPT que preparasse um projeto de lei municipal.
Segundo o próprio Rosario, o assistente virtual produziu em poucos segundos um texto com oito artigos, incluindo sua fundamentação e também sugestões de alterações à proposta inicial sugerida pelo vereador.
O conselheiro apresentou a iniciativa tal como a recebeu do ChatGPT, recebeu o parecer favorável das autoridades legislativas locais e, finalmente, em 18 de outubro de 2023, foi aprovada pelo plenário da Câmara Municipal.
Rosario contou como o projeto de lei foi elaborado, somente após a conclusão do processo legislativo, em 23 de novembro, quando o prefeito de Porto Alegre, Sebastião Melo, adotou a nova lei.
Assim que os fatos foram conhecidos, iniciou-se um debate no município gaúcho.
Enquanto Rosário defende o que foi feito e afirma que a inteligência artificial melhorará a produtividade, o presidente da Câmara Municipal apontou que o que aconteceu abre um precedente perigoso, que pode provocar impactos imprevistos em casos de leis mais complexas e que é necessário um marco legal para a inteligência artificial.
Outras opiniões têm se concentrado em minimizar a relevância da forma como um projeto de lei é redigido, destacando que a presença humana é necessariamente necessária quando as leis são debatidas e aprovadas no órgão legislativo.
Reconhecidas ou não, situações semelhantes à descrita acima certamente devem estar ocorrendo em muitas instituições públicas e entidades privadas em todo o mundo.
Tudo indica, portanto, que é necessário criar estruturas jurídicas adequadas para lidar com a inteligência artificial (IA), que deverá se desenvolver cada vez mais.
Isso já foi entendido há anos por organizações internacionais, bem como por vários Estados que progrediram na questão.
Em nível global, os princípios de IA adotados pela Comissão de Inteligência Artificial da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e também a Recomendação de 2021 da UNESCO sobre a Ética da Inteligência Artificial fornecem uma estrutura universal de valores, princípios e ações para orientar os Estados e as partes privadas na formulação de suas leis, políticas ou outros instrumentos relacionados à IA, de acordo com o direito internacional, a fim de garantir a incorporação da ética em todos os estágios do ciclo de vida dos sistemas de IA.
A União Europeia fez um progresso significativo nessa importante questão.
Em 9 de dezembro de 2023, a Presidência do Conselho Europeu e os negociadores do Parlamento Europeu chegaram a um acordo provisório sobre uma proposta que estabelece regras harmonizadas sobre inteligência artificial (IA), uma iniciativa que foi apelidada de “lei de inteligência artificial”.
O projeto visa garantir que os sistemas de IA colocados no mercado e usados na UE sejam seguros e respeitem os direitos fundamentais e os valores da UE. A proposta também visa a estimular o investimento e a inovação em IA na Europa.
A ideia principal é regulamentar a inteligência artificial (IA) de acordo com sua capacidade de causar danos à sociedade, seguindo uma abordagem baseada em riscos: quanto maior o risco, mais rígidas serão as regras.
A iniciativa inclui regulamentação sobre modelos de IA de alto impacto que podem causar riscos sistêmicos no futuro, bem como um sistema de governança com alguns poderes de aplicação em nível da UE, além de requisitos e obrigações para acessar o mercado da UE.
Esses requisitos foram esclarecidos e ajustados de forma a torná-los tecnicamente viáveis e menos onerosos para as partes interessadas cumprirem, por exemplo, em termos de qualidade de dados ou em relação à documentação técnica que as pequenas e médias empresas precisam produzir para demonstrar que seus sistemas de IA de alto risco estão em conformidade com os requisitos.
O acordo provisório proíbe, por exemplo, a manipulação do comportamento cognitivo, a coleta não seletiva de imagens faciais da Internet ou de filmagens de CCTV, o reconhecimento de emoções no local de trabalho e em instituições educacionais, a pontuação social, a categorização biométrica para inferir dados confidenciais, como orientação sexual ou crenças religiosas, e alguns casos de policiamento preditivo para indivíduos.
Também proíbe a pontuação com base em comportamento social ou características pessoais, sistemas de IA que manipulam o comportamento humano para contornar o livre arbítrio, bem como o uso de IA para explorar as vulnerabilidades das pessoas (devido à idade, deficiência, status social ou econômico).
Quanto ao que aconteceu em países específicos, um estudo recente relata vários esforços governamentais para a regulamentação da IA e sua integração à tecnologia de serviço público.[1]
É o caso da República da Coreia, que incorporou a IA em sua Plataforma Digital do Governo, ou do Reino Unido, que busca aprimorar seu Serviço Nacional de Saúde apoiando a pesquisa e a inovação em novas tecnologias de detecção de doenças baseadas em IA.
O relatório acima mencionado divulga uma classificação global sobre o desenvolvimento da IA no planeta, na qual a América Latina e o Caribe (LAC) apresentam uma pontuação média de 41,50, ocupando o sexto lugar entre as 9 regiões abrangidas. Dentro da região, há disparidades notáveis: por exemplo, o Brasil, que está em primeiro lugar, está quase 42 pontos à frente do Haiti, que está em último lugar, com 21,97.
Cinco países, Brasil, Chile, Uruguai, Colômbia e Argentina, se destacam dos demais, com pontuações entre 63,70 e 57,72 pontos. A República Dominicana se destacou recentemente como o primeiro país do Caribe a lançar sua Estratégia Nacional de IA. Cuba, Jamaica e México também estão anunciando ações concretas em um futuro próximo sobre essa questão.
Em 2023, um dos acontecimentos mais marcantes na região foi a assinatura da Declaração de Santiago por 20 governos da América Latina e do Caribe, como principal resultado da Cúpula de Ministros e Altas Autoridades da América Latina e do Caribe sobre Inteligência Artificial, organizada pelo CAF (Banco de Desenvolvimento da América Latina), pela UNESCO e pelo governo do Chile.[2]
A declaração reconhece a necessidade de um envolvimento proativo dos governos para aproveitar as oportunidades oferecidas pela IA e, ao mesmo tempo, lidar com seus riscos. Essa é uma etapa relevante em termos de colaboração regional na preparação para a IA.
Na Declaração, os Estados decidiram:
Aprofundar o diálogo regional sobre o desenvolvimento e a implantação da IA na região, de um ponto de vista que reflita as necessidades e os interesses da América Latina e do Caribe.
Aprovar o estabelecimento de um Grupo de Trabalho com vistas à constituição de um Conselho Intergovernamental de Inteligência Artificial para a América Latina e o Caribe, dentro da estrutura da Recomendação da UNESCO sobre a Ética da IA, com o objetivo de fortalecer as capacidades regionais no campo.
A urgência e a enorme importância da questão não permitem atrasos ou renúncias, portanto, espera-se que os acordos alcançados em Santiago dêem lugar a ações efetivas que os concretizem.
[1] Oxford Insights, Government AI Readiness Index, UK, December 2023
[2] Cumbre Ministerial y de Altas Autoridades de América Latina y el Caribe Santiago de Chile, 23-24 de octubre de 2023, Declaración de Santiago “Para promover una inteligencia artificial ética en América Latina y el Caribe”