Quais riscos uma pessoa está disposta a correr ao usar ou se expor a sistemas de inteligência artificial (IA)? Este é o principal ponto que os projetos de lei de IA da Europa e do Brasil visam regulamentar.
A União Europeia (UE), cujo projeto de lei influenciará o mundo, efetua uma classificação de risco de sistemas de IA no intuito de torná-los seguros e respeitosos de direitos fundamentais do cidadão. Com isso, visa promover a confiança da população nesta tecnologia, incentivando a inovação. Para tanto, sistemas de inteligência artificial são classificados como de risco inaceitável, alto risco, risco limitado ou mínimo, de acordo com a finalidade para a qual um sistema de IA é utilizado.
Sistemas de IA com riscos inaceitáveis são proibidos e incluem aqueles com técnicas subliminares e manipulativas que exploram vulnerabilidades de pessoas ou grupo de pessoas. Um exemplo de inteligência artificial desse tipo seria o uso, por uma mídia social, de certas ondas de luz para melhor rastrear e capturar a atenção do usuário.
Sistemas de IA com alto risco são permitidos, porém, sofrem alto grau de regulamentação para proteger o Homem. Dentre os sistemas de alto risco, encontram-se aqueles voltados para infraestrutura essencial, treinamento educacional, avaliação de emprego, serviços essenciais públicos e privados, entre outros. Tipos de inteligência artificial nesta categoria incluem sistemas de IA para avaliação de currículos para vaga de emprego ou para o controle da quantidade de cloro em água que um Município oferece. Ainda não há consenso entre as autoridades europeias a respeito de todas as categorias de sistemas de IA de alto risco.
Por fim, os sistemas de risco mínimo ou limitado serão permitidos e estarão sujeitos apenas a requisitos de transparência para permitir que a população seja adequadamente informada do uso e de seus direitos. Um exemplo de inteligência artificial desse tipo é uma IA generativa de jurisprudência de tribunais.
Por sua vez, o Brasil busca regulamentar sistemas de IA por meio do PL nº 2338/2023, que englobou projetos de lei anteriores. Fortemente inspirado no modelo europeu, o projeto de lei brasileiro também efetua uma classificação de riscos para sistemas de IA. Diferentemente do que ocorre na Europa, o projeto brasileiro classifica sistemas de IA apenas em dois níveis: risco excessivo e alto risco. Nestas categorias incluem-se basicamente usos para as mesmas finalidades apontadas pelo projeto europeu. No entanto, a futura autoridade responsável por supervisionar os agentes de inteligência artificial (fornecedores e operadores) poderá reclassificar sistemas de IA (art. 18), alterando a classificação de risco dos últimos.
Na forma do art. 13 do PL nº 2338/2023, todo fornecedor de sistemas de IA deverá efetuar uma avaliação preliminar da tecnologia, a fim de classificar o grau de risco desta, registrando e documentando esta avaliação para fins de prestação de contas e eventual responsabilização. Se a avaliação concluir que o sistema de IA não está dentre aqueles de risco excessivo ou alto risco, o fornecedor poderá operar, porém ainda assim deverá implementar medidas mínimas de governança de IA previstas no 19 do PL nº 2338/2023.
Apesar de ambos os projetos de lei basearem-se em graus de risco, um importante artigo escrito pelos professores Johann Laux, Sandra Watcher e Brent Mittelstadt, da Universidade de Oxford, aponta que este critério é insuficiente para desenvolver a confiança da população em sistemas IA, colocando em dúvida em que medida este modelo regulatório será eficaz para contribuir com a inovação e desenvolvimento econômico.
Criar confiança em sistemas de IA é um esforço desafiador. Depois de realizar uma revisão sistemática de 71 artigos acadêmicos sobre IA e confiança, Laux, Watcher e Mittelstadt concluem que a confiança em sistemas de IA é afetada por fatores heterogêneos. Além disso, os autores explicam que os fundamentos da confiança pública na tecnologia variam muito de acordo com as condições em diferentes mercados e setores, tornando-se um desafio regular a IA efetivamente por meio de uma regulamentação uniforme.
Então, se a regulamentação de riscos de sistemas de IA não inspira a confiança do cidadão, quem estará disposto a efetivamente usá-los ou se expor a eles? Como garantir a inovação nesse contexto? Estas são perguntas sobre as quais o Congresso Nacional deve se debruçar antes de aprovar uma regulamentação de IA para o Brasil.