IA generativa, maior proteção de direitos e a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial, (SIA) são novidades do novo relatório preliminar que pode receber emendas até 9 de maio
Por Futuro da Saúde
A inteligência artificial (IA) tem sido um tópico amplamente discutido e seu uso adequado e ético destacou a necessidade de regulamentação no mundo todo. O Brasil deu mais um passo importante nesse sentido em 24 de abril, quando o senador Eduardo Gomes (PL-TO), relator do PL da IA (2.338/2023), apresentou o texto preliminar. A proposta de texto substitutivo ainda está sujeita a alterações e solicitações de emendas até 9 de maio e o relatório final deve ser apresentado até fim de maio. Depois, seguirá o rito de tramitação no Congresso e a expectativa do senador é apresentar a versão final do texto até a reunião da cúpula do G20, agendada para 18 e 19 de novembro, no Rio de Janeiro, RJ.
Durante a apresentação do texto em reunião da Comissão Temporária Interna de Inteligência Artificial, Gomes classificou como um dos mais complexos desafios em discussão do Brasil: “Vamos ter que aprender a fazer uma lei viva, trabalhar essa dinâmica legislativa que dê segurança jurídica e ao mesmo tempo atualização de direitos e deveres”. Conforme o relator, o foco foi criar um documento que preserve o direito do cidadão e ao mesmo tempo atraia o interesse dos investidores.
Futuro da Saúde ouviu especialistas para entender os principais pontos do texto preliminar apresentado, quais as mudanças para os demais projetos e os próximos passos. O documento propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), uma estrutura encarregada da implementação e fiscalização da legislação de IA, que seria coordenada pela Autoridade Nacional de Proteção de Dados Pessoais (ANPD). Além disso, define critérios para regular a IA de alto risco, incluindo avaliações preliminares e análises de impacto. O estabelecimento de uma nova agência específica e a classificação da saúde como um todo sendo de alto risco estão entre as principais preocupações do setor com a regulamentação.
Para Filipe Medon, um dos participantes da comissão de juristas e coordenador de proteção de dados e inteligência artificial da Comissão de Proteção de Dados e Privacidade da OAB/RJ, ainda é prematuro avaliar o impacto do projeto: “Embora ainda não tenhamos recebido muitas manifestações, o texto introduz algumas inovações. Precisamos aguardar as próximas duas semanas para compreender como serão percebidas e recebidas pelo mercado e pela sociedade civil”, diz. Ele menciona avanços como a introdução pioneira do conceito de IA generativa, que ganhou destaque no último ano e não estava em evidência quando o Projeto de Lei de Rodrigo Pacheco foi apresentado. Além disso, destaca a necessidade de maior proteção dos direitos e a criação do SIA.
Medon ainda contextualiza outro ponto que alterou em relação aos demais projetos. Segundo ele, houve uma ‘suavização’ da carga de obrigações para as empresas, ou seja, há uma redução no peso das obrigações de governança e o tema da responsabilidade civil segue inalterado. Mas há mudanças significativas na parte de direitos autorais, com um maior aprofundamento. “Os riscos excessivos tiveram alguma alteração. Agora, em vez de criar a ideia de que os sistemas de IA de alto risco seriam definidos previamente, eles abandonaram essa abordagem. Em vez disso, há uma lista de critérios para determinar quais IAs são consideradas de alto risco. Isso não será mais definido a priori pelo projeto de lei, o que está recebendo críticas de alguns setores e elogios de outros”, sinaliza.
Dora Kaufman, professora do Programa de Tecnologias da Inteligência e Design Digital da Faculdade de Ciências e Tecnologia da PUC-SP e autora do livro “Desmistificando a inteligência artificial”, lembra que os próximos trâmites preveem consulta pública, em seguida articulação entre Senado e Câmara para definir o processo de votação – necessariamente, a proposta tem que voltar para a Câmara dos Deputados. “Após a votação, talvez a parte mais desafiadora envolva a definição de padrões que permitam minimizar as interpretações subjetivas”, prevê.
Principais pontos do texto preliminar da PL da IA
No Brasil, o Projeto de Lei 2.338/2023 foi apresentado em maio do ano passado pelo senador Rodrigo Pacheco (PSD-MG), que preside a Casa. O atual projeto de lei brasileiro é inspirado no “AI Act”, proposta regulatória do bloco europeu. “Esse é um projeto que aprofunda algumas das disposições do PL 2338. Então, ele parte da base do 2338, fazendo algumas adaptações pontuais, suprimindo e mudando alguns pontos”, detalha Filipe Medon.
O texto preliminar do relator Eduardo Gomes determina que os ciclos de vida das ferramentas devem ser supervisionados por seres humanos. Além disso, os agentes desenvolvedores de sistemas de IA devem operar com transparência, ser responsáveis e prestarem contas, buscando prevenir e mitigar riscos e danos individuais, sociais e econômicos.
A criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) foi outro ponto que chamou a atenção, apesar de já esperado. Este sistema regulamentará, entre outros aspectos, a inteligência artificial de alto risco, com uma consulta pública como parte do processo. “Seria composto por uma autoridade competente a ser criada pelo governo, pelo executivo e também por órgãos reguladores setoriais. E esse ponto da regulação setorial é importante, porque agora ele é valorizado nesse projeto”, explica Medon. Na visão dele, a presença de autorregulação para criar boas práticas de governança e trabalhar com a ideia de acreditação de certificadores “é algo inovador em relação ao projeto original”.
Outra alteração em relação ao projeto anterior apontada pelo coordenador da OAB/RJ é a definição de sistema de inteligência artificial. Agora, a proposta se adequa à definição atualizada da OCDE, o que é um ponto de harmonização até com a legislação da União Europeia. “Ele muda o conceito de operador para aplicador, que seria equivalente ao deploy do projeto europeu”.
Outro ponto é que o projeto inclui as noções de IA de propósito geral e IA generativa, além de abordar conteúdos sintéticos derivados, que poderiam ser exemplificados pelos deepfakes. Estes sistemas não foram contemplados na versão original devido a limitações temporais na época em que não eram discutidos. Já as penalidades estabelecidas para empresas ou indivíduos que violarem as normas incluem multas que podem chegar a até R$ 50 milhões por infração ou equivalente a 2% do faturamento empresarial.
Um ponto sensível e em aberto no texto é que não está previsto a forma com que se dará a adequação do mercado para estar em conformidade com a lei, principalmente pelas soluções que já estão sendo utilizadas pelo público.
Relatório da IA: sintetizar um único projeto
Para Gustavo Macedo, especialista em inteligência artificial, diplomacia cientifica e inovação e professor de administração e economia do INSPER e de relações internacionais do IBMEC, o relatório preliminar é uma tentativa de abordar diversas demandas que surgiram ao longo dos últimos quatro anos no debate dentro do legislativo, ou seja, sintetiza propostas de dez projetos em tramitação.
Ele destaca que o texto representa uma atualização do projeto, pois agora inclui a integração de debates sobre os princípios que regem a regulação, a criação de uma autoridade nacional para a IA, a regulação setorial e os níveis de risco da tecnologia, afirmando que foram incorporadas dimensões que não eram o foco do primeiro projeto.
A pesquisadora Dora Kaufman afirma que regular a IA não é tarefa trivial, pois trata-se de uma tecnologia que está mudando a lógica da economia e da sociedade. Mas que “parece ser o nosso melhor projeto de regulamentação da inteligência artificial”, defende.
Mesmo assim, Macedo avalia que a discussão no Brasil ainda está em estágio inicial, mas que agora vê o início de um processo de amadurecimento de um debate que acredita que não vai se encerrar esse ano: “Vamos ver a criação da primeira lei de inteligência artificial, mas surgirão muitas outras nos próximos anos. O primeiro passo que é o mais difícil. Haverá erros, acertos, assim como em qualquer lugar. Nenhum país do mundo até agora conseguiu encontrar uma legislação definitiva para a IA. A tecnologia é dinâmica, mercado dinâmico e não dá para saber a regulação definitiva, mas começar a criar as balizas necessárias para estabelecer quais são os princípios que orientam a regulação da IA dentro de determinados países”.
IA na saúde e cautela na área de regular
De acordo com algumas pesquisas, a saúde será uma das três áreas mais impactadas pela tecnologia. A inteligência artificial, amplamente integrada nos sistemas de saúde, surge como uma poderosa aliada na interpretação de dados, realização de triagens, análise de imagens médicas, diagnóstico de doenças e formulação de estratégias de tratamento, além de contribuir significativamente para a eficiência da gestão em saúde.
Para o professor do Insper e da IBMEC, é o momento para que os profissionais da saúde se envolvam nesse debate para expressar o que desejam e o que não desejam que a IA faça ou como seja utilizada: “A área da saúde é a mais promissora no mercado dos próximos anos para a IA, justamente porque há muitas oportunidades a explorar. Como ainda não é adequadamente regulada, muitas empresas se sentirão livres para implementar soluções de diversas maneiras. Esta discussão precisa envolver os conselhos da área médica, que devem participar do debate com urgência e compreender como encontrar um equilíbrio”.
Mas se o foco está em regulamentar, há também quem afirme que é cedo para regular uma tecnologia em desenvolvimento. Para Alexandre Chiavegatto Filho, doutor em Saúde Pública pela Universidade de São Paulo (USP) e pós-doutorado na Universidade Harvard, “não existem precedentes numa velocidade tão exagerada, apressada, como está ocorrendo agora”. Segundo ele, é uma área que precisa ser acompanhada e debatida. Ele citou como exemplo o Marco Civil de 2014: primeiro, a tecnologia se tornou robusta e foi amplamente utilizada no Brasil por cerca de 15 anos, para então ser elaborado um marco civil.
Como exemplo, Chiavegatto citou países como Estados Unidos, China e Arábia Saudita, regiões que estão em ebulição tecnológica e com técnicas inovadoras e científicas. O governo da Arábia Saudita planeja criar um fundo de cerca de US$ 40 bilhões (equivalente a R$ 201,3 bilhões) para investir em inteligência artificial.