fbpx

Regulação da IA avança no Senado com desafio de conciliar controle e transparência sem impedir avanços

Progressos rápidos, como o ChatGPT, dificultam tentativas dos governos de chegar a um acordo sobre regulação da IA

Por Futuro da Saúde

A indústria de inteligência artificial (IA) está crescendo a uma velocidade imparável e vem mostrando um potencial significativo no avanço tecnológico e na transformação de vários setores, inclusive na saúde. Contudo, os possíveis riscos ​​têm levantado vozes a favor da regulação da IA na Europa, EUA, Japão e no Brasil. As preocupações incluem violações de privacidade, proliferação de desinformação, viés algorítmico e o risco de a tecnologia ser usada para fins maliciosos. Ao mesmo tempo, há a expectativa de que possíveis regulações não coloquem barreiras nos avanços tecnológicos.

Ainda em 2020, Singapura se tornou um dos primeiros países a lançar um conjunto nacional de diretrizes de IA. Pouco depois, em junho, o Parlamento Europeu foi o primeiro no mundo a iniciar a regulamentação formal. As discussões iniciaram em 2021 e vão agora para a análise tríplice – com representantes políticos, governos e sociedade –, e deve seguir mais alguns anos.

No Brasil, o Projeto de Lei 2.338/2023 foi apresentado em maio pelo senador Rodrigo Pacheco (PSD-MG), que preside a Casa. O projeto é resultado do trabalho de uma comissão de 18 juristas especialistas na área de IA, novas tecnologias e proteção de dados, que criaram, discutiram e debateram o assunto. Além disso, participaram outros especialistas da área jurídica que observaram, ao longo de 2022, propostas relacionadas e legislação já existente em outros países.

O PL substitui os Projetos de Lei 5.051/2019, 21/2020 e 872/2021. O texto apresentado no Senado é inspirado no “AI Act”, proposta regulatória da tecnologia em discussão na União Europeia.

Classificação de riscos na regulação da IA

Filipe Medon, um dos participantes da comissão de juristas e coordenador de Proteção de Dados e Inteligência Artificial da Comissão de Proteção de Dados e Privacidade da OAB/RJ, salienta que quando foi feita a elaboração do projeto, os juristas tiveram acesso apenas à primeira versão do AI Act. E foi a última que trouxe questões relacionadas às IA generativas. “Especificamente dentro da União Europeia, uma das coisas importantes que miramos foi a classificação dos riscos”, pontua.

Medon explica que quando os juristas trabalhavam no projeto de março a dezembro do ano passado, ainda não se falava com grande popularidade de IA generativa. O ChatGPT em sua versão mais avançada foi lançado dias antes do grupo apresentar o relatório final: “O nosso projeto não está atrasado ou deixou de incluir nada. Só não se discutia aquilo ainda”, pondera. Mas concorda que, em relação à questão das IAs generativas, deveria haver uma regulação mais minuciosa, e são esses aprofundamentos que o projeto de lei pode vir a receber.

Sobre essa questão em particular, ele observa a importância de não fazer uma regulação voltada para tipos de tecnologia específica, já que no PL 2.338/2023 há uma lista de risco adaptável: “A tecnologia é mutável e numa velocidade muito rápida. Então precisamos tomar esse cuidado. Esse é um desafio que temos na regulação de IA e de outras tecnologias”. Dessa forma, acredita que o segredo da regulação é não amarrar muito em tipos específicos de IA, porque elas se alteram rapidamente e deixariam a legislação ultrapassada.

Anderson Rocha, coordenador do Recod.ai — laboratório de inteligência artificial da Unicamp – também pontua sobre o tema: “Em tecnologia, há a sensação de que tudo está acontecendo ao mesmo tempo e as coisas mudam de um dia para o outro. Mas não é a mesma coisa na legislação”, expõe. Por isso, também acredita que não se pode legislar sobre uma tecnologia em específico e sim sobre uma área.

Regulação não pode frear evolução

A deputada federal Luisa Canziani (PTB-PR), que foi relatora do PL 21/2020 na Câmara – um dos projetos substituídos pelo PL 2.338/2023 em meados de maio – também está atuando em outro sobre IA, o PL 759/23. O projeto está em tramitação na Comissão de Ciência, Tecnologia e Inovação e aguardo o parecer de Canziani, que foi designada relatora. Para a parlamentar, um dos principais desafios da IA é a regulação da tecnologia generativa (como o ChatGPT) que sequer existia quando aprovaram o PL 21/20 na Câmara:

“Reconhecemos que surgiram inovações tecnológicas que merecem novas reflexões e abordagens e, por isso, defendo a criação de um grupo de trabalho conjunto no Congresso Nacional para discutir a fundo esse assunto e, dessa forma, chegar na melhor proposta para empresas, consumidores, poder público e instituições”.

Canziani relembra que a Câmara dos Deputados aprovou o PL 21/20, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil, ou seja, que cria o marco legal do desenvolvimento e uso da IA pelo poder público, por empresas, entidades diversas e pessoas físicas. Depois disso, o projeto foi encaminhado para o Senado Federal e, após, para uma análise formada por uma banca de juristas, juntamente com outras duas propostas sobre regulação, que resultaram na criação do projeto de lei em tramitação atualmente.

O debate cuidadoso sobre cada item da nova proposta também é defendido pela Secretária de Tecnologia da Informação do STF, Natacha Moraes de Oliveira: “Ao mesmo tempo em que a regulação é necessária e urgente, ela precisa ser construída de tal forma que não iniba o desenvolvimento dessas tecnologias em nosso país”.

Segundo Natacha, também é relevante garantir o respeito à Constituição da República, assegurando o exercício dos direitos sociais e individuais, a liberdade, a segurança, o bem-estar, o desenvolvimento, a igualdade e a justiça, “ao mesmo tempo que a inovação e o desenvolvimento tecnológico sejam impulsionados, sob pena de ficar o Brasil à margem desse movimento”, analisa.

IA na saúde: por que a regulamentação é importante

Na prática, diversas ações de IA já estão em uso, permitindo desde diagnósticos precoces e precisos até tratamentos personalizados. Para Oliveira, do STF, “há aplicações muito interessantes, com capacidade de encaminhar pacientes para tratamentos específicos, o que poderá trazer impactos à forma como os serviços de saúde são prestados hoje”.

Entretanto, ela ressalta que deve ser considerado o impacto de como essas informações poderão ser usadas para aumentar o acesso à saúde, e não o restringir ainda mais: “Pessoas com indicadores coletados e analisados de modo automático, que apontassem probabilidade elevada para desenvolver doenças, poderiam ter dificuldade de serem aceitas em planos de saúde, por exemplo”.

José Luiz de Moura Faleiros Júnior, especialista em direito digital, advogado e professor da Faculdade de Direito Milton Campos e SKEMA Business School Brasil, concorda que a área da saúde é uma das mais importantes para o debate regulatório em relação aos sistemas IA. Recorda ainda que já existem normas sobre o tema no Brasil. O Conselho Federal de Medicina (CFM) editou a Resolução 2.311/2022 para tratar especificamente das cirurgias robô-assistidas e das telecirurgias robóticas; também editou a Resolução 2.314/2022, que define atos de telemedicina, dentro os quais consta o da telecirurgia.

Mas ele ressalta que, “embora seja imprescindível distinguir ‘robótica’ de ‘inteligência artificial’, não há dúvida quanto aos riscos envolvidos nas atividades em questão, que poderiam ser regulamentadas por lei, eventualmente”.

Filipe Medon, da OAB/RJ e membro da comissão de juristas, analisa os múltiplos impactos em relação à saúde e reforça que o ser humano é o responsável pela condução: “O ser humano é responsável por ela. É preciso tomar cuidado com essa transferência de responsabilidade para as máquinas. As máquinas não são responsáveis. Responsáveis são os humanos que estão por trás delas”.

Mas também defende o cuidado com regulações que não preveem de forma clara os direitos: “Porque de nada adianta ter uma carta de princípios aberta se não temos uma operacionalização. Precisamos dar concretude a esses princípios. E isso podemos fazer impondo um bom sistema de governança, com documentação dos processos que estão sendo seguidos por determinada tecnologia.”

Bruno Bioni, diretor-fundador do Data Privacy Brasil e um dos autores do relatório que deu origem ao PL 2.338/2023, compartilha que a saúde é uma das áreas, pelo menos no Brasil, onde se teve desenvolvimento e iniciativas interessantes, em termos de piloto como gestão automatizada de UTI, geração de dados, produzidos no atendimento da saúde da população brasileira.

“O maior desafio é entender como que, dentro da realidade brasileira, onde você tem um sistema universal de saúde, minimamente bem estabelecido, mas com uma malha significativa da assistência suplementar à saúde, os dados são gerados”, pontua Bioni. Portanto, defende uma regulação transversal e acredita que é esse o cenário que se está desenhando: “Entender quem vai regular, interpretar e fiscalizar é de extrema importância. O PL 2.338/2023 tem uma primeira modelagem que aposta nisso”.

Debate sobre regulação da IA em alta

Embora as mudanças na área estejam ocorrendo de forma rápida, Bioni ressalta a importância de entender o atual debate e sua efervescência regulatória. Mas concorda que ambas as regulamentações (do Brasil e internacionalmente) seguem de uma mesma maneira técnica e com racionalidade regulatória a abordagem baseada em risco:

“Você cria, via de regra, uma regulação na qual o peso dela deve ser calibrado de forma dinâmica de acordo com o risco dentro do contexto do qual aquele sistema de IA será implementado/lançado. Quanto maior o risco, maior é o peso da regulação. Quanto menor o risco, mais aliviado é o peso da regulação”.

Outro ponto levantado por Bioni é entender que a cadeia de desenvolvimento econômico é complexa e multifacetada, especialmente as IAs generativas. “Seria importante alguma perspectiva que trouxesse essa internacionalização do caráter multifacetado de quem compõe essa cadeia de desenvolvimento”, destaca.

Marina Feferbaum, coordenadora do Centro de Ensino e Pesquisa em Inovação (CEPI) e da área de metodologia de ensino da FGV Direito SP, relata que o CEPI vem acompanhando de maneira muito próxima a discussão sobre a regulação da IA no Brasil. E, embora os impactos amplamente noticiados pela mídia nos últimos meses não deixem dúvidas sobre a necessidade da regulação, ela defende que “isso não pode ser utilizado como pretexto para a elaboração, às pressas, de regras unicamente para que se diga que o tema está regulado”.

“A criação de propostas estruturadas e que envolvam diversos atores, inclusive a academia, é uma medida de extrema importância para que o Brasil tenha uma regulação moderna, executável e que não fique obsoleta rapidamente com o avanço da tecnologia”, afirma.

A coordenadora do CEPI explica ainda que o Brasil tem uma tradição em regular temas sensíveis através de instrumentos vinculantes emanados pelo próprio Estado (leis, decretos, portarias etc.), porém, essa modalidade de regulação, ao ser aplicada no campo da IA, pode apresentar falhas, caso não seja feita através de um processo transparente e aberto ao diálogo com os setores regulados.

Por isso, especialistas defendem a regulação, a informação e a transparência: “Um debate que pode levar tempo, com vários setores da sociedade”, acredita Filipe Medon. “É o momento de regular, mas não podemos regular de qualquer jeito. É um tema muito sério e precisamos ter uma regulação baseada não apenas em princípios, mas principalmente na concretização de direitos. Porque se de um lado precisamos proteger, claro, a inovação, do outro temos que garantir direitos fundamentais”.

Foto: Reprodução

Opções de privacidade