fbpx

OMS cria guia para ética na inteligência artificial

Documento inclui a orientação de que produtos e programas devem ser criados levando em conta atributos como inclusão e igualdade

Por G1

A OMS (Organização Mundial da Saúde) divulgou um guia sobre ética e governança na utilização da inteligência artificial na saúde. Foi o resultado de 18 meses de trabalho de especialistas em direito, tecnologia digital e representantes de ministérios de diversos países. A entidade definiu como inteligência artificial (IA) o sistema tecnológico que, depois de ser abastecido com informações e objetivos definidos por seres humanos, seja capaz de fazer previsões, recomendações e tomar decisões que influenciem ambientes reais ou virtuais, com diferentes graus de autonomia.

Não há dúvidas de que o uso maciço de IA será uma revolução para aprimorar diagnósticos e tratamentos; aperfeiçoar o desenvolvimento de drogas e pesquisas; auxiliar governos a prevenir doenças, controlar epidemias e planejar campanhas. No entanto, justamente pelo impacto que representará no atendimento da população, é fundamental que a bioética e a preocupação com os direitos humanos sejam elementos fundamentais na criação de qualquer programa.

O documento, de 150 páginas, aborda os principais riscos e desafios éticos listados pelos especialistas. Uma das grandes preocupações diz respeito à quantidade e qualidade de informações que serão gerenciadas pelos bancos de dados e se transformarão em orientações e práticas que agentes de saúde replicarão para milhões de pessoas.

Um sistema que esteja “contaminado” com preconceitos ou qualquer visão parcial ou distorcida de um determinado grupo populacional terá um enorme impacto negativo. A própria coleta de dados tem que obedecer a critérios que garantam um resultado que não seja enviesado. O grupo de estudo relacionou exemplos para ilustrar o problema, como o de um programa para detectar potenciais casos de câncer de pele que não levava em conta a população negra.

Aqui vão os seis pontos fundamentais:

1) Pessoas, e não máquinas, devem permanecer no controle dos sistemas de saúde e das decisões médicas;

2) Todos os produtos de IA devem atender a padrões de segurança, acurácia e eficácia específicos para os casos a que se destinam;

3) Os desenvolvedores de tecnologia devem ser transparentes sobre como os produtos foram criados e funcionam antes de serem disponibilizados para o uso;

4) Negócios e sistemas de saúde que dependem de inteligência artificial devem assegurar o treinamento adequado dos profissionais;

5) Todos os produtos de IA devem ser criados levando em conta atributos como inclusão e igualdade;

6) O desempenho de programas deve ser avaliado de forma contínua e transparente, para que seus eventuais erros sejam corrigidos rapidamente.

Foto: Tumisu para Pixabay

Opções de privacidade