Regular a inteligência artificial (IA) é desafiador e exige constante evolução. Demanda um equilíbrio entre promover os benefícios da tecnologia e mitigar riscos. A União Europeia está liderando o caminho com uma nova legislação abrangente e rigorosa. Os Estados Unidos, por sua vez, não têm uma lei federal, a regulamentação da IA ocorre por meio de legislações estaduais.

Já o Brasil está em busca de estabelecer um arcabouço regulatório abrangente para o uso responsável e ético da IA. O Projeto de Lei 2338/2023, apresentado pelo senador Eduardo Gomes, visa garantir direitos de proteção aos usuários e estabelecer ferramentas de governança e fiscalização.

O assunto foi objeto de discussão no Future of Digital Health International Congress (FDHIC), cuja agenda foi dedicada a debater “O poder das inteligências artificiais generativas (GenAIs) no ecossistema de Saúde”, durante a Hospitalar 2024.

Projeto de Lei brasileiro 

Um dos principais pontos do projeto é a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que terá a função de fiscalizar e monitorar o uso da IA no Brasil. Especialistas em regulação no setor da saúde e profissionais da área de tecnologia e proteção de dados afirmam que o projeto apresenta pontos relevantes para o uso ético, responsável e em conformidade com os princípios de transparência, não discriminação, supervisão humana e adaptação contínua.

 Além da governança de dados, o projeto aborda questões como critérios para tomada de decisão e produção de resultados (opacidade algorítmica), discriminação e necessidade de explicabilidade dos sistemas de IA. Embora a primeira versão do projeto tenha sido considerada confusa, o Congresso Nacional tem recebido contribuições e pontos de vista de diversos setores, para aprimorar a proposta. No momento, o projeto aguarda audiência pública.

Regulações internacionais 

A União Europeia está construindo uma legislação abrangente e rigorosa, que impõe obrigações estritas de transparência para sistemas de IA considerados de alto risco, ultrapassando as medidas impostas pelos Estados Unidos e outros países.

Nos Estados Unidos, a regulamentação é realizada de acordo com o regimento de cada estado. No entanto, há preocupações de que a falta de regulamentação federal possa permitir que as grandes empresas de tecnologia operem sem restrições.

Há uma disputa entre Estados Unidos, Europa e China sobre a regulamentação de dados e IA. A nova legislação europeia pode definir o tom para que a IA seja regulamentada globalmente, na ausência de uma estrutura regulatória abrangente nos Estados Unidos.

Para especialistas presentes no FDHIC, o rigor da regulamentação na Europa está fazendo com que grandes big techs evitem lançar produtos de IA na região. O continente pode estar perdendo investimentos e desenvolvimento tecnológico. Por isso, é preciso focar nos benefícios que a IA pode trazer, em vez de apenas discutir questões ideológicas e protetivas.

Durante o congresso, na Hospitalar, profissionais afirmaram – o que setor já sabe – a demanda por serviços na saúde será muito maior do que a capacidade de atendimento, o que torna a IA necessária e estratégica. Embora a regulamentação seja imprescindível, também é ter cuidado com regras restritivas que possam sufocar a inovação. O caminho é encontrar uma “harmonia” entre regulamentação e incentivo à inovação, preservando princípios básicos, mas permitindo a evolução.

O temor de uma regulação proibitiva 

O debate em torno da regulação da Inteligência Artificial (IA) na área da saúde tem gerado preocupações sobre o risco de uma regulação controlada proibitiva. Há um consenso de que é preciso encontrar um equilíbrio entre os riscos regulares e permitir os ganhos proporcionados pela IA, sem exigir um nível de assertividade de 100%, assim como não se cobra dos seres humanos.

O dilema central é a responsabilidade pelo uso da IA. Nos Estados Unidos, a tendência é responsabilizar o usuário, enquanto no Brasil ainda há dúvidas sobre como assumir responsabilidades na cadeia de desenvolvimento e uso da tecnologia. Há críticas à regulação excessiva e burocrática, que pode inibir a adoção da IA.

Defende-se uma abordagem mais orientada por princípios, baseada em um ambiente regulatório experimental e análise de impacto, evitando a inclusão de elementos desnecessários no projeto de lei.

Tão importante quanto, inserir ética no uso da IA, mais do que apenas a tecnologia em si, estabelece limites princípios morais e de governança para o uso adequado dessa tecnologia na área da saúde.

Governança  

À medida que os algoritmos de IA se tornam cada vez mais presentes na Saúde, é fundamental constituir uma estrutura robusta de governança para garantir seu desenvolvimento, implantação e uso de forma responsável. Essa governança deve incluir princípios e diretrizes para lidar com questões, como privacidade de dados, visualizações, transparência e responsabilidade, principalmente porque os agentes do setor lidam com um grande volume de informações pessoais e sensíveis.

Em primeiro lugar, é necessário estabelecer mecanismos de supervisão e monitoramento contínuo para avaliar o desempenho, a segurança e os impactos dos algoritmos de IA. Isso inclui auditorias regulares, testes específicos e análises de risco para identificar e mitigar possíveis vieses, erros ou consequências indesejadas.

A transparência sobre como os algoritmos são treinados, quais dados são utilizados e como as decisões são tomadas é essencial. Mecanismos de responsabilização claros também precisam garantir que haja prestação de contas em caso de falhas ou danos.

Por fim, mas não menos importante, a governança da inteligência artificial na saúde deve priorizar a ética e o respeito aos direitos humanos, o que envolve a adoção de princípios sólidos, como a privacidade e a autonomia dos pacientes. Além disso, garantir a participação de diversas partes interessadas, incluindo profissionais de saúde, pacientes, especialistas em ética e a sociedade civil, no desenvolvimento e implementação de políticas e regulamentações relacionadas à IA na saúde.

Classificação de risco  

 A auditoria interna desempenha um papel relevante nesse processo a partir da avaliação e acompanhamento dos riscos e controles relacionados aos sistemas de IA. Ela ajuda a identificar e mitigar riscos, garantir a conformidade e promover a confiança nesses sistemas.

Durante o FDHIC, profissionais citaram frameworks como, a estrutura do Institute of Internal Auditors, que orientam como auditar sistemas de IA de maneira eficaz. Outro ponto necessário é classificar os algoritmos de IA na saúde em diferentes níveis de risco, com base na probabilidade e gravidade do dano potencial.

Algoritmos de alto risco, como aqueles usados para diagnóstico ou tratamento de doenças, exigem maior cuidado e controles mais rigorosos. Por outro lado, algoritmos de baixo risco, como aqueles usados para fins administrativos ou triagem de sintomas não críticos, podem ter requisitos mais flexíveis.

A confluência entre a governança de dados e a IA é intrínseca, pois a IA depende de grandes quantidades de dados de qualidade. Portanto, é fundamental garantir que os dados utilizados pelos algoritmos sejam precisos, íntegros e livres de erros.