Por Gracemerce Camboim*
Uma pergunta que fazemos com a expansão e a chegada da Inteligência Artificial (IA), nessa larga escala, é sobre quem deve ser responsabilizado em caso de danos à saúde? Como atuar quando o assunto envolve a responsabilidade civil e utilização de robôs de assistência à saúde e análise do diagnóstico com inteligência artificial no Brasil?
A IA, para fins de diagnóstico médico e escolha de tratamento, está se tornando uma ferramenta comum nas mãos de médicos em todo o mundo. Mais do que simplesmente confiar em suas informações pessoais de conhecimento técnico, os médicos agora são assistidos por máquinas, que avaliam os dados clínicos do paciente à luz das informações nas quais o algoritmo foi alimentado, fornecendo diagnóstico mais preciso e opções de tratamento.
Embora os benefícios por trás do uso dessa tecnologia sejam inquestionáveis, também é inegável que esse paradigma de saúde representa uma ruptura no relacionamento clássico entre as partes envolvidas na prestação de serviços de saúde. Se, antes, um paciente que sofreu danos no decurso de um diagnóstico ou no tratamento prescrito por um médico, facilmente identificaria o agente contra quem tomar as medidas cabíveis (o médico ou a instituição médica sob o qual o médico prestou os serviços de saúde). Hoje, com o uso de ferramentas de IA, esse paradigma de responsabilidade direta ficou obscuro. Considerando que, além do médico, existe outra entidade que poderá causar o dano, ou seja, a saída do algoritmo que o médico seguiu.
Durante a 51ª Assembleia Geral da Associação Médica Mundial, em Tel Aviv, em 1999, a comunidade médica internacional debateu sobre o emprego da Telemedicina, oportunidade em que se redigiu a “Declaração de Tel Aviv”, estabelecendo as diretrizes para a sua utilização, bem como definir cinco tipos de modalidades, quais sejam: a) teleassistência; b) televigilância; c) teleconsulta; d) interação entre dois médicos; e) teleintervenção.
Observa-se, em linhas gerais, que a prática da telemedicina varia em graus de complexidade, da adequação e da necessidade das instituições de saúde e das comunidades a que se destina, sendo que as modalidades acima descritas estão vinculadas ao modelo que esta é empregado.
À luz da breve análise, podemos verificar que estamos diante de uma nova realidade no qual a medicina depende de ferramentas de tecnologia da informação em saúde projetadas para fornecer aos médicos e a outros profissionais suporte à decisão clínica. Ou seja, a assistência nas tarefas de tomada de decisão para o tratamento dos pacientes, fornecendo um diagnóstico mais preciso e as melhores escolhas de tratamento.
Como visto, a responsabilidade decorrente do uso da IA, no setor da saúde, pode ser enquadrada em regras de negligência, no entanto, o uso de ferramentas de tecnologia da informação em saúde poderão interromper drasticamente o relacionamento típico entre médico e paciente. Circunstâncias estas que causam problemas de causalidade, dificultando ao paciente prejudicado estabelecer um nexo causal entre o dano e a conduta ilícita.
Portanto, no Brasil, caso os operadores do direito sigam interpretando os danos à saúde sob regras de negligência médica, cuja responsabilidade é subjetiva, o conceito de negligência médica terá que ser reformulado.
Concluiu-se também que a simples aplicabilidade das normas de protocolos médicos traz o perigo de alocações injustas de responsabilidades, considerando o fato de que a IA revela-se uma realidade muito mais complexa do que os parâmetros médicos tradicionais.
Novos desafios a serem enfrentados por nós juristas.
Gracemerce Camboim é professora de Direito Empresarial e Propriedade Intelectual na Faculdade Presbiteriana Mackenzie Brasília, mestre em Comércio Exterior e Relações Internacionais (UFPE), doutoranda pela Universidade de Brasília (UnB)