WhatsApp
Blog
Notícias, informes, cases da Riedel e mais!

A Inteligência Artificial na Medicina: Inovação, Ética e os Desafios do Direito Médico

A Medicina, em sua essência, sempre buscou aprimorar a saúde e prolongar a vida humana. Hoje, essa busca ganha um novo e poderoso aliado: a Inteligência Artificial (IA). Integrando-se de forma acelerada aos processos de saúde, a IA promete revolucionar desde o diagnóstico e tratamento até a gestão hospitalar e a pesquisa científica. Contudo, essa onda de inovação não surge sem um conjunto complexo de dilemas éticos, regulatórios e jurídicos, que demandam uma atenção cuidadosa do Direito Médico.

A aplicação da IA na medicina representa um avanço sem precedentes em direção à chamada “saúde inteligente”, um paradigma que prioriza a prevenção, a predição e a personalização. Ferramentas de IA, impulsionadas por algoritmos e vastos volumes de dados, estão se tornando capazes de realizar Diagnóstico Aprimorado, por meio de analises de exames de imagem (radiografias, ressonâncias, tomografias) e dados patológicos com uma precisão e velocidade que superam a capacidade humana em muitas tarefas, auxiliando na detecção precoce de doenças como o câncer. Isso sem falar na descoberta de medicamentos novos e na eficiência operacional. Essas capacidades, como bem exemplifica o controle da glicemia em diabéticos ou a assistência em áreas como a Radiologia e Patologia, redefinem o vínculo entre médicos e pacientes, tornando-o mais colaborativo e mediado por tecnologia. A medicina passa de um modelo reativo para um proativo, focado em antecipação e individualidade.

Apesar do entusiasmo com o potencial da IA, sua integração levanta questões cruciais que o Direito Médico deve endereçar para garantir a segurança, a ética e a justiça.

Um dos maiores entraves jurídicos é a atribuição de responsabilidade por danos causados por decisões de IA. Se um diagnóstico incorreto ou uma recomendação de tratamento falha, levando a um dano ao paciente, quem é o responsável?  Muitos sistemas de IA operam como “caixas-pretas”, onde o processo decisório interno é complexo e não facilmente rastreável ou interpretável. Essa falta de explicabilidade dificulta a identificação da causa de um erro. A questão dentro do nosso direito envolve uma possível cadeia de responsabilidade que a depender do caso, abarcaria o fabricante do dispositivo, o hospital que implementou a tecnologia ou o médico que utilizou a ferramenta (e que potencialmente ignorou sua própria intuição em favor da máquina).

Friso: a taxatividade sobre quem seria o responsável efetivo ainda é conjectura, mas diante do avassalador movimento que envolve e espalha inteligência artificial para todos os lados é questão de breve tempo até estarmos diante de decisões que analisem concretamente essas questões.

É certo que há propostas legislativas como o PL 2338/23 no Brasil e o AI Act na União Europeia (Regulamento (UE) 2024/1689) buscam criar marcos regulatórios que estabeleçam avaliações de risco e responsabilidade, inclusive para sistemas de IA de alto risco, aproximando-se de uma matriz de responsabilidade civil pelo risco.

Quanto aos dados que transitam entre as inteligências artificiais destinadas aos mais diversos objetivos, há também preocupação.

A coleta e o processamento massivo de dados de saúde, que são inerentemente sensíveis, colocam a proteção da privacidade no centro do debate. Legislações como a Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil e o Regulamento Geral sobre a Proteção de Dados (RGPD) na União Europeia, embora não utilizem explicitamente o termo “privacidade”, estabelecem regimes robustos para a tutela dos direitos dos titulares de dados.

Passam ao centro da observação as seguintes questões:

  • Consentimento: A LGPD (arts. 5º, XIII e 11, I) exige consentimento expresso, livre, informado e específico para o tratamento de dados de saúde. Em cenários de IA, torna-se desafiador informar o titular sobre todas as possíveis utilizações de seus dados pelos algoritmos.
  • Finalidade e Transparência: É imperativo que a finalidade do tratamento seja clara e que os princípios da boa-fé e transparência (LGPD, art. 6º, VI) guiem a conduta dos agentes. 
  • Vazamentos e Segurança: O armazenamento de dados em nuvem e a interconexão de dispositivos elevam o risco de vazamentos, exigindo rigorosos mecanismos de segurança e responsabilização em caso de incidentes.

É certo que a seguinte ótica precisa ser relembrada: O Papel Insubstituível do Profissional de Saúde

É crucial reconhecer que a IA, no contexto médico, deve atuar como uma ferramenta de apoio, e não um substituto para o julgamento e a empatia humanos. O médico, com sua experiência, intuição e capacidade de compreender a complexidade do paciente em sua totalidade (incluindo aspectos sociais, emocionais e culturais), permanece no centro da tomada de decisão. A “saúde inteligente” exige médicos mais “inteligentes” no uso da tecnologia, capazes de questionar, interpretar e integrar as informações fornecidas pela IA com o cuidado humano e personalizado.

A integração da Inteligência Artificial na medicina é um caminho sem volta, repleto de promessas para a otimização da saúde e do bem-estar. No entanto, para que esses benefícios sejam amplamente distribuídos e os riscos minimizados, é fundamental que o Direito Médico atue como um pilar de sustentação. A criação de marcos regulatórios claros, a discussão sobre a responsabilidade civil, a garantia da proteção de dados e a promoção da ética na aplicação da IA são passos essenciais. A colaboração interdisciplinar entre cientistas da computação, médicos, juristas e especialistas em ética é a chave para moldar um futuro em que a tecnologia sirva à humanidade, garantindo que a inovação na saúde caminhe lado a lado com a segurança jurídica e a preservação dos direitos fundamentais dos pacientes.

Dra. Ludmila

Compartilhe esse conteúdo:

Advocacia Riedel

Há 65 anos construindo um legado de confiança. Hoje nos fortalecemos para que o futuro continue sendo escrito com excelência e justiça.