30 • SER MÉDICO TECNOLOGIA "IAs podem refletir discriminações e preconceitos humanos, se estes não forem retirados de seu processo de aprendizagem" cina. As IAs são capazes de processar grandes quantidades de dados e identificar padrões, tornando-se uma ferramenta valiosa para aprimorar o diagnóstico e o tratamento de várias doenças. Além disso, podem ajudar na triagem de pacientes, identificação de riscos, personalização de tratamentos e prevenção de erros médicos. No entanto, o uso de IAs em Medicina ainda é um campo em desenvolvimento, e é importante garantir que elas sejam usadas de maneira ética e responsável, levando em consideração questões como privacidade de dados e equidade no acesso aos benefícios delas na Saúde. Especialidades diagnósticas, como Imagenologia e Histopatologia, podem ser absorvidas pelas IAs, em breve. Potencialmente será mais importante posicionar corretamente um paciente em um equipamento de ressonância magnética ou tomografia computadorizada, ou preparar corretamente uma amostra de tecido, do que ter um médico para analisar o resultado, já que as IAs irão fazê-lo, até que os procedimentos humano-dependentes não sejam automatizados. Um artigo publicado na revista The Lancet Digital Health mostrou que IAs podem identificar a “etnia” de uma pessoa por imagens de raios-X, algo praticamente inviável de ser observado por um médico. O mesmo pode ocorrer com diversos diagnósticos de doenças. Mas o fato levantou questões preocupantes sobre a ação das IAs em avaliação, diagnóstico e tratamento médico: o viés racial poderia ocorrer na análise e seleção de pessoas para acesso a atendimento em saúde? Haveria discriminação por doenças da mesma forma? Essa é só mais uma dentre várias evidências de que IAs podem refletir discriminações e preconceitos humanos, como racismo, sexismo e xenofobia, entre outros, se estes não forem retirados de seu processo de aprendizagem. Aí entra a Bioética. Mais do que a preocupação com o modelo principialista de não maleficência, beneficência, justiça e respeito à autonomia da pessoa humana, há outros dois princípios norteadores que devem nos guiar: alteridade e tolerância. Como agir com uma pessoa que preferir ter seus diagnósticos por imagens feitos por IA e não por um médico humano, já que o índice de acerto é maior e a possibilidade de erro menor? E no caso inverso, haverá profissional preparado? As IAs estão em sua infância tecnológica, ainda aprendendo. A IA desenvolvida pelo Google errou uma resposta e a empresa perdeu US$ 80 bilhões. Enquanto alguns brincam de testar seus pequenos erros e acertos, outros deveriam focar em lhes ensinar Bioética. A alteridade, capacidade de se colocar no lugar de outrem, será mais que necessária. A tolerância com a diversidade e a variabilidade biológica também. IAs não podem aprender a serem intolerantes, sob a pena de, em algum momento, sermos nós mesmos discriminados de alguma forma e talvez sem saber a razão (black box). “Acredito que o desenvolvimento pleno da inteligência artificial poderia significar o fim da raça humana”, afirmou Stephen Hawkins. Acredito nisso, principalmente se não houver essa preocupação de que as IAs possam aprender Bioética em sua essência e não somente sua definição. Se as IAs já aprenderam compor músicas e poemas com base em preferências humanas, por que não Bioética? Não há mais retorno. É necessário que as IAs aprendam a essência de ser humano. Para a preservação não só da Medicina, a ciência-arte, mas da humanidade. Como disse Charles Darwin, “não é o mais forte que sobrevive, nem o mais inteligente, mas o que melhor se adapta às mudanças”. O criador agora deverá se adaptar à criatura para sobreviver. E ensiná-la. Não acredita? Cuidado: “É você que ama o passado / e que não vê / que o novo sempre vem”. O autor adverte que um dos parágrafos foi escrito por IA. Distingue qual? (Veja resposta no rodapé da pág. 5). *Professor associado de Medicina Legal e Bioética da Faculdade de Medicina de Ribeirão Preto – Universidade de São Paulo (FMRP-USP) e delegado do Cremesp em Ribeirão Preto
RkJQdWJsaXNoZXIy NjAzNTg=