3 6 • S E R M É D I C O [2] SHUTTHIPHONG CHANDAENG/ISTOCK Há riscos tanto em regular a tecnologia quanto em confiar em seus processos clui as áreas médica e científica, dentre outras. As discussões éticas são necessárias para entender os riscos, o respeito à proteção de dados pessoais e os aspectos jurídicos e de responsabilidade do uso da IA aplicada à Saúde. A questão é complexa e demanda uma abordagem colaborativa, envolvendo distintos setores do conhecimento e coletivos interessados, incluindo não somente médicos e cientistas de dados, mas também pacientes, autoridades regulatórias e toda a sociedade. ¹ Médica pela FMUSP, com pós-graduação em Ciência de Dados pelo Instituto de Ensino e Pesquisa; ² Matemático pelo Centro Universitário Fundação Santo André e Engenheiro pelo Instituto Mauá de Tecnologia, com mestrado em Engenharia Elétrica pela UFABC; ³ Engenheiro de Controle e Automação pelo InstitutoMauá deTecnologia, compós-graduação em Ciência de Dados e Inteligência Artificial. Fontes bibliográficas De Aragão, Suéllyn Mattos; Schiocchet, Taysa. Lei Geral de Proteção de Dados: desafio do Sistema Único de Saúde. Revista Eletrônica de Comunicação, Informação e Inovação em Saúde, v. 14, n. 3, 2020. Jiang, Fei et al. Artificial intelligence in healthcare: past, present and future. Stroke and vascular neurology, vol. 2,4 230-243. 21 Jun. 2017 Para enfrentar o uso da IA, as entidades de Bioética e Saúde devem discutir estratégias de segurança, privacidade e governança de dados CONSCIÊNCIA DA MÁQUINA: MITO OU REALIDADE Para tanto, cabe a pergunta: uma máquina pode ter mente, consciência e estados mentais? Esta é uma questão filosófica, que gira em torno de uma posição definida pelo filósofo americano John Searle como “IA forte”, conforme descrito em seu artigo Minds, Brains and Programs, publicado na revista Behavioral and Brain Sciences, em 1980. Searle define a Inteligência Artificial forte como a hipótese de que “o computador com o programa certo pode ser literalmente um modelo da mente humana, capaz de pensamento e consciência como um ser humano”. Por outro lado, a “IA fraca” é projetada para executar tarefas específicas de forma autônoma, sem a intervenção humana. A Inteligência Artificial que conhecemos hoje é a chamada “IA fraca” ou “estreita” (weak AI ou narrow AI) e não possui a consciência reflexiva da cognição humana, somente simula habilidades mentais. Desta forma, a IA depende da interferência humana para definir os parâmetros de seus algoritmos de aprendizado e fornecer os dados de treinamento relevantes para garantir a precisão. Há riscos tanto em rejeitar a tecnologia, quanto em confiar nela, podendo implicar problemas de discriminação e privacidade. Isso ocorre porque programas são criados por seres humanos que têm suas próprias crenças, valores e preconceitos, conscientes ou não. Esses valores e preconceitos (vieses) podem ser incorporados aos algoritmos por meio da escolha dos dados utilizados no treinamento do modelo, da definição das métricas de avaliação ou do próprio código do algoritmo. Há uma necessidade absoluta de abordar e gerenciar os riscos éticos apresentados pelas tecnologias e buscar caminhos para equilibrar os benefícios e os riscos que elas apresentam para indivíduos e sociedades. Para enfrentar alguns dos desafios advindos do uso da IA, as entidades de Bioética e Saúde devem discutir estratégias de segurança, privacidade e governança de dados. O trabalho a ser desenvolvido em relação ao alcance desses algoritmos em suas aplicações in- [2]
RkJQdWJsaXNoZXIy NjAzNTg=