A Inteligência Artificial (IA) é um campo emergente e inovador definido para mudar todos os setores em sua essência. A IA utiliza os dados disponíveis para aprender a resolver tarefas; supera em muito o cérebro humano em termos de eficiência e precisão. A IA mostrou grande promessa por meio de sua integração bem-sucedida em muitos campos, como direção autônoma, assistentes de voz e muito mais.
As vantagens da IA tornam essencial e inevitável a sua integração na biomedicina e na saúde. A IA permite que o big data na área da saúde seja dividido e analisado para obter uma maior compreensão e identificar padrões e riscos que podem ser ignorados pela mente humana.
IA e privacidade
A IA mostrou-se muito promissora na área da saúde, analisando dados genômicos e biomédicos, representando moléculas semelhantes a drogas e modelando células e suas funções. Essas histórias de sucesso não se limitam à pesquisa em biomedicina, mas também ao diagnóstico de condições e ao envolvimento em cuidados de saúde de pacientes internados. As tecnologias de IA superaram a precisão dos humanos na detecção de câncer de mama e na previsão de sepse. Essas vantagens da IA a tornam um campo que exige atenção, pois pode revolucionar a precisão da saúde e a compreensão da biomedicina. Juntamente com esses benefícios, também existem muitas preocupações com a privacidade em relação ao uso dos dados que a IA usa.
A IA depende de aprender com os dados coletados de indivíduos e garantir que os dados confidenciais permaneçam confidenciais é crucial para garantir o avanço da IA. Estudos revelaram que as técnicas de IA nem sempre mantêm a privacidade dos dados. Um exemplo é um estudo que demonstrou que a inclusão de um indivíduo em um conjunto de dados pode ser facilmente deduzida consultando a presença de um alelo específico e usando-o para identificar membros da família.
A inferência de associação é outro ataque que pode inferir a associação de um indivíduo consultando os dados disponíveis ou estatísticas publicadas por estudos de associação de todo o genoma (GWAS). Esses estudos levaram à restrição do acesso a dados pseudonimizados e à introdução de leis de privacidade em torno dos dados de IA nos EUA e na UE. Consequentemente, para permitir a pesquisa colaborativa, a indústria e as instituições acadêmicas devem aplicar técnicas de preservação da privacidade para garantir a confidencialidade e a conformidade com a lei.
Tecnicas de IA que preservam a privacidade
Recentemente, várias técnicas de IA foram propostas para preservar a privacidade na biomedicina. Essas técnicas podem ser amplamente categorizadas em quatro categorias: técnicas criptográficas, privacidade diferencial, aprendizado federado e abordagens híbridas.
As técnicas criptográficas envolvem criptografias homomórficas (HE) a serem executadas em estatísticas e computam-nas preservando a privacidade dos dados. HE pode ser parcialmente HE (PHE) ou totalmente HE (FHE) e eles determinam o nível de operações que os dados sofreram. PHE significa que os dados criptografados foram submetidos a operações de adição ou multiplicação e FHE significa que operações de adição e multiplicação foram aplicadas aos dados criptografados. Outro tipo de criptografia criptográfica é a computação multipartidária segura (SMPC). Isso exige que as organizações participantes compartilhem um segredo separado e diferente com diferentes partes de computação que o calculam e compartilhem os resultados com outras partes de computação que calculam um resultado final. Este resultado é então devolvido aos participantes, pois é o mesmo.
A privacidade diferencial é um dos métodos mais avançados para eliminar violações de privacidade de dados. Esse conceito se baseia na introdução de dados aleatórios em grandes conjuntos de dados que camuflam os dados confidenciais. Esse é um método padrão utilizado pelo Google, Apple, United States Census Bureau e, mais recentemente, pelas áreas de saúde e biomedicina. Isso é ideal para grandes conjuntos de dados centralizados em que a presença de dados de um indivíduo específico é estatisticamente indistinguível de um conjunto de dados sem os dados desse indivíduo.
A aprendizagem federada é um processo que depende dos participantes, como hospitais, não compartilharem os dados que possuem, mas extrair conhecimento de seus dados para compartilhar com os clientes. Isso exige que as instituições locais tenham IAs treinadas que possam calcular esses dados e aplicar os parâmetros relevantes e compartilhar os resultados, sem as informações confidenciais, com um coordenador que constrói um modelo global. Essa demanda aumentou as plataformas de IA que visam aplicar o aprendizado federado aos dados no setor de saúde.
Uma técnica emergente para preservar a privacidade é uma abordagem híbrida que combina aprendizado federado com outras técnicas, como criptografia e diferencial. A vantagem do aprendizado federado é que ele impede o compartilhamento de dados de pacientes com terceiros; no entanto, há potencial para abuso em relação aos parâmetros que são compartilhados com o coordenador se ele estiver comprometido. Portanto, aplicar HE aos dados criptografados ou introduzir dados aleatórios pode ser benéfico para eliminar a possibilidade de violação de privacidade de dados.
O surgimento da IA destacou como os dados confidenciais do paciente são tratados e usados. Isto é particularmente importante no campo da biomedicina e da saúde, onde a confiança é crucial por razões éticas e também para a progressão da medicina. A IA pode ser empregada para evitar essas violações de privacidade de dados e garantir que a confidencialidade do paciente seja preservada.
Artigo retirado de News Medical.