A Inteligência Artificial (IA) é um campo emergente e inovador definido para mudar todos os setores em seu núcleo. A IA utiliza os dados disponíveis para aprender como resolver tarefas; supera em muito o cérebro humano em termos de eficiência e precisão. A IA tem se mostrado uma grande promessa por meio de sua integração bem-sucedida em muitos campos, como direção autônoma, assistentes de voz e muito mais.
As vantagens da IA tornam a sua integração na biomedicina e nos cuidados de saúde essencial e inevitável. A IA permite que o big data na área da saúde seja decomposto e analisado para obter uma maior compreensão e identificar padrões e riscos que podem passar despercebidos pela mente humana.
IA e privacidade
A IA tem se mostrado uma grande promessa na área da saúde, analisando dados genômicos e biomédicos, representando moléculas semelhantes a drogas e modelando células e suas funções. Essas histórias de sucesso não se limitam à pesquisa biomédica, mas também ao diagnóstico de condições e ao envolvimento em cuidados de saúde hospitalares. As tecnologias de IA superaram a precisão dos humanos na detecção de câncer de mama e na previsão de sepse. Essas vantagens da IA a tornam um campo que exige atenção, pois pode revolucionar a precisão da saúde e a compreensão da biomedicina. Juntamente com esses benefícios, também existem muitas preocupações com a privacidade em relação ao uso dos dados que a IA usa.
A IA depende de aprender com os dados coletados de indivíduos e garantir que os dados confidenciais permaneçam confidenciais é crucial para garantir o avanço da IA. Estudos revelaram que as técnicas de IA nem sempre mantêm a privacidade dos dados. Um exemplo é um estudo que demonstrou que a inclusão de um indivíduo em um conjunto de dados pode ser facilmente deduzida consultando a presença de um alelo específico e usando-o para identificar membros da família.
A inferência de associação é outro ataque que pode inferir a associação de um indivíduo consultando os dados disponíveis ou estatísticas publicadas por estudos de associação do genoma (GWAS). Esses estudos levaram à restrição do acesso a dados pseudonimizados e à introdução de leis de privacidade em torno dos dados de IA nos EUA e na UE. Consequentemente, para permitir a pesquisa colaborativa, as instituições acadêmicas e da indústria devem aplicar técnicas de preservação da privacidade para garantir a confidencialidade e o cumprimento da lei.
Técnicas de IA que preservam a privacidade
Recentemente, várias técnicas de IA foram propostas para preservar a privacidade na biomedicina. Essas técnicas podem ser amplamente categorizadas em quatro categorias: técnicas criptográficas, privacidade diferencial, aprendizado federado e abordagens híbridas.
As técnicas criptográficas envolvem criptografias homomórficas (HE) a serem executadas em estatísticas e computadas preservando a privacidade dos dados. HE podem ser parcialmente HE (PHE) ou totalmente HE (FHE) e determinam o nível de operações que os dados sofreram. PHE significa que os dados criptografados passaram por operações de adição ou multiplicação e FHE significa que operações de adição e multiplicação foram aplicadas aos dados criptografados. Outro tipo de criptografia criptográfica é a computação multipartidária segura (SMPC). Isso exige que as organizações participantes compartilhem um segredo separado e diferente com diferentes partes de computação que o computam e compartilham os resultados com outras partes de computação que calculam um resultado final. Este resultado é então devolvido aos participantes, pois é o mesmo.
A privacidade diferencial é um dos métodos mais avançados para eliminar violações de privacidade de dados. Este conceito baseia-se na introdução de pedaços de dados aleatórios em grandes conjuntos de dados que camuflam os dados confidenciais. Este é um método padrão utilizado pelo Google, Apple, United States Census Bureau e, mais recentemente, nas áreas de saúde e biomedicina. Isso é ideal para grandes conjuntos de dados centralizados em que a presença dos dados de um indivíduo específico é estatisticamente indistinguível de um conjunto de dados sem os dados desse indivíduo.
A aprendizagem federada é um processo que depende dos participantes, como hospitais, não compartilhando os dados que possuem, mas extraindo conhecimento de seus dados para compartilhar com os clientes. Isso exige que as instituições locais tenham IAs treinados que possam calcular esses dados e aplicar os parâmetros relevantes e compartilhar os resultados, sem as informações confidenciais, com um coordenador que constrói um modelo global. Essa demanda aumentou as plataformas de IA que visam aplicar aprendizado federado a dados no setor de saúde.
Uma técnica emergente para preservar a privacidade é uma abordagem híbrida que combina aprendizado federado com outras técnicas, como criptográfica e diferencial. A vantagem do aprendizado federado é que ele evita o compartilhamento dos dados dos pacientes com terceiros; no entanto, há potencial para abuso em relação aos parâmetros que são compartilhados com o coordenador se ele estiver comprometido. Portanto, aplicar HE aos dados criptografados ou introduzir dados aleatórios pode ser benéfico para eliminar a possibilidade de violação da privacidade dos dados.
O surgimento da IA destacou como os dados confidenciais do paciente são tratados e usados. Isto é particularmente importante no campo da biomedicina e da saúde, onde a confiança é crucial por razões éticas e também para o progresso da medicina. A IA pode ser empregada para evitar essas violações de privacidade de dados e garantir que a confidencialidade do paciente seja preservada.
Artigo Retirado de News Medical.