Artigo
Privacidade, algoritmos inteligentes e futuro
Para Luciana Silva, cientista de Dados e Big Data, sistemas inteligentes e LGPD estão fortemente relacionados e não entender isso pode gerar muitos danos ao indivíduo e a sua privacidade
1°/12/2020
A privacidade é uma questão em alta no mundo. O Regulamento Geral de Proteção de Dados (GDPR) entrou em vigor na Europa em maio de 2018. No Brasil, em setembro de 2020, passou a vigorar a Lei Geral de Proteção de Dados Pessoais (LGPD).
Segundo o Gartner, espera-se que, até 2023, 65% da população mundial terá suas informações cobertas pelos modernos regulamentos de privacidade, contra os 10% de hoje. A privacidade está se tornando um dos motivos para os consumidores comprarem um produto, da mesma forma que os rótulos "orgânico" e "sustentável" 1.
Softwares tradicionais possuem princípios consolidados para guiar os esforços de privacidade, confidencialidade, integridade e disponibilidade, conforme descrito nas melhores práticas de mercado e padrões consistentes como ISO, ABNT, ITIL, COBIT, SOX. Em segurança da informação, os danos começam com o acesso não autorizado ao conjunto de dados ou às redes. Para a privacidade, o ponto de partida para os danos (uso, compartilhamento, venda não autorizada) é o acesso amplo ou acesso forçado. Prevenir ou gerenciar o acesso é uma tarefa relativamente intuitiva, dado o arcabouço de melhores práticas, diretrizes e princípios gerais para a implementação de sua gestão para qualquer organização.
Os profissionais de privacidade, segurança e cientistas de dados necessitam de confiança que os dados estarão adequadamente protegidos para implantar sistemas inteligentes. Sem estas proteções, os sistemas inteligentes enfrentarão barreiras para sua adoção. Em especial, a razão 75 do GDPR aponta "risco para os direitos e liberdades das pessoas singulares, em especial quando o tratamento possa dar origem à discriminação, à usurpação ou roubo da identidade, a perdas financeiras, prejuízos para a reputação, perdas de confidencialidade de dados pessoais protegidos por sigilo profissional, à inversão não autorizada da pseudonimização, ou a quaisquer outros prejuízos importantes de natureza econômica ou social".
Então, por que a segurança e a privacidade são aplicadas de forma diferente em sistemas inteligentes?
A escala de volume de dado coletado, as possibilidades de uso dos modelos existentes (além dos imaginados pelos criadores) e o poder de inferência que tais modelos geram são diferentes dos softwares tradicionais. As estruturas de proteção de dados tradicionais são baseadas em danos derivados do ponto de acesso. Entretanto, em sistemas inteligentes, para infringir a confidencialidade ou criar uma violação de privacidade, nem sempre será por um acesso direto aos dados.
Isso expõe os sistemas inteligentes a riscos de privacidade e segurança de novas maneiras. Tanto danos a privacidade quanto danos a segurança podem ocorrer, sem acesso direto aos dados de treinamento porque os próprios modelos podem representar esses dados muito tempo depois do treinamento. Da mesma forma, o comportamento dos modelos pode ser manipulado sem precisar de acesso direto ao seu código fonte. Sendo assim, os danos podem ser categorizados em dados informacionais e comportamentais. O dano informacional geralmente é não intencional ou causado por um imprevisto de vazamento de informações. Por sua vez, o dano comportamental ocorre quando há a manipulação do comportamento do modelo, impactando as previsões ou resultados do modelo.
O que pode ser feito para mitigar e ajudar a lidar com estes danos?
Uma primeira abordagem pode ser a adoção de uma metodologia capaz de identificar, articular e categorizar os tipos de danos que podem resultar da tomada de decisão automatizada. O fórum de privacidade desenvolveu uma metodologia2 em três etapas. A primeira etapa consiste no agrupamento dos danos em:
- perda de oportunidade: ocorrem dentro dos domínios do local de trabalho, habitação, sistemas de apoio social, saúde e educação
- perda econômica: causam prejuízo financeiro ou discriminação no mercado de bens e serviços, incluindo discriminação de crédito, discriminação de preços e estreitamento das escolhas
- prejuízo social: prejudicam o impacto do senso de pertencimento, autoestima ou posição na comunidade em relação aos outros, e incluem bolhas de filtro e rede, danos de dignidade, reforço de estereótipo e viés
- perda de liberdade: prejudicam ou restringem a liberdade física e a autonomia, inclusive através da restrição, vigilância e encarceramento
Em uma fase posterior, é identificado se os danos manifestam-se para indivíduos ou coletivamente, e também se são ilegais ou injustos. Finalmente, os danos são agrupados por semelhança quando é possível utilizar as mesmas estratégias de mitigação:
- danos individuais que são ilegais
- danos individuais que são injustos, mas têm um análogo ilegal correspondente
- danos coletivos que tenham um dano individual ilegal correspondente
- danos individuais que sejam injustos e não tenham um análogo ilegal correspondente
- danos coletivos que carecem de um análogo individual correspondente
Uma segunda recomendação consiste em montar equipes multidisciplinares para atuarem na auditoria de sistema inteligentes. Equipes para atuarem nas três linhas de defesa. A proposta deste acompanhamento ao longo de todo o ciclo de vida do sistema inteligente é distinto do ciclo de desenvolvimento: o objetivo é desenvolver processos que direcionem várias equipes para avaliar os modelos e garantir a segurança ao longo do tempo. A primeira linha de defesa formada por desenvolvedores e testadores dos modelos. A segunda linha responsável pela validação de modelos e revisão legal de dados. Por fim, a terceira linha de defesa responsável por auditorias periódicas ao longo do tempo.
A terceira e última recomendação consiste em criar processos de comunicação contínua e multifuncional para os sistemas inteligentes. Uma comunicação contínua e entre equipes é necessária para ajudar a garantir a privacidade e a segurança de sistema inteligentes. Cientistas de dados e desenvolvedores precisam de acesso a perícias legais para identificar riscos de privacidade no início do ciclo de um sistema inteligente. Da mesma forma, advogados e equipe da privacidade precisam acessar os termos do projeto para entender as limitações técnicas e identificar danos potenciais. Ou seja, é preciso um processo que garanta uma comunicação contínua entre as equipes para evitar que nenhuma equipe opere isoladamente.
A privacidade é uma realidade mundial. E o futuro da privacidade esbarra nas questões de inteligência artificial. Acreditando que teremos um marco regulatório de inteligência artificial3 centrado no bem-estar humano, podemos iniciar imediatamente o levantamento dos riscos que um sistema inteligente pode causar para indivíduos e sociedade. Este ponto de partida poderá ajudar a traçar estratégias para um futuro que está muito mais próximo do que imaginamos.
Referências
1 https://www.gartner.com/smarterwithgartner/gartner-predicts-for-the-future-of-privacy-2020/
2 https://arxiv.org/pdf/1811.00513.pdf; e https://www.immuta.com/beyond-explainability-a-practical-guide-to-managing-risk-in-machine-learning-models/
3 https://www.camara.leg.br/noticias/641927-projeto-cria-marco-legal-para-uso-de-inteligencia-artificial-no-brasil/
LUCIANA OTÁVIA SILVA
É mestre em Informática, PMP e especialista em Ciência de Dados e Big Data pela PUC Minas. Analista no Serpro desde 2006, atuando nas áreas de desenvolvimento e negócio. Atualmente, integra a área de organização, processos e projetos do Serpro.
____________________________________________
Também quer colaborar?
A expectativa deste portal, colaborativo e dinâmico, é integrar opiniões divergentes e convergentes sobre a LGPD, desafios e conquistas da lei. É um ambiente aberto ao debate plural e com a vocação de serviço público: precisa da sociedade civil, governo, setor privado, academia e imprensa para crescer e alcançar o objetivo, comum a todos, de ajudar a zelar pela privacidade e proteção dos dados dos cidadãos do país. Se você também tem algum conteúdo recente - ou mesmo exclusivo - autoral ou autorizado relacionado à LGPD, e que seja de interesse público, clique aqui e veja como contribuir.