scholarly journals TECNOLOGIAS DE PERFILAMENTO E DADOS AGREGADOS DE GEOLOCALIZAÇÃO NO COMBATE À COVID-19 NO BRASIL

2020 ◽  
Vol 14 (1) ◽  
pp. 105-148
Author(s):  
Diego Carvalho Machado ◽  
Laura Schertel Mendes
Keyword(s):  

O presente trabalho visa analisar os riscos à privacidade e à proteção de dados pessoais – nas suas dimensões individual e coletiva – gerados pelo perfilamento baseado no uso de dados agregados de geolocalização de dispositivos móveis, buscando investigar a existência de parâmetros normativos encontrados na Lei Geral de Proteção de Dados (LGPD) aplicáveis aos riscos identificados. Para tanto, o artigo propõe as seguintes questões de pesquisa: (i) quais riscos aos direitos fundamentais à privacidade e à proteção de dados pessoais tecnologias de perfilamento baseadas no uso de dados agregados de geolocalização de dispositivos móveis geram nos níveis individual e coletivo na luta contra a pandemia de COVID-19 no Brasil? (ii) a LGPD prevê parâmetros normativos aplicáveis a fim de lidar com esses riscos, em especial a grupos criados a partir de sistemas algorítmicos? Na sociedade orientada por dados, o perfilamento automatizado tem importante função na infraestrutura da informação e da comunicação preponderante da computação preemptiva (preemptive computing). Neste contexto, dá-se a afirmação da dimensão coletiva dos direitos à privacidade e à proteção de dados pessoais. Os riscos detectados a ambos direitos, inclusive no âmbito coletivo ou de grupo, são o de reidentificação dos usuários de dispositivos móveis por ataques inferenciais (membership inference attacks)  e de desvirtuamento de função e finalidade originária do tratamento dos dados. A fim de lidar com tais riscos, sugere-se uma interpretação sistemática de  parâmetros normativos da LGPD, que tratam de perfilamento automatizado e de relatório de impacto à proteção de dados pessoais.

Author(s):  
Michael Veale ◽  
Reuben Binns ◽  
Lilian Edwards

Many individuals are concerned about the governance of machine learning systems and the prevention of algorithmic harms. The EU's recent General Data Protection Regulation (GDPR) has been seen as a core tool for achieving better governance of this area. While the GDPR does apply to the use of models in some limited situations, most of its provisions relate to the governance of personal data, while models have traditionally been seen as intellectual property. We present recent work from the information security literature around ‘model inversion’ and ‘membership inference’ attacks, which indicates that the process of turning training data into machine-learned systems is not one way, and demonstrate how this could lead some models to be legally classified as personal data. Taking this as a probing experiment, we explore the different rights and obligations this would trigger and their utility, and posit future directions for algorithmic governance and regulation. This article is part of the theme issue ‘Governing artificial intelligence: ethical, legal, and technical opportunities and challenges’.


2017 ◽  
Vol 10 (34) ◽  
pp. 1-5
Author(s):  
D. Sai Eswari ◽  
Afreen Rafiq ◽  
R. Deepthi ◽  
◽  
◽  
...  

2021 ◽  
Author(s):  
Dario Pasquini ◽  
Giuseppe Ateniese ◽  
Massimo Bernaschi
Keyword(s):  

2021 ◽  
Author(s):  
Benjamin Zi Hao Zhao ◽  
Aviral Agrawal ◽  
Catisha Coburn ◽  
Hassan Jameel Asghar ◽  
Raghav Bhaskar ◽  
...  

2021 ◽  
Author(s):  
Ülkü Meteriz-Yıldıran ◽  
Necip Fazil Yildiran ◽  
David Mohaisen

2021 ◽  
pp. 103977
Author(s):  
Ziqi Zhang ◽  
Chao Yan ◽  
Bradley A. Malin

Sign in / Sign up

Export Citation Format

Share Document