PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

24
coleção DIREITO PRIVADO VOL. 1 Juliana Abrusio Juliana Abrusio PROTEÇÃO DE DADOS na cultura do algoritmo

Transcript of PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

Page 1: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

coleção

DIREITO PRIVADOVOL. 1

Juliana AbrusioJuliana Abrusio

Juliana AbrusioJuliana Abrusio

PROTEÇÃO DE DADOS

na cultura do algoritmo

A cultura do algoritmo presente na sociedade informacional trouxe consigo complexidades antes não experimentadas. Esta obra destaca e analisa os novos desafios, no âmbito da disciplina da proteção de dados pessoais, gerados a partir da ubiquidade dos processamentos algorítmicos, mediante correlações, com reconhecimento de padrões e inferências, que podem acabar por comprometer a autonomia individual e coletiva. As questões éticas ligadas às tecnologias de inteligência artificial de alto risco precisam ser preservadas juntamente com a construção de uma governança ancorada na transparência, explicabilidade, accountability, não discriminação e observância dos princípios e regras de proteção de dados pessoais desde a concepção dos seus sistemas.

A sociedade informacional revela-se, também, em uma sociedade de dados, na qual o mercado de atenção, por meio de aplicações com o incessante tratamento de dados pessoais, consiste na nova engrenagem da economia. Usando algoritmos de reconhecimento de padrões, os dados pessoais passam a ser convertidos em rankings, cálculos de risco, scores, perfis de consumo, de preferências políticas e de outras informações que geram valor. Muito embora exista uma disciplina de proteção de dados, novos desafios se apresentam em razão da cultura de processamentos algorítmicos, abrindo espaço para preocupações quanto ao comprometimento do exercício da autonomia, em nível individual e coletivo, bem como da proteção dos dados pessoais.

PROTEÇÃO DE DADOSna cultura do algoritm

o

VOL. 1

ISBN 978-65-5589-085-3

JULIANAABRUSIODoutora em Direito pela PUC-SP. Mestre em Direito pela Università degli Studi di Roma Tor Vergata. Professora da Faculdade de Direito da Universidade Presbiteriana Mackenzie. Diretora do Instituto Legal Grounds for Privacy Design (Instituto LGPD). Advogada em São Paulo.

Page 2: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

PROTEÇÃO DE DADOS

na cultura do algoritmo

Page 3: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo
Page 4: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

coleção

DIREITO PRIVADOVOL. 1

Juliana AbrusioJuliana Abrusio

PROTEÇÃO DE DADOS

na cultura do algoritmo

Page 5: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

Plácido Arraes

Tales Leon de Marco

Bárbara Rodrigues

Nathália Torres

Letícia Robini

Editor Chefe

Editor

Produtora Editorial

Capa, projeto gráfico

Diagramação

Todos os direitos reservados.

Nenhuma parte desta obra pode ser reproduzida, por quaisquer meios, sem a autorização prévia do Grupo D’Plácido.

W W W . E D I T O R A D P L A C I D O . C O M . B R

Belo HorizonteAv. Brasil, 1843,

Savassi, Belo Horizonte, MGTel.: 31 3261 2801

CEP 30140-007

São PauloAv. Paulista, 2444, 8º andar, cj 82Bela Vista – São Paulo, SPCEP 01310-933

Copyright © 2020, D’Plácido Editora.Copyright © 2020, Juliana Abrusio.

Catalogação na Publicação (CIP)

Bibliotecária responsável: Fernanda Gomes de Souza CRB-6/2472

Abrusio, Juliana CanaA164 Proteção de dados na cultura do algoritmo / Juliana Abrusio. - 1. ed. - Belo Horizonte, São Paulo : D’Plácido, 2020.

396 p. - (Coleção Direito Privado; v. 1)

ISBN 978-65-5589-085-3

1. Direito. 2. Direito Constitucional. 3. Sigilo da correspondência e das comunicações telegráficas, telefônicas e de dados. I. Título.

CDDir: 341.2738

Page 6: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

A Marco Aurélio, Gabriel e Maria Eduarda

Page 7: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo
Page 8: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

Agradecimentos

Agradeço aos meus familiares e amigos pelo apoio incondicional, com seleto carinho a meu marido Marco Aurélio, filhos Gabriel e Maria Eduarda e a meus pais, Maria Ines e Ricardo.

Agradeço, ainda, ao Professor Willis Santiago Guerra Filho, por ser um farol em meio às águas tempestuosas. Também agradeço aos profes-sores Juliano Maranhão pelas conversas e críticas ao trabalho, e a Cláudio Brandão, pela confiança e incentivo de publicação, bem como ao Plácido Arraes por materializá-la.

Por fim, porém o mais importante, agradeço a Deus, criador e mante-nedor da vida, por Seu sublime e inexplicável amor, por Seu cuidado e por Sua infinita misericórdia e graça imerecida. A Ele seja toda glória, toda honra e todo louvor.

Page 9: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo
Page 10: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

Sumár io

Prefácio 11

Apresentação 13

Introdução 17

1. Paradigma informacional na sociedade contemporânea 23

1.1. Sociedade informacional 23

1.2. Data is the new oil 34

1.3. Dilema de causalidade: dados e tecnologia 42

1.4. A massificação de dados e o big data 47

1.5. Internet das coisas: a conectividade onipresente e a datificação da vida 60

1.6. Inteligência, consciência e fusão homem-máquina 69

1.7. Inteligência artificial e entropia dos algoritmos 79

1.8. Sociedade da informação e sua regulação 96

2. Da proteção de dados pessoais na sociedade da informação 115

2.1. A reinvenção da privacidade: do ‘direito de estar só’ ao ‘controle dos dados pessoais’ 115

Page 11: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

2.2. A proteção de dados e as vulnerabilidades trazidas pelas novas tecnologias 132

2.3. Autodeterminação informativa 144

2.4. Direito fundamental à garantia da confidencialidade e integridade dos sistemas técnico-informacionais 155

2.5. Das dimensões da proteção de dados pessoais 159

2.6. O caminho percorrido em âmbito da proteção de dados pessoais no continente europeu nas primeiras décadas do século XXI 166

2.7. Breve análise comparativa da tutela da proteção de dados pessoais nos Estados Unidos da América 179

2.8. Sistema de proteção de dados pessoais no direito brasileiro 194

3. Cultura do algoritmo 205

3.1. Algocracia: novas formas de controle 205

3.2. Reconhecimento Facial 216

3.3. Ética algorítmica 222

3.4. Algoritmos e Discriminação 237

3.5. Opacidade dos algoritmos 245

3.6. Decisões automatizadas sobre indivíduos e a prática de profiling 254

3.7. Direito à Explicação 265

3.8. A (in)eficiência do consentimento 287

3.9. A contribuição da tecnologia na proteção de dados em IA 304

3.10. A primeira decisão europeia que declara ilegal um algoritmo 315

3.11. Princípio da inteligência artificial explicável 317

3.12. Relatório de Impacto Algorítmico e o Princípio da Accountability 334

3.13. Auditorias algorítmicas 347

Conclusão 355

Referências 359

Page 12: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

11

Prefác io

É com imensa alegria que atendo ao honroso convite para prefaciar esta obra da Profa. Dra. Juliana Abrusio, pela antiga amizade que nos une, desde meu período como integrante do corpo docente da Universidade Presbite-riana Mackenzie, quando me chamou a atenção a seriedade e dedicação com que se situava em relação ao magistério superior, aliada a um envolvimento com as mesmas qualidades à advocacia, como rarissimamente me deparei ao longo desses muitos anos de convívio com profissionais dessa dupla militân-cia, sendo mais comum que uma das duas saia prejudicada, em benefício da outra. A isso veio posteriormente se somar ainda o desvelo no casamento e na maternidade, sendo entre tantas atividades que conseguiu produzir uma tese de doutorado que tive o privilégio de acompanhar o desenvolvimento, mais como observador do que orientador, dado que versava sobre tema em que ela notoriamente se qualifica como uma das principais especialistas do país, propondo-se a realizar uma consideração a respeito que se alçasse ao plano mais teórico, como é aquele da filosofia do direito. É sua tese nesta área, defendida com brilhantismo e aprovada com nota máxima na PUC-SP, que agora vem a público, na forma da obra que o leitor tem em mãos.

É certo, por outro lado, que o momento atual em que redijo essas linhas não é pródigo em alegrias, acometidos como estamos de uma crise sem pa-ralelos na história da chamada sociedade mundial (Luhmann), por conta da eclosão da Covid-19, sociedade esta que é também a sociedade de dados de que trata a presente obra. Foi a intensificação e estreitamento da comunicação em nível global que criou as condições para a ocorrência de uma tal crise sanitária, com as proporções nas quais esta se apresenta, assim como o seu en-frentamento haverá de se dar também com os recursos que nela se apresentam, e dentre eles se destaca justamente a nossa capacidade de armazenamento, processamento e compartilhamento de dados. Ocorre que tal poderio há de encontrar limites, para não desrespeitar a intangível dignidade daqueles a ele

Page 13: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

12

sujeitos, sendo ao que se presta esta garantia fundamental insculpida em um princípio igualmente fundamental que é aquele da proporcionalidade. Nas diretrizes contidas no “Statement on the processing of personal data in the context of the COVID-19 outbreak”, adotado em 19 de março de 2020, pela Comissão Europeia para Proteção de Dados Pessoais, em seu item 1.3, aparece alerta no sentido de que qualquer legislação excepcional a ser implementada haverá de respeitar os limites que no Estado democrático são delineados pelo princípio da proporcionalidade. Adiante, no item 3, isto é especificado, nos seguintes termos: “The least intrusive solutions should always be preferred, taking into account the specific purpose to be achieved. Invasive measures, such as the ‘tracking’ of individuals (i.e. processing of historical non-anony-mised location data) could be considered proportional under exceptional circumstances and depending on the concrete modalities of the processing. However, it should be subject to enhanced scrutiny and safeguards to ensure the respect of data protection principles (proportionality of the measure in terms of duration and scope, limited data retention and purpose limitation)”.

E não é diverso o que se lê aqui, quando ao final do seu item 1.1, ao caracterizar a sociedade de informação, nossa A. conclui afirmando ser “uma sociedade voltada ao tratamento de dados pessoais, por cuja conjectura deli-neia a feição do que hoje também se pode chamar por ‘sociedade de dados’, sendo que a elevada circulação de dados pessoais, aliada às possibilidades de controle panóptico do mercado e do Estado, impõe a tarefa de refletir sobre os seus limites, na esteira da razoabilidade e proporcionalidade, para as práticas ocorridas nessas esferas”.

Fica então o leitor já inteirado do que o espera ao se dedicar ao estudo da presente obra, com qualidades suficientes para se tornar um verdadeiro marco no campo, novo e extremamente importante, a que pertence, estando assim cumprido, do meu ponto de vista, o papel do prefaciador, que em se delongando só privaria o acesso imediato ao que de fato interessa, a saber, a leitura da obra propriamente dita.

Em isolamento devido à Covid-19, Fortaleza, 28 de março de 2020.

Willis Santiago Guerra FilhoProfessor Titular do Centro de Ciências Jurídicas e Políticas da Univer-

sidade Federal do Estado do Rio de Janeiro. Professor Permanente do Programa de Estudos Pós-Graduado em Direito (Mestrado em Douto-

rado) da Pontifícia Universidade Católica de São Paulo.

Page 14: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

13

Apresentação

Ao observar a transformação econômica e social impulsionada pelos avanços tecnológicos, tendemos a privilegiar a descrição do fenômeno, sem nos atentar para o que Dilthey chamava de consciência histórica do homem, ou seja, a percepção de que não só as sociedades mudam como muda também a forma de representação de que cada cultura tem de si. Essa consciência his-tórica é fundamental para compreender o significado da inteligência artificial, bem como sua tradução jurídica.

Isso porque a inteligência artificial representa uma quebra do egocen-trismo humano comparável às grandes revoluções científicas, desde Copér-nico, passando por Darwin e Freud. Como Bruce Mazlish argutamente nos aponta, a inteligência artificial representa a quebra da quarta descontinuidade nas explicações científicas sobre a natureza humana. A revolução coperni-cana diluiu a distinção entre uma teoria física para os corpos terrestres e os fenômenos celestiais, ao mostrar que nosso planeta não tem uma posição privilegiada em relação aos demais. O darwinismo, por sua vez, trouxe uma teoria unificada, que mostra uma gradação evolutiva entre as “bestas” e o homem. E Freud quebrou a distinção entre humanos saudáveis e doentes mentais, por uma explicação que reconhece diferentes graus de distúr-bios psíquicos, derivados de manias às quais todos, por sua natureza, estão submetidos. A inteligência artificial vem agora quebrar a distinção entre o funcionamento das máquinas e da mente humana, fazendo ganhar força, ao lado da explicação mecanicista de nosso organismo, as teorias computacio-nais da mente. Essas unificações teóricas acabam por ser incorporadas pela consciência popular, não sem antes enfrentar tabus culturais e instituições suportadas por determinadas visões de mundo: vivemos em um corpo celestial como qualquer outro, somos apenas mais uma espécie animal, de louco todos temos um pouco e, como máquinas orgânicas, podemos ser superados por circuitos elétricos em diversas tarefas.

Page 15: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

14

A superação dos tabus na nossa tomada de consciência sobre a própria humanidade é significativa, pois desencadeia uma reconfiguração dos valores que orientam nossa conduta. Essa reconfiguração é, ao mesmo tempo, refletida e provocada pelo direito, como uma prática social que constitui um objeto histórico-cultural.

Ao lidar com as implicações da inteligência artificial sobre o ramo jurídico da proteção de dados pessoais, a obra “A Proteção de Dados Pessoais na Cultura do Algoritmo” percebe bem essa tomada de consciência em sua dimensão cultural. Não é a inteligência artificial que causa mudanças ou provoca novos regramentos jurídicos, de modo unidirecional, mas a tomada de consciência sobre o significado da inteligência artificial ganha corpo com os novos hábitos e com a própria normatividade jurídica. E isso é particu-larmente verdadeiro com relação à legislação sobre dados pessoais no Brasil. Sua adoção e, ao mesmo tempo, sua provocação- com a conceptualização de práticas como profiling e de “decisões automatizadas” (termo que, há algumas décadas, sequer faria sentido)- ocorre em momento de explosão e dissemi-nação de sistemas que incorporam inteligência artificial e que são aplicados nos mais diferentes aspectos da vida social e econômica.

Com isso, a proteção de dados pessoais e a inteligência artificial nascem, no Brasil, imbricadas. Não só o emprego de inteligência artificial passa a ser o grande alvo de atenção da proteção de dados, uma vez que sistemas baseados em aprendizado de máquina demandam grandes volumes de da-dos para que alcancem desempenho eficiente, mas também a inteligência artificial coloca em xeque conceitos fundamentais nos quais se baseia a legislação de proteção de dados.

A obra aborda esses dois aspectos. Na primeira parte, a questão central é se os modelos de exploração

econômica nos mercados digitais, impulsionados por inteligência artificial e análise de Big Data, coloca-nos diante de uma nova era da proteção de dados: não mais apenas de uma proteção da privacidade, nem mais apenas da autodeterminação informacional perante o Estado, ou perante grandes grupos econômicos do mercado digital, nem mais apenas da produção descentralizada da informação na economia de redes, mas de uma era em que as máquinas coletam, processam dados e tomam decisões cuja justificação é, muitas vezes, opaca. Aqui há um deslocamento do direito à autodeterminação informacional, perante organizações que controlam ou intermediam o tráfego de dados, para um direito à boa inteligência artificial, como um dos elementos relevantes para construção da confiança social nos sistemas informáticos.

Essa construção da confiança no relacionamento dos cidadãos com a tecnologia nos leva à segunda parte da obra, na qual são discutidos os aspectos éticos ligados ao desenvolvimento e emprego dos sistemas de inteligência artificial. Dentre eles, elementos que são caros à legislação de proteção de

Page 16: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

15

dados, como a proteção contra a discriminação algorítmica, mas também dentre eles, elementos que questionam os próprios fundamentos dessa pro-teção, sobretudo a implosão do consentimento na raiz da autodeterminação informacional, seja pela limitação cognitiva do sujeito de dados perante o poder inferencial dos sistemas de inteligência artificial, seja pela limitação volitiva do sujeito de dados perante o poder econômico e informacional das grandes plataformas de internet.

Temas intricados, complexos, compreendidos da perspectiva de incor-poração da inteligência da inteligência artificial em nossa forma de vida, ao mesmo tempo tratados com clareza e com grande riqueza de fontes, fruto de minucioso trabalho de pesquisa e de uma articulação bem sucedida de posições cognitivas e normativas sobre a tecnologia e seus reflexos sobre a privacidade e a proteção de dados pessoais. É o que o leitor encontrará nessa importante contribuição para o atual cenário brasileiro de direito digital.

São Paulo, 21.07.2020

Juliano MaranhãoDoutor e livre docente pela Faculdade de Direito da

Universidade de São Paulo. Pós-doutorado na Faculdade de Ciência da Computação da Universidade de Utrecht. Professor

associado do Departamento de Filosofia e Teoria Geral do Direito da Universidade de São Paulo. Pesquisador da Fundação Humboldt

e professor convidado da Goethe-Universitat Frankfurt am Main.

Page 17: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo
Page 18: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

17

Int rodução

A amplificação do trabalho mental do homem, por meio da produção automatizada em massa da informação, consiste em uma das características mais determinantes da sociedade da informação. Os dados substituíram as fábricas como símbolo social e tornaram-se o centro de produção da econo-mia atual. Diante dessa nova ordem, constatamos como a rápida evolução das tecnologias da informação alterou a geometria das relações entre indivíduos, empresas e Estado.

No panorama da sociedade contemporânea ganham especial destaque, em razão do potencial risco à proteção de dados pessoais, os fenômenos do big data e da internet das coisas, dado ao crescente número de dispositivos e de sensores conectados por redes digitais, capazes de captar grande quantidade de dados, incrementando a massa já existente e criando-se novas instâncias de correlações e inferências.

A sociedade hodierna está umbilicalmente vinculada à datificação da vida. Muitos atos da vida de um indivíduo passam a ser representados por dados de ordem lógica e estruturada, possibilitando cruzamento e combina-ções estatísticas. Diante desse cenário, passamos a percorrer os caminhos que dissiparam as fronteiras entre o natural e o artificial, distinção bem delineada na tradição ocidental desde os gregos entre phsis e techné.

Operações que sempre foram exclusivas do campo humano adentram as máquinas, as quais, por meio de artifícios, atingem a proeza de determinadas aptidões inteligentes. Desde Alan Turing, o homem pós-orgânico procura imprimir ao artificial, habilidades e reações comportamentais do ser humano, perseguindo respostas à célebre pergunta se ‘as máquinas podem pensar?’

A inteligência artificial, portanto, passa a ganhar espaço em diversos tecidos sociais, e embora suas origens remontem a décadas atrás, ganha evi-dente e significativa importância mais recentemente, em razão da crescente utilização dos sistemas inteligentes no cotidiano da indústria, dos negócios, das autoridades públicas, e dos indivíduos.

Page 19: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

18

Nesse contexto, passamos a abordagens aproximativas sobre o conceito e funcionamento do algoritmo, verificando que este não persiste em si mesmo, porquanto se não houver dados, inexiste a engrenagem de seu funciona-mento. Daí se depreende que mais importante do que a própria composição dos algoritmos, são os dados que o alimentam. E essa constatação é a pedra angular da presente obra.

É analisada como a tecnologia da inteligência artificial, enquanto fer-ramenta que impacta a relação social, está sendo levada aos debates jurídicos que conduzem a entendimentos sobre sua ontologia, como fase anterior à sua normatização em forma de regras jurídicas. Nesse cenário, a autorregulação e a corregulação apresentam-se como possibilidades, tanto na área de proteção de dados, como da inteligência artificial.

A partir de então, passamos a investigar a privacidade, fruto de uma concepção da modernidade, compreendida, prioritariamente, como o direito negativo de ser deixado em paz, mas que, na travessia do século XX, diante de ameaças do uso indevido de informações pessoais pelo Estado, e também por empresas privadas, pautadas pela distopia orwelliana, assume um significa-do dinâmico, referente ao controle de dados pessoais do próprio indivíduo.

A evolução tecnológica ocorrida desde o século passado deslocou os debates sobre o assunto, tomando as seguintes direções: i) os problemas in-dividuais específicos da privacidade tornam-se conflitos que afetam a todos; ii) a concepção de esfera pública não se apresenta como antes, porquanto a sociedade de rede transpassou, em grande parte, a sociedade de organizações, quando a produção de informação era mais centralizada nos meios de co-municação, diluindo-se, portanto, a oposição clássica entre as esferas pública e privada; iii) a dinâmica das novas tecnologias, ligadas à inteligência artificial e machine learning, possível graças aos fenômenos da datificação e da massificação de dados, passam a desafiar a atual estrutura de regulação jurídica.

Com isso, observamos a grande importância assumida pela privacidade diante da incessante captura e tratamento de dados pessoais, tanto com fins econômicos como para fins de controle e vigilantismo. A maioria dos teó-ricos, atualmente, classifica a privacidade e a ética como um dos temas mais relevantes a serem enfrentados pelas ciências sociais, a exemplo de Luciano Floridi que, em sua obra “4th Revolution: how the infosphere is reshaping human reality”, menciona: “the ethical problem of privacy has become one of the defining issues of our hyperhistorical time” (p.102).

Nessa linha de abordagem, analisamos a origem, a evolução e a rein-venção da privacidade, cujo processo deságua no conceito de controle que o indivíduo deve ter sobre seus dados pessoais, consagrado pelas doutrinas da autodeterminação informativa e da liberdade informática, como se cada qual fosse um lado de uma mesma moeda: privacidade e proteção de dados pessoais. Em seguida, fazemos uma exposição dogmática dos regimes jurídicos

Page 20: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

19

da Europa e do Brasil, com breve olhar aos Estados Unidos da América, com fins comparativos de seus sistemas. Analisamos, ainda, o direito fundamental à garantia da confidencialidade e da integridade dos sistemas técnico-informa-cionais, proclamado, em 2008, no âmbito de uma reclamação constitucional, ajuizada contra dispositivos da lei do Estado alemão de Nordrhein-Westfalen, que regulamentava a busca e a investigação remota de computadores de pessoas suspeitas de cometer ilícitos criminais.

Na terceira parte desse trabalho, voltamo-nos à problematização afeita à cultura do algoritmo, com recorte aos efeitos à proteção de dados pessoais. Para tanto, averiguamos o surgimento de novas formas de centralização de controle, sob o regime da algocracia, que acabam por ditar a dinâmica dos indivíduos em muitos setores de suas vidas. Verificamos, assim, como a identi-dade do indivíduo tem sido percebida, atualmente, por construções e padrões digitais, de modo que se pode afirmar que os algoritmos acabam integrando a percepção da construção da própria identidade. Examinamos como essa condição representa uma mudança na premissa sobre o que significa governar a si mesmo e ser governado por outros, para mobilizar o poder político e influenciar percepções, escolhas e comportamentos.

Fica evidente que o assunto carece de maiores aprofundamentos na área da ética algorítmica. Nesse sentido, realizamos uma recolta de iniciativas para criação de marcos éticos que sirvam de orientação à comunidade construtora para o desenho e produção de sistemas artificiais inteligentes. Destacamos que, citadas regras, para além das leis de Asimov, devem estar embuídas da finalidade de frear os riscos relacionados com a dignidade da pessoa humana, no que inclui a proteção à privacidade e aos dados pessoais do indivíduo, perseguindo a manutenção do princípio da autodeterminação informativa e da não discriminação.

Desponta na obra, portanto, o desafio de como combinar o uso ético nos processamentos algorítmicos, feitos a partir de dados pessoais. Tornou-se uma obrigação social, tanto do setor privado quanto por parte de governos, emitirem posições éticas na tecnologia que prevalece no presente e, cada vez mais, no futuro. Abre-se espaço, em decorrência, para constatar como o valor da confiança configura-se como essencial no uso dos sistemas de tecnologia de inteligência artificial, a fim de construir uma governança ética e responsável. Para tanto, é imprescindível o respeito ao direito fundamental da proteção de dados pessoais para o resguardo, inclusive, da própria dignidade humana.

Nesse cenário, surge a tecnologia do reconhecimento facial, a qual, va-lendo-se do uso de dados sensíveis, tem se apresentado como uma das pedras de toque na área da inteligência artificial e proteção de dados pessoais. A preo-cupação em torno desse assunto é, dentre outras, que a tecnologia permita que as autoridades públicas identifiquem indivíduos sem causa provável, suspeita razoável ou qualquer outro fundamento legal, em clara ameaça à privacidade.

Page 21: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

20

Outro aspecto importante abordado nessa obra diz respeito aos vieses (bias) discriminatórios. Essas novas formas de discriminações algorítmicas tem se apresentado como uma ameaça à igualdade de oportunidade, no que implica a regra de que os sistemas de inteligência artificial precisam ser, necessariamente, verificados e validados quanto à inexistência de vieses discriminatórios, por conta de sua utilização na criação de perfis e tomada de decisões automatizadas.

As questões ligadas a inferências equivocadas, discriminações, e oportuni-dades desiguais, em decorrência, abrem campo para a discussão sobre a trans-parência dos algoritmos e dados utilizados. Nessa vereda, falar em transparência em um contexto de algoritmos significa fazer referência ao grau com que os elementos que compõe determinado algoritmo podem ser compreendidos.

A discussão em torno do uso de métodos de inteligência artificial sobre dados pessoais, incluindo seu caráter black box se deve, em especial, ao fato da crescente utilização desses comandos para a definição de perfis, isto é, a prática de profiling, e para a tomada de decisões automatizadas, as quais são utilizadas cada vez mais, tanto por empresas como pelo setor público, para aumentar a eficiência e a otimização de serviços, gerando economia de recursos em diversas aplicações comerciais. Grande parte do insumo dessas práticas é o dado pessoal, daí a interconexão com o assunto da privacidade e da proteção dos dados pessoais.

A definição de perfis (profiling) pode afetar diretamente a liberdade de escolha do indivíduo, e comprometer a construção de sua real identidade social. Isso porque a definição de perfis artificial é suscetível de perpetuar os estereótipos existentes, podendo vincular o indivíduo a uma determinada categoria específica e limitá-las às respectivas preferências sugeridas, com-prometendo a liberdade de escolher.

Um dos grandes perigos das decisões tomadas com base em processa-mento automatizado é o falso sentimento e aparência de que, justamente por não envolver elemento humano na tomada de decisão, esta seria mais objetiva, o que não é necessariamente verdade.

Em resposta às questões apresentadas, para salvaguardar os direitos indi-viduais do titular dos dados, brotam os direitos à oposição e à explicação. O primeiro diz respeito ao direito do titular de dados de se opor ao tratamento para a definição de perfil (profiling). O direito à explicação, por sua vez, per-mite ao titular dos dados requerer e obter uma explicação – por intervenção humana e/ou por máquina – da parte do responsável pelo tratamento, para ententer e contestar, se o caso, uma decisão automatizada, desde que afete seus interesses jurídicos. Para isso, é preciso que o responsável pelo tratamento seja capaz de explicar os elementos que compõem o processo de decisão. Ademais, nota-se como o direito à explicação consiste em um instituto importante para a responsabilização e transparência em algoritmos e inteligência artificial.

Page 22: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

21

Examinamos, outrossim, questões em torno da base legal do consenti-mento, como meio apto a autorizar o processamento de dados nas tecnologias de inteligência artificial. A questão perseguida, porém, é o quanto o titular dos dados realmente se encontra em uma posição apta para consentir, na medida de sua real compreensão no que consiste e no que pode implicar o uso dos algoritmos em uma decisão automatizada que afete, juridicamente, os seus interesses. Nessa via de abordagem, e diante de algumas constatadas impotências, verificamos que é necessário adicionar outros meios para real proteção dos dados pessoais, para além das formas tradicionais, voltando-se à própria tecnologia. A partir daqui, adentra-se no campo das chamadas PETs, Privacy Enhancing Technologies, delegando-se à própria tecnologia padrões que elevem a proteção de dados do indivíduo.

Apoiado no conteúdo até aqui desenvolvido, a obra imerge no princípio da inteligência artificial explicável (Explainable Artificial Inteligence – XAI), e na importância de aplicá-lo às técnicas de machine learning, a fim de que os usuários humanos compreendam e confiem adequadamente, e, que possam governar seus dados na geração emergente de sistemas artificialmente inteli-gentes. Portanto, passa-se a percorrer como tornar os sistemas de inteligência artificial explicáveis é essencial para garantir direitos fundamentais como a proteção de dados pessoais.

Não obstante, a obra apresenta as atuais dificuldades em obter explicação de como sistemas inteligentes chegaram a determinados resultados diante dos atuais parâmetros de correlações formulados de maneira independente pelos algoritmos, do tipo deep learning. Existe, portanto, cada vez mais opacidade, e alguns teóricos duvidam que o direito à explicação possa trazer uma solu-ção efetiva ao caloroso debate jurídico. Por sua vez, apresentamos propostas com a abordagem de gerar decisões nas quais um dos critérios levados em consideração seja quão bem um ser humano pode entender as decisões no contexto fornecido, cujo contexto será construído não apenas por meio das ciências computacionais, mas também por meio do que é explicável advindo do campo das ciências sociais, para gerar uma inteligência artificial realmente considerada como compreensível e, portanto, confiável.

Assim, a hipótese que se traz a lume é a de que construir sistemas mais transparentes, interpretáveis ou explicáveis, trará como consequência usuários mais preparados para entender e, portanto, confiar nos agentes inteligentes. A confiança, com efeito, torna-se o principal elemento para conferir um modelo de inteligência artificial explicável.

Em seguida, evoluímos para perceber que a proposta do modelo XAI agrega princípios cardiais e está diretamente relacionado à proteção e gover-nança dos dados pessoais, não discriminação, equidade algorítmica, segurança, robustez e accountability. Contudo, atribuir o modelo XAI a um sistema inteli-gente, por si só, não lhe assegura a devida legalidade. Especialmente no campo

Page 23: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

22

da proteção de dados pessoais, é preciso incluir conceitos de salvaguarda desde a sua origem. Nesse aspecto, portanto, apresenta-se como o modelo XAI se identifica e converge com o conceito de privacy by design.

Mais a mais, a fim de obter um adequado e sustentável modelo de governança em inteligência artificial explicável, mostra-se o quão impor-tante é a aplicação de relatórios de impactos e auditorias algorítmicas, como derivação do próprio princípio da accountability. Isso porque, conforme será apresentado na obra, o eixo gravitacional do sistema de proteção de dados pessoais tem, cada vez mais, se deslocado do paradigma da autodeterminação informativa para uma arquitetura de gerenciamento de riscos das atividades de tratamento de dados.

Page 24: PROTEÇÃO DE DADOS na cultura ABRUSIO do algoritmo

coleção

DIREITO PRIVADOVOL. 1

Juliana AbrusioJuliana Abrusio

Juliana AbrusioJuliana Abrusio

PROTEÇÃO DE DADOS

na cultura do algoritmo

A cultura do algoritmo presente na sociedade informacional trouxe consigo complexidades antes não experimentadas. Esta obra destaca e analisa os novos desafios, no âmbito da disciplina da proteção de dados pessoais, gerados a partir da ubiquidade dos processamentos algorítmicos, mediante correlações, com reconhecimento de padrões e inferências, que podem acabar por comprometer a autonomia individual e coletiva. As questões éticas ligadas às tecnologias de inteligência artificial de alto risco precisam ser preservadas juntamente com a construção de uma governança ancorada na transparência, explicabilidade, accountability, não discriminação e observância dos princípios e regras de proteção de dados pessoais desde a concepção dos seus sistemas.

A sociedade informacional revela-se, também, em uma sociedade de dados, na qual o mercado de atenção, por meio de aplicações com o incessante tratamento de dados pessoais, consiste na nova engrenagem da economia. Usando algoritmos de reconhecimento de padrões, os dados pessoais passam a ser convertidos em rankings, cálculos de risco, scores, perfis de consumo, de preferências políticas e de outras informações que geram valor. Muito embora exista uma disciplina de proteção de dados, novos desafios se apresentam em razão da cultura de processamentos algorítmicos, abrindo espaço para preocupações quanto ao comprometimento do exercício da autonomia, em nível individual e coletivo, bem como da proteção dos dados pessoais.

PROTEÇÃO DE DADOSna cultura do algoritm

o

VOL. 1

ISBN 978-65-5589-085-3

JULIANAABRUSIODoutora em Direito pela PUC-SP. Mestre em Direito pela Università degli Studi di Roma Tor Vergata. Professora da Faculdade de Direito da Universidade Presbiteriana Mackenzie. Diretora do Instituto Legal Grounds for Privacy Design (Instituto LGPD). Advogada em São Paulo.