Uma maneira de elucidar o que a expressão big data significa é recorrendo às seguintes três características: volume, velocidade e variação. A primeira característica se refere à quantidade de dados; a segunda, ao tempo que se leva para analisá-los; e a última, aos diversos tipos de dados que podem ser combinados (Johnson 2018, 165). A conjunção dessas três características confere ao fenômeno do big data uma surpreendente capacidade de encontrar padrões e relações a partir de dados que, abordados de uma outra maneira, seriam restritos a um propósito bem específico ou considerados triviais. Nesse sentido, é possível afirmar que grande parte dos dados disponíveis para análise acerca de um indivíduo foi coletada em vista de um propósito não diretamente ligado ao que a análise massiva de dados busca. Dados coletados num site de compra virtual, por exemplo, com o propósito específico de viabilizar uma determinada transação comercial, podem mais tarde ser utilizados para identificar padrões de consumo num grupo demográfico em particular, o que permitiria criar propagandas personalizadas, dirigidas com bastante precisão a um certo público-alvo.
Para um cientista de dados, o gigantesco volume de informação viabilizado pelo big data guarda em si o potencial de prover informações relevantes a propósitos que ainda sequer existem, mas que podem se manifestar a partir da identificação de padrões revelados pela análise de dados. Se, cruzando dados aparentemente desconexos, descobre-se que pessoas que frequentam terapias de casal estão, numa probabilidade relevante, numa condição financeira de inadimplência, tal relação pode vir a ser empregada por instituições bancárias na hora de conceder um empréstimo a um de seus clientes. Esse ponto exemplifica a terceira das características elencadas no parágrafo anterior, a variação. Com o big data, dados trafegam por diferentes contextos, de modo que uma informação que consentiríamos de bom grado oferecer em um contexto pode futuramente ser utilizada num contexto onde não concordaríamos em fornecê-la – numa consulta médica, dificilmente hesitaríamos em descrever nossos hábitos alimentares, mas acharíamos estranho se essa informação fosse solicitada numa entrevista de emprego; ou, ainda, alguns dados isolados podem parecer inócuos, mas quando analisados e confrontados de uma certa maneira podem trazer à tona relações cujas consequências não foram previstas por parte de quem consentiu em oferecer os dados que as viabilizaram.
Ao levarmos em conta esse aspecto fluido e intercontextual do big data, a questão da privacidade merece uma atenção particular. Uma maneira de tentar garantir anonimato é suprimindo dados pessoais. Dessa forma, um hospital, ao divulgar os dados de seus pacientes a um instituto de pesquisa que almeja fazer um levantamento estatístico sobre uma determinada doença, por exemplo, eliminaria desses dados informações como nome, telefone, endereço, RG, etc. No entanto, ligando dados de diferentes contextos – que vai da compra numa farmácia a um perfil numa rede social –, em muitos casos é possível, com uma taxa de acerto relevante, reidentificar indivíduos cujas informações pessoais foram suprimidas em algum contexto que objetivava manter o anonimato.
A esse respeito, Ohm (2010, 17) nos descreve um fato que ocorreu em Massachusetts, o qual ilustra como a combinação de dados oriundos de diferentes contextos pode ser usada para identificar indivíduos implicados em informações outrora anônimas. O Group Insurance Commission (GIC), uma agência governamental de Massachusetts, havia comprado seguros de saúde para os empregados do estado. Por volta de meados dos anos 90, a agência então decide disponibilizar, a qualquer pesquisador que solicitasse, os registros que sumariavam todas as visitas hospitalares dos empregados contemplados pelo seguro. A fim de proteger a privacidade dos pacientes, todas as informações consideradas identificadores explícitos, como nome, endereço, número de seguridade social (algo semelhante ao nosso CPF), etc., foram removidas. Na ocasião da liberação dos dados, o então governador de Massachusetts, William Weld, reiterou à população que a privacidade dos pacientes seria preservada, uma vez que tais identificadores tinham sido omitidos. Todavia, isso não foi suficiente para que Sweeney, na época uma estudante de pós-graduação, descobrisse qual registro hospitalar disponibilizado pelo GIC dizia respeito ao governador Weld. Sabendo que o governador morava na cidade de Cambridge, por 20 dólares Sweeney comprou o boletim eleitoral dessa cidade, que, além de outras coisas, possuía o endereço, código postal, data de nascimento e sexo de cada pessoa qualificada a votar num determinado distrito eleitoral. Cruzando esses dados com os registros do GIC, os quais continham a data de nascimento, o sexo e o código postal de cada paciente, Sweeney constatou que apenas seis pessoas de Cambridge tinham a mesma idade do governador, sendo que três dessas eram homens e apenas uma possuía o mesmo código postal. Sweeney então enviou ao escritório do governador seus registros médicos, os quais continham diagnósticos e prescrições.
A data de nascimento, o sexo e o código postal de cada paciente poderiam ser removidos da base de dados disponibilizada pelo GIC, o que reforçaria a garantia de anonimato, no entanto tais informações poderiam ser bastante relevantes para o desenvolvimento de uma pesquisa médica. Nesse sentido, como enfatiza Ohm (2010, 4), isso revela uma tensão a respeito da privacidade de dados: pode-se escolher entre dados úteis ou completamente anônimos, nunca ambos.
Exemplos como esse demonstram que as consequências que uma análise massiva de dados é capaz de acarretar não nos são claras, principalmente por não haver uma determinação precisa de onde os dados devem trafegar, ou seja, é difícil restringi-los a um determinado contexto. Desse modo, o anonimato de dados não nos garante que estamos isentos de problemas éticos relacionados à privacidade. Uma informação que às vezes damos pouca importância em revelar num determinado contexto pode tornar-se um elemento-chave numa análise de dados que visa quebrar o anonimato de alguma outra informação concedida em outro contexto [1].
Tendo em vista a facilidade com que a tecnologia de dados pode combinar informações provenientes de bancos de dados completamente distintos, Nissenbaum (2009) argumenta que a privacidade deve ser compreendida à luz do que ela conceitua como integridade contextual. Assim, cada contexto teria normas específicas a respeito da gestão dos dados que detém, de modo que a privacidade seria violada na medida em que os dados apropriados para um determinado contexto fossem parar num contexto onde não são apropriados. Não estranhamos, por exemplo, se dados concernentes a gastos com remédios sejam utilizados para abatimento de imposto, mas se tal informação é acessada por corretaras de seguro, que farão uso dessa informação para precificar de maneira personalizada planos de saúde, sentimos que nossa privacidade foi invadida.
Combinações irrestritas de dados que fluem sem nenhuma restrição por diversos contextos podem alimentar propósitos escusos que afetam diretamente nossas vidas. Dados são combinados com o intuito de detectar padrões e relações capazes de delinear perfis e prever certos comportamentos, oferecendo assim uma valiosa fonte de informações que será empregada por gestores em suas tomadas de decisões, seja para liberar um empréstimo, avaliar um plano de saúde, validar um contrato de locação ou fazer uma campanha publicitária.
Um caso emblemático que ocorreu com a rede varejista norte-americana Target nos dá uma boa medida do quanto a análise de dados é capaz de obter informações precisas a respeito do nosso comportamento (Duhigg 2012). A história se passa numa loja da Target aos arredores de Minneapolis. Um homem se dirige furioso ao gerente: “Minha filha recebeu isso pelo correio! Ela ainda está no ensino médio, e vocês estão enviando para ela cupons para berços e roupas de bebê? Você estão tentando encorajá-la a se engravidar?” O gerente não tinha ideia do que o homem falava, mas ao verificar o que ele tinha em mãos, logo constatou um farto material publicitário para gestantes endereçado à sua filha. O gerente pediu desculpas, todavia dias mais tarde, ao ligar para se desculpar novamente, o pai, um tanto embaraçado, revela: “Tive uma conversa com a minha filha. Acontece que ocorreram alguns fatos na minha casa sobre os quais eu não estava completamente ciente. Ela dará à luz em Agosto. Te devo desculpas.”
Na época, a campanha publicitária foi coordenada pelo matemático e estatístico Andrew Pole, que concedeu uma entrevista ao autor da reportagem citada acima, Duhigg. Pole disponha de um vasto banco de dados, composto tanto pelas movimentações dos consumidores da Target – cujos registros eram associados individualmente a um código que a loja atribuía a cada cliente, denominado Guest ID –, quanto por dados comprados de outras fontes: “Se você usa cartão de crédito ou cupom, ou preenche um questionário, ou envia um e-mail para reembolso, ou liga para o serviço de atendimento ao consumidor, ou abre um e-mail que lhe enviamos ou visita um site, nós registraremos e associaremos isso ao seu Gest ID. Queremos saber tudo o que pudermos”, afirma Pole. A coleta de dados não para por aí, Duhigg completa:
Também ligado ao seu Guest ID há informação demográfica, como sua idade, se você é casado ou tem filhos, em qual parte da cidade você mora, quanto tempo leva pra você chegar à loja, uma estimativa do seu salário, se você se mudou recentemente, quais cartões de crédito você tem na carteira e quais sites você visita. Target pode comprar dados sobre sua etnicidade, histórico de trabalho, as revistas que você lê, se você alguma vez declarou falência ou se divorciou, o ano em que você comprou (ou perdeu) a sua casa, para qual faculdade você foi, sobre quais tipos de assunto você discute online, se você prefere certas marcas de café, papel toalha, cereal ou molho de maçã, suas inclinações políticas, hábitos de leitura, doações de caridade e o número de carros que você tem.
De posse desses dados, Pole e sua equipe, a fim de encontrar um padrão relevante, analisaram o histórico de compras de todas as mulheres que haviam se cadastro na lista da Target de artigos para bebês. Eles notaram que as gestantes compravam uma quantidade maior de loções sem perfume, e que nas primeiras vinte semanas de gravidez as futuras mães costumavam abastecer-se de suplementos como cálcio, zinco e magnésio. Além disso, perceberam que quando repentinamente alguém começa a comprar sabonetes sem odor, embalagens grandes de algodão, toalhas de rosto e desinfetantes para as mãos isso é um sinal de que o dia do parto está próximo.
A análise desses dados logrou correlacionar vinte e cinco produtos cujo consumo permitia atribuir aos clientes uma pontuação que classificava a possibilidade de uma gravidez. A classificação era precisa a ponto de fornecer uma estimativa do dia em que a gestante daria à luz, o que proporcionava à Target a possibilidade de direcionar a sua publicidade a períodos específicos da gestação. Um dos funcionários da loja com quem Duhigg conversou deu o seguinte exemplo: “Considere uma consumidora fictícia da Target chamada Jenny Ward, que tenha 23 anos, mora em Atlanta e em maio comprou loção de manteiga de cacau, suplementos de zinco e magnésio, uma toalha azul-claro e uma bolsa grande o suficiente para que também sirva como uma bolsa de fralda. Existe, digamos, uma chance de 87 por cento de que ela esteja grávida e de que o dia do seu parto seja por volta do fim de agosto.”
Antecipar-se dessa maneira aumentava as chances da Target fidelizar clientes gestantes antes de suas concorrentes. Como explica a reportagem, pelo fato dos registros de bebês serem públicos, assim que um registro é efetivado os pais se tornam alvos de uma miríade de campanhas publicitárias provenientes das mais diversas companhias. Dessa forma, podendo estimar o período de gestação de suas clientes – mais especificamente o segundo trimestre, momento em que ocorre a maior parte das compras relacionadas à maternidade –, a Target chegaria a elas antes de seus concorrentes. E uma vez na loja em busca de artigos para bebês, tais clientes seriam expostos a todo o acervo da empresa, que vai de DVDs a artigos para animais de estimação, potencializando assim as chances de os cativarem como consumidores assíduos.
Uma questão interessante que o caso da Target nos dá oportunidade de discutir diz respeito ao fato de em geral não termos uma noção clara de como estamos sendo vigiados, ainda que saibamos que somos vigiados a todo momento – a cada clique, e-mail, compra no cartão, etc. Por essa razão, Johnson (2018, 168) argumenta que uma teoria de vigilância baseada na metáfora do panóptico seria menos adequada na era do Big Data. De acordo com a metáfora, tal como numa prisão panóptica, os indivíduos adequariam seus comportamentos às normas de quem os observa. Apesar dos indivíduos não saberem se estão de fato sendo monitorados, a mera possibilidade de que isso seja o caso já teria o poder de lhes impor uma certa conduta. Nesse caso, aquele que é observado tem uma compreensão clara de que um determinado comportamento leva a uma determinada consequência, o que o permite, a fim de se precaver de certas sanções, manejar a própria conduta. Essa clareza se perde quando um propósito de observação é sustentado a partir de análises estatísticas que procuram padrões em uma quantidade enorme de dados. Afinal, pode não ser um mistério que empresas tenham acesso às nossas listas de compras, mas ter conhecimento de que a escolha de um certo modelo de loção diz algo sobre a nossa constituição familiar é algo bem mais além.
A dificuldade, portanto, é que não conseguimos identificar qual dado coletado a nosso respeito nos classifica de acordo com um padrão investigado por uma certa análise de dados. Diante do que a ciência de dados se tem mostrado capaz de fazer, não sabemos se a preferência por uma marca de café ou o nosso histórico no Spotify poderá influir numa entrevista de emprego ou na expedição de um visto, por exemplo. Se soubéssemos, poderíamos manipular a nosso favor o fornecimento desses dados.
CONSENTIMENTO
A pesquisa comportamental está em seu melhor momento, como afirma Eric Siegel, consultor e presidente da conferência Predictive Analytics World (Duhigg 2012) : “Estamos passando pela era dourada da análise comportamental. É impressionante o quanto podemos agora compreender como as pessoas pensam.” Muito disso se deve às possibilidades proporcionadas pelo Big Data, que por meio de análises de dados cada vez mais sofisticadas traz esclarecimentos a respeito de como nossos hábitos influem em nossas decisões. No entanto, o usuário comum das tecnologias que coletam e alimentam volumosos bancos de dados possui pouca clareza sobre o que pode ser feito com os dados que fornece, a despeito deles poderem ser usados em seu desfavor. Em geral, a fonte de informação a respeito do uso dos dados coletados se restringe a Políticas de Privacidade, com as quais os usuários devem concordar por meio de um consentimento, caso queiram usufruir de um determinado produto ou serviço a elas associados. Assim, tendo em vista que um consentimento desempenha um papel de transformador moral, i.e., tem o poder de transformar aquilo que, caso não fosse consentido, seria moralmente condenável, é importante investigar as condições em que são acordados consentimentos que dizem respeito à coleta de dados pessoais.
Bullock (2018) considera o propósito moral de um consentimento a partir de duas perspectivas, denominadas por ela de procedural e substantiva. De acordo com a primeira, o poder de transformação moral de um consentimento é mandatário da autonomia do indivíduo: desde que o consentimento seja dado por uma vontade autônoma, a concessão é legítima, ainda que as consequências implicadas abale o bem-estar do concessor. Quanto à segunda perspectiva, a despeito da concessão ter sido ratificada por uma vontade autônoma, a violação ou não do bem-estar do indivíduo é que será determinante, ou seja, consentir a algo que prejudique o próprio bem-estar – mesmo sabendo-se disso – invalida o papel de transformador moral da concessão.
Elucidemos esses pontos por meio de um exemplo (um tanto extremo, mas que deixa claro os limites das diferentes perspectivas). Acreditamos que não seja irrazoável pressupormos que deliberadamente infligir uma dor física a alguém – ainda que a percepção de dor contenha uma dose de subjetividade – é uma atitude moralmente condenável. Dito isso, caso alguém consinta em ser torturado, como podemos compreender esse fato? Na perspectiva procedural, uma vez que o consentimento parta de uma vontade autônoma do concessor, o consentimento eximiria o torturador de todas as imputações que esse ato moralmente (e legalmente) condenável lhe acarretaria. Em outras palavras, o consentimento efetiva o seu papel de transformador moral. No entanto, se considerarmos esse caso a partir da outra perspectiva, a substantiva, não importa se o indivíduo, por uma vontade autônoma, consentiu em ser torturado, dado que esse ato viola o seu bem-estar.
Voltemos nossa atenção ao consentimento considerado no âmbito da perspetiva procedural. Ainda com Bullock (2018, 86), um consentimento válido possui três requisitos procedurais: deve ser voluntário, embasado e quem consente deve ser competente para decidir sobre o que está em questão. Um consentimento deixa de ser voluntário quando a decisão é influenciada por meios impróprios, como formas de manipulação ou coerção. Não se pode dizer, por exemplo, que uma pessoa que consente a uma relação sexual diante de uma ameaça de ser esfaqueada tomou uma decisão voluntária. Deve-se ressaltar, contudo, que nem toda influência sobre o consentimento interfere na voluntariedade do ato. Uma persuasão racional, tal qual quando um médico esclarece a um paciente os benefícios de um certo procedimento cirúrgico, costuma ser aceita como um método legítimo de obtenção de um consentimento válido. Quanto ao segundo requisito, diz-se que um consentimento não é embasado quando o concessor ignora o que está consentindo ou tem uma crença falsa a respeito do que o seu ato implica. Considere, por exemplo, alguém que adquira um certo plano de internet, mas que mais tarde descobre que deve pagar taxas adicionais para que possa usufruir a totalidade do serviço prometido. O consentimento é inválido na medida em que se a pessoa soubesse da existência dessas taxas ela não contrataria o serviço, ou seja, a informação ignorada ou ausente é relevante o suficiente para anular o consentimento. Por último, uma pessoa é considerada incompetente para consentir quando é incapaz de compreender o que está em questão, entender como isso se aplica a ela e assim exprimir uma escolha. Isso pode-se dever, entre outras coisas, a uma deficiência mental, ao efeito de um entorpecente, à idade.
A partir dessa compreensão mais geral e filosófica da noção de consentimento, tentemos elucidar o que se passa na tecnologia da informação. Nesse âmbito, o consentimento está na maior parte das vezes relacionado à permissão do uso dos nossos dados pessoais em troca da utilização de um determinado serviço. Considerando os três critérios procedurais, o do embasamento aparenta ser o mais delicado. Primeiramente, existe uma inviabilidade prática: se fôssemos ler todas as políticas de privacidade que comumente nos são apresentadas, para assim emitirmos um consentimento embasado, teríamos que dedicar a essa tarefa uma média de 244 horas por ano (Custers 2016). Além disso, esses textos costumam ser difíceis de compreender, pois muitas vezes envolvem detalhes técnicos ou contêm um jargão jurídico. Não é de se espantar, portanto, como apontam vários estudos [2], que as pessoas dificilmente leem políticas de privacidade.
Levando em conta os constantes avanços da ciência da informação, um outro problema relacionado ao mesmo critério diz respeito à dificuldade de se prever o potencial uso que há nos dados fornecidos. Mesmo que tenhamos uma compreensão clara da política de privacidade e concordemos com ela, não conseguimos prever o que as tecnologias da informação podem fazer com dados que a princípio nos parecem inócuos. Quanto a isso, voltemos ao Pole, estatístico da loja Target por trás da publicidade dirigida a gestantes (Duhigg 2012): “Se enviarmos um catálogo a alguém e dissermos, ‘Parabéns pelo seu primeiro filho!’, sem nunca alguém nos ter dito que estava grávida, isso deixará algumas pessoas desconfortáveis. Nós somos bastante conservadores no que diz respeito a obedecer todas as leis de privacidade. Mas mesmo que você siga a lei, você pode fazer coisas com as quais as pessoas se sintam mal.”
A um processo que Etzioni (2012, 931) sugere o nome de violação triangular da privacidade, ele relata como dados cuja privacidade é protegida por lei podem ser obtidos a partir de “fatos inocentes” não privilegiados pela legislação:
Um pedaço de uma informação aparentemente benigna – por exemplo, o número de dias em que uma pessoa não foi trabalhar, ou se a pessoa fez compras não usuais, como uma peruca, diz bastante sobre a condição médica de alguém. Por meio da construção de um portfólio com vários fatos aparentemente inócuos como estes, pode-se inferir muita coisa, o que efetivamente viola o espaço de privacidade em torno das informações mais íntimas dos indivíduos.
Dessa forma, além da fragilidade das legislações concernentes à privacidade, também notamos a incapacidade de termos uma noção precisa do que realmente estamos consentindo quando concordamos com uma certa política de privacidade, ainda que envidemos todos os esforços para tomar uma decisão embasada.
Diante desses problemas, percebe-se um desengajamento dos indivíduos submetidos a demandas de consentimento a políticas de privacidade: apenas se marca a opção “eu concordo” a fim de se obter o mais breve possível o serviço ou o produto oferecido, o que destitui desse ato o estatuto moral de uma decisão autônoma e consciente. Isso nos remete ao critério procedural da voluntariedade. Não seria exagero dizer que há uma espécie de coerção tácita na maneira como as propostas de consentimento são apresentadas. Pressionadas pelas dificuldades práticas apontadas acima e pela ameaça de perder o acesso ao produto desejado (ou, muitas vezes, necessitado), as pessoas são induzidas a consentirem com as políticas de privacidade. Isso sem contar os casos em que são oferecidas vantagens que vão além do usufruto do produto, como ofertas de descontos e brindes. Além do mais, mesmo que formemos uma opinião embasada, não podemos exprimir uma escolha que reflita de maneira mais detalhada a nossa opinião, pois ou há consentimento ou não há. Nesse sentido, é interessante salientar a diferença, apontada por Custers et al. (2018, 253), entre aceitar termos e condições e concordar com os seus conteúdos. Enquanto o primeiro está relacionado à outorga de um consentimento juridicamente válido, o segundo questiona a efetividade e o significado dos mecanismos de consentimento. Muitas vezes aceitamos uma política de privacidade apenas para nos desembaraçarmos dos obstáculos que impedem a realização de um desejo premente, o que é diferente de realmente concordarmos, por meio de uma decisão embasada e voluntária, com os termos ali declarados.
Quanto ao último critério procedural de um consentimento válido, que diz respeito à competência de quem consente, vale a pena mencionarmos o uso de dados pessoais de crianças. Como lidar com esses casos, considerando que para se ter competência para emitir um consentimento válido sobre o uso de dados pessoais é preciso ter maturidade o suficiente para julgar as implicações que o uso desses dados pode acarretar? O COPPA, O Ato de Proteção da Privacidade Online das Crianças [3], principalmente em virtude das crescentes técnicas de marketing de internet direcionadas ao público infantil, estabelece em suas cláusulas que a idade mínima para se conceder um consentimento é de 13 anos. Abaixo dessa idade, o uso de dados só é lícito a partir de um consentimento parental verificado, o que significa que a instituição com acesso aos dados deve comprometer-se com um “esforço razoável” para garantir que o consentimento tenha sido de fato emitido pelos pais. Observa-se, contudo, que além de isso não garantir uma proteção efetiva de tais dados, devido aos inúmeros problemas apontados acima, pode ocasionar uma vigilância invasiva por parte dos pais, o que seria uma outra forma de violar a privacidade (Custers et al. 2018, 251).
Preferimos ater-nos à concepção de consentimento atrelada à perspectiva que Bullock chama de procedural. A outra perspectiva, por envolver o bem-estar de quem consente, impõe dificuldades que mereceriam um tratamento à parte. Invalidar um consentimento porque este violaria o bem-estar de alguém já não seria, por si mesmo, violar o bem-estar, dado que a autonomia do indivíduo seria afetada? Se pensarmos na questão da eutanásia, por exemplo, podemos vislumbrar os inúmeros problemas que essa concepção é capaz de ensejar. Afinal, caracterizar objetivamente a noção de bem-estar pode tornar-se uma tarefa bastante complexa.
À guisa de conclusão, podemos mencionar algumas medidas que permitiriam ao menos atenuar os problemas aqui discutidos. Uma delas diz respeito ao direito de sermos esquecido, o que consistiria em viabilizar mecanismos que permitissem cancelar um consentimento e assim apagar os dados cujo acesso fora permitido (Custers et al. 2018, 252); impedir que dados colhidos num determinado contexto migrassem para outros contextos dificultaria a obtenção de informações propiciadas pelos cruzamento de dados; consentimentos parciais dariam maior autonomia aos indivíduos e seriam menos coercitivos, pois não se enquadrariam na lógica do tudo ou nada, i.e., um serviço se torna mais disponível à medida que o consentimento se amplifica (Custers et al. 2018, 255); como os avanços tecnológicos dificultam a previsão do que pode ser feito com o uso de nossos dados pessoais, estipular um prazo de validade para um consentimento seria uma maneira de nos protegermos de consequências indesejadas que podem desenvolver-se no futuro (Custers 2016).
Por fim, deve-se ressaltar que, mesmo que sejamos cautelosos com a divulgação de nossos dados pessoais, é possível que eles sejam deduzidos indiretamente, seja do nosso próprio comportamento na rede: “registros digitais de comportamento facilmente acessíveis, como Curtidas no Facebook, podem ser usados para prever de maneira automática e precisa uma gama de atributos pessoais bastante íntimos, incluindo: orientação sexual, etnia, visões políticas e religiosas, características de personalidade, inteligência, felicidade, uso de substâncias que causam dependência, separação dos pais, idade e gênero” (Kosinski et al., 2013); seja a partir de pessoas de alguma maneira ligadas a nós mas que não têm o mesmo cuidado (imagine, por exemplo, postagens de amigos que revelam dados nossos que nós mesmos não revelaríamos). Como afirmam Custers et al. (2018, 252), “[o] uso do Big Data cada vez mais permite a predição de características de pessoas que negaram consentimento, com base na informação disponível de pessoas que de fato consentiram.”
[1] Também em (Ohm 2010), veja como as buscas anônimas no site da AOL ou as avaliações anônimas de filmes no Netflix puderam ser manipuladas a fim de reidentificar os usuários que inseriram tais dados.
[2] Veja um apanhado em (Custers 2016).
[3] The Children’s Online Privacy Protection Act, em inglês. Disponível em: <https://epic.org/privacy/kids/>. Acessado em 29/06/2020.
BULLOCK, E. C. Valid Consent. In: Müller, A.; Schaber, P. (Ed.). The Routledge Handbook of the Ethics of Consent. New York: Routledge, 2018. Cap. 8, p. 85-94.
CUSTERS, B. Click Here To Consent Forever: Expiry Dates For Informed Consent. Big Data & Society, 10 de jan., 2016. Acessado em 26/06/2020. Disponível em: <https://doi.org/10.1177/2053951715624935>.
CUSTERS, B., DECHESNE, F., PIETERS, W., SCHERMER, B., van der HOF, S. Consent And Privacy. In: Müller, A.; Schaber, P. (Ed.). The Routledge Handbook of the Ethics of Consent. New York: Routledge, 2018. Cap. 22, p. 247-258.
DUHIGG, C. How Companies Learn Your Secrets. The New York Times Magazine, 16 de fev., 2012. Acessado em 20/06/2020. Disponível em: <https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?pagewanted=1&_r=1&hp>.
ETZIONI, A. The Privacy Merchants: What is to be Done?. Journal of Constitutional Law, mar. de 2012, p. 929-951. Acessado em 30/06/2020. Disponível em: <https://scholarship.law.upenn.edu/jcl/vol14/iss4/2>.
JOHNSON, D. G. Ethical Issues in Big Data. In: PITT, J. C.; SHEW, A. (Ed.). Spaces for the Future: A Companion to Philosophy of Technology. New York: Routledge, 2018. Cap. 16, p. 164-173.
KOSINSKI, M., STILLWELL, D.; GRAEPEL, T. Private Traits and Attributes Are Predictable from Digital Records of Human Behavior. PNAS, 110 (15), 9 de abr., 2013. Acessado em 30/06/2020. Disponível em: <www.pnas.org/cgi/doi/10.1073/pnas.1218772110>.
NISSENBAUM, H. Privacy in Context: Technology, Policy, and the Integrity of Social Life. California: Stanford University Press, 2009.
OHM, P. Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization. UCLA Law Review, vol. 57, n. 9-12, p. 1701, 2010. Acessado em 30/06/2020. Disponível em: <https://ssrn.com/abstract=1450006>.