Una forma de elucidar lo que la expresión big data significa es recurrir a las siguientes tres características: volumen, velocidad y variación. La primera característica se refiere a la cantidad de datos; la segunda, al tiempo que se emplea para analizar datos; y la última, a los diversos tipos de datos que se pueden combinar (Johnson 2018, 165). La conjunción de estas tres características otorga al fenómeno del big data una sorprendente capacidad para encontrar patrones y relaciones a partir de datos que, tratados de otra manera, se restringirían a un propósito muy específico o se considerarían triviales. En este sentido, es posible afirmar que gran parte de los datos disponibles para hacer un análisis acerca de un individuo se recopilaron en vista de un propósito no directamente relacionado con lo que busca el análisis de datos masivo. Los datos recopilados en un sitio de compras virtuales, por ejemplo, con el propósito específico de viabilizar una determinada transacción comercial, se pueden usar posteriormente para identificar patrones de consumo en cierto grupo demográfico, lo que permitiría crear anuncios personalizados, dirigidos con bastante precisión a cierto público objetivo.
Para un científico de datos, el gigantesco volumen de información viabilizado por el big data guarda en sí el potencial de proporcionar información relevante para propósitos que todavía ni existen, pero que pueden manifestarse a partir de la identificación de patrones revelados por el análisis de datos. Si, cruzando datos aparentemente inconexos, se descubre que las personas que asisten a terapias de pareja están, con una probabilidad relevante, en una condición financiera de morosidad, dicha relación puede llegar a ser empleada por las instituciones bancarias a la hora de conceder un préstamo a uno de sus clientes. Este punto ejemplifica la tercera de las características mencionadas en el párrafo anterior: la variación. Con el big data, los datos circulan por diferentes contextos, de modo que una información que consentiríamos proporcionar de buen grado en un contexto puede futuramente usarse en un contexto en el que no lo haríamos; en una consulta médica, difícilmente dudaríamos en describir nuestros hábitos alimenticios, pero nos resultaría extraño si esa información se nos solicitase en una entrevista de trabajo; o, incluso, algunos datos aislados pueden parecer inocuos, pero cuando se analizan y se comparan de cierta manera pueden revelar relaciones cuyas consecuencias no fueron previstas por parte de aquellos que consintieron ofrecer los datos que las viabilizaron.
Al tener en cuenta este aspecto fluido e intercontextual del big data, la cuestión de la privacidad merece una atención especial. Una manera de tratar de garantizar el anonimato es suprimir los datos personales. De esta forma, un hospital, al divulgar los datos de sus pacientes a un instituto de investigación que pretende hacer un estudio estadístico sobre una determinada enfermedad, por ejemplo, eliminaría de esos datos información como nombre, teléfono, dirección, documento de identidad, etc. Sin embargo, al unir datos de diferentes contextos —desde una compra en una farmacia hasta un perfil de una red social—, en muchos casos es posible, con una tasa de éxito relevante, reidentificar a individuos cuya información personal fue suprimida en algún contexto que tenía como objetivo mantener el anonimato.
A este respecto, Ohm (2010, 17) nos describe un hecho que ocurrió en Massachusetts, que ilustra cómo la combinación de datos de diferentes contextos se puede utilizar para identificar a individuos referidos en información que antes era anónima. La Group Insurance Comission (GIC), una agencia gubernamental de Massachusetts, había comprado seguros de salud para los empleados del estado. A mediados de los años 90, la agencia decidió poner a disposición de cualquier investigador que lo solicitara los registros que resumían todas las visitas al hospital de los empleados cubiertos por el seguro. Para proteger la privacidad de los pacientes, se eliminó toda la información considerada un identificador explícito, como nombre, dirección, número de seguro social, etc. Cuando se liberaron los datos, el entonces gobernador de Massachusetts, William Weld, reiteró a la población que se preservaría la privacidad de los pacientes, ya que tales identificadores se habían omitido. Sin embargo, eso no fue suficiente para que Sweeney, entonces estudiante de posgrado, descubriera el registro hospitalario disponibilizado por la GIC referente al gobernador Weld. Sabiendo que el gobernador vivía en la ciudad de Cambridge, Sweeney compró, por 20 dólares, el boletín electoral de esa ciudad, que, entre otras cosas, tenía la dirección, el código postal, la fecha de nacimiento y el sexo de cada persona calificada para votar en un determinado distrito electoral. Al cruzar estos datos con los registros de la GIC, que contenían la fecha de nacimiento, el sexo y el código postal de cada paciente, Sweeney constató que solo seis personas de Cambridge tenían la misma edad que el gobernador, tres de las cuales eran hombres, y solo una tenía el mismo código postal. Sweeney entonces envió a la oficina del gobernador sus registros médicos, que contenían diagnósticos y prescripciones.
La fecha de nacimiento, el sexo y el código postal de cada paciente podrían eliminarse de la base de datos disponibilizada por la GIC, lo que reforzaría la garantía de anonimato, pero dicha información podría ser bastante relevante para el desarrollo de una investigación médica. En este sentido, como enfatiza Ohm (2010, 4), esto revela una tensión con respecto a la privacidad de datos: se puede elegir entre datos útiles o completamente anónimos, nunca ambos.
Ejemplos como este demuestran que las consecuencias que un análisis de datos masivo es capaz de acarrear no nos quedan claras, principalmente porque no hay una determinación precisa de dónde deben circular los datos; es decir, es difícil restringirlos a un determinado contexto. De este modo, el anonimato de datos no nos garantiza que estemos libres de problemas éticos relacionados con la privacidad. La información que a veces revelamos sin darle mucha importancia en un determinado contexto puede convertirse en un elemento clave en un análisis de datos que tiene como objetivo romper el anonimato de alguna otra información proporcionada en otro contexto [1].
Con relación a la facilidad con que la tecnología de datos puede combinar información proveniente de bases de datos completamente diferentes, Nissenbaum (2009) argumenta que la privacidad debe entenderse a la luz de lo que esta conceptualiza como integridad contextual. Así, cada contexto tendría normas específicas con respecto a la gestión de los datos que posee, de modo que la privacidad se violaría en la medida en que los datos apropiados para un determinado contexto fueran a parar a un contexto donde no son apropiados. No nos sorprende, por ejemplo, que datos relacionados con gastos de medicamentos se utilicen para desgravar impuestos, pero si a estos datos acceden compañías de seguros, con la intención de fijar de manera personalizada el precio de los planes de salud, sentimos que se ha invadido nuestra privacidad.
Las combinaciones irrestrictas de datos que fluyen sin ninguna restricción a través de diversos contextos pueden alimentar propósitos ocultos que afectan directamente a nuestras vidas. Los datos se combinan para detectar patrones y relaciones capaces de delinear perfiles y prever ciertos comportamientos, ofreciendo así una valiosa fuente de información que puede ser empleada por gestores en sus tomas de decisiones, ya sea para liberar un préstamo, evaluar un plan de salud, validar un contrato de alquiler o hacer una campaña publicitaria.
Un caso emblemático que ocurrió con la cadena minorista estadounidense Target nos da una buena medida de la gran capacidad del análisis de datos para obtener información sensible con respecto a nuestro comportamiento (Duhigg 2012). La historia tiene lugar en una tienda Target de las afueras de Mineápolis. Un hombre se dirige enojado al gerente: “¡Mi hija ha recibido esto por correo! Ella todavía está en la escuela secundaria, ¿y ustedes le envían cupones para cunas y ropa de bebé? ¿Están tratando de animarla a quedarse embarazada?”. El gerente no tenía idea de qué estaba hablando el hombre, pero al ver lo que este tenía en manos, pronto constató la cantidad de material publicitario para embarazadas dirigido a su hija. El gerente entonces se disculpó, e incluso días después, cuando llamaba para disculparse nuevamente, el padre, algo avergonzado, revela: “Tuve una conversación con mi hija. Resulta que pasaron algunas cosas en mi casa de las que no estaba completamente al tanto. Ella dará a luz en agosto. Le debo una disculpa”.
En aquella época, la campaña publicitaria la coordinó el matemático y estadístico Andrew Pole, quien concedió una entrevista al autor del reportaje mencionado arriba, Duhigg. Pole disponía de una vasta base de datos, compuesta tanto por los movimientos de los consumidores de Target —cuyos registros se asociaban individualmente a un código que la tienda asignaba a cada cliente, llamado Guest ID— como por datos comprados de otras fuentes: “Si utilizas una tarjeta de crédito o un cupón, o rellenas un cuestionario, o envías un correo electrónico para un reembolso, o llamas al servicio de atención al cliente, o abres un correo electrónico que te enviamos o visitas un sitio web, nosotros lo registraremos y lo asociaremos a tu Guest ID. Queremos saber todo lo que podamos”, afirma Pole. La recopilación de datos no acaba ahí; Duhigg completa:
Asociada a tu Guest ID también hay información demográfica, como tu edad, si estás casado o tienes hijos, en qué parte de la ciudad vives, cuánto tiempo tardas en llegar a la tienda, una estimación de tu salario, si te has mudado recientemente, qué tarjetas de crédito tienes en la cartera y qué sitios web visitas. Target puede comprar datos sobre tu etnicidad, historial laboral, las revistas que lees, si alguna vez te declaraste en quiebra o te divorciaste, el año en que compraste (o perdiste) tu casa, a qué universidad fuiste, sobre qué tipos de temas discutes en línea, si prefieres ciertas marcas de café, toallas de papel, cereales o compota de manzana, tus inclinaciones políticas, hábitos de lectura, donaciones caritativas y la cantidad de coches que tienes.
Con estos datos, Pole y su equipo, para encontrar un patrón relevante, analizaron el historial de compras de todas las mujeres que se habían registrado en la lista de artículos para bebés de Target. Estos observaron que las gestantes compraban una cantidad mayor de lociones sin perfume y que en las primeras veinte semanas de embarazo las futuras madres solían proveerse de suplementos como calcio, zinc y magnesio. Además, se dieron cuenta de que cuando alguien de repente comienza a comprar jabones inodoros, grandes paquetes de algodón, toallas para la cara y desinfectantes para las manos, se trata de una señal de que el día del parto está próximo.
El análisis de estos datos logró correlacionar veinticinco productos cuyo consumo permitía asignar a las clientas una puntuación que clasificaba la posibilidad de un embarazo. La clasificación era lo suficientemente precisa como para proporcionar una estimación del día en que la mujer embarazada daría a luz, lo que le dio a Target la posibilidad de dirigir su publicidad a períodos específicos del embarazo. Uno de los empleados de la tienda con quien Duhigg habló dio el siguiente ejemplo: “Consideremos una consumidora ficticia de Target llamada Jenny Ward, que tiene 23 años, vive en Atlanta y en mayo compró loción de manteca de cacao, suplementos de zinc y magnesio, una toalla azul claro y una bolsa lo suficientemente grande como para servir también de bolsa de pañales. Hay, digamos, un 87 por ciento de posibilidades de que esté embarazada y que el día de su nacimiento sea alrededor de finales de agosto”.
Anticiparse de esta manera aumentaba las posibilidades de Target para fidelizar a clientas embarazadas antes que sus competidores. Como explica el reportaje, debido a que los registros de bebés son públicos, así que se completa un registro, los padres se convierten en el objetivo de una miríada de campañas publicitarias de las más diversas empresas. De este modo, al poder estimar el período de gestación de sus clientas – más concretamente el segundo trimestre, cuando ocurren la mayor parte de las compras relacionadas con la maternidad – Target llegaría a ellas antes que sus competidores. Y una vez en la tienda en busca de artículos para bebés, dichas clientas estarían expuestas el acervo de la empresa, que abarca desde DVD hasta artículos para mascotas, lo que aumenta las posibilidades de cautivarlas como consumidoras habituales.
Una cuestión interesante que el caso de Target nos permite discutir se refiere al hecho de que generalmente no tenemos una noción clara de cómo estamos siendo vigilados, aunque sepamos que estamos siendo vigilados en todo momento – en cada clic, correo electrónico, compra con tarjeta, etc.-. Por esta razón, Johnson (2018, 168) argumenta que una teoría de vigilancia basada en la metáfora del panóptico sería menos adecuada en la era del Big Data. Según la metáfora, como en una prisión panóptica, los individuos adaptarían sus comportamientos a las normas de quienes los observan. Aunque los individuos no sepan si de hecho están siendo monitoreados, la mera posibilidad de que así sea ya tendría el poder de imponerles una determinada conducta. En este caso, el que es observado tiene una comprensión clara de que un determinado comportamiento lleva a una determinada consecuencia, lo que le permite, para evitar ciertas sanciones, gestionar su propia conducta. Esta claridad se pierde cuando un propósito de observación se sostiene a partir de análisis estadísticos que buscan patrones en una cantidad enorme de datos. Después de todo, puede que no sea un misterio que las empresas tengan acceso a nuestras listas de compras, pero saber que la elección de un cierto modelo de loción dice algo sobre nuestra constitución familiar es algo que va mucho más allá.
La dificultad, por lo tanto, es que no logramos identificar qué dato recopilado sobre nosotros nos clasifica de acuerdo con un patrón investigado por un determinado análisis de datos. En vista de lo que la ciencia de datos se ha mostrado capaz de hacer, no sabemos si la preferencia por una marca de café o nuestro historial en Spotify puede influir en una entrevista de trabajo o en la emisión de un visado, por ejemplo. Si lo supiéramos, podríamos manipular la provisión de esos datos a nuestro favor.
CONSENTIMIENTO
La investigación comportamental está en su mejor momento, como afirma Eric Siegel, consultor y presidente de la conferencia Predictive Analytics World: “Estamos pasando por la era dorada del análisis comportamental. Es sorprendente cuánto podemos entender ahora cómo piensan las personas” (Duhigg 2012). Gran parte de esto se debe a las posibilidades que ofrece el big data, que a través de análisis de datos cada vez más sofisticados nos da claves sobre cómo nuestros hábitos influyen en nuestras decisiones. Sin embargo, el usuario común de las tecnologías que recopilan y alimentan bases de datos voluminosas tiene poca claridad en cuanto a lo que se puede hacer con los datos que proporciona, o que estos puedan utilizarse incluso para su perjuicio. En general, la fuente de información sobre el uso de los datos recopilados está restringida a políticas de privacidad, con las cuales los usuarios deben concordar mediante un consentimiento, si desean disfrutar de un determinado producto o servicio asociado a ellas. Así, teniendo en cuenta que un consentimiento desempeña un papel de transformador moral, es decir, tiene el poder de transformar aquello que, si no fuera consentido, sería moralmente condenable, es importante investigar las condiciones bajo las cuales se acuerdan los consentimientos relativos a la recopilación de datos personales.
Bullock (2018) considera el propósito moral de un consentimiento desde dos perspectivas, denominadas por ella procesal y sustantiva. Según la primera, el poder de transformación moral de un consentimiento es mandatario de la autonomía del individuo: siempre que el consentimiento se dé por una voluntad autónoma, la concesión es legítima, aunque las consecuencias implicadas afecten al bienestar del concedente. En cuanto a la segunda perspectiva, aunque la concesión se ratifique por voluntad autónoma, la violación o no del bienestar del individuo será el factor determinante; es decir, consentir algo que perjudique el propio bienestar – incluso conscientemente – invalida el papel de transformador moral de la concesión.
Elucidemos estos puntos mediante un ejemplo (un tanto extremo, pero que deja claros los límites de las diferentes perspectivas). Creemos que no es irrazonable presuponer que infligir dolor físico deliberadamente a alguien —a pesar de que la percepción de dolor contiene una dosis de subjetividad— es una actitud moralmente condenable. Dicho esto, si alguien consiente ser torturado, ¿cómo podemos entender ese hecho? En la perspectiva procesal, siempre que el consentimiento parta de una voluntad autónoma del concedente, el consentimiento eximiría al torturador de todas las imputaciones que conllevaría ese acto moralmente (y legalmente) condenable. En otras palabras, el consentimiento consolida su papel de transformador moral. Sin embargo, si consideramos este caso desde la otra perspectiva, la sustantiva, no importa si el individuo, por voluntad autónoma, consintió ser torturado, ya que este acto viola su bienestar.
Dirijamos nuestra atención al consentimiento considerado en el ámbito de la perspectiva procesal. Aún según Bullock (2018, 86), un consentimiento válido tiene tres requisitos procesales: debe ser voluntario, informado y quien consiente debe ser competente para decidir lo que está en cuestión. Un consentimiento deja de ser voluntario cuando la decisión está influenciada por medios impropios, como formas de manipulación o coerción. No se puede decir, por ejemplo, que una persona que consiente tener relaciones sexuales ante una amenaza de apuñalamiento tomó una decisión voluntaria. Cabe señalar, sin embargo, que no toda influencia sobre el consentimiento interfiere en la voluntariedad del acto. Una persuasión racional, como cuando un médico le explica a un paciente los beneficios de un determinado procedimiento quirúrgico, generalmente se acepta como un método legítimo para obtener un consentimiento válido. En cuanto al segundo requisito, se dice que un consentimiento no es informado cuando el concedente ignora lo que está consintiendo o tiene una falsa creencia sobre lo que implica su acto. Consideremos, por ejemplo, a alguien que compra un determinado plan de internet, pero que más tarde descubre que debe pagar tarifas adicionales para disfrutar del servicio completo prometido. El consentimiento no es válido en la medida en que si la persona supiera de la existencia de estas tarifas no contrataría el servicio, es decir, la información ignorada o faltante es lo suficientemente relevante como para anular el consentimiento. Finalmente, una persona se considera incompetente para consentir cuando es incapaz de comprender lo que está en cuestión, entender cómo eso se aplica a ella y, por lo tanto, expresar una elección. Esto puede deberse, entre otras cosas, a una discapacidad mental, al efecto de un narcótico, a la edad.
A partir de esta comprensión más general y filosófica de la noción de consentimiento, tratemos de elucidar lo que sucede en la tecnología de la información. En este ámbito, el consentimiento está mayormente relacionado con permitir el uso de nuestros datos personales a cambio de la utilización de un determinado servicio. Considerando los tres criterios procesales, el de la información parece ser el más delicado. En primer lugar, existe una inviabilidad práctica: si fuésemos a leer todas las políticas de privacidad que normalmente se nos presentan, para emitir un consentimiento informado, tendríamos que dedicar un promedio de 244 horas al año a esta tarea (Custers 2016). Además, son textos que suelen ser difíciles de comprender, pues muchas veces incluyen detalles técnicos o jerga jurídica. No sorprende, por tanto, como señalan varios estudios [2], que las personas difícilmente leen las políticas de privacidad.
Teniendo en cuenta los constantes avances de la ciencia de la información, otro problema relacionado con el mismo criterio se refiere a la dificultad de predecir el potencial uso que existe en los datos proporcionados. Aunque tengamos una comprensión clara de la política de privacidad y estemos de acuerdo con ella, no logramos predecir lo que pueden hacer las tecnologías de la información con datos que en principio nos parecen inocuos. En este sentido, volvamos a Pole, estadístico de la tienda Target con respecto a la publicidad dirigida a gestantes: “Si le enviamos un catálogo a alguien y le decimos ‘¡Felicidades por tu primer hijo!’, sin que nadie nos hubiera dicho que estaba embarazada, eso dejará a algunas personas incómodas. Somos muy conservadores cuando se trata de cumplir todas las leyes de privacidad. Pero incluso si sigues la ley, puedes hacer cosas por las que la gente se sienta mal” (Duhigg 2012).
Sobre un proceso para el que Etzioni (2012, 931) sugiere el nombre de violación triangular de la privacidad, él relata cómo datos cuya privacidad está protegida por la ley se pueden obtener de “hechos inocentes” no privilegiados por la legislación:
Una parte de una información aparentemente benigna – por ejemplo, el número de días que una persona no fue a trabajar, o si la persona realizó compras inusuales, como una peluca – dice bastante sobre la condición médica de alguien. Al construir una cartera con varios hechos aparentemente inocuos como estos, se puede inferir mucho, lo que efectivamente viola el espacio de privacidad en torno a la información más sensible de los individuos.
De esta forma, además de la fragilidad de las legislaciones concernientes a la privacidad, también notamos la incapacidad de tener una noción precisa de lo que realmente estamos consintiendo cuando aceptamos una determinada política de privacidad, a pesar de que hacemos todo lo posible para tomar una decisión informada.
Ante estos problemas, se percibe una falta de compromiso de los individuos sometidos a demandas de consentimiento a políticas de privacidad: solo se marca la opción “acepto” para obtener el servicio o producto ofrecido lo antes posible, lo que destituye de este acto el estatuto moral de una decisión autónoma y consciente. Esto nos lleva al criterio procesal de la voluntariedad. No sería una exageración decir que existe una especie de coerción tácita en la forma como se presentan las propuestas de consentimiento. Presionadas por las dificultades prácticas señaladas anteriormente y por la amenaza de perder el acceso al producto deseado (o, muchas veces, necesitado), las personas son inducidas a consentir las políticas de privacidad. Sin mencionar los casos en los que se ofrecen ventajas que van más allá del disfrute del producto, como ofertas de descuentos y regalos. Además, aunque construyamos una opinión informada, no podemos expresar una elección que refleje nuestra opinión con más detalle, pues o hay consentimiento o no lo hay. En este sentido, es interesante resaltar la diferencia, señalada por Custers et al. (2018, 253), entre aceptar términos y condiciones y concordar con sus contenidos. Mientras que el primero está relacionado con la concesión de un consentimiento jurídicamente válido, el segundo cuestiona la efectividad y el significado de los mecanismos de consentimiento. Muchas veces aceptamos una política de privacidad solo para deshacernos de los obstáculos que impiden la realización de un deseo apremiante, lo que es diferente de aceptar realmente, por medio de una decisión informada y voluntaria, los términos allí establecidos.
En cuanto al último criterio procesal de un consentimiento válido, que se refiere a la competencia de quien consiente, vale la pena mencionar el uso de datos personales de niños. ¿Cómo lidiar con estos casos, considerando que para tener competencia para emitir un consentimiento válido sobre el uso de datos personales es necesario tener la suficiente madurez para juzgar las implicaciones que el uso de dichos datos puede acarrear? La Ley de Protección de la Privacidad en Línea para Niños, (COPPA, por sus siglas en inglés) [3], principalmente debido a las crecientes técnicas de marketing de internet dirigidas al público infantil, establece en sus cláusulas que la edad mínima para otorgar un consentimiento es de 13 años. Por debajo de esa edad, el uso de datos solo es lícito a partir de un consentimiento parental verificado, lo que significa que la institución con acceso a los datos debe comprometerse a realizar un “esfuerzo razonable” para garantizar que el consentimiento haya sido de hecho emitido por los padres. Sin embargo, se observa que, además de no garantizar una protección efectiva de dichos datos, debido a los numerosos problemas mencionados anteriormente, esto puede ocasionar una vigilancia invasiva por parte de los padres, lo que sería otra forma de violar la privacidad (Custers et al. 2018, 251).
Preferimos atenernos a la concepción de consentimiento vinculada a la perspectiva a la cual Bullock llama procesal. La otra perspectiva, por implicar el bienestar de quienes consienten, impone dificultades que merecerían un tratamiento aparte. ¿Invalidar un consentimiento porque este violaría el bienestar de alguien ya no sería, por sí mismo, violar el bienestar, dado que la autonomía del individuo se vería afectada? Si pensamos en la cuestión de la eutanasia, por ejemplo, podemos vislumbrar los innumerables problemas que esta concepción es capaz de originar. Después de todo, caracterizar la noción de bienestar objetivamente puede volverse una tarea bastante compleja.
A modo de conclusión, podemos mencionar algunas medidas que permitirían al menos atenuar los problemas aquí discutidos. Una de ellas se refiere al derecho a ser olvidado, que consistiría en viabilizar mecanismos que permitieran cancelar un consentimiento y así borrar los datos cuyo acceso fue permitido (Custers et al. 2018, 252); impedir que datos recopilados en un determinado contexto migren a otros contextos dificultaría la obtención de la información proporcionada por los cruces de datos; los consentimientos parciales darían más autonomía a los individuos y serían menos coercitivos, ya que no encajarían en la lógica del todo o nada, es decir, un servicio se vuelve más disponible a medida que se amplía el consentimiento (Custers et al. 2018, 255); como los avances tecnológicos hacen que sea difícil predecir qué se puede hacer con el uso de nuestros datos personales, estipular un plazo de validez para un consentimiento sería una forma de protegernos de consecuencias no deseadas que puedan desarrollarse en el futuro (Custers 2016).
Finalmente, debe resaltarse que, aunque seamos cautelosos con la divulgación de nuestros datos personales, es posible que estos se deduzcan indirectamente, ya sea de nuestro propio comportamiento en la red (“registros digitales de comportamiento fácilmente accesibles, como los me gusta de Facebook, se pueden utilizar para predecir de forma automática y precisa una gama de atributos personales altamente sensibles, incluyendo orientación sexual, origen étnico, opiniones políticas y religiosas, características de personalidad, inteligencia, felicidad, uso de sustancias adictivas, separación de los padres, edad y género” (Kosinski et al. 2013)), ya sea a partir de personas conectadas a nosotros de alguna manera pero que no son tan cuidadosas (imaginemos, por ejemplo, publicaciones de amigos que revelan datos sobre nosotros que nosotros mismos no revelaríamos). Como afirman Custers et al. (2018, 252), “[el] uso del big data permite cada vez más predecir las características de personas que no dieron su consentimiento, con base en la información disponible de personas que sí que lo dieron”.
[1] También en (Ohm 2010), véase cómo las búsquedas anónimas en el sitio web de AOL o las clasificaciones anónimas de películas en Netflix pudieron manipularse para volver a identificar a los usuarios que introdujeron dichos datos.
[2] Ver un resumen en (Custers 2016).
[3] The Children’s Online Privacy Protection Act, en inglés. Disponible en <https://epic.org/privacy/kids/>. Acceso: 29/06/2020.
Bullock, Emma C. 2018. “Valid Consent.” In: The Routledge Handbook of the Ethics of Consent, Andreas Müller and Peter Schaber (Ed.), 85-94. New York: Routledge.
Custers, Bart. 2016. “Click Here To Consent Forever: Expiry Dates For Informed Consent”. Big Data & Society (January). https://doi.org/10.1177/2053951715624935 (acceso: 26/06/2020).
Custers, Bart; Dechesne, Francien; Pieters, Wolter; Schermer, Bart; van der Hof, Simone. 2018. “Consent And Privacy”. In: The Routledge Handbook of the Ethics of Consent, Andreas Müller and Peter Schaber (Ed.), 247-258. New York: Routledge.
Duhigg, Charles. “How Companies Learn Your Secrets.” The New York Times Magazine, 16 de febrero, 2012. https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?pagewanted=1&_r=1&hp (accessed June 20, 2020).
Etzioni, Amitai. 2012. “The Privacy Merchants: What is to be Done?” University of Pennsylvania Journal of Constitutional Law (Marzo), 929-951. https://scholarship.law.upenn.edu/jcl/vol14/iss4/2 (acceso: 30 de Junio, 2020).
Johnson, Deborah G, 2017. “Ethical Issues in Big Data.” In Spaces for the Future: A Companion to Philosophy of Technology, edited by Pitt, Joseph C. and Shew, Ashley, 164-173. New York: Routledge.
Kosinski, Michael; Stillwell, David; Graepel, Thore, 2013. “Private Traits and Attributes Are Predictable from Digital Records of Human Behavior.” PNAS 110 (15) 5802-5805 (April 9). www.pnas.org/cgi/doi/10.1073/pnas.1218772110 (acceso: 30 de Junio, 2020).
Nissenbaum, Helen, 2009. Privacy in Context: Technology, Policy, and the Integrity of Social Life. California: Stanford University Press.
Ohm, Peter, 2010. “Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization.” UCLA Law Review 57, no. 9-12. 1701. https://ssrn.com/abstract=1450006 (acceso: 30 de Junio, 2020).