Qué tipo de decisiones automatizadas, basadas en qué tipo de información personal, queremos tolerar en general

Working Paper by Wolfie Christl, Cracked Labs, October 2017.

Addendum – A few remarks on how to go forward

“We urgently need not only a conversation on how to make existing systems making decisions about people fair, accountable, and transparent, but also a debate about what kinds of automated decisions, based on which kinds of personal information, we generally want to tolerate.”

El abuso de la personalización y la persuasión basada en los datos da lugar a tres grandes retos.

  • El primero tiene que ver con el desarrollo y la aplicación de distinciones legales actualizadas entre las prácticas de persuasión aceptables y la personalización beneficiosa, por un lado, y la manipulación inaceptable y la explotación de las debilidades personales, por otro. Los marcos legales actuales -por no hablar de los mecanismos de su aplicación- no parecen estar adecuadamente preparados para una situación en la que las empresas pueden controlar los datos, los entornos digitales y las experiencias a niveles tan amplios.
  • El segundo tiene que ver, de manera general, con abordar el aumento de los desequilibrios de poder entre las empresas y los consumidores inherentes a estos entornos impulsados por los datos tal y como existen actualmente. En este sentido, la experimentación y las pruebas con usuarios sin su conocimiento quizá merezcan ser consideradas como una cuestión aparte.
  • La tercera consiste en mitigar la omnipresente recopilación, divulgación, comercio y uso de datos personales que hoy en día se produce en todas las empresas y que, en gran medida, tiene lugar sin que los sujetos lo sepan ni lo esperen.

Working Paper by Wolfie Christl, Cracked Labs, October 2017.

subir