S.4.1 • Entendiendo la justicia de datos •
"La virtud no conoce de color y la caballerosidad que depende de la tez de la piel y la textura del cabello no puede inspirar respeto sincero. "
La discriminación está vinculada a procesos más amplios de opresión, que dejan a grupos socialmente diferentes vulnerables a procesos de violencia, marginación, explotación, imperialismo cultural e impotencia. (Peña Gangadharan and Niklas, 2019). Existen diferentes enfoques para hacer frente a estas injusticias. Los estudios de equidad, rendición de cuentas y transparencia son uno de esos enfoques y, como sugieren Peña Gangadharan y Niklas (2019), son bastante tecnocéntricos, es decir, se pone la atención en la tecnología en lugar de en las estructuras sociales y culturales en las que se incrustan estas tecnologías. Los académicos en este campo creen que los ingenieros e informáticos pueden crear instancias de equidad o diseñar minería de datos y aprendizaje automático conscientes de la discriminación. Como consecuencia, el campo termina con soluciones técnicas demasiado simplistas y mal equipadas para abordar la complejidad de la vida social, dejando un amplio margen para que se materialicen la injusticia y la discriminación.
La justicia de datos se trata principalmente de explorar y analizar críticamente las dinámicas de poder desiguales que están presentes en el mundo de los datos y las tecnologías basadas en datos y las consecuencias para las personas. Aunque leemos constantemente que estamos atravesando una revolución de datos, la revolución no se trata tanto de los datos y las tecnologías, sino que se relaciona con problemas sociales, políticos, económicos y culturales de larga data, como fundamenta D’Ignazio y Klein (2019). Por lo tanto, la justicia de datos consiste en escudriñar, descubrir y desafiar, la mayoría de las veces, las estructuras invisibles de opresión que están arraigadas en las estructuras sociales y culturales en las que estamos inmersos.
En resumen…
La justicia de datos no se trata únicamente de datos y tecnologías basadas en datos. En cambio, se trata de abordar los problemas estructurales de opresión e injusticias que ocurren en el mundo de los datos y las tecnologías y sistemas basados en datos, pero que se originan tanto en las jerarquías de clases como en el estatus y las jerarquías políticas. La discriminación es consecuencia de la (mala) distribución de la riqueza material en la sociedad, como lo es para el refuerzo del privilegio o dominio de ciertos grupos sobre otros y / o para la exclusión de estructuras y estilos particulares de gobierno democrático.
Algunos ejemplos que nos ilustran
Algunos ejemplos de injusticias en los datos son útiles para ilustrar estos problemas estructurales. Como Heeks nos muestra tan legítimamente, las grandes corporaciones como Facebook, Google, Amazon, etc., capturan, de manera no siempre transparente, enormes flujos de datos granulares sobre nuestras interacciones diarias con diferentes plataformas de redes sociales y servicios en línea, y luego se benefician de esos datos en algunos formas oscuras como Zuboff (2019) ha demostrado tan elocuentemente. Sin embargo, lucharemos por encontrar mucha información sobre estas corporaciones y sus operaciones.
Campaña de identidad digital Aadhaard
Otro ejemplo muy ilustrativo es una iniciativa en la India donde los registros de tierras se digitalizaron y los datos que se incluyeron en ellos fueron puramente cuantitativos, por lo que los datos que se tenían sobre estas tierras en comunidades locales que eran informales, cualitativos y tradicionales se excluyeron del nuevo conjunto de datos. Otro ejemplo también en la India es la campaña de identidad digital Aardhaard.
A partir de 2009, el gobierno de la India comenzó a inscribir a los residentes en una plataforma conocida como Aadhaar, que proporcionó a cada inscrito un número de identificación único de 12 dígitos vinculado a sus datos demográficos y biométricos, incluidas las huellas dactilares y el escaneo del iris.
Estas características biométricas fueron el primer problema, porque muchos trabajadores tienen las manos muy dañadas debido al trabajo duro, por lo que el sistema no siempre reconoce sus huellas dactilares. Pero lo más dramático fue que el proyecto se vendió inicialmente como una forma voluntaria de mejorar la prestación de servicios de bienestar y darles a quienes no tenían identificación una identificación que pudieran usar. Sin embargo, en la práctica, el gobierno extendió su uso como requisito de acceso a una serie de servicios, lo que obligó a los residentes a inscribirse en Aadhaar para tener acceso a servicios que ya tenían. Hoy en día, Aadhaar funciona esencialmente como una prueba de identidad general, que al gobierno no solo le gustaría hacer obligatorio para todos los residentes de la India, sino que también debe estar vinculado a una serie de otros servicios, como la tarjeta PAN, el número de teléfono y la cuenta bancaria. Esto representa una enorme carga para las personas más marginadas que serán excluidas no solo del bienestar al que tienen derecho por ley, sino también de todos los demás servicios que la identificación digital sirve como requisito.
Y entonces…¿qué es justicia de datos?
Por lo tanto, la justicia de datos puede entenderse como la consideración de la equidad en la forma en que las personas son visibles (reconocidas), representadas y tratadas como resultado de su producción de datos digitales (Taylor, 2017). La justicia de datos es, por lo tanto, necesaria para encontrar caminos éticos en un mundo datificado. Un marco de justicia de datos tendrá que abordar algunas de las implicaciones de estos sistemas que afectan procesos democráticos más amplios, la introducción de desigualdades, la discriminación y exclusión de ciertos grupos, el deterioro de las condiciones laborales y la deshumanización de la toma de decisiones y la interacción en torno a temas sensibles (Dencik, Hintz, Redden & Treré 2019).
Para encontrar este camino ético, es necesario hacer una intersección de derechos y libertades para que las personas puedan desafiar la idea de sentido común de que ser visibles a través de los datos que generan es parte del contrato social (Taylor, 2017; Dencik et al. 2019). El problema de fondo es que las fuentes de datos granulares que generan las personas (no necesariamente las personas que están al tanto de dicha recopilación e intercambio de sus datos) a través de sus interacciones diarias con diferentes plataformas y dispositivos inteligentes permiten a los investigadores inferir los movimientos, actividades y comportamientos de las personas. , sino también para influir y manipular la prestación de servicios sociales y otros procesos como se explica en los ejemplos anteriores. Esta situación tiene implicaciones éticas, políticas y prácticas para la forma en que el Estado y el sector privado ven y tratan a las personas (y, lo que es más importante, al actuar en combinación, es decir, vincular y fusionar diferentes conjuntos de datos [Taylor, 2017]).
De lo anterior, podemos ver cómo los datos, en lugar de ser un artefacto técnico abstracto y neutral, se sitúan y comprenden en relación con otras prácticas sociales. Por lo tanto, la justicia de datos no puede tratarse solo de datos, sino que necesariamente debe examinar, escudriñar y comprender esas prácticas sociales que se desarrollan y giran en torno a los datos para que se puedan visualizar y realizar nuevas prácticas de datos más inclusivas que se centren en las necesidades humanas. La justicia de datos como tal puede entenderse como un concepto, un conjunto de prácticas y un enfoque
¿Cómo se puede gestionar y utilizar todo el flujo de datos de forma justa?
¿Cómo pueden los usuarios de datos asegurarse de que no se producirá ningún daño a comunidades o grupos de personas concretos? Uno pensaría que basarse en el marco de derechos humanos sería suficiente para proteger los derechos de las personas, pero el problema es que para que las personas respondan a las violaciones de derechos humanos, las violaciones deben ser visibles y reconocibles para que sean conscientes y capaces de actuar o responder (Taylor 2017). Por lo tanto, un enfoque de justicia de datos debe ir más allá del marco de los derechos humanos. En la siguiente sección, exploraremos el marco y el modelo de Taylor (2017) para la justicia de datos. Existen diferentes interpretaciones de la justicia de datos, describimos algunas de ellas, ya que creemos que implicarán diferentes enfoques de la justicia de datos en la práctica.