Desafios eticos en el mundo de los datos

Desafíos éticos en el mundo de los datos

El análisis de datos nos ayuda a encontrar patrones ocultos a nuestro alrededor: cambios en los hábitos de compra de los consumidores, comportamiento de los usuarios en una página web, evolución de las enfermedades, identificación de compras ‘online’ fraudulentas o las mejores rutas para el envío de paquetería. Sin embargo, en este debate sobre los beneficios de los avances tecnológicos en el mundo de los datos, tendemos a pasar por alto o minimizar el daño que pueden causar, algo que es necesario tener también en cuenta. Con las tecnologías convirtiéndose en una parte tan integral de nuestras vidas, debemos ser conscientes también de los desafíos que pueden surgir y avanzar con cautela.

Cada nuevo avance tecnológico tiene un lado negativo y la “tecnología de datos” no es una excepción, con una rápida evolución del mundo del big data, del aprendizaje automático y tecnologías similares. Siempre que prestemos atención, podemos sacar el máximo provecho a nuestros datos e intentar mitigar cualquier consecuencia no deseada o no tan evidente. Además de las habituales preocupaciones sobre la privacidad o los exagerados escenarios en los que robots con inteligencia artificial se hacen cargo de nuestros trabajos y gobiernan el mundo, ¿qué desafíos ocultos podemos esperar? Algunas de las preocupaciones menos destacadas pero, pese a ello, importantes son las siguientes:

  • La falta de responsabilidad al utilizar algoritmos de “caja negra” (black box).
  • Los efectos negativos de los datos erróneos.
  • El sesgo y la discriminación en datos y algoritmos.

Tanto los creadores de algoritmos como los usuarios deben ser responsables de sus efectos, ya que pueden producirse no solo errores, sino también tomas de decisiones éticamente erróneas.

¿A quién culpar?

Muchos algoritmos funcionan como “cajas negras”, de forma que no sabemos exactamente lo que sucede en cada paso del camino y no siempre podemos explicar el razonamiento que hay detrás de los resultados. Esto podría ser arriesgado a medida que buena parte de nuestras vidas va pasando a estar controlada por los datos. Por este motivo, tanto los creadores de algoritmos como los usuarios deben ser responsables de sus efectos, ya que pueden producirse no solo errores, sino también tomas de decisiones éticamente erróneas.

Observemos el caso de los bancos que ofrecen préstamos en Estados Unidos. El proceso de aprobación o denegación, así como la tasa de interés final, puede estar determinado mediante un algoritmo que evalúa el riesgo que hay detrás de cada solicitante. A medida que este algoritmo se vuelve más complejo y cae en el territorio de la “caja negra”, ¿podemos justificar con confianza su decisión? Los creadores o usuarios de estos algoritmos deben rendir cuentas, para lo que puede ser necesario definir algunos protocolos.

 

Cifras malinterpretadas

A medida que los datos tienen más poder para moldear nuestras vidas, debemos ser conscientes tanto de su grado de confianza y precisión como de si se les está dando el uso adecuado. Es necesario hacerse preguntas del tipo “¿Son precisos los resultados de nuestro estudio?” o “¿Coinciden los datos con los propósitos finales?”. Por ejemplo, si alguien está utilizando datos de Facebook, debe tener en cuenta que esta información no implica una buena forma de entender a la gente. Las personas tienden a exhibir una “realidad ampulosa” online, publicando solo los aspectos más positivos de sus vidas. Por otro lado, ¿se utilizan los datos con fines poco éticos como manipular a la gente? Se trata de un tema recurrente en debates recientes, sobre su uso para influir o incluso lavar el cerebro a la población durante las elecciones políticas.

Aún más preocupante últimamente ha sido la aparición de “ultrafalsos” (deepfakes), basados en técnicas avanzadas de aprendizaje automático que superponen imágenes y vídeos sobre contenidos originales para crear otros nuevos que parecen sorprendentemente reales. Una tecnología similar se ha utilizado para la creación de películas en 3D, pero, a medida que el proceso se generaliza, la difusión de este material engañoso puede llegar a tener consecuencias nefastas.

A medida que los datos tienen más poder para moldear nuestras vidas, debemos ser conscientes tanto de su grado de confianza y precisión como de si se les está dando el uso adecuado.

El sesgo algorítmico

Los algoritmos tienden a reflejar las creencias y suposiciones de sus creadores, reforzando así, aunque sea de manera inconsciente, la discriminación de quienes son diferentes. Un ejemplo para comprender cómo esto puede plantear un problema es el caso del software de reconocimiento facial. La mayoría de estas aplicaciones tienen dificultades para reconocer los rostros de las personas de piel oscura. Normalmente, esto puede atribuirse a la falta de diversidad en los equipos de formación de los datos utilizados para enseñar el funcionamiento de esas aplicaciones, provocado, a su vez, de forma involuntaria, por la falta de diversidad de sus creadores.

La experta informática ghanesa-estadounidense Joy Adowaa Buolamwini desafía este problema, conocido como coded gaze, tan arraigado en el campo de los datos y, especialmente, en el software de reconocimiento facial, y lucha para que se produzca un cambio a través de su Poet of Code Movement. Movimientos como estos nos dejan la esperanza de alcanzar un mayor equilibrio.

Los beneficios de la “tecnología de datos” pueden superar con creces los peligros si se tienen en cuenta los efectos que produce a lo largo del camino. Como dijo Spiderman, “un gran poder conlleva una gran responsabilidad”. Es necesario utilizar correctamente estos nuevos “poderes de los datos”.

 

© IE Insights.

¿TE GUSTARÍA RECIBIR IE INSIGHTS?

Suscríbete a nuestra Newsletter

Suscripción a la Newsletter

ÚLTIMAS NOTICIAS

VER MÁS INSIGHTS

Centro de preferencias de privacidad

Obligatorias

gdpr[allowed_cookies], gdpr[consent_types]

Publicidad

Analítica web

_ga, _gid, _gat, _gtag, _gat_gtag_UA_5130164_1

Otras