¿Cómo está cambiando Big Data la vida diaria en todo Estados Unidos?

¿Cómo está cambiando Big Data la vida diaria en todo Estados Unidos?
¿Cómo está cambiando Big Data la vida diaria en todo Estados Unidos?

Vídeo: Amazon, Jeff Bezos y la colección de datos | DW Documental 2024, Junio

Vídeo: Amazon, Jeff Bezos y la colección de datos | DW Documental 2024, Junio
Anonim

La idea de 'big data' se ha vuelto omnipresente, pero ¿qué es y cómo está cambiando la forma en que vivimos? Nos reunimos con Cathy O'Neil, científica de datos, doctora en Harvard y nominada al Premio Nacional del Libro para averiguarlo.

CT: Comencemos con lo básico: ¿qué es exactamente 'big data'?

CO: Big data es un nuevo enfoque para predecir cosas. Más específicamente, 'big data' es el uso de datos recopilados accidentalmente, como la forma en que busca a través de su navegador o lo que hace en Facebook, para inferir cosas sobre usted, como lo que va a comprar o cuáles son sus afiliaciones políticas. Es una forma indirecta de descubrir a las personas. Por ejemplo, una cámara que nos está vigilando no pregunta "¿Qué estás haciendo?" - Solo llega a ver lo que estamos haciendo.

CT: ¿Y qué es un algoritmo?

CO: Los algoritmos son cálculos que [interpretan] los datos que se recopilan sobre usted para crear una predicción. Piense en ello como una ecuación matemática que trata de responder una pregunta enmarcada como predicción, como: '¿Esta persona está a punto de comprar algo?' o '¿Esta persona va a votar por alguien?'

CT: ¿Por qué estoy escuchando tanto al respecto ahora?

CO: Antes de 'big data', los estadísticos harían cosas costosas como sondear a las personas para descubrir el futuro. Por ejemplo, hacer preguntas directas a las personas como: '¿Por quién vas a votar?' Ahora, confiamos cada vez más en el 'escape de datos', que es lo que yo llamo los datos que se recopilan constantemente sobre usted, para inferir cosas sobre usted.

Antes de 'big data', las compañías solo tenían que hacer conjeturas salvajes. Ahora, tenemos conjeturas mejores que salvajes. Lo sorprendente es que la mayoría de los algoritmos de big data son extremadamente inexactos, y no hay razón para pensar que tengan razón. Pero son mejores que conjeturas salvajes. Y es por eso que Big Data ha despegado como lo ha hecho.

CT: Si son inexactos, ¿qué están reflejando?

CO: Los conjuntos de datos defectuosos que los alimentamos. Los algoritmos no saben nada más allá de lo que les decimos. Entonces, cuando tenemos datos desiguales y los estamos alimentando al algoritmo, o datos sesgados, pensaremos que es la realidad.

Image

Ailsa Johnson / © Culture Trip

CT: ¿Cuál es un ejemplo real de eso?

CO: Un ejemplo podría ser que en los Estados Unidos, los negros son cinco veces más propensos a ser arrestados por fumar marihuana que los blancos. Esto no se debe a que las personas negras fuman marihuana con más frecuencia: ambos grupos fuman marihuana al mismo ritmo. Los negros son mucho más propensos a ser arrestados por ello. Si entrega eso a un algoritmo, lo que hacemos, inferirá correctamente que las personas negras tienen muchas más probabilidades, en el futuro, de ser arrestadas por fumar marihuana. Y luego otorgará a las personas negras puntajes de riesgo más altos de criminalidad, lo que tiene un efecto en la sentencia penal.

Otro ejemplo es un experimento mental. Usaré Fox News, porque Fox News ha tenido erupciones recientemente relacionadas con una cultura interna del sexismo. El experimento es '¿Qué pasaría si Fox News intentara usar sus propios datos para construir un algoritmo de aprendizaje automático para contratar personas en el futuro?'

Digamos que estamos buscando personas que tuvieron éxito en Fox News, por ejemplo. Depende de cómo se defina el éxito, pero generalmente miraría a las personas que reciben aumentos, promociones o se quedan por mucho tiempo. Según cualquiera de esas medidas, los datos reflejarían que las mujeres no tienen éxito en Fox News. Si se usa como algoritmo de contratación, propagaría ese problema. Vería un grupo de solicitantes y diría: 'No quiero contratar a ninguna mujer, porque no tienen éxito aquí. No son buenos empleados. Y no solo tiene que ser Fox News: cada cultura corporativa tiene prejuicios. Cuando alimenta los datos de un algoritmo, el sesgo del algoritmo luego lo propaga. Continúa reforzando los prejuicios que ya existen en la sociedad.

CT: ¿Son los prejuicios intencionales?

CO: No creo que los científicos de datos estén tratando de hacer algoritmos sexistas o racistas. Pero los algoritmos de aprendizaje automático son excepcionalmente buenos para captar patrones relativamente matizados y luego propagarlos. No es algo que los científicos de datos estén haciendo intencionalmente, pero de todos modos es parcial.

CT: ¿Qué papel juegan los algoritmos inexactos en nuestra vida diaria?

CO: Se están utilizando en todo tipo de decisiones para la vida de las personas, desde admisiones a la universidad hasta conseguir un trabajo.

Hay algoritmos que deciden cómo la policía vigilará los vecindarios, así como algoritmos que deciden cómo los jueces sentenciarán a los acusados. Existen algoritmos que deciden cuánto pagará por el seguro o qué tipo de APR [tasa de interés] obtendrá en su tarjeta de crédito. Hay algoritmos que deciden cómo le va en su trabajo, que se utilizan para determinar los aumentos salariales. Hay algoritmos en cada paso del camino, desde el nacimiento hasta la muerte.

CT: Entonces, ¿dónde nos deja eso?

CO: Hemos saltado a la era de los grandes datos y hemos arrojado algoritmos a cada problema que tenemos, asumiendo que esos algoritmos deben ser más justos que los humanos, pero en realidad son tan injustos como los humanos. Tenemos que hacerlo mejor.

Haga clic aquí para leer la segunda parte de nuestra entrevista con el Dr. O'Neil. Su libro, The Weapons of Math Destruction: How Big Data aumenta la desigualdad y amenaza la democracia, ya está disponible.