Cochecitos de bebé judíos: los resultados de búsqueda de imágenes que han puesto a Google en un nuevo apuro

Screenshot 2
Sin comentarios Facebook Twitter Flipboard E-mail

“Cochecitos de bebé judíos”, "jewish baby strollers" en su versión en inglés, no es el típico término que fueses a buscar tú por decisión propia en Google imágenes, pero de hacerlo te encontrarás con que el 90% de sus resultados representan una broma de lo más pesada, por no decir intolerable. Es la decimoquinta vez que el gigante tecnológico se ve en una de estas.

El chiste de holocausto: el chivatazo lo ha dado la Jewish Telegraphic Agency. Los resultados, barbacoas oscuras, simulan hornos nazis en miniatura en los que achicharrar a recién nacidos semitas. Según Alex Goldenberg, principal analista de Network Contagion Research Institute, algo raro ha ocurrido entre el algoritmo de Google y unas interacciones en 4chan de 2017. Por algún motivo la plataforma de búsqueda ha recuperado aquellas imágenes y las ha puesto en primera línea, tal vez por las acciones coordinadas y maliciosas de un grupo de trolls.

Agujero de contenido: la respuesta de los de Cupertino no se ha hecho esperar. Culpan al vacío de contenido: es decir, si son términos muy relevantes y altamente buscados, como “cochecitos de bebé”, los resultados suelen corresponder con lo que la gente demanda encontrar, pero para conjuntos de términos con una baja interacción, como pueden ser los “cochecitos de bebé judíos”, es más fácil que sean vulnerables a este tipo de situaciones problemáticas.

¿Una explicación es una excusa? Desde Alphabet reconocen que el hecho de poder explicar cómo ha sucedido esto no implica que se puedan desentender de lo sucedido. Se han disculpado públicamente, sostienen que han llevado a cabo un “trabajo considerable” para “depurar los resultados en estas situaciones y aplicar mejoras sistemáticas” a su producto.

Y no lo van a retirar: el punto más atrevido de su misiva ha sido el reconocimiento de que no van a eliminar estos resultados. “Sólo eliminamos los resultados basados ​​en la web por razones extremadamente limitadas. En casos como este, donde no tenemos una política que especifique la eliminación de este tipo de búsquedas, trabajamos para ver si hay formas de mostrar un contenido más relevante”.

El descubrimiento de estos resultados antisemitas, así como la respuesta de Google, están indignando a mucha gente, especialmente dentro de la esfera judía.

La controversia de la marmota: en 2009, y por un período de tiempo, si buscabas “Michelle Obama” aparecían en su buscador imágenes de simios. En 2016 las sugerencias de búsqueda de la plataforma autocompletaban “los judíos” con “los judíos son el mal”. En 2017 “gender fluid” empezó a dar resultados ofensivos contra este colectivo. El año pasado la empresa tuvo que intervenir para que los resultados de búsqueda de cuestiones relacionadas con las “lesbianas” diesen resultados menos pornográficos.

De forma consistente Google ha mantenido la intención de hacer modificaciones únicamente sistémicas, yendo a las raíces del problema y no actuando de forma específica sobre cada acción (hasta el punto en que ya no apuesta por fabricar algoritmos, sino alimentar a su IA para que ella misma los cree), lo que en cierta forma hace que, salvo cambio posterior, se perpetúe el statu quo y los prejuicios preexistentes: si todos nos imaginamos una playa desierta al buscar las Bahamas, saldrá eso. Si buscamos chistes racistas al escribir “gitano haciendo footing”, lo mismo.

El gato y el ratón. Al tratarse de un sistema tan inmenso y carente de vigilantes específicos, los cambios estructurales de la plataforma, especialmente si son en busca del bien común, sirven como llamamiento para la acción de los trolls. Operation Google fue la campaña de boicot de grupos de internautas contra Conversation AI, una nueva herramienta creada para detectar y filtrar los insultos raciales en los diversos contenidos indexados en su acervo. Grupos subversivos y racistas empezaron entonces a hacer insultos en clave, trasladando el término insultante (por ejemplo, “negrata”) a otro neutral (por ejemplo, la mismísima “Google” o “Skype”, como en “debería matarse a esos sucios googles”). Jigsaw, un algoritmo, fue la respuesta de Google para detectar este uso de palabras en clave.

Comentarios cerrados
Inicio