Todos hemos usado alguna vez el buscador de Google y hemos hallado respuesta a nuestras preguntas de manera satisfactoria en general. Esto nos hace pensar que Google es una especie de oráculo que tiene todas las respuestas posible. Sin embargo, la realidad es que en ocasiones se equivoca, como en el siguiente caso.
La periodista de la BBC, Carole Cadwalladr, buscó “Did the Holocaust happen?” (¿Ocurrió el Holocausto?) y el primer resultado del buscador de Google fue que no ocurrió. El primer enlace correspondió a un sitio supremacista blanco llamado Stormfront.
La empresa líder en las búsquedas por Internet salió a explicar el asunto: “Esto es un problema realmente que nos reta, y estamos pensando profundamente en términos de cómo hacer un mejor trabajo”, indica un vocero de Google. Pero debe parecer claro que “las búsquedas son un reflejo de los contenidos que existen en la red y además, los sitios de odio declarado contra algo o alguien, que aparecen en los resultados no implica ni significa que Google apoye esos sitios”, indicó.
Es evidente que hay búsquedas que son más sensibles que otras y por ende parece claro que Google tendrá que modificar la manera en cómo el buscador decide los resultados. Danny Sullivan, editor del sitio de noticias Search Engine Land, se reunió con ingenieros y ejecutivos de Google para discutir la controversia sobre las calificaciones (rankings), que da el buscador al elegir los resultados.
Sullivan piensa que debido a un intento de terceras personas, externas al buscador, se busca influenciar el orden de los resultados. Este tipo de rankings “equivocados” también se observan en cuestionamientos al buscador sobre “minorías étnicas”.
La realidad es que Google procesa unos 5 mil millones de búsquedas por día y estos errores quizá no pudiesen ser corregidos tan fácilmente. Hay que reconocer que los argumentos del vocero de Google suenan lógicos: ahí están las páginas y Google entrega los resultados y es cierto, Google no necesariamente apoya a nadie en este sentido. No obstante esto, hay quien pretende que en estos listados estos sitios supremacistas blancos no salgan como la primera opción.
Cadwallardr por ejemplo, ha llevado su argumento más lejos diciendo que Google disemina el “discurso de odio”. Y para hacer más fuerte sus dichos, la periodista ha puesto preguntas como “are women devil?” (¿son las mujeres diabólicas?) y “are muslim bad?” (¿son los musulmanes malos?), las cuales han dado resultados controversiales. Por ejemplo, buscando “are black people smart?” (¿son los negros inteligentes?), la primera respuesta de Google fue “las personas negras son significativamente menos inteligentes que las otras razas”.
Sullivan dice que quizá la pregunta del Holocausto es demasiado específica y que la gente solamente pone, muchas veces, sólo la palabra “Holocausto”, y esto altera la manera en cómo Google califica esa búsqueda. Y Sullivan añade que Bing, el buscador de Microsoft parece estar haciendo un mejor trabajo con este tipo de consultas aunque tampoco es “inmune” al problema descrito con Google.
En cualquier caso hay que reconocer que quizá no pueda existir un algoritmo de búsqueda imparcial, o neutral. Y así lo indica el profesor Mark Graham, del Oxford Internet Institute: “No hay una respuesta correcta a todos los problemas”, pero añadió que Google está en una posición de responsabilidad.
Google, como dijimos, está “pensando profundamente”, sobre este problema. Sin embargo, Graham piensa que Google bien podría ver los lineamientos de varios países para poder discernir qué es aceptable y qué no, y así no tendría que hacer este trabajo desde cero.
Referencias: BBC, Search Engine Land