TECNOLOGÍA
"Un psicólogo está convencido de que los motores de búsqueda pueden influir en nuestras mentes de manera poderosa y en gran medida inadvertida"
Hace un par de meses, un veterano inversor en Silicon Valley realizó un experimento: extrajo todos los datos que Facebook y Google tenían sobre él y comparó los archivos.
Los resultados lo sobresaltaron: Google contenía dramáticamente más información, por un gran múltiplo. "Es increíble", me dijo durante el desayuno en San Francisco. "¿Por qué nadie está hablando de eso?"
Es una pregunta interesante, especialmente si utiliza los servicios de Google varias veces al día, como lo hago yo. Una respuesta podría ser que los ejecutivos de Google han sido inteligentes en la construcción de redes de apoyo político. Otra es que Google se aferra a los datos que recopila, y luego los utiliza para crear ofertas de búsqueda y publicidad específicas, personalizadas para los usuarios. Facebook permite que los desarrolladores externos accedan a sus datos, por lo que las travesuras de Cambridge Analytica han provocado mucho furor.
Esta distinción puede hacer que Google suene más benigno, pero ¿significa que podemos relajarnos? Robert Epstein, un psicólogo del Instituto Americano de Investigación y Tecnología del Comportamiento en California, piensa que no. En los últimos años, ha llevado a cabo una extensa investigación con psicólogos y científicos de datos sobre la función de "búsqueda" o "autocompletar" de Google. Esto lo ha dejado convencido de que los motores de búsqueda también pueden influir en nuestras mentes de una manera extraordinariamente poderosa y en gran parte inadvertida, y no solo sobre política.
"Un motor de búsqueda tiene el poder de manipular las búsquedas de las personas desde el primer carácter que las personas escriben en la barra de búsqueda", dice un artículo de investigación que este grupo presentó a una conferencia de psicología en Oregon el mes pasado. "Una forma simple pero poderosa para que una compañía de motores de búsqueda manipule las elecciones es suprimir las sugerencias de búsqueda negativas para el candidato que apoya, mientras permite que aparezcan una o más sugerencias de búsqueda negativa para el candidato contrario".
El grupo de Epstein le pidió a 661 estadounidenses que eligieran a uno de los dos candidatos en una elección australiana. Como se presumía que no sabían mucho sobre política antipodeana, se instruyó a los participantes para que los investigaran con un motor de búsqueda tipo Google que ofreciera las sugerencias de autocompletar habituales cuando se escribían las palabras.
Sin embargo, los investigadores también variaron las sugerencias de búsqueda debajo del nombre de un candidato, incluyendo un rango de palabras positivas y negativas. Los resultados fueron crudos. Cuando más tarde se cuestionó a los participantes acerca de sus preferencias de voto, se demostró que cambiar la proporción de sugerencias positivas a negativas en el autocompletado era capaz de cambiar las preferencias de los votantes indecisos en casi un 80 por ciento, aunque los participantes parecían libres de buscar cualquier material que buscaran. querido. Otro estudio encontró que cuando a los participantes solo se les ofrecían cuatro sugerencias de autocompletado, eran muy fáciles de manipular; cuando había 10 para elegir, no lo eran.
Estos resultados no demuestran que Google, o cualquier otra compañía de motores de búsqueda como Bing o Yahoo, haya usado este poder para manipular a sus usuarios. Pero el artículo de Epstein destaca algunos patrones que él considera extraños. Su grupo descubrió que si escribe los nombres de los competidores de Google en su motor de búsqueda, seguido de la palabra "es", pueden aparecer frases como "Yahoo está muerto" o "Bing es basura" en la barra de autocompletar. Según Epstein, en ese momento no sucedió lo mismo en los motores de búsqueda de Yahoo o Bing.
En agosto de 2016 surgió un patrón sorprendente. Cuando se escribieron las palabras "Hillary Clinton" en el motor de búsqueda de Google, el autocompletado ofreció frases como "Hillary Clinton está ganando"; en Yahoo y Bing, el autocompletado sugirió "Hillary Clinton es una mentirosa" y "Hillary Clinton es una criminal".
Los ejecutivos de Google dicen que estos diferentes patrones de sugerencias automáticas surgieron porque la compañía tiene la política de eliminar las predicciones automáticas ofensivas. "Google elimina las predicciones que van en contra de nuestras políticas de autocompletado, que prohíben. . . predicciones de odio contra grupos e individuos sobre la base de raza, religión o varios otros datos demográficos", escribió Danny Sullivan, ejecutivo senior de la compañía, en una publicación de blog el mes pasado.
También han negado firmemente haber intentado usar la herramienta de autocompletar para manipular a los usuarios. Dijeron que el trabajo de Epstein se basaba en un tamaño de muestra pequeño, utilizando un motor de búsqueda al estilo de Google en lugar de los propios datos de Google. En un raro comentario oficial en 2015 sobre algunos de los trabajos de Epstein, los ejecutivos dijeron: "Google nunca ha vuelto a clasificar los resultados de búsqueda en ningún tema (incluidas las elecciones) para manipular el sentimiento del usuario".
Si nada más, esta investigación nos debería hacer a todos reflexionar sobre la forma en que usamos esa función de "autocompletar". Cuanto mejor se hace la auto-predicción, mayor es el riesgo potencial de que los usuarios sean absorbidos perezosamente en las cámaras de eco digitales. Epstein cree que hay una solución simple. Él piensa que los motores de búsqueda deberían poner una simple "advertencia de salud" sobre los peligros de las cámaras de eco, y la manipulación, en sus sitios para contrarrestar estos posibles riesgos.
Ya sea que acepte o no la investigación de Epstein, esto parece una buena idea. Pero no espere que suceda pronto, o no, a menos que más consumidores y reguladores hagan lo que hizo mi compañero de desayuno de Silicon Valley: a saber, ver los datos que todas las compañías de tecnología más importantes nos tienen, empezando, pero no terminando, con Facebook.
Por Gillian Tett