Artículo publicado en la Revista Deusto Nº 128 (otoño 2015).
Cuando escuchamos la ya manida frase que acompaña a las redes sociales de «Si el producto que recibes es gratis, igual el producto eres tú», nos imaginamos cómo estarán mercadeando con nuestros datos. Pero lo que quizás no tengamos tan presente es que también somos ratoncitos de laboratorio que estamos siendo observados y estudiados. Tanto la propia plataforma como investigadores de diferentes universidades han encontrado en Facebook el caldo de cultivo ideal para analizar la nueva cultura digital en la que nos vemos envueltos y su conexión con el mundo analógico. Con este artículo quiero mostrar algunos de esos experimentos de los que se tienen conocimiento (imaginaos los que no se hacen públicos…).
Para entenderlos mejor, un concepto que tenemos que tener claro es que cuando entramos a la red social de Mark Zuckerberg, no vemos las últimas publicaciones de nuestros contactos y las páginas a las que les hemos dado “Me gusta”. Facebook tiene un algoritmo que nos muestra solo algunas actualizaciones y que cambia constantemente. Y por supuesto, ese algoritmo es como la fórmula de la Coca Cola: algo secreto que solo ellos conocen. Se supone que lo que hacen es mostrarnos con mayor frecuencia contenidos de cuentas con los que interactuamos de manera regular y que la plataforma estima que son más relevantes para nosotros. Recalco lo de “se supone”. Entenderéis al finalizar la lectura por qué.
El hecho de que nos oculte algunas cosas y nos muestre otras, hace que seamos cada vez más homofílicos. O eso muestra un estudio de los científicos sociales de Facebook publicado en la revista Science, donde se habla de una burbuja ideológica. El análisis de más de 10 millones de usuarios activos y su interacción con noticias políticas arroja que solo un 22% de personas progresistas ven contenidos conservadores y, a la inversa, un 33% de conservadores hacen lo correspondiente con noticias progresistas. Por supuesto, el estudio exime de culpas al algoritmo y enuncia que la responsabilidad está en los propios usuarios. Según ellos, si las personas no escogieran a sus amistades y fuera algo aleatorio, los porcentajes de contenido visto contrario a sus ideas ascendería hasta el 45% en el caso de los progresistas y el 40% en el de los conservadores. Tras leer el estudio, el primer sudor frío que recorrió mi espalda no estaba vinculado con esta burbuja ideológica, sino más bien con cómo podía Facebook saber la ideología política de 10,1 millones de usuarios. Sencillo: en el caso de este estudio, la muestra se compone de los que se han autodefinido ideológicamente motu proprio. Sin embargo, recientemente se ha publicado que usan otros artificios para sacar esa información. Por ejemplo, se rumorea que la campaña Celebrate pride que nos permitía poner nuestro avatar con la bandera arcoíris tras la legalización del matrimonio homosexual en Estados Unidos, realmente buscaba recopilar información privada sobre la inclinación política, sexual e ideológica de los usuarios.
Y es que acciones como esos cambios de avatar, dar “Me gusta” a publicaciones o páginas concretas, acceder a perfiles y fisgonear… son rastros que dejamos para Facebook y que pueden ser estudiados a posteriori. Ese fue el caso de un paper presentado por Lars Backstrom, investigador de la propia compañía y Jon Kleinberg, de la Universidad Cornell. A través de esta publicación detallan cómo, dependiendo del contenido, la frecuencia de la publicación de los usuarios y los contactos en común, una pareja puede terminar enamorándose. El que tengan muchos amigos en común, aparezcan en muchas imágenes juntos y comiencen a revisar mutuamente el perfil de la otra persona, son signos claros para el gigante de las redes sociales de que el amor surgirá entre ambos. Las rupturas también son objeto de estudio. Nos avisan de que algo marcha mal cuando ambas personas dejan de aparecer juntas en las fotografías y de comentar las actualizaciones del otro.
Pero no se han quedado como meros espectadores para analizar desde fuera lo que hacemos los usuarios dentro. Se han atrevido también a intervenir para determinar entonces nuestras reacciones. Hace unos meses desvelaron que en 2012 habían manipulado el manido algoritmo para observar si existe un contagio emocional entre las personas, usando una muestra de 700.000 usuarios. Para ello, se mostró a un grupo noticias positivas mientras que a otro se hacía lo contrario. Una de las conclusiones fue que los usuarios estudiados cambiaron su conducta: los que vieron más publicaciones negativas, usaron palabras más pesimistas al cabo de una semana y viceversa.
Lo mismo hicieron durante las elecciones legislativas de Estados Unidos en el 2000 y las europeas en el 2004. Incluyeron un botón “Voy a votar” facilitando a los usuarios mostrar esta acción a sus contactos. La intención de este señuelo era reducir el número de abstenciones. Y así sucedió según un estudio que publicaron posteriormente en la revista Nature: sus datos les permitían asegurar que el 0,4% de los votantes habían acudido al colegio electoral después de ver en Facebook ese botón.
¿No os sentís ahora como pequeños ratones de laboratorio? Big Brother is watching us.
Foto de Mycroyance (CC by-nc).
lo cierto es que los estudios son bastante obvios… no hacía falta hacerlos para conocer los resultados… Aunque hace pensar en si habrá otros que no cuenten… En cualquier caso, si pretenden definir realmente a la gente por lo que vuelca en las redes sociales, van a tener un GRAN margen de error 😉
Y hablando más en serio, la frase “Si el producto que recibes es gratis, igual el producto eres tú” nunca estará suficiente manida. Sigue haciendo falta concienciar más y defendernos un poco más. Por cierto, ¿crees que esto cambiará las cosas? «Safe Harbor ha muerto, ¿quién será su sustituto?» http://www.iurismatica.com/safe-harbor-ha-muerto-quien-sera-su-sustituto/
un abrazo!
@Amaia: como bien dice en el artículo el gran Jorge Campanillas «veremos»…
El peligro de esta «burbuja de opiniones similares» es que nos polariza más aún: http://www.expansion.com/blogs/conthe/2015/11/17/polarizaciones-asesinas.html