Manipulación de emociones.
Julio
2014 | Boletin
Mensual de Psiquiatría y Psicología
El
experimento científico de Facebook con los usuarios muestra
que la empresa es mucho más potente y mucho menos ética
de lo que pensábamos.
En
un informe publicado en PNAS (Proceedings of the National Academy of
Sciences of the United States of America), revista científica
de la Academia Nacional de Ciencias de Estados Unidos, los científicos
de datos de Facebook llevaron a cabo un experimento para manipular las
emociones de casi 700.000 usuarios con el fin de ver si las emociones
positivas o negativas son tan contagiosas en las redes sociales como
lo son en el mundo real.
Al modificar
Facebook su potente algoritmo News Feed (Noticias en tiempo real) con
algunos usuarios (actuando como "ratas de laboratorio" sin
su conocimiento), estos observaban menos mensajes con palabras positivas,
mientras que otros usuarios observaban mensajes con un menor número
palabras negativas.
Cuando
se reducían las expresiones positivas, "señala el
informe de los científicos" las personas producían
un menor número de mensajes positivos y más mensajes negativos;
cuando se reducían las expresiones negativas, se producía
el patrón opuesto.
Estos resultados
indican que las emociones expresadas por los demás en Facebook
influyen en nuestras propias emociones, constituyendo una evidencia
experimental de contagio a escala masiva a través de las redes
sociales.
Los resultados
no deben sorprender a nadie. Lo que es más sorprendente, e inquietante,
es el poder que Facebook ejerce en el cambio de los estados emocionales
de sus usuarios, y en el hecho de que está dispuesto a usar ese
poder sin que dichos usuarios lo sepan.
En primer
lugar, ¿está bien llevar a cabo un experimento de comportamiento
social en las personas sin comunicárselo a ellas? Técnicamente,
y como dice el informe, los usuarios dan el consentimiento para esta
investigación cuando antes de darse de alta en el servicio afirman
estar de acuerdo con la política de datos de Facebook, por lo
cual no es ilegal. Pero sin duda no es ético.
Además,
la manipulación de las emociones de los usuarios en un espacio
digital viene con consecuencias singularmente inquietantes.
En el mundo
real, si las personas a nuestro alrededor traen demasiada negatividad
a nuestras vidas, la solución es fácil: busquemos otro
grupo social en el cual integrarnos.
Pero en
Facebook, independientemente de la cancelación de la cuenta,
esto es imposible de hacer si la compañía decide de repente,
ya sea como parte de un estudio de investigación o como parte
de ciertos intereses publicitarios o de compromiso, empezar a enviar
contenido más negativo a su manera.
Es difícil
dejar de extrapolar algunos de los alarmantes usos potenciales de este
poder.
Técnicas
de guerra psicológica, como gaslighting (abuso psicológico
consistente en presentar falsa información para hacer dudar a
la víctima de su memoria, percepción y/o cordura), han
sido durante mucho tiempo utilizadas por las agencias gubernamentales
para crear grietas en las psiques de disidentes políticos u otros
"indeseables".
Suponiendo
que los vínculos entre las organizaciones gubernamentales y las
empresas de tecnología continúen fortaleciéndose
(y ya hemos visto anteriormente a Facebook doblegarse a la presión
del gobierno), ¿Quién impide a la NSA (una agencia de
inteligencia del gobierno americano) de manipular el contenido que una
persona ve en su News Feed de una manera diseñada para conducirlo
a la locura?
Tal vez
no sea tan difícil de hacer: Si cada vez que abrimos Facebook,
todo lo que vemos son ex novias y ex novios, viejos amigos que tienen
más éxito que nosotros y extremas diatribas políticas
de miembros de la familia, todo ello puede ser suficiente para conducir
a una persona a la locura.
No tiene
por que ser el gobierno quien maneje los hilos, el mismo Facebook podría
apuntar a ciertos usuarios, ya sean rivales corporativos, empleados
actuales o ex empleados.
De hecho
el CEO (director ejecutivo) de Facebook acostumbra a quitar de su lista
de amigos a aquellos que se van de la empresa sin si consentimiento.
Tener tan
fuerte control psicológico sobre tu fuerza de trabajo, sin duda,
tiene sus beneficios. Y si alguna vez se ve atrapado Facebook con una
denuncia, la empresa siempre podrá decir que todo es parte de
un experimento social, algo que los usuarios tácitamente aceptaron
cuando firmaron.
Por
favor suscribase a nuestro Boletin
de Salud