Las redes sociales, aplicaciones y otros servicios digitales llevan años utilizando estrategias de diseño que no solo los hacen más atractivos, sino que se convierten en trampas que pueden derivar en adicciones y pérdida de control por parte del usuario del tiempo que pasa frente a las pantallas. Esta tesis, que lleva años siendo denunciada por organizaciones de derechos digitales y diferentes estudios científicos, es asumida ya por organismos oficiales como la Agencia Española de Protección de Datos (AEPD), que se ha comprometido a promover acciones con sus homólogas europeas para controlar este tipo de prácticas a través del derecho a la privacidad.
El regulador español ha presentado este miércoles un informe sobre estos “patrones adictivos”, centrado en estudiar cómo se usan para “manipular el comportamiento de los usuarios” y poder recolectar un mayor número de datos personales sobre ellos.
El estudio resalta la necesidad urgente de regulación para impedir que estas tácticas se usen además contra menores de edad. Se trata de una población más vulnerable a ellos al no estar su cerebro plenamente desarrollado para detectarlas o, en los menores de 14 (aunque el Gobierno ha propuesto subir la edad mínima a 16), tratarse incluso de recogidas de datos ilegales si no cuentan con el consentimiento de sus familias.
La directora de la AEPD, Mar España, ha elogiado durante la presentación la iniciativa del Gobierno para desarrollar una aplicación que impida a los menores acceder a contenidos para adultos online. España, ex viceconsejera de María Dolores de Cospedal en Castilla-La Mancha y que lleva cinco años con el mandato caducado al frente del organismo, evitó hacer ninguna declaración en este sentido la pasada semana en medio de la polémica desatada por el sistema, sobre el que circularon además un gran número de bulos. “Hay que proteger a los menores sin controlar a los adultos”, llegó a protestar el PP, a pesar de que la aplicación se basa en tecnología propuesta por la propia AEPD unos meses antes.
En su nuevo informe, el organismo valora estos sistemas como una de las claves para impedir que los “patrones adictivos” impacten en los menores. El problema, no obstante, se extiende a todo tipo de usuarios y tiene implicaciones con el derecho a la privacidad ya que pretenden “prolongar el tiempo que los usuarios permanecen en sus servicios o para incrementar su nivel de compromiso y la cantidad de datos personales que se recogen sobre ellos”, denuncia la Agencia, que los divide en cuatro categorías:
Dentro de esta categoría el informe incluye aquellos patrones que consisten en “ofrecer a los usuarios algo que desean, exigirles que hagan algo a cambio o engañarlos para que lo hagan de una manera que pueda causarles un perjuicio, ya sean conscientes o no”.
Las acciones forzadas están insertadas en el diseño de las aplicaciones y obligan al usuario a pasar por ellas en caso de que desee continuar con la experiencia. Entre ellas están continuidad forzada, con tácticas como el scroll infinito (el contenido nunca se acaba, una estrategia que ha universalizado TikTok) o los temporizadores que retrasan cada avance o recompensa y fuerzan al usuario a esperar un tiempo que será empleado por la app para engancharle en otras actividades.
También incluye en este apartado la gamificación, que consiste en convertir cada avance en una competición, ya sea contra otros usuarios, contra uno mismo o a cambio de un premio; o la captura de la atención, como la AEPD ha denominado a tácticas como la reproducción automática de vídeos o canciones sin cesar en cuanto acaba el anterior, de forma que el diseño evita establecer un momento en el que el usuario pueda dejar de hacerlo sin interrumpir la experiencia.
Esta categoría “consiste en ofrecer a los usuarios algo basado en sus sesgos cognitivos o tendencias de comportamiento (anclaje, aversión a la pérdida, etc.) para manipularlos y llevarlos a tomar decisiones no intencionadas, involuntarias o incluso potencialmente dañinas para ellos”, describe el informe.
Estas tácticas incluyen el uso de la escasez, donde se limita el acceso a ciertos contenidos o funcionalidades, creando una sensación de urgencia para que los usuarios actúen rápidamente antes de que la oportunidad desaparezca. Otro método es la aprobación social, “basado en crear ilusiones de popularidad, credibilidad, consenso, respaldo o cualquier indicio de que otros usuarios encuentran valor o importancia en lo que una persona hace o comparte”, describe el regulador de la privacidad. La urgencia es otra técnica clave, la cual genera presión temporal para que los usuarios actúen rápidamente, a menudo mediante contadores regresivos o mensajes de advertencia.
En este campo la Agencia encuadra las estrategias de recompensa variable, donde las recompensas por acciones específicas son intermitentes y no predecibles, lo que mantiene a los usuarios enganchados esperando el próximo incentivo. También la sensación de urgencia, un mecanismo que también ejecutan muy habitualmente los ciberdelincuentes para manipular el comportamiento del objetivo para instarle a actuar ya y evitar que se cuestione si lo que está a punto de hacer le beneficia o no.
Otro de las sensaciones que en ocasiones estas apps intentan promover en sus usuarios es la culpa. Puede ejecutarse en dos sentidos: haciendo sentir vergüenza al usuario cuando no ha ejecutado una acción que los desarrolladores deseaban (como aprovechar una oferta o contestar en un tiempo preestablecido) o con mensajes como “Tus amigos te han echado de menos”, “Tus seguidores han estado esperando tu respuesta”, “Te perdiste algo importante”, etc.
El miedo a perderse algo (FOMO, por sus siglas en inglés) o la personalización, que no es más que hallar “el equilibrio perfecto que haga que el usuario permanezca conectado el mayor tiempo posible con el mayor grado de compromiso posible sin sentirse molesto por estos patrones”, son dos de los sesgos cognitivos más explotados por los servicios que emplean mecanismos adictivos.
Esta categoría recoge los cambios en la experiencia visual y funcional del usuario para favorecer que este navegue de la forma que desean los desarrolladores de las aplicaciones que usan estas técnicas, a la vez que desincentivan los comportamientos que no les interesan. Son los conocidos como patrones oscuros y son comúnmente utilizados por las grandes plataformas a pesar de que se consideran una mala práctica de diseño.
Un ejemplo práctico sucedido en las últimas semanas estuvo protagonizado por Meta. La corporación de redes sociales comunicó a sus usuarios europeos que utilizaría sus fotos y comentarios publicados en Facebook e Instagram para entrenar una nueva inteligencia artificial. Diseñó un formulario para oponerse, pero lo escondió en lo más profundo de las dos aplicaciones y además lo configuró para que no fuera posible rellenarlo con pocos clics. Las autoridades europeas forzaron a la multinacional a pausar el entrenamiento de su IA por sus prácticas a la hora de comunicar sus intenciones.
Además de las estrategias de ocultación de información, el informe de la AEPD recoge la manipulación estética. En esta se utilizan colores, tamaños, y ubicaciones específicas de botones o enlaces para dirigir la atención del usuario hacia ciertas acciones deseadas por el proveedor del servicio. “Se usa habitualmente para ayudar a otros patrones a tener éxito, llamando la atención del usuario sobre elementos relacionados con FOMO, la personalización, etc.”, recalca.
Dentro de estas herramientas de diseño relacionadas con la interfaz, el regulador de la privacidad español destaca la manipulación de las emociones, que “se basa en explotar las vulnerabilidades psicológicas del usuario”. Esta puede ejercerse con lenguaje persuasivo o con una sobrecarga cognitiva, que “se basa en abrumar al usuario con demasiada información, contenidos y distracciones, con demasiadas opciones simultáneamente, influyendo en su capacidad cognitiva. Esto le facilita perder la noción del tiempo o la capacidad de evaluar las consecuencias de sus decisiones”.
La última categoría recogida por la AEPD incluye aquellos patrones que consisten en “explotar el impulso humano innato de terminar las tareas iniciadas”.
En este sentido destaca dos sesgos cognitivos, el efecto Zeĭgarnik (facilidad del cerebro para recordar tareas sin terminar) y el Ovsiankina (el malestar generado por no terminarlas). “Este enfoque se basa en el que el usuario perciba que tiene tareas sin terminar, en ayudar a generar en el usuario cierto malestar porque estas tareas permanecen en su cerebro por más tiempo que en el caso de las tareas terminadas. Estos efectos pueden explotarse para aumentar el tiempo de conexión y el compromiso de los usuarios”, señala el regulador español de la privacidad.
La inclusión constante de barras de progreso, que marcan constantemente el tiempo o esfuerzo que queda para terminar una determinada actividad señalada por los desarrolladores; o las microinterrupciones, que hacen que los usuarios tengan que saltar constantemente de una tarea a otra sin terminar ninguna, son dos formas de explotar estos efectos.