Seguimos llamándolas redes sociales, aunque ya casi nadie espere que sostengan nada. Decimos “red” por costumbre, como decimos “hogar” aunque se caiga a pedazos, como decimos “comunidad” aunque nadie acuda cuando llamas. Una red debería amortiguar la caída. Y, sin embargo, cada vez más a menudo, estas plataformas funcionan como espacios donde todo circula y nadie se hace cargo.
Hace unos días, Pável Dúrov, fundador de Telegram, envió un mensaje directo a los usuarios en España advirtiendo que «el gobierno de Pedro Sánchez está impulsando nuevas regulaciones peligrosas que amenazan nuestras libertades en internet». Lo primero que me molestó de este mensaje fue la alusión a un nombre propio: el de Pedro Sánchez, una persona que preside un gobierno que no posee, por lo que no es «su» gobierno, sino el derivado de una votación democrática ejercida por ciudadanos libres. Me molestó todavía más que se tomara la libertad de entrar sin pedir permiso en nuestros teléfonos para advertir de los “peligros” que, según él, supondría identificar a los usuarios o exigir responsabilidad penal a quienes dirigen las plataformas si no eliminan ciertos contenidos. Más allá del contenido concreto, hubo algo inquietante en el gesto: alguien con un poder enorme hablando en nombre de la libertad mientras huye de la idea de responder.
Y ahí me asaltaron un par de preguntas sencillas, nada grandilocuentes: ¿Por qué es bueno el anonimato en redes? ¿Para quién lo es hoy?
Hubo un tiempo —y todavía lo hay, en algunos contextos— en que el anonimato fue una forma de refugio. Servía para denunciar abusos, para decir lo indecible, para existir sin exponerse del todo. Eso no se borra. Pero hoy el anonimato ya no opera solo como protección: a menudo funciona como una zona de descarga, un lugar desde el que hablar sin sostener lo dicho. No es tanto esconder el nombre como retirar el cuerpo. Y cuando el cuerpo desaparece, desaparece también la responsabilidad. No es lo mismo proteger la identidad para poder contarse sin miedo que ocultarla para herir sin consecuencias.
No lo digo desde la teoría. Lo digo desde lo que vemos, una y otra vez. Grupos donde se comparten fotos íntimas sin consentimiento. Canales donde circula material de abuso sexual infantil. Hombres que intercambian imágenes de mujeres —sus mujeres— drogadas o inconscientes. No como excepción monstruosa, sino como práctica sostenida, normalizada, protegida por la sensación de invisibilidad: la pantalla como coartada moral. Cuando bajamos a ese terreno, la palabra “libertad” empieza a sonar hueca. Porque no todas las libertades pesan lo mismo y no todas las violencias se reparten igual.
En este ecosistema se ha abierto además otra grieta inquietante: la facilidad con la que algunas herramientas tecnológicas permiten fabricar cuerpos femeninos disponibles, aunque esos cuerpos no existan. En los últimos meses se han denunciado casos en los que sistemas de inteligencia artificial han sido utilizados para generar imágenes falsas de mujeres desnudas a partir de fotografías reales. Herramientas asociadas al entorno tecnológico de Elon Musk, como Grok, han quedado señaladas por no impedir de forma eficaz este uso.
No hace falta exagerar ni anticipar sentencias para entender lo que hay ahí: una nueva forma de despojo, donde el cuerpo de las mujeres vuelve a ser terreno de prueba, material disponible, daño colateral asumible. Siempre ocurre lo mismo: cuando el daño tiene rostro femenino, la responsabilidad se diluye. «No es la herramienta —dicen—, es cómo se usa». Como si diseñar, entrenar y desplegar una tecnología no fuera ya una forma de decidir qué mundo estamos construyendo.
En medio de todo esto, aparece el argumento de los menores. Y aquí conviene ir despacio. Porque proteger a los niños y adolescentes no es un pretexto autoritario ni una excusa moral: es una obligación básica. Sabemos —porque ha ocurrido— que algunos retos virales han terminado en muertes. Sabemos que hay contenidos que circulan sin ningún filtro. Sabemos que el daño existe y negarlo sería obsceno. Pero también sabemos otra cosa, y conviene sostener ambas a la vez: para muchos adolescentes, especialmente en contextos de exclusión social, familiar o identitaria, las redes han sido un lugar de apoyo real, de reconocimiento, incluso de supervivencia. Ese es el arco completo. Todas las escalas de grises.
Por eso, el debate no va de prohibir o celebrar, de apagar o aplaudir. Va de responsabilidad. De quién responde cuando algo ocurre. De por qué nos parece normal que quien dirige una infraestructura global con impacto directo en millones de vidas no tenga que dar la cara cuando esa infraestructura falla. Cuando Durov habla de “peligro” al referirse a la responsabilidad penal de los ejecutivos de las plataformas, la pregunta es inevitable: ¿por qué no deberían tenerla? En cualquier otro ámbito con consecuencias comparables —la banca, la salud, la seguridad— la responsabilidad existe. Aquí, en cambio, llevamos años aceptando una especie de “adolescencia eterna” del sector tecnológico: mucho poder, pocas consecuencias.
Tal vez el verdadero riesgo no sea que alguien tenga que responder con nombre y apellidos. Tal vez el peligro esté en seguir llamando libertad a lo que, en realidad, es una renuncia colectiva a cuidar. Porque cuando nadie responde, alguien siempre paga el precio.






