La web nació como un ecosistema abierto y descentralizado: conectas tu nodo y comienzas a cargar y descargar contenido. Sin pedir permiso. Sin que puedan impedirlo. Esta es la web que muchos abrazamos; una de las más fabulosas aventuras de la civilización.
En 2005 escribíamos en nuestros sitios web. Y en nuestros blogs. Y en comunidades en línea. Nos escribíamos unos a otros, y era divertido.
En 2025 la web —e internet— es un asco. Ya no escribimos para los otros y para el mundo: escribimos para los algoritmos.
🤔 El SEO llenó la web de contenido-basura dirigido a los robots¹. La mayoría de los sitios web se ha llenado de «keywords» y redundancias «para salir más arriba en Google».
🤔 La IA generativa reduce casi a cero el coste de crear contenidos prácticamente indistinguibles de los que antes elaborábamos los humanos. Y la web se está infestando rápidamente de este contenido automático.
🤔 En las plataformas como YouTube, los creadores monetizan sus vídeos seduciendo al algoritmo. ¿Y el algoritmo qué pide? «Engagement». ¿Y cómo pagan los creadores ese tributo? Con «clickbait», efectismo y sensacionalismo.
🤔 Las redes sociales nos ofrecen generosas dosis de la misma cicuta: el algoritmo determina qué recibe «reach» (alcance). ¿El incentivo? Capturar tu atención. Viralidad. Dopamina.
La web era un ecosistema abierto y descentralizado de páginas y comunidades digitales. Los blogs y sitios web personales fueron el Everest de una época.
Veinte años después, la web está sumida en una espiral autodestructiva:
⚠️ Los protocolos abiertos, como RSS, han sido fagocitados por plataformas cerradas como Facebook o 𝕏.
⚠️ La topología distribuida original, a la que cualquiera podía conectar su nodo, es reemplazada por servicios centralizados que pueden cerrar o silenciar tu cuenta.
⚠️ Y lo que sobrevive de la web está anegado de contenido escrito por máquinas (IA) o para máquinas (SEO).
¡Ya no escribimos para los demás y para el mundo! Ahora escribimos para algoritmos. Este es el signo de los tiempos.
____
¹ Las arañas o «crawlers» como Googlebot, que rastrean la web y califican los sitios en función de su contenido.