La desigualdad del SEO y las redes sociales

Ordenador portátil con estadísticas de una web.

Por escrito, los fundamentos para la optimización en buscadores parecen razonables. Se premia el contenido de calidad, que coincida con lo que busca la gente y que sea enlazado por otras webs, como testigo del valor del contenido enlazado. Son unos principios lógicos pero, en la práctica, al tener que traducirlos para que lo ejecute una máquina, los resultados no son los esperados.

Dejando a un lado la deriva publicitaria de Google, donde los enlaces patrocinados ocupan gran parte de la pantalla y el resto son de otros que te quieren vender algo que puedes lograr sin pagar sin recurrir a la piratería (podéis comprobarlo con el toot), los resultados de búsqueda son un verdadero desastre. Hace ya más de un lustro que la Wikipedia cayó de los eternos primeros resultados de la mayoría de las búsquedas de Google, cuyos criterios cumple de sobra, evidenciando la manipulación de resultados. No obstante, los expertos en SEO siguen predicando las mismas recomendaciones y perogrulladas y muchas webs las cumplen a rajatabla, aprovechándose de un problema de base.

Cambio de paradigma

Antes de las aplicaciones o webs que te pedían registrarte o suscribirte para ver su contenido, que rastreaban todos tus datos y promovían que los compartieras, la norma era la navegación sin restricciones, sin compartir públicamente datos como nombre o fotos. No eran unos pocos enormes recintos vallados, sino un extenso archipiélago cambiante de foros, webs y blogs personales. Cada uno tenía su fotolog, su comunidad en geocities, su página en Myspace, participabas en wikis o foros...era como tener tu propia casa en internet y salir a visitar las de tus amigos. Aunque los sistemas de búsqueda tenían margen de mejora, ibas directamente a la gente. Luego, coincidiendo con la ubicuidad de los smartphones y el intenso "septiembre eterno" que trajo, es decir, una avalancha de gente sin repajolera idea de internet y que se iban a tragar lo que le sirvieran, la red cambió a peor. 

Los RSS, que comparten el contenido de las webs y permiten seguir las novedades de todas aquellas que se sigan, ya existían. Sin embargo, las redes sociales optaron por algoritmos que permitían ajustarse a los gustos. Parecía un RSS con premios, pues si gustaba mucho un contenido, sería compartido a más gente y todos ellos lo recibirían con mayor frecuencia. Esto no era más que una trampa. Al principio, suponía una ventaja. ¿Para qué ir saltando de webs de favoritos/marcadores, mirando si hay algo nuevo, si se pueden tener actualizaciones, recomendaciones y, si algo gusta, van a dificultar que te lo pierdas? Incluso tú mismo ponías los enlaces sin que te bloquearan por spam. Una vez que tenían el público captado, entonces podían hacer lo que quisieran y destacar pasó de ser un premio a una necesidad.

Desigualdad en internet

Me diréis, ¿pero qué tiene esto que ver en la búsqueda? Pues que, como en las redes sociales, y al mismo tiempo, se perdió la igualdad de condiciones. Del mismo modo que se navegaba entre marcadores y favoritos, se visitaba las webs desde el buscador, aunque fueran a las mismas todos los días, y la degradación de los buscadores, especialmente Google, comparte trayectoria con la decadencia de las redes sociales. En redes y buscadores, quien paga tiene ventaja, pero hay posiciones por las que, quien tiene dinero, aunque no pague por un enlace patrocinado, tiene ventaja en ambos respecto al que lo necesita para otras prioridades. 

Cuanto más largo, mejor

Empezaba con los criterios para posicionarse bien en las búsquedas. En primer lugar, decía que se valoraba la calidad del texto. En la práctica, esto significa que, cuantas más palabras, mejor. Hay quienes señalan que basta con superar las 500 palabras, mientras otros indican que hacen falta 2000 o 3000. Si abres el Microsoft Word y lo dejas por defecto todo, 500 palabras suele ser una cuartilla. 2000 o 3000 no son un trabajo extenso, pero si ha escrito tanto es porque se supone que lo vale. La cuestión es que el buscador no entiende si son necesarias. Por eso, puedes intentar resolver una duda y te cuentan la Biblia en verso. Es más, te quedas mirando si se te ha pasado y realmente resuelven tu duda, como quien busca una aguja en un pajar, y el buscador entiende que debe ser una información utilísima. En cambio, si va directo al grano y te vas, interpreta que no debía tener lo que buscabas. Eso no es todo, sino que aquel que se enrolla incluye otros enlaces donde te da esperanzas de encontrar lo que buscas y vuelve a repetir la táctica hasta que te hartas. Tú te enfadas, pero el buscador, que también ofrece sistemas de análisis de las visitas y los anuncios, observa que no solo te has quedado mucho tiempo, sino que has visitado varias páginas. ¿Interpretación? Que te encanta, por lo que deben ser recomendadas a más gente. También es importante que sea original. El que va al grano, puede ser tan escueto que diga las mismas palabras que otra web (p.ej. una receta o instrucciones), aunque no tenga más remedio. En cambio, si te cuenta la obra y milagros del pollo que va a cocinar, no estará penalizado.

Dicho esto, dependiendo del tema y del conocimiento de quien lo escriba, llegar a 2000 o 3000 palabras no es tan difícil como parece, pero, ¿hacerlo siempre? Por una parte, hay que tener en cuenta si el autor tiene las energías, el tiempo o le merece la pena el esfuerzo. Por otra, si es necesario. Muchas veces es más llevadero fragmentar un tema, pues puede atender mejor las necesidades del usuario. Un artículo trabajado, completo y extenso, tiene su valor, pero es que la gente también quiere enterarse de lo que le ofreces y pasar a otra cosa. Es como comerse un buen plato de potaje. Si te pilla con ganas, lo aprovechas, pero tampoco puede esperarse que siempre te vayas a comer varios seguidos, por mucho que insista tu abuela. 

Ahora pensad, de quienes publican en internet, ¿quién puede permitirse un ritmo de varios "potajes" cargaditos diarios? Vuelvo a la premisa de que el usuario común no puede competir con estos medios en los mismos términos. En todo caso, puede competir del mismo modo que se hizo en la época de los ciberanzuelos y artículos en carrusel, manteniendo la integridad, la naturalidad y la verdadera calidad, pero siempre son aquellos sin escrúpulos y con mayor capacidad quienes se llevan mayores beneficios. Los "potajes" de mala calidad se atragantan en exceso y necesitan cambiar de receta cada cierto tiempo, pero la web es como las ciudades turísticas: siempre te encuentras primero lo de peor calidad. Si en estas los restaurantes que venden paella con cosas y fritanga están siempre en las calles más transitadas por turistas, en las redes sociales y buscadores, los medios de poca monta copan las posiciones privilegiadas. Es más, es bien sabido que los algoritmos de las redes sociales amplifican el odio, que es fácil de producir. Si tienes acceso a puñados de webs de poca monta en las que publicar por un muy módico precio, sin necesidad de trabajártelo, puedes posicionarte fácilmente. Incluso las redes y los buscadores son lugares óptimos para el periodismo de "baba rosa", aquel de baja calidad que únicamente tiene el deseo de llenarte el cerebro de ideas sin valor para ti, pero que benefician a otros.

Abuso del sistema

En segundo lugar, la preocupación principal, y en lo único que son realmente buenos estos medios, es dar con los términos que busca la gente y usarlos en los titulares y el cuerpo. Hay búsquedas que se pueden intuir, pero valorar con datos cuál es la mejor cuesta dinero.

Por último, está la pescadilla que se muerde la cola: si partes con ventaja en los aspectos que acabo de comentar, habrá más posibilidades de que te enlacen, con lo que mejorarás tu posición, y seguirás ganando enlaces. Puede que os preguntéis que, si los enlazan, es porque el contenido es bueno...o porque no encuentran otra cosa. Si todo es mierda, y mucha gente tampoco tiene paladar, se enlaza lo que hay.

No son los únicos factores influyentes, pues es importante la velocidad de carga, pero este es un factor que se traduce mejor entre lo que quiere el usuario, lo que puede interpretar la máquina y la capacidad de quien publica. Eso sí, eso fue la puntilla a los gifs animados, los widgets variados (música, alimentar al pez, etc), cursores personalizados y efecto de nieve, entre otros. Esto es para discutirlo aparte pues, aunque muchas cosas eran horribles, al menos en cuestión de diseño había más variedad. Resulta incomprensible que habiendo aumentado la velocidad de internet, lo único que haya aumentado sea la resolución de imágenes y vídeos.

Creado por personas para personas

El problema de todo esto no es tanto si recibir más o menos tráfico, sino que se crea contenido que les "guste" a las máquinas, aunque para los humanos sea inservible. Como es una estrategia que trae muchos beneficios, tiene muchos interesados compitiendo. Con los grandes modelos de lenguaje, se barajó que la red se llenaría de alucinaciones, textos que no saben ni lo que dicen, pero gracias al SEO, eso era la norma antes. Es lo que se premia.

Con todo, no toda esperanza está perdida. Mientras los "turistas de internet" seguirán comiendo fritanga cibernética, el fediverso ofrece una luz de esperanza. Buscadores como Duckduckgo, Qwant o Searx, que también tiene instancias, ayudan a salir de los "laberintos para turistas". Pueden suponer una realidad alternativa a la que forjaron los gigantes de internet, volviendo a ese pasado mejor pero sin perder la cosas buenas que se habían ganado.

Siguiente entrada Entrada anterior
No Comment
Añadir comentario
comment url

Libre para donar o aceptar cookies