En el mundo del SEO y el posicionamiento web, Google ha sido durante años el referente indiscutible. Su algoritmo, diseñado para ofrecer a los usuarios los resultados más relevantes y de mayor calidad, ha evolucionado constantemente para combatir prácticas engañosas y premiar el contenido original… al menos eso dicen ellos.
Sin embargo, en los últimos tiempos, una crítica recurrente ha cobrado fuerza: sitios web que copian contenido de otros están siendo posicionados por encima de los originales. Este fenómeno no solo es frustrante para los creadores de contenido, sino que también cuestiona la eficacia del algoritmo de Google para cumplir con su promesa de priorizar la calidad y la originalidad.
Esto lo cuento desde la propia experiencia. Unos de los sitios web que administro y soy propietario es sobre cines de Argentina. En este sitio en cuestión, en el cuál trabajamos un equipo de cuatro personas, se cargan los horarios de las funciones de los diferentes cines de Argentina, como asi también los próximos estrenos, noticias y más. Se cuidan muchos los detalles y la experiencia del usuario.
Pero hace unas semanas atrás hemos detectado un sitio web que robaba lisa y llanamente nuestro contenido haciendo un scraping a nuetro contenido y robando nuestras imagenes haciendo hotlinking, osea, robando el ancho de banda de nuestro servidor. Es curioso que a esta altura, el algortimo de Google no pueda detectar quien roba contenido, puesto que el que lo hacía en nuestro sitio web, copiaba y pegaba tal cuál como lo teníamos nosotros y curiosidad «ALGUNOS ARTICULOS POSICIONAN ARRIBA DEL NUESTRO». Osea, no había edición de ni siquiera una sola palabra, ni una coma, nada, solo copiaba y pegaba en texto plano y posicionaba arriba de nuestro contenido que es el original. Es casi un insulto a nuestro esfuerzo.
Esto pareciera una burla, nos exijen contenido de calidad y original pero viene alguien copia nuestro contenido y posiciona antes que nosotros. Es demasiado frustrante y deja a la muestras que el algortimo de Google funciona mal. De hecho, el título de este artículo «Las fallas del algoritmo de Google en 2025» remarca el 2025 porque una de las empresas más exitosas del mundo con toda la tecnología disponible, no logra resolver algo tan básico y hace todo lo contrario a lo que pregona: premia al que roba información, hace hotlinking y no brinda calidad (porque incluso la calidad de la página es un desastre).
También deja en claro que solo importan los enlaces. Este dominio que nos robaba información es un sitio web que en algun momento fue parte del estado de Argentina, que se usaba como plataforma de contenidos. Con el cambio de gobierno, esta plataforma cerró, el dominio expiró, alguien lo registro y robó todo el contenido a nosotros y como el dominio ya tenía una historia, posicionó. Al menos, es la única explicación, aunque no válida, que le encuentro.
La duplicación de contenido no es un tema nuevo. Desde los inicios de la web, ha existido el problema de sitios que copian artículos, imágenes, videos y otros recursos de páginas originales para beneficiarse del tráfico orgánico sin invertir en la creación de contenido propio.
En la teoría, Google ha implementado medidas para combatir esta práctica, como el uso de señales de autoría, la indexación prioritaria de sitios con contenido fresco y único, y sanciones a través de actualizaciones de su algoritmo, como Panda.
Sin embargo, estas medidas no siempre funcionan como deberían. En muchos casos, sitios que copian contenido logran posicionarse mejor que las fuentes originales. Esto ocurre por varias razones:
El hecho de que sitios que copian contenido superen a los originales tiene un impacto negativo en la creación de contenido de calidad. Los creadores, ya sean blogueros, periodistas, artistas o empresas, invierten tiempo, recursos y esfuerzo en producir material único y valioso. Cuando este contenido es robado y posicionado por encima del original, se desincentiva la creación de nuevo contenido y se premia a quienes se aprovechan del trabajo ajeno.
Además, este fenómeno afecta la experiencia del usuario. Los visitantes pueden llegar a sitios de baja calidad, con publicidad invasiva o incluso información desactualizada, en lugar de acceder a la fuente original que ofrece un valor real.
Google ha demostrado en el pasado su capacidad para mejorar su algoritmo y abordar problemas complejos. Sin embargo, en este caso, parece que aún hay margen de mejora. Algunas soluciones que podrían implementarse incluyen:
Como ya dije anteriormente, es frustrante trabajar así. Hicimos las denuncias de spam a Google, pero nada ha cambiado. Estas cosas no deberían pasar a esta altura con toda la tecnología que existe. Google tiene la capacidad pero por alguna razón no lo hace y todo sigue mal con su algoritmo. Nada es perfecto y puede tener fallas, ya lo sé, pero estas cosas son muy básicas. Solo espero que algo cambie.
Llenar el formulario fiscal en AdSense es un paso fundamental para recibir tus pagos de…
Este martes, Bitcoin alcanzó un nuevo máximo histórico, cotizando brevemente en u$s93.800 antes de estabilizarse…
Stellar (XLM) y Mastercard se unen estrategicamente para una adopción masiva de la tecnología blockchain.…
El mundo del marketing digital evoluciona a un ritmo acelerado, y el 2025 no será…
El Banco Hipotecario ha lanzado recientemente un innovador crédito de libre destino, ofreciendo hasta $100…
El Gobierno Nacional ha divulgado recientemente los pormenores del reajuste en el Impuesto a las…