En el mundo del SEO y el posicionamiento web, Google ha sido durante años el referente indiscutible. Su algoritmo, diseñado para ofrecer a los usuarios los resultados más relevantes y de mayor calidad, ha evolucionado constantemente para combatir prácticas engañosas y premiar el contenido original… al menos eso dicen ellos.
Sin embargo, en los últimos tiempos, una crítica recurrente ha cobrado fuerza: sitios web que copian contenido de otros están siendo posicionados por encima de los originales. Este fenómeno no solo es frustrante para los creadores de contenido, sino que también cuestiona la eficacia del algoritmo de Google para cumplir con su promesa de priorizar la calidad y la originalidad.
Esto lo cuento desde la propia experiencia. Unos de los sitios web que administro y soy propietario es sobre cines de Argentina. En este sitio en cuestión, en el cuál trabajamos un equipo de cuatro personas, se cargan los horarios de las funciones de los diferentes cines de Argentina, como asi también los próximos estrenos, noticias y más. Se cuidan muchos los detalles y la experiencia del usuario.
Pero hace unas semanas atrás hemos detectado un sitio web que robaba lisa y llanamente nuestro contenido haciendo un scraping a nuetro contenido y robando nuestras imagenes haciendo hotlinking, osea, robando el ancho de banda de nuestro servidor. Es curioso que a esta altura, el algortimo de Google no pueda detectar quien roba contenido, puesto que el que lo hacía en nuestro sitio web, copiaba y pegaba tal cuál como lo teníamos nosotros y curiosidad «ALGUNOS ARTICULOS POSICIONAN ARRIBA DEL NUESTRO». Osea, no había edición de ni siquiera una sola palabra, ni una coma, nada, solo copiaba y pegaba en texto plano y posicionaba arriba de nuestro contenido que es el original. Es casi un insulto a nuestro esfuerzo.
Esto pareciera una burla, nos exijen contenido de calidad y original pero viene alguien copia nuestro contenido y posiciona antes que nosotros. Es demasiado frustrante y deja a la muestras que el algortimo de Google funciona mal. De hecho, el título de este artículo «Las fallas del algoritmo de Google en 2025» remarca el 2025 porque una de las empresas más exitosas del mundo con toda la tecnología disponible, no logra resolver algo tan básico y hace todo lo contrario a lo que pregona: premia al que roba información, hace hotlinking y no brinda calidad (porque incluso la calidad de la página es un desastre).
También deja en claro que solo importan los enlaces. Este dominio que nos robaba información es un sitio web que en algun momento fue parte del estado de Argentina, que se usaba como plataforma de contenidos. Con el cambio de gobierno, esta plataforma cerró, el dominio expiró, alguien lo registro y robó todo el contenido a nosotros y como el dominio ya tenía una historia, posicionó. Al menos, es la única explicación, aunque no válida, que le encuentro.
El problema de la duplicación de contenido
La duplicación de contenido no es un tema nuevo. Desde los inicios de la web, ha existido el problema de sitios que copian artículos, imágenes, videos y otros recursos de páginas originales para beneficiarse del tráfico orgánico sin invertir en la creación de contenido propio.
En la teoría, Google ha implementado medidas para combatir esta práctica, como el uso de señales de autoría, la indexación prioritaria de sitios con contenido fresco y único, y sanciones a través de actualizaciones de su algoritmo, como Panda.
Sin embargo, estas medidas no siempre funcionan como deberían. En muchos casos, sitios que copian contenido logran posicionarse mejor que las fuentes originales. Esto ocurre por varias razones:
- Velocidad de indexación: En ocasiones, los sitios que copian contenido son más rápidos para indexar el material robado que el sitio original en publicarlo. Google puede detectar primero la versión duplicada y considerarla como la fuente primaria.
- Autoridad de dominio: Algunos sitios que copian contenido tienen un dominio más antiguo o con mayor autoridad que el sitio original. Aunque el contenido sea duplicado, el algoritmo de Google puede priorizar estos sitios debido a su historial y reputación.
- Optimización técnica: Los sitios que copian contenido a menudo invierten en técnicas de SEO on-page y off-page más agresivas, como el uso excesivo de palabras clave, enlaces artificiales o estructuras de sitio más eficientes. Esto les permite superar a los sitios originales que no priorizan estas prácticas.
- Falta de sanciones efectivas: Aunque Google afirma penalizar el contenido duplicado, en la práctica, muchos sitios que copian contenido no reciben sanciones. Esto sugiere que el algoritmo no está detectando adecuadamente estas prácticas o que no las considera lo suficientemente graves como para actuar.
Impacto en los creadores de contenido original
El hecho de que sitios que copian contenido superen a los originales tiene un impacto negativo en la creación de contenido de calidad. Los creadores, ya sean blogueros, periodistas, artistas o empresas, invierten tiempo, recursos y esfuerzo en producir material único y valioso. Cuando este contenido es robado y posicionado por encima del original, se desincentiva la creación de nuevo contenido y se premia a quienes se aprovechan del trabajo ajeno.
Además, este fenómeno afecta la experiencia del usuario. Los visitantes pueden llegar a sitios de baja calidad, con publicidad invasiva o incluso información desactualizada, en lugar de acceder a la fuente original que ofrece un valor real.
¿Qué puede hacer Google?
Google ha demostrado en el pasado su capacidad para mejorar su algoritmo y abordar problemas complejos. Sin embargo, en este caso, parece que aún hay margen de mejora. Algunas soluciones que podrían implementarse incluyen:
- Mejorar la detección de contenido original: Google podría utilizar tecnologías más avanzadas, como el análisis de marcas de tiempo, la verificación de autoría a través de redes sociales o la integración con plataformas de publicación para identificar de manera más efectiva el contenido original.
- Priorizar la frescura y la autoría: Aunque Google ya considera la frescura del contenido, podría dar más peso a señales de autoría y propiedad intelectual, como los derechos de autor registrados.
- Sanciones más severas: Los sitios que copian contenido de manera sistemática deberían recibir sanciones más duras, como la desindexación completa o la pérdida de autoridad de dominio.
- Transparencia en el algoritmo: Google podría ser más transparente sobre cómo maneja el contenido duplicado y qué medidas toma para proteger a los creadores originales.
Conclusión
Como ya dije anteriormente, es frustrante trabajar así. Hicimos las denuncias de spam a Google, pero nada ha cambiado. Estas cosas no deberían pasar a esta altura con toda la tecnología que existe. Google tiene la capacidad pero por alguna razón no lo hace y todo sigue mal con su algoritmo. Nada es perfecto y puede tener fallas, ya lo sé, pero estas cosas son muy básicas. Solo espero que algo cambie.