Unieke vs duplicate content test
In de SEO wereld is duplicate content altijd al een groot onderwerp geweest. Hoe erg is het als je duplicate content gebruikt? Is het slecht voor je SEO? Hoe uniek is uniek? Allemaal vragen die de afgelopen jaren de revue gepasseerd zijn. Wij maken zelf als bureau content altijd uniek. We schrijven kwalitatieve artikelen, maar is dat het wel waard? Om daar achter te komen zijn wij altijd op zoek naar cases, tests over unieke en duplicate content. En we kwamen een pareltje tegen op LinkedIn:
Here’s an interesting screenshot you don’t see everyday. This is taken from one of my programmatic side project sites.
Using the BigQuery Stack Overflow connector I extracted ~100k questions on wordpress web development. Then I used the Zenforo (forum script) API to post all the questions as forum posts. I left them exactly intact, no editing, no ads, etc. This was done a year ago.
The goal was to watch Google’s indexing behaviour. To see if they’d index the forum posts. Specifically duplicate content. Google did indeed index the majority of the posts.
The site was attracting organic traffic based on the WordPress development questions. Until, around six weeks ago BAM Google deindexed the majority of the site.
Just to clarify, no AI tools was used in this experiment.
Dit laat zien dat geautomatiseerde/duplicate content eerst goed geïndexeerd kan worden, maar dat Google later alle pagina’s in één keer de-indexed. Altijd unieke content gebruiken en voorzichtig zijn met geautomatiseerde/bulk content met kans op duplicate content! Unieke content blijft dus de standaard.
Ben jij benieuwd of jouw content uniek is? Of wil je je content juist uniek krijgen? Wij kunnen je daarbij helpen.
Bron: LinkedIn
Advies over SEO