Duplicate content dækker over det samme indhold, som går igen på tværs af URL’er, hvilket kategoriseres som et kritisk SEO-mæssigt problem

Det strider imod Googles grundlæggende ønske for søgeresultater, at vise samme indhold flere gange, og det kan derfor påvirke hjemmesiders organiske synlighed negativt. Domænestyrke, tidsfaktor og omfang er elementer der afgør det skadelige omfang ved tilfælde af duplicate content. Generelt er Google blevet bedre til at håndtere sådanne tilfælde på en balanceret måde, dog kategoriseres duplicate content fortsat som et kritisk SEO-mæssigt problem.

Der findes forskellige typer duplikeret indhold

“Duplicate content” – også kaldet DC eller dobbelt indhold – kan grundlæggende inddeles i to hovedkategorier:

  1. Duplicate content internt på dit domæne
  2. Duplicate content på tværs af domæner.

Det stopper dog ikke ved det.

Vi må nemlig også skelne mellem eksakt og delvis DC:

  • Ved eksakt DC indekseres to eller flere URL’er med 100% identisk indhold. Denne type vil ofte – men ikke altid – bunde i tekniske fejl på dit site.
  • Derimod er der ved delvis DC små forskelle i indholdet – f.eks. ved brug af synonymer samt sætninger der kommer i forskellig rækkefølge.

Lige meget hvilken type vi snakker om, kan det give dig store problemer: Dem kan du læse mere om i næste afsnit.

Hvorfor bekæmpe DC?

Den typiske konsekvens ved duplicate content er, at Google filtrerer dobbelt indholdet fra, så der kun står én version tilbage.

… Og hvorfor så det?

Jo. Når vi søger på Google, har vi et naturligt ønske om mangfoldighed i vores søgeresultater – og det er ganske enkelt dette, Google imødekommer, når de frasorterer indhold, som er ens.

Denne DC-mekanisme har store konsekvenser for din SEO-succes, fordi du ved frasorteringen:

  1. Mister kontrollen over, hvilken version af det duplikerede indhold, Google vælger… Det er ikke nødvendigvis den version, som du ønsker – derfor er det aldrig en god idé at lade Google bestemme!
  2. Går glip af den autoritet, som strømmer ind fra links til det frasorterede indhold.
  3. Risikerer at Googlebot ikke crawler alt indhold på dit site. Googles spider har et crawl-budget – et ukendt antal sider, den har planlagt at crawle… Og her tæller de frasorterede URL’er desværre også med i regnskabet.

Duplicate content kan desuden føre til, at hele dit site bliver decideret straffet af Google:

Det vil typisk ske, hvis du har et site, som nærmest udelukkende består af uoriginalt indhold. Et typisk eksempel er tynde affiliate-sites: Dvs. sites der kun indeholder de generiske produkttekster fra leverandøren, som også florerer hos alle de andre dovne e-pushere.

Sådan indhold vil naturligvis blive filtreret fra af Google, så der kun står én tilbage… Men du risikerer faktisk også at dine rankings på tværs af hele sitet bliver degraderet – og i yderste tilfælde kan dit site blive helt fjernet fra Googles indeks.

Har du hørt om den farlige Google Panda? Det er nok den, der har puffet til dig i sådan en situation.

Konklusion: Unikt indhold er alfa & omega!

Lokaliser dobbelt indhold med Screaming Frog

Screaming Frog er et fantastisk værktøj til at lokalisere eventuelle problemer med duplicate content.

Programmet kan med sine mange funktioner ved første øjekast virke ganske uoverskueligt… Men heldigvis kan du finde hjælp hos onlinepartners.tv

Her fortæller Grosen Friis nemlig om, hvordan du bl.a. kan bruge Screaming Frog til at finde problemer med duplikerede titler, h1-overskrifter, fejl med canonicals og meget mere:

Guide til Screaming Frog med 23 typiske SEO-fejl

Eksempler på duplicate content

Men hvordan opstår duplicate content så?

Det kan der være mange årsager til. Herunder finder du en række scenarier, hvor du skal være særligt på vagt.

Et problem vi ofte ser er CMS’er (content management systems), som ikke er SEO-venlige og derfor vælger at skyde flere URL’er ud til det samme indhold.

En særlig CMS-afart er blog-systemerne – og særligt her opstår der tit problemer:

Bloggens struktur med forside, kategorisider og arkivsider betyder nemlig, at de enkelte blogindlæg ofte kommer til at optræde flere steder på domænet.

Når du viser dit indhold på flere forskellige måder, er der ligeledes fare for, at der opstår DC:

Et godt eksempel på dette er opskriftsider med printervenlige versioner af opskrifterne. Et andet eksempel er webshops, som lader dig sortere produkterne på forskellige parametre (som pris, farve og brand). Det kan nemlig skabe nye URL’er, hvor indholdet er det samme – blot præsenteret anderledes.

Har du meget brugergeneret indhold på sit site? Så er risikoen for dobbelt indhold også stor:

Når du giver brugerne mulighed for at bidrage med deres indhold, afgiver du nemlig samtidig kontrol. Det ser vi eksempelvis, når du åbner op for kommentarer eller forumindlæg.

En sidste form for DC kan opstå, hvis dit indhold bliver taget af andre sider – enten med din tilladelse eller som ren plagiat.

Det var bare nogle af de mest gængse eksempler på, hvor der kan være fare for DC. Ønsker du mere info om emnet, og andre problemer du kan støde på, kan vi anbefale at tage et kig i Googles retningslinjer for webmastere.

Sådan undgår du internt duplicate content

Vi ved nu, at duplicate content er slemt, og vi har en idé om nogle af de mange tilfælde, hvor det kan opstå. Men hvad så nu?

Heldigvis er der flere metoder, du kan bruge for at komme det til livs.

Et vigtigt tag i kampen mod DC er canonical-tagget. Med dette tag kan du nemlig vise, hvilken version af dit indhold, som er den oprindelige (eller kanoniske). Du placerer blot følgende kode (med indlysende tilpasning af link) i headeren:

<link rel=”canonical” href=”https://onlinepartners.dk/den-kanoniske-side” />

Canonical er et vink med en vognstang om, hvilken side der skal vises. Google garanterer dog ikke, at de respekterer det:

“Bemærk! Vi forsøger at respektere dette, men kan ikke garantere det i alle tilfælde.” – Kilde: Google

Vil du derimod have fuldstændig sikkerhed for, at din side ikke vises i en Google-søgning, skal du i stedet have fat i noindex-tagget (ligeledes indsat i headeren):

<meta name=”googlebot” content=”noindex”>

Dette tag stopper nemlig effektivt Google fra at indeksere den pågældende side.

Når du flytter indhold, skal du desuden huske at 301-redirecte fra de gamle URL’er til de nye, overlevende URL’er. Hermed bliver flytningen nemlig tydelig for søgemaskinerne samtidig med, at du ikke taber al den dejlige linkautoritet, som den gamle side måtte have.

Du kan læse mere om 301-redirects fra hestens egen mund her.

Slutteligt kan du i din robots.txt-fil blokere søgemaskinerne fra at crawle dine sider med dobbeltindhold:

Vær dog opmærksom på at blokeringen her betyder, at de andre tags ikke bliver registreret – Googlebot ser nemlig da aldrig dine tags. Det betyder, at siden stadig kan blive vist i Googles søgeresultater, hvis der f.eks. bliver linket til den fra andre sider. Som oftest er noindex derfor en mere sikker løsning.

Sådan undgår du duplicate content på tværs af domæner

Canonicals og noindex virker også, hvis andre har lagt dit indhold op på deres egen domæne – eksempelvis i form af syndikeret indhold, du tillader andre at benytte. Får du ikke den anden side til at tagge ordentligt, risikerer du her, at den kommer til at ranke frem for dig selv: Og det særligt, hvis det andet site har væsentlig højere autoritet end dit eget.

Men hvad gør du så, hvis andre uretmæssigt stjæler dit indhold?

Først og fremmest skal du finde frem til tyveriet. CopyScape er et fantastisk værktøj til dette – her kan du nemlig meget nemt søge efter, hvor dit indhold ligger på nettet.

Når tyveriet opstår – og det gør det ikke så sjældent – kan du vælge forskellige tilgange alt efter temperament:

Den meget diplomatiske tilgang er at bede dem om at smide et canonical-tag på indholdet, som peger på dit originale indhold – eller noindex for den sags skyld.

Alternativt kan du kontakte dem og bede dem om at tage indholdet ned.

Sidst men ikke mindst er du naturligvis i din gode ret til at sende et erstatningskrav med henvisning til den danske ophavsretslov.

Brug for hjælp med DC?

Vi håber dette indlæg har gjort dig meget klogere på, hvad duplicate content er, og hvorfor det er en trussel for din SEO-indsats.

Har du brug for yderligere assistance, står vi klar til at hjælpe. Vores tekniske SEO-specialister har nemlig mange års erfaring i at lokalisere og eliminere duplicate content.

Kontakt os derfor endelig hvis du ønsker hjælp til oprydningsarbejdet.

Billedmateriale:

Hvad er duplicate content?

Comments are closed.