Duplicate Content – Stor guide til at finde og fjerne DC!

Duplicate content – Sådan finder og fjerner du DC

Duplicate Content – Stor guide til at finde og fjerne DC!Med duplicate content forstås forskellige typer af indhold, der er tilgængelige flere steder på internettet – måske flere gange på din egen side, måske en gang på din side og hos konkurrenten.

Problemet med duplicate content er, at Google kun ønsker at linke til ét resultat én gang. Har du det samme indhold – fx den samme produktbeskrivelse – som en konkurrent, vil kun én af jer blive vist i søgeresultaterne. Og det er ikke nødvendigvis den, der har skrevet teksten.

Duplicate content på en del af din hjemmeside har i dag potentialet til at ødelægge dine muligheder for at ranke på tværs af alle dine undersider i Googles søgemaskine. Derfor skal du også passe på.

Uopmærksomhed – for duplicate content kan sagtens opstå automatisk, dine bedste intentioner til trods – kan gøre stor skade på dit SEO-arbejde.

Vi gennemgår i denne artikel hvordan duplicate content opstår, hvordan du finder og fjerner det, hvad du skal være opmærksomhed på især i relation til menuer, hvad Google Panda er og hvad du i øvrigt skal være opmærksom på.

Laver du din SEO selv anbefaler vi, du læser det hele – selv den bedste linkbuilding-indsats kan ikke redde din side, hvis den er ramt af duplicate content.

Hvordan opstår duplicate content – og hvordan løses det?

Duplicate content opstår på en af to måneder: Manuelt eller automatisk uden dit vidende.

Manuelt er det nemmeste at forhindre. Manuel duplicate content opstår, når du kopierer en tekst fra en af dine egne undersider eller fra konkurrenten.

Udover problemet med duplicate content, hvis du kopierer fra konkurrenten, risikerer du også at komme i klemme med ophavsretten. Din konkurrent vil kunne sende dig en faktura for uretmæssig brug af hans tekstindhold – det kan nemt blive til mange tusinde kroner.

Automatisk duplicate content kan på flere måder:

Automatisk system

Bruger du et CMS som WordPress eller Joomla til din side kan duplicate content opstå helt automatisk. WordPress laver fx en række kategori- og tagsider, der intet unikt indhold er på. Forhindrer du ikke manuelt indeksering af disse, har du duplicate content.

Hvad skal jeg gøre med et automatisk system?

Der findes en række gode guides til standardindstillinger i sikkert også dit CMS, der forhindrer duplicate content.

For WordPress anbefaler vi i din robots.txt at forhindre indeksering af kategorisider, tagsider, arkivsider m.v. – med mindre, du er opmærksom på at lave unikt indhold til alle kategorier og derved have mere indekserbart indhold uden duplicate content-delen.

Titler og descriptions

Du kan også have et system, hvor du ikke som standard har mulighed for at angive meta titles og descriptions. Det gælder også WordPress som standard. Udfylder du ikke selv de (vigtige!) informationer kan dit system selv generere nogle, der ofte vil være identiske med andre på siden.

Hvad skal jeg gøre ved titler og descriptions?

Du kan nemt trække en liste over indekserede sider på dit domæne uden unikke titler og beskrivelse.

Log ind i Google Webmaster Central og se under problemer.

Her får du listen over sider med duplikerede sidetitler.

Unikke sidetitler er en bedre brugeroplevelse og giver dig bedre rangeringer i søgemaskinerne. Logikken bag er, at to sider naturligvis ikke handler om det samme og derfor må deres beskrivelser heller ikke være identiske.

Det kan virke som hårdt og kedeligt arbejde – men husk, at det tænker dine konkurrenter også. Værdien ligger derfor i, at du gør det uanset.

WWW og ikke-www

Svarer din side med eller uden www?

Det skal nemlig være enten / eller.

Svarer din side med begge uden at redirecte har du duplicate content på tværs af hele din side. Værdien af links til det ene domæne går ikke videre til det andet, de to domæner forvirrer dine brugere og det spænder ben for fremtidig SEO-indsats.

Hvad skal jeg gøre med www?

Det er nemt at opsætte et redirect til www eller uden www i din .htacces-fil i roden af din server.

Giver det ikke mening for dig, så brug 20 minutters penge på en dygtig programmør.

HTTPS – Secure Socket Layer, krypteret trafik

Flere og flere sider kører med krypteret trafik som standard. Google har også åbent meldt ud, at de allerede nu giver sider med https en fordel i søgeresultaterne.

https://dinside.dk er dog et andet resultat end http://dinside.dk. Derfor skal dine redirects udføres ordentligt, når du skifter til eller fra krypteret trafik.

Husk, at krypteret trafik kræver, du har en dedikeret IP samt et SSL-certifikat. Regn med omkostninger for cirka 1.000 kroner om året per side, du ønsker at have et SSL-certifikat på.

Hvad skal jeg gøre med SSL?

I din .htaccess-fil i roden af serveren har du mulighed for at redirecte alle resultater til HTTPS. Vær opmærksom på, at du også skal ændre stien til dine CSS-, Javascript-filer og lignende for ikke at indlæse nogle elementer i din siden uden https (som før).

Indlæser du bare et element uden SSL får du ikke et grønt ikon i browseren, men et gult ikon – og gult skriver næsten lige så meget som rødt.

Du risikerer at lave stor skade på din side ved ikke korrekt at udføre redirectet til HTTPS – brug derfor en time på en SEO-ekspert med erfaring indenfor krypteret trafik. Det er ikke sikkert, din programmør kender til SEO-fælderne.

Almindeligt duplikeret indhold

De kan også være, du eller en medarbejder blot er kommet til at kopiere en konkurrents tekst.

Du kan manuelt tjekke dine tekster ved at tage en strofe og søge efter den med gåseøjne i Google. Det ser sådan her ud:

Manuelt tjek for duplikeret indhold

 

Hvis der står ”1 resultat” er dit indhold unikt. Er der mere end et resultat har enten du selv eller en anden kopieret dit indhold. Har du skrevet en tekst, men ranker en anden person over dig, er din tekst ikke alene blevet stjålet – din konkurrent ranker nu over dig med dit eget indhold, fordi konkurrentens domæne er stærkere. Google kan ikke se, hvilken virksomhed, der har skrevet indholdet først – derfor vinder den største tit.

Der findes en række værktøjer, der kan scanne din side igennem for dig og tjekke, om dit indhold er kopieret andre steder. Se fx Siteliner.com eller DCFinder.com. Det er betalte værktøjer, men du giver dine penge godt ud ved at lave fx et check hvert kvartal for at se, om du har et problem med duplicate content, du skal have løst.

Det ses ofte i praksis hvordan det ikke er virksomhedsindehaveren, men i stedet medarbejdere, der uden kendskab til hverken ophavsretsloven eller duplicate content som det mest naturlige i verden kopierer tekst eller billeder fra andre sider. Vær derfor opmærksom på, at dine medarbejdere kender reglerne forinden du starter deres arbejde med at skabe og uploade indhold til din side.

Jeg accepterer, at mine data gemmes i overensstemmelse med OnlineSynlighed.dk's privatlivspolitik.


Du kan til enhver tid trække dit tilsagn tilbage.

Specielt om duplicate content for webshops og andre med filtrering og sortering

Især med dine menuer på en webshop har du stor risiko for at skabe duplicate content.

Det kan ske, hvis du fx tillader folk at se grilludstyr på din webshop gennem kategorier som:

Dinside.dk/kategori/grilludstyr

Dinside.dk/grilludstyr

Dinside.dk/tag/grillen

Indholdet på de tre sider er identisk, men de kan alle indekseres. I praksis kan kun en af de tre kategorier blive vist og det er et problem for din SEO. Det samme gælder for sortering, hvor der på din URL blot bliver påduttet ekstra parametre, selvom indholdet faktisk er det samme. Det er i praksis et stort problem for bl.a. tøj-webshops.

En stor menu med mange muligheder er en hjælp for brugerne, men svært for søgemaskinerne at finde ud af.

En ofte set ”løsning” på dette problem er brugen af rel=”canonical”-tags. Men canonical-tags er ikke en sikker løsning, for søgemaskinerne kan blot vælge at overse tagsne. Tagsne forhindrer ikke søgemaskinerne i at indeksere de mange sorteringssider.

En bedre løsning er at bruge JSON (Javascript) og jQuery til a bygge din menu således, der ikke laves en ny side hver gang brugeren tilføjer eller fjerner et felt i sin søgning.

Når du bruger JSON og jQuery skabes der ikke en ny URL og Google kan ikke crawle siden en gang til og derved skabe duplicate content.

I praksis indlæses blot en række scripts før brugeren går i gang med at sortere. Selve sorteringen sker derved direkte hos klienten i browseren og ikke på serveren og derved sker det hele på samme URL.

At få omskrevet din menu og sortering med hjælp fra en dygtig programmør tager nemt 10-20 timer afhængigt af dit system og er derfor en mindre investering. Men det er alle pengene værd, for du giver Google mulighed for at finde ud af, hvad der er op og hvad der er ned i din shop.

For brugervenligheden er JSON plus jQuery også et plus, for indlæsningen af dine sider bliver hurtigere for brugeren, når ikke alt indhold skal hentes fra serveren for hver gang et filter til søgningen tilføjes.

Google Panda

panda-update-juni-2015-350x350Årsagen til at vi er så opmærksomme på duplicate content og bruger lang tid på at forhindre og fjerne det er især Googles Panda-algoritme.

Panda-algoritmen blev ført igennem søgeresultaterne for første gang i 2012.

Algoritmen – et filter – går ind og ’straffer’ de domæner (ikke undersider!), der har tomme indholdssider, indhold af dårlig kvalitet samt duplicate content.

Vi har understreget domæner af god grund.

Hvis du har undersider på dit domæne med duplicate content kan det skade hele domænet – også de undersider, hvor du har lavet godt og unikt indhold, der hjælper brugeren videre.

Derfor kan du ikke ignorere duplicate content. Bliver du ramt af Googles Panda-filter er det hele dit domæne, hele din hjemmeside og i praksis også hele din virksomhed, der i givet fald er i fare. Og er du først ramt kan det tage mange måneder at komme ind i varmen igen, hvis det da nogensinde sker. Det sker først, når Google kører sit Panda-filter igennem søgeresultaterne igen og det har ad flere gange taget et halvt år eller mere.

Det er billigere for dig at forebygge end at helbrede – både, når det gælder fysiske skavanker nede ved lægen, men i særdeleshed også, når det gælder søgemaskineoptimering og risikoen for at blive ramt af Googles Panda-filter.

Jeg accepterer, at mine data gemmes i overensstemmelse med OnlineSynlighed.dk's privatlivspolitik.


Du kan til enhver tid trække dit tilsagn tilbage.

Vær opmærksom også på tomme sider

Udover duplicate content er Panda som nævnt målrettet tomme sider og sider med ”dårligt indhold”.

Når du er i gang med duplicate content er det også værd at tage de to andre onpage-killers med i dit oprydningsarbejde. Du skal kun misse en af dem for at blive ramt.

Tomme sider

Lav følgende søgning på Google:

Manuelt tjek for tomme sider

”mitdomæne.dk” udskifter du blot med dit eget domæne.

Scroll igennem resultaterne og se, om der er sider, du ikke kan genkende. Som nævnt genererer de mest gængse CMS’er selv tomme sider. Ved at se hvad Google har indekseret på din side kan du også se, hvor du skal slå ned.

Du forhindrer indeksering af siderne ved enten at tilføje et ”noindex” i koden eller ved at bruge din robots.txt-fil i roden af serveren.

Dårligt indhold

At finde dårligt indhold er straks sværere – for dårligt indhold er jo en subjektiv ting.

Men bruger du Google Analytics har du dog god data at forholde dig ud fra. Googles robotter kan heller ikke tage stilling til om din tekst er god eller ej uden data.

Tag dit domæne i Google Analytics, find alle undersider og sorter efter dem med en højeste ”Bouncerate”. Din Bouncerate er andelen af folk, der rammer din side for så at gå direkte tilbage til søgeresultaterne. Det er dem, der med andre ord ikke fandt, hvad de ledte efter.

Har du undersider med en bouncerate på mere end 80 % bør dine alarmklokker begynde at ringe. Måske skal de indhold omskrives for bedre at hjælpe brugeren på vej.

En anden god metric er ”Tid brugt på siden” – dem, med fx 5 sekunder eller under skal forbedres for at minimere risikoen for et slag over håndleddet (eller det, der er meget værre) næste gang Google kører deres Panda-algoritme.

Bestil en SEO-analyse

Duplicate content, tomme sider og Panda-opdateringer kan virke tørt – men betydningen for din virksomhed er enorm. Forestil dig ikke at få besøgende fra de organiske søgeresultater overhovedet; fra en dag til en anden kan du have mistet en væsentlig del af din indtægtskilde. Det kan få virksomheder overleve.

Vi tilbyder i OnlineSynlighed.dk SEO-analyser, hvor vi slår ned præcis de steder på din side, hvor du har brug for at få ryddet op.

Vi tjekker for duplicate content, tomme sider, dårlig kode, ringe hastighed, forkerte søgeord og hvad der ellers står mellem dig og flere gratis besøgende fra Googles søgemaskiner hver dag.

Med rapporten i hånden har du mulighed for enten selv at udføre arbejdet eller lade os om det – det vigtige er blot, det bliver gjort.

Ring 70 13 63 23 eller skriv en mail til mail@onlinesynlighed.dk for at høre mere!

Jeg accepterer, at mine data gemmes i overensstemmelse med OnlineSynlighed.dk's privatlivspolitik.


Du kan til enhver tid trække dit tilsagn tilbage.
John Nielsen
6 svar
  1. John Nielsen
    John Nielsen siger:

    Hej Daniel.
    Vil du, at din shop skal have en ordentlig chance for gode placeringer, vil jeg anbefale, at dens indhold ikke udelukkende består at citater fra bagsiden af bøgerne.
    For hvis du udelukkende bygger din shop med indhold, der findes i mange andre online boghandler, vil du døje med massive udfordringer med duplikeret indhold.
    Du har ret i, at en omskrivning af teksterne er noget af en opgave. Men gode, unikke og sælgende tekster er hvad der skal til, hvis du vil foran de andre online boghandler.

  2. Daniel Pind
    Daniel Pind siger:

    Super god artikel.

    Jeg er ved at opbygge en webshop på min hjemmeside hvor jeg sælger bøger. Min ide var at bruge bagsideteksten fra bøgerne som beskrivelse af de forskellige bøger, da jeg jo ikke har læst alle de 2500+ titler jeg har i butikken ind til videre. Men da andre boghandler, forlag og forfatterne selv jo også bruger den tekst på deres hjemmeside bliver det jo til dublicate content. Det vil godtnok skabe noget af et ekstra arbejde for mig, da jeg i så fald skal sætte mig ind i hver enkelt bogs indhold for at kunne beskrive den. Det er jo ikke så simpelt som at beskrive en gasgrill med egne ord.
    Mener du at det vil være det værd (mange hundrede ekstra arbejdstimer) i sidste ende pga. Bedre indexsering?

    Mvh
    Daniel

  3. John Nielsen
    John Nielsen siger:

    Hej Malene.
    Tak for din ros og dit svar.
    På hjemmesider med blog og faste sider er der ofte en del af hente i at få ryddet op i basis.
    Et tip til din egen hjemmeside:
    Du har samme indhold på http://learn2live.dk/category/blog/ og http://learn2live.dk/blog/ – og begge er indekseret.
    Som vi anbefaler kan det være en god idé at sætte noindex på kategori-sider.
    Dine tag-sider er også indekseret, og det giver også massive problemer med duplikeret indhold på din egen hjemmeside.

  4. malene
    malene siger:

    Tak for super gode tips!

    Hvad er efter jeres mening vigtigst at have fokus på og tage fat på først?

    Bedste hilsner Malene

  5. John Nielsen
    John Nielsen siger:

    Hej Henrik.
    Tak for din kommentar og dit spørgsmål.
    Som vi skriver i artiklen.. “med mindre, du er opmærksom på at lave unikt indhold til alle kategorier og derved have mere indekserbart indhold uden duplicate content-delen.”

  6. Henrik
    Henrik siger:

    Super artikel om DC. Tak.
    Jeg undrer mig over: “For WordPress anbefaler vi i din robots.txt at forhindre indeksering af kategorisider…” For er det ik netop / bla kategoristrukturen, som Google ligger stor vægt på?

    Mvh

    Henrik

Giv en kommentar

Har du lyst til at være med i debatten?
Du er meget velkommen til at bidrage!

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *