Nyeste update bekræfter: Farligt at syndikere indhold

Syndikering af nyhederLige siden Google for første gang i 2011 rullede deres Panda-filter ud i søgeresultaterne har de sider, der lever af andres indhold, levet en farlig tilværelse.

Og den er ikke blevet mindre farlig med Panda 4, der blev udrullet i maj 2014 – tværtimod.

En liste, amerikanske SearchMetrics har lavet, viser, at sider der syndikerer (også kaldet aggregerer, eller sagt på en anden måde kopierer) indhold fra andre sider er blandt de hårdest ramte ved seneste Panda-opdatering.

Dette viser blot igen, hvor vigtigt unikt indhold er, når man som virksomhed skal have succes i de organiske søgeresultater.

Et spændende og konkret eksempel af Panda 4 er pressemeddelelsessiden Newswire, der tog et hårdt hug natten over. Det på trods af, at Newswire levede næsten udelukkende af unikt indhold.

Problemet var blot, at meget af indholdet på Newswire var skrevet af ivrige ”søgemaskineoptimister” med det formål ikke at skabe omtale ved hjælp af pressen, men blot at få nogle hurtige links til deres websites. Indholdet bar præg af den hurtige omgang og var ofte af ringe kvalitet.

Og på den måde blev Newswire i de organiske søgeresultater derfor straffet, selvom indholdet på siden i sig selv var unikt.

Brugerne sætter højere krav – det samme gør Google

I takt med, at resultaterne på nettet bliver bedre og bedre stiller brugerne også større krav til de sider, de bruger tid på. Vores tekster skal være bedre, video være bedre, brugeroplevelsen bedre, reklamerne færre og sådan fortsætter det ned i detaljerne.

Google forsøger, når de skal sætte søgeresultaterne, at efterligne en almindelig bruger. Hvis internetbrugerne vender sig af med at søge med Google.dk, ryger Googles forretningsmodel nemlig.

Derfor sætter Google også stadigt højere og højere krav til de sider, der skal placeres øverst i søgeresultaterne.

Newswire er et godt eksempel på dette. Indholdet på siden var unikt, hvilket var en af de ting, man efter Googles retningslinjer skal overholde – men det var af tilpas ringe kvalitet til, at brugerne ikke fandt, hvad de søgte på siden.

Flere og bedre værktøjer til at måle brugeroplevelse

Faktorer som søgeord i teksten og indgående links – der traditionelt set har været hjørnesten i søgemaskineoptimering – er relativt nemme at manipulere med.

Det er til gengæld svært at manipulere ens brugere til at bruge lang tid på ens website, hvis ikke de finder, hvad de leder efter.

Af den grund er Google interesserede i at benytte brugerens oplevelse på den enkelte side i højere grad end faktorer som søgeordsdensitet og indgående links. Googles værktøjer til at måle brugeroplevelsen bliver hele tiden bedre og mere sofistikeret – det skal vi være opmærksomme på, når vi laver websites i dag.

Først og fremmest skal vi have brugeren in mente – for nok så meget tekst og nok så mange links hjælper intet, hvis brugerne alle ”bouncer” tilbage til søgeresultaterne, når de kommer ind på ens side. Det lægger Google mærke til og konsekvensen er, at de besøgende stopper med at få vist ens side i de 10 søgeresultater på første side af Google.

Vejen til toppen af Googles søgeresultater er den samme, som den har været i et stykke tid: Det bedste søgeresultat, der hjælper brugeren videre, vil i sidste ende også komme til tops.

John Nielsen
0 svar

Giv en kommentar

Har du lyst til at være med i debatten?
Du er meget velkommen til at bidrage!

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *