SEO guide 1: Eliminer dine indekseringsbarrierer
Velkommen til første del af min SEO guide. Hvor mange dele der kommer i alt, er stadig uvist, men lige nu har jeg fire styks i tankerne, så husk at følge med her på bloggen. De fire første vil følge den velkendte IRTA model.
I dette første afsnit går jeg tættere på de eventuelle indekseringsbarrierer der kan forhindre at du får noget ud af din optimering.
For lige at få det grundlæggende på plads, så står IRTA modellen for: Indeksering, Ranking, Trafik, Action. Her snakker vi om første punkt, nemlig indeksering.
At din side, shop, blog eller lignende bliver indekseret, sker i tre trin fra Googlebot:
- Siden crawles
- Siden kopieres til Googles cache
- Siden rankes
Det vil sige, at det vigtigste er at Google skal kunne finde alle dine relevante sider og undersider. Du kan altid lave et hurtigt tjek ved en site:dennisslj.dk søgning på Google, hvor dennisslj.dk selvfølgelig er din hjemmeside. Der kan du udover at se titles og meta description på dine sider, også se antallet af sider som Google har lagret. Du finder tallet øverst, lige under søgningen. I dette tilfælde 22 sider.
Viser dit tal alt for lidt, er der noget der gør at siderne ikke kan findes. Viser det alt for mange, så er der en masse sider der vises flere gange, såkaldt duplicate content.
Duplicate content
Duplikeret indhold betyder at det samme indhold kan tilgås på flere måder, altså på flere forskellige URL’er. Det ses ofte i shops hvor man kan sortere på flere måder, f.eks. alfabetisk, efter pris, efter popularitet osv. Ofte sorteres det via en URL parameter f.eks.: side.html?sort=pris. Det ses også ofte at hele hjemmesiden kan tilgås med og uden www, hvilket betyder at ALT indhold kan tilgås 2 gange. Det er heldigvis nemt at ordne begge dele.
Løsning af duplicate content ved sortering
Udover at vælge en god platform som er opmærksom på disse problemer fra start, kan man løse dem på flere måder. Har man problemer med sorteringer der giver dobbeltindhold, kan man med fordel bruge 1 af 2 løsninger, eller begge hvis man vil gå med både livrem og seler.
- robots.txt
- link canonical
Robot.txt er en .txt fil som ligger i roden af domænet, og fortæller Googlebot (og andre bots) hvad de må indeksere og ikke indeksere. Vil man f.eks. udelukke alle sorteringer kan man bruge følgende udtryk:
User-agent: * Disallow: *order=* |
Dette skal blot indsættes i robots.txt. Har der været redigeret i den tidligere, så står den øverste linje der nok i forvejen. Så kan man nøjes med at indsætte den nederste linje, som betyder at Google (og alle andre bots) ikke skal indeksere URL’er hvor “order=” indgår.
Link canonical virker på en lidt anden måde. Tagget fortæller hvilken side der er “forælder” eller original-udgaven af en anden specifik side. Det skrives som:
<link rel=”canonical” href=”http://www.onlineshop.dk/kategori.php”/> |
Når dette tag findes på en side der slutter med kategori.php?sort=pris, så henviser den til at originalsiden findes på kategori.php. Tagget skal indsættes i <head> sektionen på sitet.
Løsning af duplicate content ved www
Kan din side tilgås både med og uden www, så findes alle sider 2 gange. Det er massiv duplicate content, og du bør sætte din server op til at vise den ene adresse fast, og redirecte den anden. Om du vælger med eller uden www som standard, er ikke afgørende. Det er nærmere en smagssag. Bruger du en Apache server, kan du nemt gøre det med .htaccess filen som ligger i roden af domænet. Heri indsætter du blot følgende:
RewriteEngine On RewriteCond %{HTTP_HOST} !^my-domain\.com$ [NC] RewriteRule ^(.*)$ http://my-domain.com/$1 [R=301,L] |
Ovenstående redirecter med www til uden www. Det er vigtigt du laver en 301 redirect, der betyder at siden er permanent flyttet, fremfor en 302 redirect der kun betyder midlertidigt flyttet.
Når du har styr på der ikke er diplicate content på din side, er du klar til at optimere dine sider, så de ranker godt. Det tager vi hul på i afsnit 2.
Tags: 301 redirect, duplicate content, Googlebot, IRTA, link canonical

Jens Thomsen
Jeg skal have fjernet txt files, der blokerer på mine sider, hvad gør jeg ? Mvh. Jens
Dennis SLJ
Hej Jens
Hvis det er robots.txt der skal ændres i, så er det nemmest at downloade filen, ændre den og uploade igen.
Har du et system som WordPress kan systemet dog selv rette i den, og du kan også få lov med et plugin der giver adgang til det.
For at komme et svar endnu nærmere, så er du velkommen til at skrive mere, eller skrive på min mail som du finder under kontakt.