Sådan virker Google

I denne artikel vil jeg gennemgå hovedprincipperne bag hvordan Google fungerer som søgemaskine. Det er en gennemgang baseret på hvad Google selv har sagt, gennem Google Inside Search.
Google stammer tilbage fra 1996 og man kan nok sige mange ting omkring hvorfor det lige er Google der har fået så stor succes. Før Google kom og blev meget udbredt, anvendte man især søgekataloger, som arrangerede alle links i et katalog fordelt på forskellige kategorier. Nogle af de populære der blev anvendt i Danmark var især den danske Jubii (der bl.a. er stiftet af Martin Thorborg) og Yahoo. De havde en meget dominerende plads på det danske internet dengang, og det må man da sige har ændret sig.

Sådan virker Google

Google virker på en anden måde. Den er en søgerobot, der kravler sig igennem internettet og placerer det den finder i et indeks. Dvs. Google åbner én webside ad gangen og går videre ét link ad gangen og placerer dem i indekset, sorteret efter indholdet på siden. Det der især var genialt ved Google, var at den var meget hurtig og meget god til at finde de mest relevante søgeresultater ud fra indekset. Google anvender en algoritme (en avanceret beregningsformel), der afhængig af søgeordet omdanner indekset til et søgeresultat. En anden grund til Googles succes, er dens hurtighed. Hele søgeprocessen tager kun omkring 1/8 sekund.
Google har siden også udviklet sig som et søgeredskab, så den ikke længere blot søger på websider. Google søger også blandt billeder, film og man kan endda konvertere valuta og anvende den som lommeregner. Herudover har Google også leveret andre funktioner, såsom at den kan vise synonymer, kan give dig forslag til hvilke søgeord du skal skrive (autocomplete), kan vise søgeresultater mens du skriver (instant search) og kan rette dine stavefejl. Kigger man på alt det, er der ingen tvivl om hvorfor Google er blevet så populær.
Når Google trækker søgeresultater ud fra deres indeks, bestemmer en algoritme hvilken rækkefølge søgeresultaterne skal have. Det er den algoritme man forsøger at lade sig fange af, når man laver søgemaskineoptimering (SEO). Googles algoritme bestemmes ud fra over 200 forskellige faktorer, hvoraf vi kender nogle mens andre er ukendte.
En af de vigtige faktorer som Google anvender er Pagerank, der kigger på de links der er mellem websider, for at bestemme deres relevans. En anden faktor der ventes at påvirke Googles algoritme i fremtiden er Google Author rank, der prioriterer indhold med højest autoritet udfra forfatteren. Andre faktorer er:

  • hvor ny er websiden er, da Google gerne vil vise friske resultater.
  • hvilken geografisk region kommer websiden fra og hvad sprog er det.
  • indeholder siden pornografisk indhold (dette kan man reducere i Google-søgningen).

Alle disse faktorer er med til at bestemme sidens kvalitet, således at dem der søger i Google får vist det bedste resultat.

Nyeste ændringer i Googles algoritme

Google ændrer konstant deres algoritme – faktisk over 500 gange om året, i et forsøg på at skabe endnu højere kvalitet i søgeresultaterne. De to sidste store ændringer vi har set gennem de sidste to år, er især Google Panda og Google Penguin.
Google Panda blev lanceret i februar 2011 og formålet var at sænke rankingen af sider der var tynde sider (sider med meget lidt indhold) eller af lav kvalitet. En af de ting der adskiller Google Panda fra de forrige opdateringer er, at rankingen påvirker hele websiden fremfor bare den enkelte side.
Google Penguin blev lanceret april 2012 og formålet var at sænke rankingen af sider, som ikke overholder Googles Webmaster Guidelines. Dette betød straf til websider der anvendte såkaldt black hat SEO, der omfatter keyword stuffing, cloaking, deltagelse i linkkøbsprogrammer eller linkbytteprogrammer og duplicate content. Det overordnede formål med Google Penguin var at reducere spam websider, en kamp som Google konstant kæmper.
En tredje opdatering af algoritmen vi for nyligt har set, var i Januar 2012 hvor den såkaldte Page Layout opdatering kom. Denne opdatering ramte websider, der havde meget lidt indhold over folden (above the fold), dvs. den øverste halvdel af en webside når man lige kommer ind på den. På mange sider er der reklamer placeret her, fordi det er et af de steder besøgende ligger først mærke til. Grunden til at de straffede disse sider, var at de mener at det er en dårlig brugeroplevelse, når man skal scrolle ned for at finde indholdet. Siden den opdatering, kan man ikke have for mange og for store reklamer over folden.

Opdateringer i fremtiden

Der er ingen tvivl om at Google fortsat vil komme med opdateringer der rammer spam websider. De vil udvikle flere og bedre redskaber til at bestemme mængden af spam på websider. Men hvad er spam websider egentlig helt præcist for Google:

  • Websider med skjult tekst eller keyword stuffing
  • Bruger-genereret spam, hvilket især ses i kommentarer, forums og gæstebøger. Disse skal være ordentlig moderatorstyret for at undgå webspam.
  • Parkerede websider, dvs. websider der stort set ikke har noget unikt indhold.
  • Websider med tyndt indhold, dvs. websider der stort set ikke tilfører internettet noget værdi. Dette er især tynde affiliate sider, doorway sider, automatisk genereret indhold på sider og kopieret indhold.
  • Unaturlige links til en side, dvs. links der stammer fra linkbytteprogrammer eller linkkøbsprogrammer.
  • Gratis webhosts hvor størstedelen af indholdet er spamsider.
  • Cloaking eller sneaky redirects, dvs. hvor man viser noget andet indhold til Googles søgerobot end til besøgende.
  • Hackede sider.

Herudover forsøger Google at udnytte Authorship til at bestemme autoriteten af en forfatter overfor bestemte søgeord, således at man kan ranke kvalitet udfra Authorship (Se mere om Author rank). Ideelt set ville det kræve at alle websider anvendte authorship, hvilket langt fra er tilfældet og nok aldrig kommer til det. Der kommer formentlig flere initiativer på denne front og det bliver spændende at se hvad de går ud på, og hvordan de påvirker søgeresultaterne.

0 0 votes
Article Rating

Andreas Andersen

Forfatter og grundlægger af IT-blogger.dk, der har blogget om IT-emner siden 2012. Findes på Mastodon på @aphandersen@ansico.dk

Abonner
Giv besked ved
guest

1 Comment
mest stemt på
nyeste ældste
Inline Feedbacks
View all comments

Rigtig nyttig viden. Kan du forklare mig hvordan google robot virker.. Altså jeg arbejder på at fremme min virksomhed/hjemmeside, med links og markedsføring osv. Hvad er regelsættet for robotten? Jeg ved fx at jeg har lavet X antal links, men får et meget mindre antal vist.. Hvordan kan det være? Hvor hurtigt bliver links registreret? og hvor kan man læse om dette?
Håber du kan hjælpe mig på rette vej med mine spørgsmål..

1
0
Would love your thoughts, please comment.x
()
x