Hva er SEO?
I denne artikkelen skal jeg tar for oss hva søkemotoroptimalisering er og hva det brukes til. På engelsk heter det «Search Engine Optimization» og forkortelse gjerne bare som «SEO».
Over 80% (for å ikke ta i for mye) av Internett-brukerne ser bare på de første 10 treffene (side 1) hos en søkemotor, så søkemotoroptimalisering er svært relevant for å bli synlig i dag.
Man har her teknisk aspekter, on-site og off-site metoder, som til slutt, hvis det har blitt gjort riktig, gi resultater. Mye av poenget er å komme høyest mulig basert på relevante søkeord og det finnes mange gode verktøy for dette.
Kostnadsaspektet
Hva er poenget med å betale 100-150 000 kr eller kanskje mer for et nettside som ikke kan bli funnet av kundene? Det er ergerlig å svi av mer enn man må, særlig når man ikke kan simulere resultatene i stor grad før man foretar de største endringene, og da som følger vil man ikke ha store inntjeningen da akkurat, og det kan fort ende med tap.
Man har gjerne to typer søk
Man har to typer søk man gjerne skiller mellom; organisk og betalte søk. Betalte søk er gjerne firmaer som tilbyr ulike tjenester som har betalt en sum til f.eks Google eller Bing for å oppnå en god og fast plassering på toppen, basert på gitte søkeord bedriften anser som relevante.
Dette er de søketreffene hvor det står “Annonser” over, og er i bunn og grunn ikke en del av søkemotoroptimalisering, men noe som kalles søkemotorannonsering, på engelsk gjerne «Search Engine Marketing» (SEM). Her er et eksempel på nøkkelordet akebrett:
Over ser man hvilke butikker som tilbyr forskjellige doninger relatert til “akebrett” på snøen.
Organisk søk dukker opp under de betalte søkene, og er det arbeidet man utfører for å øke nettstedets synlighet i Google og andre søkemotorer som Yahoo! og Microsofts Bing.
De organiske søkeresultatene i Google viser sidene i den rekkefølgen de anser som mest relevant for brukerens søkeord som f.eks kan være «katt» eller «hund».
Google fortsatt størst
Det er velkjent at de fleste søker på Google og andre søkemotorer for å finne løsninger for det man lurer på. Folk som søker etter løsningen er faktisk motivert kunder, og dermed er det mer sannsynlig at kunder som foretar søk via Google vil kjøpe fra butikken deres enn andre tilfeldige besøkende.
Man finner også «anbefalte» nettsider og dermed føler kundene i større grad at nettsiden er troverdig når de kommer til nettstedet gjennom en «uavhengig anbefaling» – en om man hadde kommet gjennom annonsering som er mer en målrettet form.
Det er viktig å skille og kjenne den største forskjellen mellom primære og sekundære kvaliteter.
Dette kan forklares med alle søkemotorer gjør en primærfunksjon, som betyr at man foretar et vanlig søk på internett. I de sekundære funksjonene oppstår noen forskjeller. Her Vitenskapelig søk av publikasjoner i «Google Scholar» og en noe brukbar oversettelse i «Google Translate» på enkelte språk. Ja, faktisk. Den har blitt bedre med årene!
Også var det disse algoritmene da…
Algoritmene til Google og Bing endrer seg mange ganger i uken (skal man tro innside-tipsene), så et resultat tidlig i uken kan vise seg å være litt annerledes senere.
Men først – hvordan klarer Google å søke gjennom en database på over 1 milliard websider, flere hundre millioner bilder og en omtrent like stor del dokumenter i form av .pdf, .odt eller .doc osv? Det handler om å omforme tekst til numre. Forferdelig innfløkt matematikk! Jeg skal gå igjennom kjapt her:
Man bruker en teknikk kalt «hashing». Skal man slå opp et ord i norsk-ordboka på «X», vil dette gå mye fortere enn å slå opp et ord på «E». Det er så mange «E»-er i forhold til «X»-er. Man lar derfor alle ord få en numerisk verdi. Med en numerisk verdi går det like fort å søke gjennom alle ord.
Dette gjøres ved å bruke en algoritme som halverer denne spørresummen og legger til eller trekker ut ifra større eller mindre enn (768 er større enn 512 osv). Man kan faktisk søke gjennom en million numre med kun maks 20 «større, mindre eller lik»-spørsmål! Ja, matematikken er lik den dag i dag, selv om det foretas ulike teknikker på hvordan dette håndteres.
Det er mulig å se hvor høy rank en side har, og dermed se hvor «bra» siden er, og sider som Pagerank.net viser rankingen til ulike sider. Skalaen går fra 0 til 10 og er logaritmisk. Det vil si at det er ti ganger så vanskelig å komme seg fra 2 til 3 som det er å komme seg fra 1 til 2. Kan leses mer om her: https://en.wikipedia.org/wiki/PageRank
Søkemotoroptimalisering er i endring hele tiden og i «gamledager», som vil si fem-seks år siden, kunne man lett få resultater ved å lære seg noen triks med titler og meta-tags. Selv om dette fortsatt er viktig (bare meta-beskrivelsen), så har det kanskje litt mindre betydning enn før?
Selv backlinks (linker fra andre nettsteder tilbake til din side) som før var alfa omega, har mistet litt makt. Dette var før ganske enkelt å trikse med, og søkealgoritmene har derfor strammet til på hvordan lenkene kommer fra. Dette kalles «autoritet» hos søkemotorene og teller mye, slik som det ellers gjør i dagliglivet.
Det samme gjelder for søkemotorer, og her går det mye på hvordan Google og Bing ser på websiden som seriøs eller useriøs. Tenk deg at Google eller Bing har veldig stor tillit til en nettside, f.eks VG.no, som linker til din nettside som foreløpig har lav tillit. Dette har positiv innvirkning og websiden din vil etter hvert få høyere rangering og autoritet.
Ja, dette er gammelt nytt, men unngå for all det dette
Det kan også nevnes at å sette inn linker i samme farge som bakgrunnen fungerer dårlig, spesielt i Google. Denne metoden var lett å bruke, og ga en god effekt i gamle dager. Det slåes hardt ned på slike tjuvtriks nå til dags, og ved større brudd kan det resultere i en permanent utestengelse fra Google og Bings søkeresultater. Denne teknikken kalles forresten Black Hat, og dette skal forklares i senere innlegg. Følg med 🙂
Begrepet Cache (cæsj) – nettsidens mellomlager
«Cache er nice» i SEO-sammenheng, og er nettsidens mellomlager forteller at siden er endret eller ikke. Som det er nevnt tidligere så rangerer ferskt innhold høyere enn det gamle innholdet i søkemotorens søkeresultater . Dette er fordi de antar at folk flest ønsker oppdatert og fersk informasjon, snarere enn gammelt innhold. Slik er det med oss mennesker også. Hvem gidder å lese den samme avisa med gamle nyheter i ukesvis?
Hvorfor er cache så viktig?
Edderkoppene eller Crawlerne skanner Internett for nye sider hele tiden og lagre dem på en indeks som de bruker når noen søker etter noe. Hvor ofte de kommer tilbake til nettstedet ditt for å oppdatere den er indeksen bestemmes først og fremst av din egen cache som rapporterer til søkemotorens edderkopper. Kan ikke cache fortelle dem om hvilke endringer som er gjort siden de var her sist, går de vanligvis bare videre til neste nettsted.
I et senere innlegg skal vi se nærmere på de forskjellige teknikkene Black Hat og White Hat SEO. Førstnevnte er nemlig en snuskete og på sikt er dårlig strategi for å oppnå ønsket effekt.