SEO

SEO är en förkortning som kommer från engelskans Search Engine Optimization. På svenska säger man sökordsoptimering.

Vad är SEO?

SEO står för Search Engine Optimization (Sökmotoroptimering). Det innebär att man på olika sätt anpassar sin webbplats så att sökmotorerna ger den en bättre placering i sökresultat på exempelvis Google eller Bing.

Vad betyder SEO

SEO står för Search Engine Optimization (Sökmotoroptimering).

Vad står SEO för?

Search Engine Optimization. Sökordsoptimering på svenska.

Vad är offpage SEO

Off page SEO innebärt att man arbetar med yttre signaler såsom länkar till ens sida för att få en sajt att komma högre upp i sökmotorer såsom Google, Bing eller DuckDuckGo.

 

seo

seo

SEO Kuriosa

Sökmotoroptimering (SEO) är processen att öka kvaliteten och kvantiteten på webbplatsens trafik genom att öka synligheten för en webbplats eller en webbsida för användare av en webbsökmotor.

SEO hänvisar till förbättring av obetalda resultat (känd som ”naturliga” eller ”organiska” resultat) och utesluter direkt trafik / besökare och köp av betald placering. SEO avser främst sökmotorer.

SEO kan rikta in sig på olika typer av sökningar, inklusive bildsökning, videosökning, akademisk sökning, nyhetssökning och branschspecifika vertikala sökmotorer.

Optimering av en webbplats kan innebära redigering av dess innehåll, lägga till innehåll, ändra HTML och tillhörande kodning för att både öka dess relevans för specifika sökord och för att ta bort hinder för sökmotorernas indexeringsaktiviteter. [Citation behövs] Främja en webbplats för att öka antalet bakåtlänkar, eller inkommande länkar, är en annan SEO-taktik. I maj 2015 hade mobilsökningen överträffat skrivbordssökning.

Som en marknadsföringsstrategi för internet beaktar SEO hur sökmotorer fungerar, de datorprogrammerade algoritmerna som dikterar sökmotorns beteende, vad folk söker efter, de faktiska söktermerna eller nyckelorden som skrivs in i sökmotorerna och vilka sökmotorer som föredras av deras målgrupp. SEO utförs eftersom en webbplats kommer att ta emot fler besökare från en sökmotor ju högre webbplatsen rankas på sökmotorsresultatsidan (SERP). Dessa besökare kan sedan konverteras till kunder.

SEO skiljer sig från lokal sökmotoroptimering genom att den senare är inriktad på att optimera ett företags online-närvaro så att dess webbsidor visas av sökmotorer när en användare går in i en lokal sökning efter sina produkter eller tjänster. Den förstnämnda är istället mer fokuserad på nationella eller internationella sökningar.

Historia

Webmasters och innehållsleverantörer började optimera webbplatser för sökmotorer i mitten av 1990-talet, eftersom de första sökmotorerna katalogiserade det tidiga webben. Inledningsvis behövde alla webbansvariga bara skicka in adressen till en sida, eller URL, till de olika motorerna som skulle skicka en ”spindel” för att ”krypa” den sidan, extrahera länkar till andra sidor från den och returnera information som finns på sidan som ska indexeras. Processen innebär att en sökmotorspindel laddar ner en sida och lagrar den på sökmotorns egen server. Ett andra program, känt som en indexerare, extraherar information om sidan, till exempel orden den innehåller, var de finns, och vilken vikt som helst för specifika ord, samt alla länkar som sidan innehåller. All denna information placeras sedan i en schemaläggare för genomsökning vid ett senare datum.

Webbplatsägare erkände värdet av en hög rankning och synlighet i sökmotorresultaten, vilket skapade en möjlighet för både SEO-utövare av vit hatt och svart hatt. Enligt branschanalytiker Danny Sullivan kom uttrycket ”sökmotoroptimering” troligen i bruk 1997. Sullivan krediterar Bruce Clay som en av de första som populariserade termen. Den 2 maj 2007 försökte Jason Gambert att varumärket termen SEO genom att övertyga varumärkeskontoret i Arizona om att SEO är en ”process” som involverar manipulation av sökord och inte en ”marknadsföringstjänst.”

Tidigare versioner av sökalgoritmer förlitade sig på webbansvarig information som nyckelordmetataggen eller indexfiler i motorer som ALIWEB. Metataggar ger en guide till varje sidas innehåll. Att använda metadata för att indexera sidor befanns dock vara mindre än tillförlitligt, eftersom webbansvarigens val av nyckelord i metataggen kan vara en felaktig representation av webbplatsens faktiska innehåll. Felaktiga, ofullständiga och inkonsekventa data i metataggar kunde och ledde till att sidor rankades för irrelevanta sökningar. [tvivelaktigt – diskutera] Webbinnehållsleverantörer manipulerade också några attribut inom HTML-källan på en sida i ett försök att rangordna sig väl i sökmotorer. År 1997 erkände sökmotordesigners att webbansvariga gjorde ansträngningar för att ranka bra i sin sökmotor, och att vissa webbansvariga till och med manipulerade sina rangordningar i sökresultaten genom att fylla sidor med överdrivna eller irrelevanta sökord. Tidigare sökmotorer, som Altavista och Infoseek, justerade sina algoritmer för att förhindra webbansvariga från att manipulera rangordningar.

Genom att förlita sig så mycket på faktorer som sökordstäthet som uteslutande var inom en webbansvarig kontroll led tidiga sökmotorer av missbruk och rangordning. För att ge bättre användare sina användare var sökmotorerna tvungna att anpassa sig för att se till att deras resultatsidor visade de mest relevanta sökresultaten, snarare än icke relaterade sidor fyllda med många sökord av skrupelfria webbansvariga. Detta innebar att flytta bort från tungt beroende av termdensitet till en mer holistisk process för att göra semantiska signaler. Eftersom en sökmotors framgång och popularitet bestäms av dess förmåga att producera de mest relevanta resultaten för en given sökning, kan dålig kvalitet eller irrelevanta sökresultat leda användare att hitta andra sökkällor. Sökmotorer svarade genom att utveckla mer komplexa rankingalgoritmer med hänsyn till ytterligare faktorer som var svårare för webbansvariga att manipulera. 2005 skapades en årlig konferens, AIRWeb, Adversarial Information Retrieval on the Web för att sammanföra utövare och forskare som är berörda med sökmotoroptimering och relaterade ämnen. 

Företag som använder alltför aggressiva tekniker kan få sina klientwebbplatser förbjudna från sökresultaten. 2005 rapporterade Wall Street Journal om ett företag Traffic Power, som påstås använda tekniker med hög risk och misslyckades med att avslöja dessa risker till sina kunder. Wired magazine rapporterade att samma företag stämde bloggare och SEO Aaron Wall för att ha skrivit om förbudet. Googles Matt Cutts bekräftade senare att Google faktiskt förbjöd Traffic Power och några av dess kunder. 

Vissa sökmotorer har också nått SEO-branschen och är ofta sponsorer och gäster på SEO-konferenser, webbchatter och seminarier. Stora sökmotorer innehåller information och riktlinjer för att hjälpa till med optimering av webbplatser. Google har ett Sitemaps-program för att hjälpa webbansvariga att lära sig om Google har problem med att indexera sin webbplats och tillhandahåller också data om Googles trafik till webbplatsen.Bing Webmaster Tools ger ett sätt för webbansvariga att skicka in en webbplatskarta och webbflöden, gör att användare kan bestämma ”crawl rate” och spåra indexets status på webbsidorna.

2015 rapporterades det att Google utvecklade och marknadsförde mobilsökning som en viktig funktion i framtida produkter. Som svar började många varumärken ta en annan inställning till sina strategier för internetmarknadsföring.

Förhållande till Google

1998 utvecklade två doktorander vid Stanford University, Larry Page och Sergey Brin, ”Backrub”, en sökmotor som förlitade sig på en matematisk algoritm för att betygsätta framträdandet av webbsidor. Antalet beräknat med algoritmen, PageRank, är en funktion av kvantiteten och styrkan på inkommande länkar. PageRank uppskattar sannolikheten för att en given sida kommer att nås av en webbanvändare som slumpvis surfar på webben och följer länkar från en sida till en annan. I själva verket betyder detta att vissa länkar är starkare än andra, eftersom en högre PageRank-sida mer sannolikt kommer att nås av slumpmässig webbsurfare.

Page och Brin grundade Google 1998. Google lockade en lojal följd bland det växande antalet Internetanvändare, som gillade dess enkla design. Faktorer utanför sidan (som PageRank och hyperlänkanalys) beaktades samt faktorer på sidan (som sökordsfrekvens, metataggar, rubriker, länkar och webbplatsstruktur) för att möjliggöra för Google att undvika den typ av manipulation som ses i sökmotorerna. som endast beaktade faktorer på sidan för deras ranking. Även om PageRank var svårare att spela, hade webbansvariga redan utvecklat verktyg och schema för länkbyggande för att påverka Inktomi-sökmotorn, och dessa metoder visade sig på samma sätt tillämpas på PageRank för spel. Många webbplatser fokuserade på att utbyta, köpa och sälja länkar, ofta i massiv skala. Vissa av dessa scheman, eller länkar gårdar, involverade skapandet av tusentals webbplatser med det enda syftet att länka skräppost. 

År 2004 hade sökmotorer införlivat ett brett spektrum av icke avslöjade faktorer i deras rankningsalgoritmer för att minska effekterna av länkmanipulation. I juni 2007 uppgav New York Times ’Saul Hansell att Google rangordnar webbplatser med mer än 200 olika signaler. De ledande sökmotorerna Google, Bing och Yahoo avslöjar inte algoritmerna som de använder för att rangordna sidor. Vissa SEO-utövare har studerat olika tillvägagångssätt för optimering av sökmotorer och delat sina personliga åsikter. Patenter relaterade till sökmotorer kan ge information för att bättre förstå sökmotorer. 2005 började Google anpassa sökresultaten för varje användare. Beroende på historik över tidigare sökningar skapade Google resultat för inloggade användare. 

2007 tillkännagav Google en kampanj mot betalda länkar som överför PageRank.  Den 15 juni 2009 avslöjade Google att de hade vidtagit åtgärder för att mildra effekterna av skulpturer av PageRank med hjälp av attributet nofollow på länkar. Matt Cutts, en välkänd programvaruingenjör på Google, meddelade att Google Bot inte längre skulle behandla några nofollow-länkar, på samma sätt för att förhindra att SEO-tjänsteleverantörer använder nofollow för PageRank-skulpturer. Som ett resultat av denna förändring ledde användningen av nofollow till förångning av PageRank. För att undvika ovanstående utvecklade SEO-ingenjörer alternativa tekniker som ersätter nofollowed-taggar med dolda JavaScript och därmed möjliggör skulpturer för PageRank. Dessutom har flera lösningar föreslagits som inkluderar användning av iframes, Flash och JavaScript. 

I december 2009 meddelade Google att de skulle använda webbsökningshistoriken för alla dess användare för att fylla sökresultaten. Den 8 juni 2010 tillkännagavs ett nytt webbindexeringssystem med namnet Google Caffeine. Google koffein, som var utformat för att låta användare hitta nyhetsresultat, foruminlägg och annat innehåll mycket tidigare efter publicering än tidigare, var en förändring av hur Google uppdaterade sitt index för att få saker att visas snabbare på Google än tidigare. Enligt Carrie Grimes, programvaruingenjören som tillkännagav Kaffein för Google, ”Kaffein ger 50 procent färskare resultat för webbsökningar än vårt senaste index …” Google Instant, realtidssökning, introducerades i slutet av 2010 i ett försök att göra sökresultaten mer snabba och relevanta. Historiskt har webbplatsadministratörer tillbringat månader eller till och med år på att optimera en webbplats för att öka sökrankningen. Med ökningen i popularitet på sociala mediesajter och bloggar gjorde de ledande motorerna ändringar i deras algoritmer för att låta färskt innehåll snabbt rankas inom sökresultaten.