Först och främst måste jag ge Simon Sundén och Binero cred för idén till detta blogginlägg.
Väl medveten om risken att försöka framstå som en SEO-guru låter jag alla som hittar detta inlägg i tid ställa några SEO-frågor till mig. Jag är långt ifrån allvetande men tror i alla fall att jag kan bidra med någog, samt reda ut lite frågetecken om SEO. Jag vill inte sätta några direkta begränsningar utan hoppas att det inkommer rimliga frågor. Räkna med att jag inte kommer kunna svara på frågor som ”Efter en noggrann analys från din sida, vilka saker bör jag ändra på min webbplats?”. Det vill säga stora frågor som rör en specifik webbplats.
Jag kommer löpande svara på de frågor som ställs i kommentarerna till detta inlägg. Preliminär tidsgräns är satt till kl. 17.00 fredagen den 18 februari. Frågestunden är förlängd tills vidare. Fråga på bara, så ska jag försöka leverera svar.
Hej!
Hur stor påverkan anser du att bloggens laddningstid har för rankingen av en blogg. Det har ju diskuterats ganska flitigt och seglat upp som en av de större rankingfaktorerna (även om jag personligen inte tror att det ligger i topp fem).
Där kom jag på en fråga till :-) Vilka fem faktorer tror du har störst betydelse när man vill ranka för ett sökord?
Jag anser precis som du att laddningstid inte är en av de viktigaste faktorerna. Jag har en egen sajt som dras med dåliga laddningstider men ändå rankar bra på konkurrensutsatta sökord. Inom SEO måste man ofta ha ett ”många bäckar små”-tänk, d.v.s. att många små faktorer tillsammans i slutändan blir en stor faktor för rankingen.
Lång laddningstid skulle i förlängningen kunna orsaka högre avvisningsfrekvens (bounce rate) som är ytterligare en negativ faktor. När jag optimerar så tar jag mig sällan tid att mäta laddningstider. Är laddningstiden så lång att jag själv reagerar på den så åtgärdar jag det.
Först tänkte jag att de viktigaste rankingfaktorerna skulle vara en lätt match att presentera. Faktum är att många av de viktigaste faktorerna är beroende av varandra. Har man inte det ena så gör heller inte den andra så stor nytta. Här kommer i alla fall en lista på de jag tycker är viktigast.
1. Ankartext i inkommande länkar. (förutsatt att dessa återfinns på sajten)
2. Inlänkar från många unika domännamn.
3. Sökord i title- och rubrik-taggar. (förutsatt att de även finns i brödtext)
4. Relevans och styrka på de sajter som länkar.
5. Googles förtroende (trust) för din sajt. T.ex. ålder och inlänkar från andra sajter som Google anser vara trovärdiga.
Hade faktiskt också tänkt hålla i någonting liknande på min blogg inom en snar framtid :)
Kul! Då hakar du på mig när min tidsgräns gått ut, precis som jag gjorde med Binero/Simon :)
Hej! Kul idé!
Jag är f.n. i beta-stadiet av ett litet projekt. Jag tänkte ha 6 olika sidor med något olika tema men ändå en viss koppling till varandra. Utöver det tänkte jag ha en samlingssida där jag presenterar de olika sidorna. Alltså en modersida, och 6 st nischade sidor.
Från början hade jag tänkte att all information skulle ligga på en hemsida, men beslutade mig ändå för den här strukturen, dels för att sajterna ska bli mer nischade men också för att experimentera hur placeringarna förändras beroende av hur jag länkar ihop de olika sajterna.
Jag har två frågor:
1. Vad anser du om att ha alla 7 sajter på samma webbhotell och kopplade till samma konto på google webmastertools/analytics?
2. Hur tycker du jag ska länka ihop sidorna?
1. Att ha 7 sajter på samma webbhotell inte är någon större fara enligt mig. Om man sätter det i system med hundratalet sajter som länkar kors och tvärs mellan varandra kan nog Google börja ana något.
Ska man tro Google själva så använder de inte data från Analytics i sin rankingalgoritm. Om de använder data från Webmaster Tools vet jag faktiskt inte, men jag misstänker att de gör det. Jag litar inte riktigt på Google och misstänker att de använder alla sina tjänster för att upptäcka sajter som försöker påverka sin ranking. Nyligen har det varit diskussion om Googles nya block-funktion i Chrome där användarna kan blockera sökresultat. Dessa uppgifter skickas sedan till Google för vidare granskning.
Själv kör jag Analytics och Adsense på (i stort sett) alla mina sajter och har inte blivit bestraffad. Möjligtvis hade jag tjänat rankingmässigt på att undvika detta, men då hade jag inte heller fått de intäkter jag har genom Adsense. Jag tycker inte du ska oroa dig för det, särskilt inte när det handlar om 7 st sajter.
2. Om du har en modersajt så länkar du till den från alla de övriga sex sajterna, men länkar inte ut till dem från den. Enligt källor som jag glömt bort så har Google blivit bättre på att upptäcka s.k. länkhjul. Testa istället att skapa en eller två ”luckor” i länkhjulet för att få det att se mer ”naturligt ut”. Använd sedan främst satellitsidorna för utlänkning, medan de inlänkar du byter till dig pekar till modersajten. Var inte rädd för att länka ut från modersajten, men se till att utlänkarna är extra relevanta. Måste du länka till en irrelevant sida för att få igenom ett byte så gör det från en satellitsajt.
Kul idé, det är klart jag måste fråga något.
Att dold text (cloaking) anses vara black-hat, och direkt skadligt för din ranking är ju allmänt känt. Ändå verkar det inte vara några problem att ha en dold text och en ”läs mer”-länk som visar dold text. Hur skulle du säga att sökmotorerna skiljer på en dold text som inte är cloaking, och en som är där för att klämma in extra sökord?
Det är en mycket bra fråga. Här måste jag nog tillåta mig att gissa, eller i varje fall resonera mig fram till något som liknar ett svar.
Om man kör cloaking i sin rätta bemärkelse så finns det ingen länk att klicka på för att läsa det dolda innehållet. Det gör det om man vill göra det möjligt för besökarna att se en popup-div. Antagligen kan Google skilja på dem genom att de upptäcker länken till det dolda innehållet som ska visas. Finns ingen länk så kan Google med all rätt misstänka cloaking. Eftersom Google indexerar och läser CSS så kan de upptäcka om man placerar ett element bakom ett annat. Ett tecken på att innehållet kan bli synligt för besökarna borde alltså vara avgörande för Googles bedömning.
Det finns dock en brist i detta resonemang. Många (alla?) popup-divar visas med hjälp av Javascript, vilket Google inte följer. Alltså finns det en risk att de inte uppfattar att innehållet kan bli synligt för besökarna genom ett klick på en länk.
Modigt av dig att ställa upp att ta emot frågor så här…
Hur som helst lyder min fråga: vad anser du om betydelsen hos textmängd på en sida efter att antalet redan överstigit 600-700 ord? Dvs. hur mycket tror du t.ex. 300-500 ord extra tillför i sådant sammanhang?
Förstår att det är svårt att svara på en så isolerad faktor, men du kanske har någraerfarenheter eller idéer…
Det börjar bli lite pirrigt nu eftersom de frågor som ställts inte är några nybörjarfrågor direkt. Samtidigt upptäcker jag vad jag måste läsa på mer om samt vad jag redan kan. Förhoppningsvis blir alla vinnare på detta.
Jag tror det bara är positivt att utöka en text från t.ex. 600 ord till 900 ord så länge man inte går för mycket off-topic eller urholkar sökordsdensiteten totalt. En nackdel skulle kunna vara att den extra texten kan läggas på en helt egen sida som Google skulle kunna indexera. Men om den extra texten håller sig helt till ämnet så tycker jag det är bättre att lägga allt på samma sida än att ha två sidor som konkurrerar på samma sökord.
Jag tror man kan tjäna en hel del på att ha betygligt mer innehåll än sina konkurrenter. Om Google ska välja ut det bästa resultatet när du har 700 ord och konkurrenten har 200 så är det större chans att din text ger användarna svar på sin fråga. Dessutom kan man nog kompensera lite för få eller svaga inlänkar med mer och bättre innehåll.
En annan fördel som kanske är lite långsökt är att en längre text tar längre tid att läsa. Det borde göra att besökarna i genomsnitt befinner sig på din sida längre tid än hos en konkurrent med kortare text. Det tar längre tid innan besökaren eventuellt ”bouncar” tillbaka till Google.
Det där sista med bounce var intressant. En lång artikel kan säkert också få motsatt effekt och öka bounce rate genom att skrämma iväg besökare som vill ha snabba fakta utan att plöja långa texter.
Sen skulle www må gott av längre artiklar och mindre sidor men det är väl en annan sak.
Stora textmassor kan helt klart skrämma. Då får man jobba med stycken och göra det lite luftigare. Bilder kan också vara bra för att minska intrycket av stora (jobbiga) textmassor.
Det kan också vara bra med en välskriven ingress som ger snabba svar medan resten av texten behandlar ämnet på djupet. Då får man dessutom moljighet att placera många olika sökord tidigt i texten.