Eftersom snacket om duplicate content och dess negativa inverkan på Google fortsätter har jag bestämt mig för att göra ett litet experiment. Eftersom jag har egna erfarenheter av att duplicate content inte alls behöver vara något stort problem ställer jag mig lite frågande till varför det blivit ett så hett diskussionsämne. Det verkar som att folk kan nojja över minsta lilla som återfinns någon annanstans på webben.
Ett tydligt tecken på att faran med duplicate content är överdriven hittar man bl.a. i de många TT-telegram som helt oförändrade hjälper till att fylla minst fem svenska dags- och kvällstidningar dagligen. Trots att de publicerar ”artiklar” som är identiska fortsätter de alla att ranka med hjälp av samma texter. På dessa sidor finns dock delar som inte är desamma som hos de andra tidningarna. Jag tänker främst på navigation och utdrag från andra artiklar som ofta visas under den aktuella artikeln.
För experimentlustans skull kommer jag att ”offra” två av mina LLL-domäner för ändamålet. På dessa domäner kommer jag att lägga upp exakt samma sidor. De kommer inte skilja sig ett dugg från varandra. Precis allt kommer vara detsamma, från indentering och taggar till innehåll i rubriker och brödtext. För att undvika medvetet och omedvetet sabotage kommer jag hålla dessa sajter hemliga till dess att experimentet kan anses som avslutat.
Förhoppningsvis kommer jag kunna svara på om duplicate content är ett hot mot din sökmotoroptimering, eller om det är kraftigt överdrivet.
Andra inlägg om detta experiment:
SEO-experiment: Duplicate content
SEO-experiment: Duplicate content (1)
SEO-experiment: Duplicate content (2)
SEO-experiment: Duplicate content (3)
Jag påbörjade själv nyligen ett liknande experiment efter att ha tröttnat på att Google straffade mina sajter. Så jag köpte helt enkelt två nya domäner där jag kopierade innehållet från den ena domänen till den andra utan att förändra något. I dagsläget ligger den ena testsajten på plats #11 för sitt sökord och den andra finns inte ens på närmsta 200. Får vänta och se innan jag utvärderar men i dagsläget verkar det vara antingen eller.
Det skulle vara intressant att veta vilka faktorer som triggar igång duplicate content-filtret. Vissa gånger verkar det inte vara några problem alls medan andra gånger är det tvärkört.
Det kommer bli intressant det testet vi har en liten diskussion på seo-forum om det http://www.seo-forum.se/showthread.php?t=6617 där jag visar med praktiska exempel på att det existerar mellan olika webbplatser.
Sedan har jag stressat fram det själv vid några tillfällen.
Problemet är att det går att visa exempel på att det inte drabbar olika webbplatser också utan större svårighet.
Så det gäller att hitta vad det är som triggar igång det. Det vore det riktigt intressanta. Så när du är klar med ditt test så skall jag prova och se om jag kan upprepa det hela med samma resultat, vad det nu blir för resultat du får fram. En teori behöver kunna återskapas praktiskt för att visa att den gäller.
Jag ska försöka vara noggrann med att dokumentera allt så att det kan upprepas exakt. T.ex. vad det är för typ av inlänkar sajterna. Det där med triggandet intressant. Om det nu visar sig att en blir straffad medan den andra syns i serpen så får jag göra succesiva förändringar och försöka spåra vilken förändring som är avgörande för en inkludering i index.
Jag kommer överlämna allt du kan tänkas behöva för att återupprepa experimentet.
Ska hela sajterna vara helt identiska, eller är det bara själva content som ska vara lika?
Från början ska allt vara precis detsamma på båda sajter. Från divarnas klassnamn till innehåll i p-taggar och rubriker. Om filtret slår till börjar jag succesivt förändra sajterna för att försöka avgöra vilken faktor som är den stjälpande så att säga.
Riktigt intressant, kul att du tar dig tid för detta experiment. Kommer domänernas ålder vara samma?
Hur ser du till att Google crawlar sidorna vid samma tidpunkt?
Domänerna är registrerade exakt samma klockslag. De fick sitt innehåll samtidigt. De har länkar från samma sajter men med olika ankartext, så de bör crawlas samtidigt eftersom Google upptäcker länkarna vid samma tillfälle.
Skulle vara intressant att kopiera en hemsida rakt av (kan mycket väl vara en av sina egna) som har en bra placering på Google och se om möjligheten att ranka bra med den kopierade sidan ens är möjligt. Stefan Nilssons exempel verkar tyda på att duplicate content har en negativ inverkan hos Google och att sådana sidor straffas med att ”hamna längst bak i kön”. Men det är klart, först måste Google försöka tyda vilken sida som är den ”riktiga”, och om man som i ditt exempel publicerar de båda sidorna samtidigt så är det nog slumpen som avgör.
Jag har testat att kopiera gamla texter (min kvällsbön till Google) på fyra ställen sedan år 2007. Söker jag på texter inom ” ”. Ser det ur som den senaste versionen (från igår) kommer upp ingen av de andra 3.
Tar jag bort ” ” dyker alla fyra upp.
För hela texten (32 ord godkänner Google där) utan ” ” så faller en av fyra sidor bort, den näst äldsta. Rätt så ovetenskapligt förvisso men det ser ut att finnas en del del variabler som spelar in.
Så det man behöver titta på är ålder på texterna, vad det är som triggar igång filtret och hur man skall ta sig ur det om man hamnar där.
Funderar själv på att testa för duplicate på två olika plattformar (wp på en och ren html på den andra) men köra med samma text bara och testa. Ska bli mkt intressant att följa det du gör!
Bra ide!!
Undrar själv var och hur gränserna går
då det är jobbigt att hela tiden skriva ny content :)
glöm inte posta resultaten