Ich habe mal einen Contentmixer benutzt, um Content für web2.0 Plattformen zu erzeugen.
Dieser Test hat 50 Seiten auf 50 verschiedenen Plattformen umfasst.
Mein Plan war es, ein Seitennetzwerk aus web2.0 und free blogs zu erschaffen, zu interlinken, mit weiteren backlinks zu versorgen und damit auf Sattelitesites oder unwichtigere Moneysites zu verlinken.
Damals hab ich meinem VA einfach den Auftrag gegeben, deutsche Artikel zu suchen, sie durch den Contentmixer zu jagen, web2.0/free blogs zu eröffnen und zu posten. Das ganze erstmal ohne ausgehende Links, damit es nicht zu spammy wirkt.
Leider kam ich nicht dazu die Effizienz zu testen, weil nur 6 von den 50 Seiten geindexed wurden. Alle verfügten über Social bookmarking und andere Billiglinks, die in der Regel reichen, mindestens 80% zu indexen.
Ich hab mich sehr stark gefragt, warum das so sei und habe auch heute noch nicht wirklich ne Ahnung.
Ne kleine unbestätigte These.
Ich kann mir vorstellen, dass Google sehr genau Wortfelder checken kann und in welcher Nische der eine Absatz gehört und der andere nicht mehr.
Oder Ausdrucksweisen, akademischere Seiten, Marketingfloskeln etc.
Ich tippe mal, die meisten halten mich jetzt für sehr paranoid, aber ich wette dass deine Indexingrate weitaus schlechter ist als üblicherweise mit Contentgeneratoren und das ist für mich Grund genug, es zu sein lassen. Gerne lasse ich mich vom Gegenteil überzeugen - wäre mal sehr interessant ne Ayom-Community Case-study zu führen