Zukunft des Whitehat?

Rabbit

Aktives Mitglied
Hallo!

Es ist nicht das erste mal, das ich versuche zu diesem Thema eine Diskussion ins Rollen zu bringen.
Aber vielleicht habe ich hier ja mehr Glück.

Wie wir wissen, kann google Webseiten klassifizieren, und somit auch statistisch errechnen, wie ein normaler Backlinkaufbau für Webseite x (Nehmen wir als Beispiel mal einen Blog) in der Regel aus zu sehen hat. Aufgegriffen hat dieses Thema auch Dominik in seinem Artikel Link-Klassifizierung & der modulare Google Algo.

Was haltet ihr davon?

Liegt die Zukunft des Whitehat in der Recherche+Reproduktion solcher Backlinkmuster?
 
Die Frage ist ob sich sowas realitätsnah recherchieren und simulieren lässt?

Halte ich für nahezu unmöglich: Man nehme zwei Blogs zu einem Thema wie Fußball. Beide veröffentlichen in etwa die gleiche Anzahl an Beiträgen zu vergleichbaren Themen. Aber einer wird sofort erfolgreich und viel verlinkt und der andere nicht. Und das kann doch wiederum zahlreiche Ursachen haben.
 
QUOTE (Rabbit @ Do 3.02.2011, 13:16) Liegt die Zukunft des Whitehat in der Recherche+Reproduktion solcher Backlinkmuster?

Viel zu mühseelig und etwas genau nachmachen ist das nicht auch schon wieder Schwarz-Hut-SEO? Was ist, wenn der Faktor Zufall eine Rolle spielt. Also Google rechnet aus, dass du mit Suchwort "XYZ" zwischen Platz 20 und 30 müsstet. Dann geht der Zufallsgenerator los und knallt dich auf Platz 23 oder sonst wo hin.
 
@BigFab:
Es geht nicht um die Masse an Links, sondern um Link-Klassifizierung.
Schau dir mal die Grafischen Darstellungen im verlinkten Artikel an. Die erklären das recht gut.


@Rainer: Google verwendet keinen "Zufallsgenerator" ...
Mit Black-Hat hat das an sich auch nichts zu tun.
Bei anderen ab zu kupfern gehört seit je her zum Geschäft.
Das betrifft sowohl Content als auch Backlink-Aufbau.

Realistisch umsetzen ließe sich das ganze an sich schon.
Was man bräuchte wäre ein Backlink-Checker in Verbindung mit einem Algo welcher Webseiten klassifizieren kann.
Daraus ließen sich dann für einzelne Seiten, oder auch ein ganzes Spektrum an Seiten Statistiken anfertigen, wie es um die Link-Klassifizierung steht. Prüft man 100 Seiten eines Typus, lassen sich sogar verallgemeinerte Statistiken anfertigen.

Beispiel:
Der natürliche Link-Aufbau eines Blogs hat
7% Social Links
5% E Commerce
8% News
1% Universitäten
16% Webseiten
55% Blogs
8% Foren

Ich könnte mir Vorstellen, das BigG jetzt, oder in Zukunft ein ähnliches System verwendet, um die "Echtheit" der Beliebtheit einer Seite besser einstufen zu können. Wobei google vermutlich auch Link-Positionen mit einbeziehen würde. (Footerlinks etc.)

Ein realitätsnaher Gebrauch könnte so aussehen:

4-10% Social Links
2-8% E Commerce
5-11% News
0,7-4% Universitäten
13-19% Webseiten
52-58% Blogs
5-11% Foren

Wobei google da wohl mehr Toleranz hätte als Schwankungen von ein paar Prozent.
Sieht die Link-Klassifizierung eines Blog jetzt aus wie folgt:

32% Social Links
0% E-Commerce
4% News
2% Universitäten
8% Webseiten
23% Blogs
31% Foren

Wäre relativ offensichtlich, das hier beim Linkaufbau viel gemogelt wurde (und das in nicht sonderlich guter Qualität).
Eine solche Seite wäre beispielsweise ein Kandidat für einen Filter, Penalty oder die SERPs zu den Main Keys werden einfach versteinert, bis sich das Verhältnis wieder normalisiert.

Man könnte den Gedanken jetzt auch noch weiter spinnen, und behaupten das google nicht den herkömmlich bekannten Trust-Algo verwendet, sondern ein angepasstes Modell mit dem es auch neuen Seiten die ohne zu künstlichen Backlinkaufbau arbeiten (am besten natürlich gewachsen), einen gewissen Trust generieren.

Das Prinzip würde ich jedenfalls wesentlich gebräuchlicher erachten, als dass das google 200 Trustet Domains "erwählt" hat, und diese über ausgehende Links ihren Trust in einem Pyramidensystem vererben. (Finde das klingt einfach nur schwachsinnig, soll aber bekanntlich so sein).

Manuell glaube ich aber ehrlich gesagt auch nicht, das es sich lohnen würde.
Aber mit der entsprechenden Software im rücken, vielleicht doch?
Was meint ihr?

Bin ich zu weit weg vom Schuss, oder könnte da was dran sein?
 
Das ist aber natürlich alles nur Theorie. Niemand weiss wie das alles funktioniert, wie man so etwas technisch hinkriegt und wie Google die Klassifizierung der Websites organisiert. Dies wird ja von den klugsten Köpfen gemacht und Ich denke dass alles viel komplizierter ist als man sich das als Laie so vorstellt. Und dazu kommt noch dass alles bezahlbar bleiben muss. Technisch ist viel möglich, aber wenn man alles machen will was kann, kostet Dies vielleicht viel zu viel.
 
Entschuldigung.
Hatte gerade einen Denkaussetzer.
Ich bin wohl irgendwie auf "Laie" hängen geblieben
dry.gif


Zum Thema:
Google nimmt nicht alles mit was möglich ist, das ist richtig.
Der CSS-Stylesheet wird im Algo ja auch nicht berücksichtigt.

Klassifizierung und Prozentrechnung hat google aber drauf...
Siehe Google News, oder Taschenrechner
wink.gif


Ob das alles stimmt, sei dahin gestellt.
Ich wüsste auch auf anhieb keinen Test mit dem man das prüfen könnte. Oder?
 
Ich weiss nicht, ob du zu weit weg bist vom Schuss. An dem Artikel mag was dran sein. Klar ist es verdächtig, wenn ein Shop zum Beispiel 60 % Backlinks von Uniseiten hat. Aber ich glaube einfach, dass zu viele falsche Backlinks einfach nicht mehr gezählt werden, weil sonst könnte ich auch die Konkurrenz abschiessen. Ob 50 % Backlinks aus Blogs für Blogs nicht genauso verdächtig ist, dass sei mal dahingestellt. Kommt drauf an, ob es Links aus dem Text sind oder der übliche Trackback- und Kommentar-Spam. Man muss halt schauen, dass man vernünftige Links hat. Da ist auch ein PR4 Link von einer Handyseite für eine Tierseite neben der Spur.

"Das Prinzip würde ich jedenfalls wesentlich gebräuchlicher erachten, als dass das google 200 Trustet Domains "erwählt" hat, und diese über ausgehende Links ihren Trust in einem Pyramidensystem vererben. (Finde das klingt einfach nur schwachsinnig, soll aber bekanntlich so sein)."

Und wer sind diese Trusted Domains ... Ist jetzt zum Beispiel Jamba für Klingeltöne eine Trust-Domain. Und wenn ich von dort einen Link bekomme, dann wird in meinem Ranking der Turbo gezündet? Und wenn ich erst in der 5. Stufe einen Link bekomme dann halt weniger. Ich weiss nicht. Vielleicht wird ein einzelner Link von so einer Domain sowieso nichts bringen, weil der Link könnte auch gekauft sein.

QUOTE Der CSS-Stylesheet wird im Algo ja auch nicht berücksichtigt.


Was ist mit weisser Schrift auf weissen Hintergrund oder hellgelb auf dunkelgeb?
Oder wenn man einen Div Container außerhalb des sichtbaren Bildschirmes hat?
Oder man überdeckt Spamtext mit einem Bild?
 
Der Grundgedanke ist sinnvoll und m.E. richtig, aber der Denkfehler ist die Datenbasis. Wenn Du das Geld in Linkaufbau, welchen sich nur an dem Nutzen des Benutzers orientiert, investierst, wirst Du immer mehr erreichen als wenn Du ein Datencenter aufbauen musst, welches Dir die Daten liefert, welche notwendig wären um das statistisch signifikant zu realisieren. Wir sind also gleich weit wie 2004. Denke an den Benutzer.

Was ich damit sagen will. Die Grundidee ist richtig, aber jeder kann sich an die Gausskurve erinnern. Es ist nicht ein statische Prozentverteilung, sondern eine sich ständig verändernde Kurve. D.h. in Schema: Alles was innerhalb von 2 Standardabweichungen in der Normalität ist (Normal=so wie alle) ist kein Spam in terms of Abweichung von der Normalität.

Ich versuchs am Beispiel:

QUOTE 32% Social Links
0% E-Commerce
4% News
2% Universitäten
8% Webseiten
23% Blogs
31% Foren

Wäre relativ offensichtlich, das hier beim Linkaufbau viel gemogelt wurde

Auf keinen Fall ist das eine zu grosse Abweichung, denn es kann sich hierbei um eine sehr kontroverse Seite, weshalb der grosse Anteil von Links aus SM, Blogs und Foren absolut normal ist. Lediglich, wenn 99:1 tatsächlich messbar ist, wäre mit diesen Verfahren eine statistische Abweichung und somit eine Klassifizierung als Spam sinnvoll. Die Annahme, dass es sich bei der legitimen Linkverteilung um eine Gausskurve handelt, welche als solche erkennbar wäre, ignoriert m.E. die Diversität, die im Web existiert. Dieses "Verfahren" geht von der Annahme aus, dass Linkwachstum vorausgesagt werden kann. Das ist nicht so.

M.E. sind topologische Verfahren für diese Aufgabenstellung deutlich sinnvoller. Ausserdem halte ich Userverhalten für eine SE als deutlich nützlicher.

Fazit: Die Zukunft liegt m.E. nicht in Recherche+Reproduktion von diesen Linkmustern, weil es - unabhängig von unseren inferioren Datenbasen - nichts bringt, was der gesunde Menschenverstand nicht aus dem Ärmel schütteln kann.

PS: Was genau hältst Du an dem Trust Rank Konzept für schwachlos?
 
"Hatte gerade einen Denkaussetzer.
Ich bin wohl irgendwie auf "Laie" hängen geblieben"

Ich weiss nicht genau was Du damit meinst, aber was Ich damit meine ist: Die ganze Theorie basiert auf Dingen Die scheinbar einen Sinn ergeben. Aber um etwas Das einen Sinn ergibt mit irgendwelchen Algorithmen in die Tat umzusetzen, in einem Internet wo täglich neue Websites und Seiten dazu kommen, Links gemacht werden usw. ist ja wahrscheinlich nicht so einfach. Und Ich denke mal dass Wir diesbezüglich alle Laien sind.
 
@Rainer
Der CSS-Stylesheet wird nicht ausgewertet. Nur die HTML.
Wie genau google manche Dinge rausfindet, kann ich dir auch nicht beantworten, aber in Punkto Manipulation via CSS ist google auch stark auf Meldungen von Nutzern angewiesen.

Spätestens wenn man mit einer solchen Seite an einem Konkurrenten unter den top 20-30 vorbei zieht, wird gerne mal schnell auf den Hot-Button gedrückt. (Das nicht mal immer berechtigt)

QUOTE Der Grundgedanke ist sinnvoll und m.E. richtig, aber der Denkfehler ist die Datenbasis. Wenn Du das Geld in Linkaufbau, welchen sich nur an dem Nutzen des Benutzers orientiert, investierst, wirst Du immer mehr erreichen als wenn Du ein Datencenter aufbauen musst, welches Dir die Daten liefert, welche notwendig wären um das statistisch signifikant zu realisieren. Wir sind also gleich weit wie 2004. Denke an den Benutzer.


Stimmt. Da hast du völlig Recht, für den Heimwerker SEO (oder auch große Agenturen) wäre das alles zu hoch gegriffen.


QUOTE Auf keinen Fall ist das eine zu grosse Abweichung, denn es kann sich hierbei um eine sehr kontroverse Seite, weshalb der grosse Anteil von Links aus SM, Blogs und Foren absolut normal ist.


Hmm gut da hast du Recht.
Verallgemeinern geht wirklich nicht.
Ich habe mir das mal anhand zweier Blogs überlegt die auf das gleiche Keyword (also unmittelbare Konkurrenten) optimiert sind. Hab auch versucht das ganze irgendwie mit google Trends, und anderen Faktoren wie Alter, Trust und bisherige auffälligkeiten (Filter, Penaltys etc) zu vermitteln, aber da komme ich auch nicht weiter bzw. Status quo.


QUOTE Fazit: Die Zukunft liegt m.E. nicht in Recherche+Reproduktion von diesen Linkmustern, weil es - unabhängig von unseren inferioren Datenbasen - nichts bringt, was der gesunde Menschenverstand nicht aus dem Ärmel schütteln kann.


Mit ein Grund warum ich so an dieser Theorie hänge.
In Sachen Linkaufbau mangelt es den meisten eben genau daran. Daher wäre es natürlich schön wenn man allgemein gültige Werte und Richtlinien für "erfolgreichen" und beständigen Linkaufbau aufstellen könnte. Aber das ist wohl nichts.


QUOTE PS: Was genau hältst Du an dem Trust Rank Konzept für schwachlos?

Weil ich das Prinzip genau so verstehe wie Rainer es beschrieben hat.
Obwohl "Jamba" nicht gerade eine Anlaufstelle für hohen Trust sein sollte, gefällt mir der grundlegende Aufbau einfach nicht. In meinem "Trust-Bild" bzw. imanigastion sehe ich da Könige, Ritter und Bauern, und ob die Bauern jetzt bessere Arbeit leisten oder nicht, ist völlig nebensächlich, denn es sind ja nur Bauern.
Beispiel: Blog von Matt Cutts - Blog von Stern.de - Blog von Marksman Markwartsen.

Obwohl Marksman Markwartsen alle Inhalte von Matt Cutts auf seinem Blog fehlerfrei ins hochdeutsche übersetzt, und somit für deutschsprachige Nutzer sogar noch einen höheren Mehrwert hat als der Blog von Matt Cutts (mal abgesehen von der Aktualität), wird es doch nie den gleichen Trust erhalten wie der Blog von Stern.de

So zumindest mein persönliches Denken. Lasse mich aber auch gerne eines besseren belehren.

@Kamran
Das ist nicht schwierig zu verstehen, da geht es einfach nur um Umgangston und Wortwahl.
Tausche "Laie" mit "normaler Nutzer" und du hast das gleiche geäußert, nur ohne beleidigend zu klingen.
Andere (direkt oder suggeriert) pauschal als Laie zu definieren ist für mich eine Form der Beleidigung.
Mir war aber schon klar das du es wahrscheinlich nur unbedacht geäußert hast. (Zwischen schwarz und weiß gibt es schließlich noch unzählige Grautone.)

Sonst hätte ich auch anders reagiert.
Alles guddi
tongue.gif
 
Das Problem ist doch immer: Was kann google im Falle eines unnatürlichen Linkaufbau´s machen? Der Webmaster hat keine Kontrolle über sein Linkbuilding, also kann keine Abstrafung erfolgen.

Und jemand, der blackhattools benutzt, kann auch noch viel besser dosieren, woher er welche Links bekommt und damit häufig viel besser Natürlichkeit kontrollieren, wie jemand, der nur seine Articlesubmissions und Co als Methode anwendet.

=> Das einzige, was google machen kann: Ignorieren verschiedener Backlinks!, Erkennung von gespinntem Content verbessern, Erkennung von Grammatikfehlern im Text, menschliche Arbeitskraft zur Erkennung von Qualität einsetzen. Vielleicht irgendwann in der Zukunft mal Userbewertungen einführen, aber das liegt wohl in weiter Ferne.

Prozente im Linkaufbau zu berechnen und Natürlichkeitsformeln zu erstellen, sind aber leider vollkommen nutzlos...
 
@Skipio
Du hast Tracking und Stoned SERPs vergessen.
Ich denke mal was Tracking angeht ist google schon ziemlich weit.
Jedenfalls weiter als man annehmen mag.

Stimme dir aber soweit zu.
 
Da hast Du recht. Dass Ich Jemanden damit beleidigen würde kam mir nicht in den Sinn. Was mich selbst angeht sehe Ich mich als Laie auf diesem Gebiet. Oder Ich würde mich bei Google für eine Stelle mit einem Jahreinkommen von über 1 Million bewerben. Ich glaube doch das Google´s Denktanks etwas mehr Tiefgang als dieser Blogpost haben. Allein schon darum weil Sie sowieo nicht erzählen was Sie genau machen.

Ob die ganze Theorie einen Sinn ergibt ist auch noch die Frage. Damit will man ein krummes Stück Holz gerade machen. Menschen sind Gewohnheitstiere und Manche besuchen z.B. fast immer nur Blogs und haben dann auch fast nur Bloglinks.

Google´s Zukunftspläne könnten auch ganz anders aussehen. Dass Seiten für einen zunehmenden Teil nach anderen Qualitätskriterien beurteilt werden. Nicht nur danach wie geschickt oder erfolgreich Jemand im Linkaufbau ist oder welche Linkaufbau Software Er benutzt. Hat Matt Cutts nicht einmal gesagt dass SEOs eigentlich Kriminelle sind?
 
QUOTE (Rabbit @ Fr 4.02.2011, 06:50) @Skipio
Du hast Tracking und Stoned SERPs vergessen.
Ich denke mal was Tracking angeht ist google schon ziemlich weit.
Jedenfalls weiter als man annehmen mag.

Stimme dir aber soweit zu.

Was sind den Stoned SERPs?
blink.gif

 
QUOTE (Scipio @ Fr 4.02.2011, 20:32)
QUOTE (Rabbit @ Fr 4.02.2011, 06:50) @Skipio
Du hast Tracking und Stoned SERPs vergessen.
Ich denke mal was Tracking angeht ist google schon ziemlich weit.
Jedenfalls weiter als man annehmen mag.

Stimme dir aber soweit zu.

Was sind den Stoned SERPs?
blink.gif


Zum Glück gibt es noch jemanden der das nicht weiss. Vermutlich SERPs, die fest sind wie ein Stein.
 
QUOTE (Rabbit @ Fr 4.02.2011, 02:05) @Rainer
Der CSS-Stylesheet wird nicht ausgewertet. Nur die HTML.
Wie genau google manche Dinge rausfindet, kann ich dir auch nicht beantworten, aber in Punkto Manipulation via CSS ist google auch stark auf Meldungen von Nutzern angewiesen.Die CSS

Manipulation bzw. Mißbrauch über css wird (auch) automatisch ausgewertet. Bau mal in eine gut gespiderte Seite einen versteckten Link ein. Du wirst überrascht sein wie schnell du einen Dämpfer von Google bekommst.
 
QUOTE (hk @ Sa 5.02.2011, 13:02)
QUOTE (Rabbit @ Fr 4.02.2011, 02:05) @Rainer
Der CSS-Stylesheet wird nicht ausgewertet. Nur die HTML.
Wie genau google manche Dinge rausfindet, kann ich dir auch nicht beantworten, aber in Punkto Manipulation via CSS ist google auch stark auf Meldungen von Nutzern angewiesen.Die CSS

Manipulation bzw. Mißbrauch über css wird (auch) automatisch ausgewertet. Bau mal in eine gut gespiderte Seite einen versteckten Link ein. Du wirst überrascht sein wie schnell du einen Dämpfer von Google bekommst.

Nun, ich bin mir nicht 100%ig sicher ob google den CSS-Stylesheet auswertet.
In einer anderen Diskussion sind wir darauf gekommen das der anfallende Traffic viel zu enorm wäre, als das es sich lohnen würde.

Wenn Analytics installiert sind, kann google vorhandene Links übrigens auch tracken.
Spider G jetzt einen Text in dem ein Link vorhanden ist, welcher nach Auswertung aber innerhalb von x Wochen nicht 1 mal angeklickt wurde, erübrigen sich wohl die Frage ob der Link gut sichtbar ist, meinst du nicht?

@Skipio:
Stoned Serps oder versteinerte SERPs ist an sich kein offizieller Fachausdruck, aber viele haben damit zu kämpfen ja.
Versteinerte Serps sind eben Ergebnisse in der Suma, bei denen es egal ist wie viele Links man hinzu gibt, oder welche Änderungen man macht. Über monate (und Jahre?) hinweg tut sich dort einfach nichts bzw. Platz 8 bleibt immer auf Platz 8, und alle anderen bewegen sich hin und her.

Unter den 30+ ist das schon seltener, da ist meist immer mehr Bewegung.
 
QUOTE Wenn Analytics installiert sind, kann google vorhandene Links übrigens auch tracken.

Um mit Analytics externe Link zu tracken musst du dem entsprechenden Link erstmal mit einem javascript code erweitern um diese als pseudo interne Seiten zu tracken. Ist auf der Zielseite GA eingebunden, erhält google natürlich auch Referrer Daten (oder über Toolbar, Chrome, Adsense,..), das ist richtig.

QUOTE
Spider G jetzt einen Text in dem ein Link vorhanden ist, welcher nach Auswertung aber innerhalb von x Wochen nicht 1 mal angeklickt wurde, erübrigen sich wohl die Frage ob der Link gut sichtbar ist, meinst du nicht?

Dann hätten aber einige Seiten ne Penalty
wink.gif



QUOTE Nun, ich bin mir nicht 100%ig sicher ob google den CSS-Stylesheet auswertet.

Ich hab mir mal unbeabsichtigt einen hidden Link erzeugt. Ein Theme von dunklem Hintergrund auf weiß geändert. Woran ich nicht gedacht hatte, dass das Theme im Footer einen weißen Credit Link (auf den ehemals dunklen hintergrund) hatte. Gemerkt hab ich es als keine zwei Tage später der Google Traffic weg war..
 
Zurück
Oben