Werden Links von links.html gewertet?

David Reisner

Angesehenes Mitglied
Die ganze Geschichte das Seiten derer Dateinamen links.htm oder link.htm enthalten keinen Pagerank vererben ist ja schon etwas länger, ich weiß nur noch immer nicht genau ob das in der Form stimmt.
Soll heißen ich denke nicht dass Google so blöd ist die Pagerank Vererbung einfach zu speeren nur weil der Dateiname ein "link" oder "links" enthält, weil das haben viele Seiten, vor allem die von kleineren Hobbywebmastern.

Ich denke also das Google so intelligent ist nicht nur auf den Dateinamen zu schauen, da Google als Suchmaschine ja fähig ist auch den Inhalt zu analysieren denke ich wird Google den Seiteninhalt auf viele ahrefs analysieren,zusammen mit dem Dateinamen kann das dann dazu führen dass kein Pagerank mehr von Seiten vererbt wird die Links oder "link" html enthalten.

Als das erste Mal das ganze spekuliert wurde musste dies als Erklärung für den Pagerank Verlust im Netz herhalten, ich denke aber nicht dass einfach der Dateiname schuld ist, ich selbst hatte die Erfahrung das es am dateinamen und an den seiten liegt.


Foren-Threads dazu in anderen SEO Foren gibt es einige, ich hab mich mal umgesehen:
http://board.ranking-konzept.de/ltopic,959,0,asc,0.html
http://www.promotionsite.de/topic,1166,-au...Chtm%21%29.html

http://www.suchmaschinentricks.de/forum/th...light=links.htm
http://www.suchmaschinentricks.de/forum/th...light=links.htm
http://www.suchmaschinentricks.de/forum/th...light=links.htm

http://www.abakus-internet-marketing.de/fo...links+html.html

Na dann,bin ich mal gespannt auf eure Erfahrungen und Meinungen zu dieser Thematik!
 
Nach diesen Threads sollte jedem klar sein, dass es sich bei dieser Thematik um ein Gerücht handelt.

QUOTE ch denke also das Google so intelligent ist nicht nur auf den Dateinamen zu schauen, da Google als Suchmaschine ja fähig ist auch den Inhalt zu analysieren denke ich wird Google den Seiteninhalt auf viele ahrefs analysieren,zusammen mit dem Dateinamen kann das dann dazu führen dass kein Pagerank mehr von Seiten vererbt wird die Links oder "link" html enthalten.

So jetzt ein wenig Mutmassungen meinerseits: Nach der Linktradeaffäre hat Google sehr viele Seiten (temporär) gebanned, die 'in Schemen gelinkt' haben. Daraus ist dieses Gerücht entstanden, da viele Linktradeseiten gebanned wurden. Diese hiessen idR links-1.htm, links-2.htm...
Es zeugt imho von dem vorhandenen Abstraktionsvermögen, diese Entwicklung auf die Dateinamen zu schieben. Warscheinlicher hat Google erkannt, dass diese an den Linktrade partizipierenden Seiten in einem sehr starken Schema verlinkt sind*, weshalb die Seiten gebanned wurden.

(*) n Seiten machen beim Linktrade mit:
1 linkt zu 2, 3, ... , n
2 linkt zu 1, 3, ... , n
...
n linkt zu 1, 2, ... n-1

Daraus kann Google schnell lesen, dass es sich um ein Netzwerk von Seiten handelt. Dies ist 'in Schemen linken'. Dies ist nach Google-Richtlinien nicht erlaubt.

Fazit: meiner Meinung nach ist dieses Gerücht aufgrund falscher Verknüpfungen von Beobachtungen zur erwähnten Affäre entstanden und absolut FALSCH.

PS @CMA, very thanks for this post ;-)
 
Ich denke dir für deine mathematische Erklärung die sogar ich kapieren kann, ich denke auch da es mich erwischt hat vollkommen ohne lintrade und andere, das google da temporär etwas neben der spur war;-)
Also danke das hier das gut geklärt wird
smile.gif
 
QUOTE ich denke auch da es mich erwischt hat vollkommen ohne lintrade und andere, das google da temporär etwas neben der spur war;-)
Ja, auch das kann ich dir erklären, aber ich bin auf dem Sprung, heute später oder sonst morgen, das bin ich dir noch schuldig.
 
QUOTE ich denke auch da es mich erwischt hat vollkommen ohne lintrade und andere, das google da temporär etwas neben der spur war;-)

Ok, das war ein Missverständniss, nach deiner Pm war mir dies klar.
Trotzdem noch kurze Erläuterungen zu obiger Theorie.


QUOTE 1 linkt zu 2, 3, ... , n
2 linkt zu 1, 3, ... , n
...
n linkt zu 1, 2, ... n-1

Logischerweise reicht dies noch nicht aus, um als sinnvolles Modell zu dienen:

n Seiten partizipieren am Linktrade, bzw linken in Schemen:
1 linkt zu 2, 3, ... , n, s11, ..., s1i
2 linkt zu 1, 3, ... , n, s21, ..., s2j
...
n linkt zu 1, 2, ... n-1, sn1, ..., snk

Das heisst seien n Seiten in Schemen linkend, heisst das nicht, dass jede dieser Seiten nur links zu den anderen n-1 Seiten hat, sondern noch i Links auf Seiten die nicht diesem 'Linktrade-Netzwerk' angehören.

Dies macht deutlich, dass es für Google nicht 100%ig möglich ist, jeden 'in-Schemen-Linker' eindeutig zu erkennen.

Das heisst, dass bei Überschreitung gewissen Kennzahlen der Linkverhältnisse, (etc...) die Seite von Google bestraft wird.

Welches die genauen Kennzahlen sind, und wie hoch ihre Werte sein dürfen, sowie ob diese Idee überhaupt Sinn macht, wissen nur die beiden G's.
 
es giebt auch schlaue linktauschprogramme, wo man auswaehlen kann mit wem man verlinken will.
und die generierten seiten sehen immer anders aus, da du 5 verschiedene keywordsaetze eingiebst oder so....

einfach nur ein netzwerk bringt nichts, themenverwante partner sind am besten.
wenige aber pr stark.

habe eine seite testweise mit ueber 100 anderen verlinkt, durch alle themen.
mehr als ein pr 3 kam nicht raus.
 
@Alain Aubert
Ich halte deine Theorie für ein Gerücht... Nach den letzten paar Updates sind bei mir nur Backlinks von Seiten verschwunden, die "links", "topic" oder "forum" im Dateinamen beinhaltet haben, nicht aber 'dumme' Linkstrukturen. Ich habe z.B. eine Domain, auf der ich 30 Subdomains erstellt habe, diese vom Footer aus alle verlinkt und untereinander wiederum alle von jeder Sub verlinkt. Dies wäre die 'dümmste' Struktur überhaupt, doch Google zeigt alle Backlinks brav an und vererbt den PageRank wie immer. Google hat meiner Meinung nach immer noch nicht die Kapazitäten, solch komplexe Prozesse laufen zu lassen, sondern muss sich aus performancetechnischen Gründen immernoch auf banale Algorythmen beschränken. Deswegen ist Hilltop u. ä. noch nicht richtig im Einsatz.
 
@unique, du darfst mich dann beim Vornamen nennen, gell ;-)

QUOTE ach den letzten paar Updates sind bei mir nur Backlinks von Seiten verschwunden, die "links", "topic" oder "forum" im Dateinamen beinhaltet haben, nicht aber 'dumme' Linkstrukturen.
Schon wieder die mir sehr aufstossende Beweismethodik. Ein Beispiel ist kein Beweis.

Es ist doch durchaus - obschon ich nicht daran glaube - logisch, dass Google die Linktrader mit den bannen der Links.html in die Knie zwingen wollte. Wieso tauchen dann aber noch Backlinks wie link.html und /topic/ auf? Siehe anderes Posting.

Btw. Nicht dumme Linkstrukturen. In Schemen Linken.


QUOTE Ich habe z.B. eine Domain, auf der ich 30 Subdomains erstellt habe, diese vom Footer aus alle verlinkt und untereinander wiederum alle von jeder Sub verlinkt. Dies wäre die 'dümmste' Struktur überhaupt, doch Google zeigt alle Backlinks brav an und vererbt den PageRank wie immer.
30 Seiten. lol. Nein in Schemen linken ist vor allem bei Linktradern der Fall. Das was du hier erwähnst ist complete inner Crosslinking. Da war schon vor einem Jahr (@Remo, wann waren wir im Dolder?) vom Chef-SEO eines seeehr grossen Ero-Biz die Obergrenze von 300 Links erwähnt worden. Die Gefahr besteht also bei deinem Beispiel überhaupt nicht.


QUOTE Google hat meiner Meinung nach immer noch nicht die Kapazitäten, solch komplexe Prozesse laufen zu lassen, sondern muss sich aus performancetechnischen Gründen immernoch auf banale Algorythmen beschränken. Deswegen ist Hilltop u. ä. noch nicht richtig im Einsatz.

Nochmal der Verweis auf den Schweden (?), such hier im Board, Google Zahlen oder so, kann mich nicht mehr genau erinnern.

Aber das ein SEO Googles Algorithmen als banal beschränk ist schon etwas hart.... Sie haben die PageRank iteration massiv beschleunigt etc.

Google hat imho die grössten Grid Computing Ressourcen Weltweit. Imho ist da gar nix banal.

Wenn die Algorithmen banal wäre, dann würden wir sie ja alle 100% verstehen.

Danke für deine interessanten Anstösse.
 
Off-Topic:
QUOTE Da war schon vor einem Jahr (@Remo, wann waren wir im Dolder?) vom Chef-SEO eines seeehr grossen Ero-Biz die Obergrenze von 300 Links erwähnt worden. Die Gefahr besteht also bei deinem Beispiel überhaupt nicht.

Das war letzten Juni an der Adult-Webmaster-Akademie in Zürich, als Mirko Baschek diese Thematik anschnitt (und ich denke die Adult-Branche ist SEO-mässig die mitunter am aktivste, weshalb dies sicher keine unbedeutende Quelle ist). Trotzdem ändert sich das Suchmaschinen-Business so schnell (sicher monatlich, wenn nicht wöchentlich oder gar täglich), sodass auch solche Infos schon lange Schnee von gestern sein können (in diesem Fall Schnee von letztem Jahr ;-).

Gruss, Remo
 
QUOTE (Alain Aubert @ Mi 9.6.2004, 13:20) Schon wieder die mir sehr aufstossende Beweismethodik. Ein Beispiel ist kein Beweis.
Was ist für dich ein Beweis?

QUOTE Es ist doch durchaus - obschon ich nicht daran glaube - logisch, dass Google die Linktrader mit den bannen der Links.html in die Knie zwingen wollte. Wieso tauchen dann aber noch Backlinks wie link.html und /topic/ auf? Siehe anderes Posting.
Falls sich die Filter bewähren, denke ich, dass es nicht lange dauert, bis weitere Begriffe auf die Blacklist kommen.


QUOTE 30 Seiten. lol. Nein in Schemen linken ist vor allem bei Linktradern der Fall. Das was du hier erwähnst ist complete inner Crosslinking. Da war schon vor einem Jahr (@Remo, wann waren wir im Dolder?) vom Chef-SEO eines seeehr grossen Ero-Biz die Obergrenze von 300 Links erwähnt worden. Die Gefahr besteht also bei deinem Beispiel überhaupt nicht.
Interessant. Ich werde mich mal darüber informieren.


QUOTE Nochmal der Verweis auf den Schweden (?), such hier im Board, Google Zahlen oder so, kann mich nicht mehr genau erinnern.
Wie schon geschrieben: Google hat riesige Kapazitäten, die allerdings auch gebraucht werden.


QUOTE Aber das ein SEO Googles Algorithmen als banal beschränk ist schon etwas hart.... Sie haben die PageRank iteration massiv beschleunigt etc.
'banal' war vielleicht etwas überspitzt formuliert. Die Kunst einer Suchmaschine besteht darin, mit wenigen Resourcen gute Suchergebnisse zu generieren. Daher wird imho auch z.B. CSS noch nicht ausgewertet, um Spammer aufzuspüren, da es ein sehr aufwendiger Prozess wäre.


QUOTE Wenn die Algorithmen banal wäre, dann würden wir sie ja alle 100% verstehen.
Google wehrt sich dagegen, indem der Algo ständig in Veränderung ist. Man kann ihn nie zu 100% verstehen, aber mit derartigen Beobachtungen kann man versuchen, ihn zu verstehen und das ist ja der Sinn der Suchmaschinenoptimierung...
 
Der sinn des seo ist eigentlich, die seite am ehesten an die erwartungen der sumas auszurichten.. das prob ist man kann nur vermuten was erwartet wird;-)

Wobei ich denke auch Google denkt und surft den SEOs hinterher;-)
 
QUOTE Wobei ich denke auch Google denkt und surft den SEOs hinterher;-)
Google sucht sogar Kontakt mit "SEOs". Warum immer nur gegeneinander kämpfen und nicht zusammenarbeiten? Wenn Google versteht, was die Webmaster wollen und die Webmaster verstehen, was Google will, dann kann man daran arbeiten, sich näher zu kommen.
Alles andere wäre kontraproduktiv.
 
Zurück
Oben