Spider-Besuch erkennen

J

JabbaChris

Guest
Hallo Leute,


ist es möglich, zu erkennen, wann ein Besuch von einem Spider stattfindet? Bzw. besser gesagt, kann man einen Spider-Besuch trennen vom Besuch eines normalen Users, so dass es möglich ist, den Spider zu einem speziellen Link umzuleiten (z.B. zu einem bestimmten Frame)? Wenn ja, wie würde das gehen?


Gruss,
Christopher
 
Gleich vorweg: es geht natürlich, aber sowas nennt sich cloaking und ist absolut unerwünscht... wenn du also langfristig im Index bleiben willst --> lass es sein!

geregelt wird das ganze indem du dem UserAgent von SuMas in der .htaccess eine andere url zuweist...

...aber bitte lass es einfach bleiben, bringt nur Kummer!
 
Ok, danke. Wollte ich nur mal theoretisch wissen. Ich gehe an das Thema relativ naiv ran...
 
QUOTE (JabbaChris @ Fr 5.11.2004, 11:54) Ich gehe an das Thema relativ naiv ran...
Diese Einstellung ist im Grunde gar nicht so schlecht... versuch einfach wie ein User deiner Seite zu denken und liefer das, was dieser User haben will ... sprich guter Content!

Wenn du dies vernünftig machst und dafür sorgst dass du viele (am besten natürliche) Links auf deine Seite erhälst, brauchst du solche Methoden gar nicht ... einfach immer am Ball bleiben
wink.gif
 
Andere Inhalte an Bots zu liefern ist natürlich sehr unklug.

Aber es gibt Situationen, wo eine Erkennung weiterhelfen kann.
Da ich in einen Shop die Session-ID aus der URL nicht in ein Cookie verfrachten wollte, habe ich eine Erkennung eingebaut und liefere an Bots keine Session-ID in der URL mit.
Da Bots normalerweise ncihts einkaufen, gibt das keine Probleme. Nun wird mein Shop vollständig geparst.

Ich weiß nicht, was andere davon halten, aber das wäre für mich eine "legale" Cloaking-Abwandlung.

Gruß,
Ansgar
 
Hi Ansgar,

klar, das ist eine absolut legitime Abwandlung, wobei das ja so auch nicht unter cloaking fällt. Das gleicht im Grunde der Methode, Foren durch mod-rewrite SuMa-freundlicher zu machen.

Das "böse" Cloaking bringt Bots meistens auf eine (Start-) Seite mit vollkommen anderen Inhalten. Dadurch wird dann zusätzlicher Content "vorgegaukelt" als der eigentliche User dann vorfindet. Dies ist dann im Grunde Betrug und auch genau dieses wird dann auch von den SuMas abgestraft.

schöne Grüße
Jan
 
Hallo Jan!

QUOTE klar, das ist eine absolut legitime Abwandlung, wobei das ja so auch nicht unter cloaking fällt. Das gleicht im Grunde der Methode, Foren durch mod-rewrite SuMa-freundlicher zu machen.

Das gleiche ist es nicht.
Bei normalen Mod-Rewrite-Änderungen bekommen Benutzer und Bot ja das gleiche zu sehen.

Man muss es immer abwägen.

Allerdings ist das böse Cloaking ja schon absolut hirnrissig, wenn man bedenkt, dass man die Zeit die man für das Produzieren von speziellen Suchmaschinen-Inhalten braucht, genauso gut in gute Inhalte für den Benutzer investieren könnte.

Gruß,
Ansgar
 
Cloaking wurde schon eingehend und gut besprochen.

Wer jetzt trotzdem denkt cloaking würde ihm Vorteile bringen, sollte daran denken, dass Google auch inkognito kommt. Spätestens dann ist glücklicherweise Feierabend.

Der gefällt mir besonders:
QUOTE Allerdings ist das böse Cloaking ja schon absolut hirnrissig, wenn man bedenkt, dass man die Zeit die man für das Produzieren von speziellen Suchmaschinen-Inhalten braucht, genauso gut in gute Inhalte für den Benutzer investieren könnte.
;-)
 
QUOTE (Ansgar Berhorn @ Fr 5.11.2004, 16:33) Allerdings ist das böse Cloaking ja schon absolut hirnrissig, wenn man bedenkt, dass man die Zeit die man für das Produzieren von speziellen Suchmaschinen-Inhalten braucht, genauso gut in gute Inhalte für den Benutzer investieren könnte.

Hehe, ja, das ist auf jeden Fall gut
biggrin.gif
 
Feiner Thread, gut um meine momentan sehr mies Stimmung zu heben.
Ich denke auch, dass die ganze Cloaking, h1tags, metatags usw. im Grundsatz alles nur "Gepfusche" ist ;-)
Eine Seite, die für besucher optimal ist, mit lynx benützbar und inhalte zeigt, und natürliche struktur aufweist, kann nicht mehr allzu vieles verhauen ;-)
 
Zurück
Oben