Sitemap

cybermaXX

Angesehenes Mitglied
verstehe den sinn einer sitemap nicht bei einem forum in bezug auf suchmaschinen optimierung. hier sind doch alle themen verlinkt mit text usw bereits im forum. was bringt da noch eine zusätzliche seite? die praktisch ja das gleiche ist?



 
Die Sitemap bündelt alle Links, die von der Suchmaschine verfolgt werden sollen. Die Sitemap wir öfter gespidert und ist statisch.
Was genau verstehst du nicht?
 
Hier muss man unterscheiden zwischen statischen und dynamischen Webseiten.

1. Bei statischen Websites ist eine Sitemap nicht zwingend, aber trotzdem dringend zu empfehlen, da Suchmaschinen dann von einer Seite aus auf alle anderen Seiten gelangen und diese in einem Ruck indexieren können, unabhängig von Linkebenen.

2. Dynamische Seiten werden nur sehr schlecht indexiert (z.B. Foren wie das phpbb). Bei dynamischen Sites muss man darauf achten, dass man die Parameter-Anzahl im URL minimiert und ausserdem keine Session-ID verwendet (Killer-Faktor). Ausserdem werden dynamische Sites, wenn sie überhaupt indexiert werden, nur indexiert, wenn sie mindestens je einen Backlink von einer statischen Seite haben. D.h. eine Sitemap übernimmt gerade diese Funktion: Sie gibt allen Seiten einen Backlink und ausserdem spidern die Suchmaschinen dann gleich alle Seiten, sobald die Sitemap entdeckt wurde. Sitemaps sind ausserdem nicht nur für Suchmaschinen gut, sondern auch für Benutzer.

QUOTE
sollte man ab 100 links eine 2. sitemap anlegen?


Manche Fachleute raten dazu, nur maximal 100 Links pro Seite zu haben. Dies wird aber von keiner Suchmaschine bestätigt. Was jedoch Fakt ist, dass Google z.B. nur Seiten bis maximal 100kb spidert. D.h. ich würde die Sitemap in 100kb-Blöcke splitten.

Gruss, Remo
 
Wieso die Sitemap öfter gespeichert wird? Alle neuen Seiten werden sofort in der Sitemap dargestellt, somit wird die Seite sehr oft aktualisiert, womit wiederum Google öfters vorbeikommt.
 
QUOTE wie wird das automatisch gemacht ?

Per PHP die Datenbank auslesen.


QUOTE per script? wenn ja wo gibts das?

Eigenentwicklung. Sollte ein Programmierer noch vor dem Frühstück machen können (je nach Komplexität natürlich).
 
ja nur bin ich ja kein programierer

und eine normale website ohne forum und so hat ja keine db
dann kannst du das ja auch nicht drauslesen?
 
Das ist richtig, ist die Seite statisch ist es eine logische Folgerung dass die Sitemap auch statisch geschrieben werden muss, oder einfach die Seiten der Site spidert und intelligent genug ist diese richtig einzuordnen.

Sitemap Scripts dieser Art könnte es geben. Such.
 
QUOTE (Remo Uherek @ Do 19.2.2004, 16:32)
QUOTE
sollte man ab 100 links eine 2. sitemap anlegen?



Manche Fachleute raten dazu, nur maximal 100 Links pro Seite zu haben. Dies wird aber von keiner Suchmaschine bestätigt. Was jedoch Fakt ist, dass Google z.B. nur Seiten bis maximal 100kb spidert. D.h. ich würde die Sitemap in 100kb-Blöcke splitten.


Google empfiehlt Sitemaps mit maximal 100 Links:
http://www.google.com/intl/de/webmasters/guidelines.html

(siehe Punkt zwei der "Richtlinien für Gestaltung und Inhalt")


Gruß, Slomo
 
QUOTE (Alain Aubert @ Di 30.11.2004, 14:20)
QUOTE Google empfiehlt Sitemaps mit maximal 100 Links:
http://www.google.com/intl/de/webmasters/guidelines.html

Doesn't matter... ;-)

Wie, glaubste etwa nicht an Google?
wink.gif


Ich würde gerade deren Aussagen ernst nehmen, wenn es darum geht, nachhaltig gut gelistet zu werden.
 
;-) Tu ich schon. Nur relativiere ich idR alle Aussagen.

Unsere Sitemap ist für Robots only. Das ist sicherlich nicht optimal, da eine Sitemap idR für Besucher sein sollte. Unsere Startseite ist demnach aber eine Sitemap für Besucher.

QUOTE Ich würde gerade deren Aussagen ernst nehmen, wenn es darum geht, nachhaltig gut gelistet zu werden.

Ich denke die nachhaltige guten Listings sind offensichtlich vorhanden. Ich nehme deren Aussagen ernst, aber die technische Grenze ist 100 KB und die von Google angesprochene Grenze ist für Menschen gedacht ;-).

Diese Sitemap dient nur dem Zweck jede Seite über 3 Klicks erreichbar zu machen und die durchschnittliche Klicklänge zu minimieren. Ich denke jeder der rechnen kann und viele tausend Seiten in einer Sitemap unterbringen muss wird die logischen Grenzen von 100 Links feststellen.

PS Wenn ich mich recht entsinne sind es 500 Links pro Seite.
 
QUOTE Unsere Sitemap ist für Robots only.

Ist das richtig, dass Google genau solche Seiten nicht so gerne "sieht" oder habe ich da etwas falsch gelesen und verstanden?

(Ohne jemanden zu kritisieren)
 
QUOTE Ist das richtig, dass Google genau solche Seiten nicht so gerne "sieht" oder habe ich da etwas falsch gelesen und verstanden?

Suchmaschinen sind besucherorientiert. Dinge, die nur für Suchmaschinen erstellt wurden, machen aus Besuchersicht keinen Sinn (und somit aus Suchmaschinensicht auch).

Unsere Sitemap ist diesbezüglich tatsächlich veraltet und bedarf einer Generalüberholung.

Ein sehr gutes Beispiel einer Sitemap findet man hier:
http://de.bluewin.ch/kundencenter/sitemap.php

Es macht aus Besuchersicht übrigens auch Sinn, die Sitemap nicht Sitemap, sondern "Inhaltsverzeichnis" zu nennen.

Gruss, Remo
 
QUOTE was bringt da noch eine zusätzliche seite? (sitemap)


Pageranking verteilen (falls du das brauchst)...


QUOTE
We assume page A has pages T1...Tn which point to it (i.e., are citations). The parameter d is a damping factor which can be set between 0 and 1. We usually set d to 0.85. There are more details about d in the next section. Also C(A) is defined as the number of links going out of page A. The PageRank of a page A is given as follows:

PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn))

Note that the PageRanks form a probability distribution over web pages, so the sum of all web pages' PageRanks will be one.



seite1 linkt seite2 linkt seite3

Wenn seite1 PR5 ist endet deine seite3 ungefähr mit PR3 (nur als beispiel ich weiss es hängt von vieles)

mit ein sitemap auf seite1 mit links auf seite3 direkt kannst du die pr besser
verteilen.

Gruss
- Steven
 
Zurück
Oben