Suche Sidemap Generator mit FTP Funktion

MaWi

Fleißiger Fan
Hallo alle zusammen,

vor vielen Jahren benutzte ich ein Tool, mit dem konnte ich von mehreren Domains individuell ein SiteMap erstellen und die direkt via FTP auf den Webserver publizieren.Leider funktioniert das Tool unter den aktuellen Betriebssystemen nicht mehr.

Kennt jemand ein Tool in welchem ich:

- für mehrere Domains Sitemaps erstellen kann
- die erstellten Sitemaps per FTP automatisch auf den Domain publizieren kann

Für Antworten würde ich mich freuen.

Viele Grüsse
Markus

 
- für mehrere Domains Sitemaps erstellen kann
- die erstellten Sitemaps per FTP automatisch auf den Domain publizieren kann
Ich nutze wenig Tools von daher erzähle ich dir mal wie wir es machen:

Mit xml-sitemaps.com lasse ich die Sitemap machen und mit Filezilla lade ich sie nach der Revision hoch.

Nicht alles was man in den Sitemaps hat möchte man veröffentlicht haben.

 
Hallo Arnego,

Vielen lieben Dank für Deine geschätzte Antwort. Habe mir  xml-sitemaps.com angeschaut und finde es ein cooles Tool. 

xml-sitemaps.com ist für kleine Webseite bis 500 Seiten ein gutes Tool. Leider haben die Seiten welche ich mache, mehr als 500 Seiten. Und ich würde das erzeugte XML gerne direkt, ohne Zwischenschritt, automatisch und nicht manuell, per FTP publizieren. Denn die Seiten welche ich nicht will, die sind auch nicht zugänglich.

Aber dennoch denke ich, dass  xml-sitemaps.com in der Free und Online Version für viele kleinere Webseiten von grossem Interesse sein kann.

Anders sieht es bei der Pro Version von  xml-sitemaps.com aus. Für $3.49 pro Monat können weit über 1'000 Erfasst werden. Das Sitemap kann auf dem Server von  xml-sitemaps.com  gehostet und automatisch aktualisiert werden. Es informiert automatisch Suchmaschinen und findet Broken Links. Das finde ich eigentlich sehr gut für einen Singele-Domain.

Nur leider habe ich rund 30 verschiedene Domains... ich müsste also 30 Lizenzen kaufen und verwalten...

Wer also andere Tools kennt, danke für Hinweise.

Viele Grüsse
Markus

 
Nur leider habe ich rund 30 verschiedene Domains... ich müsste also 30 Lizenzen kaufen und verwalten...
Jupp je größer und je mehr wollen mitverdienen. xmlsitemapgenerator.org hat einen der bis zu 2k an Seiten listet und bietet auch Plugins ist aber komplexer zu bedienen. 

Bei dynomapper.com/blog/16-sitemap-generator/164-top-50-sitemap-generators-for-creating-sitemaps findest du ca 50 dieser tools. 

 
Guten Abend, vielen lieben Dank für die beiden Links. Habe mir die angeschaut. 

xmlsitemapgenerator.org  ist ein schönes Tool. Jedoch ist es, wenn ich es richtig verstanden habe, "nur" für einen Domain. Man kann wohl mehrere Konfigurationen abspeichern, aber das bedeutet dann auch, dass ich immer wenn ich einen anderen Domain generieren will, ich ein anderes Config laden muss. Mir schwebt etwas vor in dem ich alle meine Domains festlegen kann...

dynomapper.com/blog/16-sitemap-generator/164-top-50-sitemap-generators-for-creating-sitemaps  hat wirklich viele Tools. Aber sehr viele veraltete. Zum Beispiel der gSiteCrawler der genau das machen würde, was ich wollte, aber nicht unter Windows 10 läuft.

Eigentlich suche ich jemand, der so einen SiteMap Crawler selbst einsetzt und sagen kann: Ja, das von mir verwendete Produkt prüft mehrere Domains und schreibt die XML Datei per FTP auf den Server...

Denn eigentlich möchte ich nicht 50 Tools ausprobieren und feststellen, es läuft nicht mit Windows 10 wie eben gSiteCrawler.

Dennoch sehr vielen lieben Dank für Deine Links.

Beste Grüsse
Markus

 
Eigentlich suche ich jemand, der so einen SiteMap Crawler selbst einsetzt und sagen kann: Ja, das von mir verwendete Produkt prüft mehrere Domains und schreibt die XML Datei per FTP auf den Server...
Das Risiko wäre mir zu groß als das ich es einem Tool überlasse. Stell dir vor dein Tool schreib 10% mehr an Seiten in die Sitemap ein die Thematisch in eine andere Richtung gehen. Damit würde dein Ranking eventuell einbrechen und du wüsstest nicht einmal warum.

Yoast hatte vor kurzem ein Update das Hunderte von contentfreiem Material in Webseiten mit verindext hatte. 

 
Hallo Arnego,

Das verstehe ich nicht. Wie soll ein Tool, das ein Sitemap herstellt, mehr in die Sitemap schreiben können? Die Sitemap wird doch aufgrund der Verlinkung innerhalb meines Domains erstellt, oder sehe ich das falsch?

Und wie kann Yoast contentfreies Material verindexen? Was heisst das überhaupt, verindexen? Was muss ich mir darunter vorstellen?

Sorry, meine "dummen" Fragen... aber vielen lieben Dank für Antworten welche mich schlauer machen.

Viele Grüsse
Markus

 
Das verstehe ich nicht. Wie soll ein Tool, das ein Sitemap herstellt, mehr in die Sitemap schreiben können? Die Sitemap wird doch aufgrund der Verlinkung innerhalb meines Domains erstellt, oder sehe ich das falsch?
Kommt darauf an was du für eine Seite hast. 

Ich habe Seiten bei denen die Admin Login Seiten nicht indexiert sind damit nicht ein Strolch darauf kommen sollte daran rum zuspielen. Dann hatte ich auch die leidliche Erfahrung gemacht das bei einem Expired Domain Sachen wie home/index.php/?=ID etc. vorkamen die in dem HTML Site gar nicht existierten. Damit ich sie nicht dauernd durch das remove url tool wieder aus dem Index zu holen entferne ich lieber die URLs aus dem Sitemap. 

Dumme Fragen gibt es nicht da kann ich dich beruhigen ;)  

 
Guten Morgen Arnego,

>  Ich habe Seiten bei denen die Admin Login Seiten nicht indexiert sind

Das darf doch kein Problem sein, dafür gibt es doch No Folow und No index.

>  das bei einem Expired Domain Sachen wie home/index.php/?=ID etc. vorkamen die in dem HTML Site gar nicht existierten.

Wenn ein Domain abgelaufen ist, dann sollen doch auch keine Seiten mehr existieren... was verstehe ich hier falsch?
Wie soll ein SiteMap von einem abgelaufenen Domain erstellt werden? Den abgelaufenen Domain gibt es ja nicht mehr. 

Nochmals zurück zur ursprünglichen Frage:
Gesucht wird ein Tool, das von mehreren Domain, z.B. https://Granit.NaturalStone.ch und http://Kastanienholz.ch und http://Tessinergarten.ch je ein Sitemap erstellt und dieses per FTP auf den entsprechenden Domain hoch lädt.

 
Das darf doch kein Problem sein, dafür gibt es doch No Folow und No index.
Das hält aber Google und andere Suchmaschinen nicht vom Indexen ab. 

Google selbst sagt das u.U. eine Seite die unter nofollow und noindex steht doch im Index landet da sie von anderen Seiten (Bots) gespidert wurde. Nofollow und Noindex sind auch zusätzlich im header der entsprechenden Seite.  Das Problem ist nun einmal so das Seiten die im Index stehen Jahre brauchen können. Ich habe zum Beispiel noch Seiten im Index wie ranking.xxxxx.com die nicht geindext werden sollten und trotzdem im Index stehen und um sie rauszunehmen müßte ich sie neu machen, neu bei Google anmelden und einen Monat warten um sie wieder aus dem Index zu ziehen. 

Google ist schon seit längerem nicht mehr zu trauen, GSC und SERP zeigen große Lücken. Beim Indexen, nicht Indexen, aus dem Cache zu nehmen, was Canonical ist etc. Einer meiner Seiten ist 38 Unterseiten stark, 33 sind im Index, und laut GSC sind 7 im Index und weitere 40 sind nicht geindexed. Seiten wie Index und Kontakt wären canonical und weiteren Blödsinn. Nachrichten die die GSC verschickt solltem man vergessen so sagen es die Propheten von Google im Productforum. 

Besser ist es IMHO Google nicht so weit zu trauen. Vieles was als Google Maxime rauskam ist in meinen Augen Desinformation.  

https://moz.com/community/q/is-robots-met-tag-a-more-reliable-than-robots-txt-at-preventing-indexing-by-google 

Hast schon mal im Abakus nachgefragt wegen des Tools?    

 
Zuletzt bearbeitet von einem Moderator:
Hallo Arnego,

Sorry die lange Wartezeit, aber ich habe ein paar "Experimente" mit Google gemacht und kann Deinen Aussagen nicht ganz folgen und kann sie auch nicht ganz nach vollziehen.

Du sagst, dass No Foloww und No Index von Google nicht berücksichtigt wird.

ich habe eine Seite angelegt: https://naturalStone.ch/geheim01 und die hat no index. Sie ist im Google Index nicht gelistet. Und wenn Du jetzt sagst, dass es mehr Zeit braucht bis Google die Seite listet, dann muss ich Dir widersprechen, denn die Seite Geheim01public wird gelistet. Sie sind beide zeitgleich erstellt worden. Das ganze habe ich mit dem Stichwort DexInSwiSec laufen lassen. Das ist eine verspielte Form von In  dex  Swiss  Security. Ein Begriff den es in Google bis zum Start des Experiment DexInSwiSec noch nicht gegeben hatte. Auf der Seite https://naturalStone.ch/geheim01  habe ich das gesamte Experiment mit allen Links beschrieben. Drei Seiten welche im Internet erreichbar sind, aber von Google nicht gelistet werden währen andere drei Seiten gelistet sind. Alles abhängig von NoIndex.

Und gestern habe ich den Test noch erweitert, mit einer 4. Seite. Eine die nirgendwo vierlinkt ist lediglich über die SiteMap erreichbar ist. Bin gespannt.

Ach, die Zeitspanne bis Google die Seite im Index aktualisiert liegt bei vermutlich zwei bis drei Tagen. Denn eine Korrektur der Description war nach drei Tagen im Index. Hab's auch dokumentiert.

Heut gibt es, wenn man in Google nach DexInSwiSec sucht, 5 gelistete Seiten. So wie es von der Testumgebung zu erwarten war. Da ich jetzt hier über das geheime Wort DexInSwiSec schreibe, wird es vermutlich bald 6 gelistete Seiten geben oder 7 wenn die gestrige Seite über die SiteMap gefunden wird.

Hier der Link zur Google Suche...  für alle die's interessiert... https://www.google.com/search?rlz=1C1CHZL_deCH741CH741&ei=pSO_XJTqHMuNkwXXuafoDA&q=DexInSwiSec&oq=DexInSwiSec&gs_l=psy-ab.3%E2%80%A617067.24652..25786%E2%80%A60.0..0.132.1190.4j7%E2%80%A6.2..0%E2%80%A6.1..gws-wiz%E2%80%A6%E2%80%A6.35i39j0j0i131j0i203j0i10i203j0i13j0i13i30j0i8i13i30.XNNqnZ6_MI4 

ich werde jetzt noch ein paar Tage warten und dann die aktuell gelistete Seite Geheim03Public auch mit dem NoIndex Tag versehen um zu prüfen ob die Aussage, dass es schwierig ist, eine Seite aus dem Index raus zu bekommen, stimmt. Und dies obwohl die Seite mehrfach verlinkt ist...

Viele liebe Grüsse
Markus

 
Du sagst, dass No Foloww und No Index von Google nicht berücksichtigt wird.
Ich sagte: Es hält Google und Konsorten nicht davon ab die Seite zu indexieren. Dadurch das du deine geheime Seite hier im Forum reingestellt hast schätze ich mal das Google und Konsorten die geheime Seite indexieren werden denn sie ist hier Öffentlich sichtbar. 

Indexieren ist nicht etwas was augenblicklich passiert, Google und Konsorten können locker 6 Monate dafür brauchen.  Also warte es ab bevor du meinst Ich läge falsch. Ich beziehe mich auf Beispiele anderer: https://webmasters.stackexchange.com/questions/117744/how-to-resolve-google-indexed-though-blocked-by-robots-txt 100% Reht habe eh so gut wie nie. Irren ist menschlich.  

 
Aber Sorry Arnego, Du wiedersprichst Dir ja. 

Also nochmals zum verstehen für alle: Die Seiten Geheim01, Geheim02 und Geheim03 haben alle ein NoIndex gesetzt. Sie werden im Google Index obwohl sie alle verlinkt sind, nicht gelistet.

Die Seiten Geheim01public, geheim02public und geheim04public sind ohne NoIndex. Darum werden Sie von Google gelistet. Und das nicht erst seit heute, sondern schon seit ein paar Tagen.

Da Geheim01-3public gelistet wird, ist das der Beweis, dass die Seiten Geheim01-3 nicht gelistet werden weil diese ein noindex haben. Denn alle Seiten wurden am gleichen Tag zur gleichen Stunde erstellt.

Und dass Google 6 Monate braucht, ist mit diesem Test auch wiederlegt. Es stimmt, dass es nicht "augenblicklich" passiert. Aber es braucht nicht 6 Monate. Denn die Seiten waren nach 2-3 Tagen im Index. Ebenso die Korrekturen an der Description. Ich habe die Seite Geheim02public mit einem Gruss an Dich in der Description versehen. Ich vermute, dass Du diesen Gruss ab Samstag oder Sonntag im Index sehen kannst. Also nicht augenblicklich und nicht erst in 6 Monaten...  ;-)

Hier der Link zur Google Suche: https://www.google.com/search?rlz=1C1CHZL_deCH741CH741&ei=pSO_XJTqHMuNkwXXuafoDA&q=DexInSwiSec&oq=DexInSwiSec&gs_l=psy-ab.3%E2%80%A617067.24652..25786%E2%80%A60.0..0.132.1190.4j7%E2%80%A6.2..0%E2%80%A6.1..gws-wiz%E2%80%A6%E2%80%A6.35i39j0j0i131j0i203j0i10i203j0i13j0i13i30j0i8i13i30.XNNqnZ6_MI4 

Fazit: Google hält sich an NoIndex und indexiert Seiten mit NoIndex definitiv nicht. Denn wenn es anders wäre, dann wären die Seiten Geheim01, Geheim02 und Geheim03 auch im Index vorhanden. Und es hat auch nichts mit meiner Publikation hier zu tun. Denn die Seiten habe ich vor der hiesigen Publikation erstellt und Google hat sie vorher gelistet, oder eben nicht gelistet. Siehe Bericht auf Geheim01 welche mit NoIndex versehen ist und nicht gelistet wird. Egal wie fest sie verlinkt ist.

Wir können ja gerne eine Wette abschliessen:
Du sagst, Geheim01 wird trotz NoIndex wegen der Verlinkung in 6 Monaten indexiert sein. Das wäre dann im Oktober 2019.
Ich sage, Geheim01 wird gerade wegen NoIndex auch in 6 Monaten, also im Oktober im Index nicht erscheinen.

Wenn Du gewinnst, lade ich Dich, Arnego, für eine Woche gratis Ferien im Abenteuerrustico Arvigo mit Begleitung ein.

Also: Wetten?

Viele liebe Grüsse, 
Markus

 
Wir können ja gerne eine Wette abschliessen:Du sagst, Geheim01 wird trotz NoIndex wegen der Verlinkung in 6 Monaten indexiert sein. Das wäre dann im Oktober 2019.Ich sage, Geheim01 wird gerade wegen NoIndex auch in 6 Monaten, also im Oktober im Index nicht erscheinen.
Danke für dein Angebot, z.Zt habe ich weder Pass noch gibt es eine Möglichkeit außer Landes zu fliegen. Es ist eine Google Angelegenheit und nicht meine. Ich gebe dir nur wieder was Google selbst gesagt hat.  

Google's spider irren nun einmal durch das Netz und wir sehen die Konsequenzen. Ich habe schon Meldungen bekommen das Seiten vom Robots Text blockiert sind obwohl dem nicht so ist. Leider steckt sehr viel Falsche Info in Google's Anregungen wie man seine Seite aufbauen soll und wie sie rankt etc. Schon die Datenverluste im April, das Deindex Bug und die GSC im Allgemeine bietet sehr viel Angriffsfäche an.   

 
So, auch die nirgendwo verlinkte Seite geheim04-dexinswisec ist jetzt im Google Index, wie es zu erwarten war, nach 2 Tagen. Und dies nur durch das SiteMap ohne Verlinkung.

Was mich im Moment ein bischen wundert, ist dass dieses Forum hier bei der Google Suche mit dem geheimen Stichwort dexinswisec noch nicht aufgelistet wird. Werden die Beiträge hier möglicherweise mit einer htaccess gesperrt? Ein NoIndex ist im Header ja nicht gesetzt.

Frage mich, wenn ich den Quelltext dieser Seite anschaue, warum da so viele Leerzeichen drinn sind. 
Ist der Programmierer hier anwesend? Warum so viele Leerzeilen im Quellcode?

Viele liebe Grüsse
an Euch alle, ob Programmierer oder nicht..

 
Am Sonntag bestimmt nicht und noch weniger am Muttertag. 

Bei deinem Seitenvolumen wundert es mich nicht das es schnell geht.

Nur hinkt es wenn man seine relative große Seite mit den kleineren 10 bis 100+ vergleicht.

 
Hallo MaWi,

meintes Du Leerzeichen oder Leerzeilen im Quellcode (Platz zwischen den einzelnen html tags)?

Ich gehe davon aus, dass Du Leerzeilen meinst. . Dies dient meines Wissens nach nur der Übersichtlichkeit im Quellcode.

Gruß

FireFan

 
Guten Morgen Feuer Fan,

Ich meine LeerZeilen. Die LeerZeichen verstehe ich gut. Das mit der Übersicht und so. Kämpfe da selbst auch immer mit mir selbst. Ja für Übersicht nein für kleinere CodeDateien und somit mehr Geschwindigkeit für den Anwender. 

Aber nein, ich meine LeerZeilen. Wenn ich den Quelltext anschaue, dan habe ich zwischen den Meta Tags mindestens 2 oft 4 oder 5 Zeilen dazwischen. Die link rel stylesheet beginnen bei mir auf Zeile 85 und haben je eine Leerzeile dazwischen. Das erste Java Script beginnt auf Zeile 108.

Im Anhang ein Bild wie bei mir die ersten "paar" Zeilen ausschauen. (Google Chrom)

Viele Grüsse
Markus

QuellCode.JPG

 
Guten Morgen MaWi,

die Leerzeilen im Quellcode haben keine Auswirkung auf die Darstellung der Seite im Browser. Die Leerzeilen wirken sich nur auf die Dateigröße aus. Die Ladezeiten der Seiten sind für mich ok und ich denke der Admin hat dies im Blick.

Viele Grüße

FireFan

 
Zurück
Oben