Suchmaschinenoptimierung vor dem aus?

Trauernicht

Mitglied
QUOTE January 26, 2006


Hallo, das Dokument scheint schon etwas älter zu sein: Kannst Du kurz erklären,
worum es überhaupt geht?

Glaube kaum, dass sich jemand freiwillig eine Stunde lang durchliest,
was dort alles geschrieben steht. (nicht ohne dafür bezahlt zu werden
laugh.gif
)
 
Hallo

In dem zweiten Link (oben) wird schon einiges erklärt. Im Prinzip ist es so, dass die Suchmaschinenoptimierung nicht im Sinne einer Suchmaschine ist, weil so einfach zu viel Raum zur Manipulation besteht. Und relevante, nicht-optimierte Seiten weniger gut gefunden werden.

Bisher wurden Keywords auf der Seite auf Relevanz hin überprüft, indem auf Keyworddensity etc. geschaut wurde.

Viel sinnvoller ist es auf Relevanz hin zu überprüfen, indem die Suchmaschine einen Katalog von Phrasen aufstellt, der dann als Kontrollwert dient. Diese Phrasen werden dann mit der Webseite abgeglichen. Kommen wichtige Phrasen nicht vor, dann gilt die Seite als irrelevant.

Hat man z.B. eine Seite über Allergien, könnte es so aussehen, dass die Seite anhand des Phrasenkataloges auf Begriffe wie Neurodermitis, Asthma, rote Augen, Heuschnupfen Pollen und verwandte Phrasen untersucht wird. Fehlen diese oder kommen diese zu oft vor, dann beiflusst dies Information das Ranking. Es gilt dann nicht der optimierte Begriff "Allergie" sondern die Phrasen werden möglicherweise gleichwertig oder höher eingestuft, wenn die Ergebnisse bei der Suche angezeigt werden.

Es wird also mit einem Keyword ein gewisse Menge Phrasen verbunden. Für den Nutzer der Suchmaschine gibt es somit schnellere Suchergebnisse, auch wenn diese tief irgendwo vergraben sind.

Für den Optimierer wird es schwierig. Keyworddensity wird z.B. durch relevante Phrasen ersetzt. Möglicherweise ist eine gewissen Phrase dann ein Ausschlusskriterium um bei einem gewissen Suchbegriff zu erscheinen. Die Seite wird also mit einem Katalog von relevanten Keywords und Phrasen abgeglichen. Wenn man bedenkt, dass nur rund 8% aller Suchanfragen aus einem Wort bestehen, dann ist diese Vorgehensweise sehr passend.

Vergleiche:
http://www.marketing-online-plan.de/Suchma...optimieren.html



Schon letztes Jahr wurde vor Verlinkungen gewarnt. Auch relevanten Verlinkungen die aber nicht organisch im Web 2.0 Stil gewachsen sind. Sorry, den Link dazu finde ich gerade nicht. Doch die Ergebnisse sind teilweise schon zu sehen. Die zeit nach dem Motto: "Gib mir einen Link und ich gebe dir meinen", scheinen also immer mehr der Vergangenheit anzugehören.

Ich denke dass diese Änderung nicht von heute auf morgen umgesetzt wird. Doch es ist sinnvoll zu wissen wohin die Richtung geht.

Hoffe dies hilft weiter.

Viel Spass!
Markus Trauernicht
 
Beeindruckend und schockierend zugleich.
Auf der einen Seite macht es Sinn, jedoch ...

... erstellt man folglich eine Site mit perfekten Phrasen ...

und kann dennoch Unsinniges schreiben.

Die Suchmaschine erkennt nicht den Sinn der Texte.



 
Anstelle von Keyword werden es in Zukunft einfach Phrasen sein. Wenn man aber man rausgefunden hat, welche Phrasen zu verwenden sind um mit einem bestimmten Suchbegriff möglichst weit oben zu stehen, wird es doch wieder das gleiche Prinzip sein wie heute.
 
Seit ein paar Monaten häufen sich bei Abakus bereits die Entsetzensschreie:

'Meine spamfreie Seite, jahrelang oben, ist plötzlich abgestürzt - auf Platz 300, 700 oder 950'.

Ich vermute schon seit einiger Zeit, daß die Implementierung dieses Patents der Grund dafür ist.

Denn Leute, die Domains zu 'optimieren versuchen', um an Werbeeinnahmen zu verdienen (meistens sind das solche Seiten), die haben zwar irgendwie mäßig brauchbaren Content. Aber zusätzlich gibt es irgendwelche grauen Dinge, Links zu typischen kommerziellen Themen (Versicherungen, Schufa-freie Kredite), die auf anderen Seiten fehlen, eingehende Links immer mit Keywörtern, nicht einfach nur die Domain, eingehende Links von Artikelverzeichnissen, Linktausch und Katalogen.

Einfach ein 'Zuviel'.
 
QUOTE (CC @ Fr 13.4.2007, 14:03)Und mit was würdest Du dann den Rückkehr in die Top Ten nach einem Monat begründen?

Das ist eher simpel.

Solche Verfahren basieren immer auf zwei Schritten (die anschließend regelmäßig wiederholt werden). Im ersten Schritt wird versucht, aus Webseiten solche Phrasen zu extrahieren und diese gegeneinander zu gewichten, um eine solche Kontrolltabelle zu erhalten. Im zweiten Schritt werden zu jeder Domain / Unterseite entsprechende Kennwerte gegen diese Kontrolltabelle(n) berechnet. Das wiederholt sich iterativ.

Das Ergebnis führt zu einer Bewertung, die Bewertung wird zur Re-Berechnung der Kontrolltabelle mit herangezogen. Beim erneuten Berechnen der Kennwerte kann dann eine Domain in einem Durchgang raus-, im nächsten wieder reinfallen - und erscheint in den Serps mit heftigen Sprüngen.

Es gibt bei solchen iterativen Berechnungen immer einzelne Domains, die sehr empfindlich reagieren - das liegt einfach in der Art dieser Berechnungsprinzipien.
 
hehe... ich scher mich weiterhin einen Dreck um G und optimiere meine Seiten für die Besucher. Das funkt am einfachsten.

Gruss
Christian
 
QUOTE Suchbegriff „Zweiter Weltkrieg“
Es werden auch gleich Seiten angezeigt die z.B. für „2 Weltkrieg“ oder „WW2“ optimiert sind.

Suchbegriff: „Allergien“
Denkbar sind Suchergebnisse, die über den Abgleich mit den Datenbanken auf die auf folgende Phrasen und Keywords zeigen: Neurodermitis, Asthma, Katzenhaare, Pollen, Pollenflug, Augentropfen, Nasenspray, rote Augen, Schimmelbefall etc. deuten würden. Und zwar gleichwertig mit dem Begriff „Allergien“!


Für die Adsense-Spammer dürfte das doch kein Problem sein. Die schreiben doch sowieso extra genug Blablabla auf ihren Seiten für Adsense. Da wird das schon irgendwie hinhauen.
 
QUOTE (Christian @ Fr 13.4.2007, 16:39) hehe... ich scher mich weiterhin einen Dreck um G und optimiere meine Seiten für die Besucher. Das funkt am einfachsten. [...]

*g* Dem kann ich mich weitestgehend anschließen, die Benutzer müssen im Mittelpunkt stehen. Doch etwas links und rechts die Augen aufzuhalten ist nie verkehrt.
 
QUOTE (Christian @ Fr 13.4.2007, 16:39)ich scher mich weiterhin einen Dreck um G und optimiere meine Seiten für die Besucher. Das funkt am einfachsten.

Zweiteres behaupten die Abgestürzten auch, ersteres natürlich nicht.

Die durchaus spannende Frage ist ja, warum einerseits viele Seiten, die irgendwie gepusht sind, abstürzen, andere dagegen an ihren Plätzen bleiben. Und diese Überlegungen mit Begriffskorrelationen könnten durchaus der Grund sein.

Denn was haben viele gemacht? Sich eingehende Links durch Webkataloge, Artikelverzeichnisse und Linktausch besorgt. Erstere leben zumindest teilweise von gekauften Links (da könnte es sein, daß solche 'unpassenden Links' nur noch eingeschränkt vererben), beim Linktausch 'diktiert' immer der andere den Linktext.

Bei einer Domain wie SelfHtml dagegen dürften bestimmte Texte niemals als Linktext vorkommen, die bei Seiten aus dem Html/Homepage-Bereich, die versuchen, sich Werbeeinnahmen zu generieren, aber als Linktext auftauchen.

Da könnte dann durchaus ein ausgehender Link auf einer Unterseite mit einem 'merkwürdigen Linktext' dazu führen, daß diese Unterseite drastisch absackt.
 
QUOTE (jAuer @ Sa 14.4.2007, 19:05) Bei einer Domain wie SelfHtml dagegen dürften bestimmte Texte niemals als Linktext vorkommen, die bei Seiten aus dem Html/Homepage-Bereich, die versuchen, sich Werbeeinnahmen zu generieren, aber als Linktext auftauchen.

Da könnte dann durchaus ein ausgehender Link auf einer Unterseite mit einem 'merkwürdigen Linktext' dazu führen, daß diese Unterseite drastisch absackt.

moin jürgen

Wenn ich das richtig verstanden habe, wie du das meinst, dann könnte man ja zu x beliebigen Mitbewerbern mit schlechten texten verlinken und diese würden negativ beeinflusst werden..

Das ist so nicht ganz korrekt. Nicht die empfangende Site wird heruntergezogen, sondern die Page, welche den Link drauf hat. Das ist insofern logisch, da ja der Empfänger unter Umständen nichts dafür kann, dass er schlechte incoming Links bekommt. D.h. der Urheber lässt sich nicht klar eruieren. Auf diesen Faktor legt Google viel Wert.

grüsse

martin
 
Im Prinzip wird bei dieser neuen Vorgehensweise geschaut welche Keywords und Phrasen auf einer Seite sind. Dann wird geschaut welche latenten Begriffe auch auf der Seite sein sollten. Unter diesen "latenten" Begriffen gibt es dann bevorzugte Phrasen und weniger bevorzugte Phrasen. Semantisch gesehen sind es dann Phrasen die normalerweise genutzt werden um ein Problem zu beschreiben.

Weiterhin kommt es nach meinem Verständnis nicht mehr auf die Keywortdichte an, sondern auf Synonyme, Fachbegriffe, Jargon, Slang, Acronyme / Abkürzungen etc. Alles Inhalte die in einem themenrelevanten Text vorkommen werden.


Das Problem bei der Optimierung ist, dass man keinen echten Kontrollwert hat. Und bei den neuen bzw. zukünftigen Änderungen noch weniger. Wenn man also für Menschen schreibt, sollte man schon auf dem richtigen Weg sein.

Wenn man dann trotzdem optimiert, kann es sein dass man an den "Bohrer" denkt, der Suchmaschinennutzer aber an das "Loch in der Wand". Somit besteht gerade bei Phrasen die wirklich reale Gefahr, dass man in die falsche Richtung optimiert. Denn die semantischen Zusammenhänge, zwischen Phrasen die genutzt werden um etwas zu beschreiben, sind nicht die gleichen wie wenn man versucht zu optimieren. Gewissenmaßen vergleichbar wie wenn man eine Werbung bei Google AdWords schaltet, und genau den Werbetext den man für den besten gehalten hat, nicht der beste ist - sondern ein Text dem man nicht so viel zugetraut hat.


Weiterhin: Doppelter Inhalt im Internet kann so recht einfach gefunden werden, wenn man z.B. frei verfügbare Artikel einfach auf die eigene Seite legt.

Ob der eingehende Link ausschlaggebend ist - man könnte dann die Konkurrenz systematisch nach unten treiben, mit Linkspamming. Und uralte Linklisten würden eventuell zum Tragen kommen, falls diese Seiten nicht seperat geführt werden. Kann ich mir nicht vorstellen.

Gruss Markus Trauernicht
 
QUOTE (Martin Häfliger @ Sa 14.4.2007, 20:18)Wenn ich das richtig verstanden habe, wie du das meinst, dann könnte man ja zu x beliebigen Mitbewerbern mit schlechten texten verlinken und diese würden negativ beeinflusst werden..

Nee, das ist nicht gemeint (und auch nicht geschrieben).

Bei Seiten wie SelfHtml ist die Korrelation zwischen themenfremden Linktexten (von ausgehenden Links) und Phrasen innerhalb der Texte gleich Null. Wenn es jetzt bei einer anderen Domain zu derselben Thematik ausgehende Links mit Linktexten gibt, die auf SelfHtml und ähnlichen Domains nicht vorkommen, dann führt das auf diesen Domains (bzw. eventuell auch nur auf den Unterseiten mit diesen ausgehenden Links) zu Abwertungen.

Sprich: Die Frage, ob ein ausgehender Link zum Thema der Unterseite paßt, auf der er drauf ist, dürfte wichtiger werden - und stuft Seiten zurück, die diverse themenfremde 'Partnerlinks' auf ihrer Domain haben.

Analog führt das dazu, daß bsp. die ausgehenden und gemieteten Links von OpenSource-Seiten auf den Zielseiten schwächer wirken, weil sie auf den Quellseiten nicht im normalen Content, sondern nur in Linktexten vorkommen.
 
Der Content ist für den User wichtig und nicht die Suchmaschinen Optimierung. Es darf doch nicht sein, dass Suchmaschinen optiermierter Nullcontent ein besseres Ranking erhält als eine informative Website zum gleichen Thema die besseren Content hat , aber nicht optmiert wurde.
Suma optiemierung ist doch nur ein Betrug, da will jemand ein gutes Ranking aber ist zu faul dafür zu arbeiten.
Aus Sicht des Users wäre es ein Vorteil wenn Suma optimerung der Vergangenheit angehören würde.
Eine gute Idee ausdenken und umsetzen ist doch einfacher als das Nullsummenspiel der Suma optimierung betreiben.
 
Es gibt da noch eine andere Komponente. Der kostenlose Traffic von Suchmaschinen ist ist in zwischen eine nicht ganz ungefährliche Sache geworden, wenn der eigene Umsatz und damit Gewinn 1:1 von den kostenlosen Suchmaschinenergebnissen abhängig ist. 20% weniger Traffic im nächsten Monat, kann unter Umständen 20 % weniger Gewinn bedeuten. Und damit eventuell ein überfülltes Lager, gebundenes Kapital, die Personalpolitik ist auch betroffen etc.

Doch wer in der Vergangenheit auf die Sumaschinenoptimierung verzichtet hat, hat auch auf Traffic, und damit wahrscheinlich auch auf Marktanteile verzichtet. Eine Lösung bestand schon in guten Inhalt mit einer guten Suchmaschinenoptimierung.

Das große Problem bei der Suchmaschinenoptimierung ist/war, dass keine saubere Arbeitsweise anhand eines Kontrollwertes stattfinden konnte, was wahrscheinlich in der Hälfte der Fälle ein Verschlimmbesserung mit sich gebracht hat.

Eine Webseite heute ins Netz geht, muss sich mit rund einem Viertel des Traffics begnügen wie vor 3 – 4 Jahren, jedenfalls wenn man sich das deutschsprachige Netz anschaut. Die Zahl der neuen Webseiten ist drastisch gestiegen, die Zahl der Internetnutzer ist begrenzt. Konnte ein Existenzgründer vor 3 – 4 Jahren noch locker von dem kostenlosen Traffic der Suchmaschinen leben, reicht dieser Traffic heute oft nicht mehr um ein profitables Geschäft zu betreiben. Wer also damals 1000 Besucher in einem Zeitraum hatte, muss sich heute im gleichen Zeitraum mit einer neuen Webseite mit rund 250 kostenlosen Besuchern zufrieden geben. Braucht man aber diese 1000 Besucher in diesem Zeitraum, um das Geschäft zu erhalten, dann müssen die anderen 750 mit bezahlter Werbung auf die Webseite gebracht werden. Und das will auch erst mal bezahlt werden.

Emailmarketing an gezielte Listen kann für manchen Unternehmer den Unterschied zwischen Ende oder Durchstart bedeuten. Die ständig steigende Anzahl der Webseiten die in den nächsten Jahren zu erwarten ist, gibt dies schon fast vor. In dem genannten Beispiel heißt dies, dass die gleiche Webseite irgendwann - in vielleicht 3 – 4 Jahren - mit 125 kostenlosen Besuchern im gleichen Zeitraum rechnen darf.

Dies würde heißen, dass sich mit dem Aufbau von gezielten Email-Listen praktisch immer mehr ein Parallel-Internet entwickeln wird. Und wer die Liste gut betreut, wird diese Interessenten komplett vom Markt nehmen können! Wenn also der Interessent alle notwendigen Informationen in einem Newsletter bekommt, dann braucht der auch nicht mehr im Internet nach Informationen suchen – ein potentieller Webseitenbesucher für den Konkurrenten weniger. Wer ein solides Emailmarketing / RSS-Marketing betreibt, wird also schon allein aufgrund der Zahlen immer mehr den eigenen Markt dominieren. Denn damit kann man künstlichen Traffic auf die eigene Seite generieren, während die Konkurrenz immer wieder zahlen muss um den gleichen Traffic auf die eigene Seite zu bekommen.

Die drastischen Veränderungen der Suchmaschinenarbeitsweisen ist also nur eine Komponente dessen, was wir in der Zukunft sehen werden.

Hier ein ergänzender Artikel:
http://www.marketing-online-plan.de/Suchma...ittelstand.html

Viel Spass!
Ihr Markus Trauernicht
 
Ich halte diese Phrasendiskussion für ziemlich zweifelhaft und zumindest so nicht durchsetzbar. Dies hieße ja zwangläufig, dass wir alle nur noch das gleiche Sprachschema benutzen würden, zumindest online, keine Metaphern, keine blumigen Beschreibungen, keine Poesie, nix, null - das wäre die nächste Stufe der sowieso schon dahinschreitenden Degenerierung der Menschheit.

Generell sehe ich bei der radikalen Änderung des Logarithmus auch ein rechtliches Problem für den Branchenführer. Wie immer geht es ja dabei auch ums liebe Geld. Dies wissen diese Jungs besser als wir - sie machen es uns ja mit einer grandiosen Perfektion vor, wie man richtig Asche macht. Beherrschung des Marktes bedeutet auch eine gewisse Verantwortung, von der ich sicher bin, daß sich Google dieser Verantwortung sehr bewusst ist.

Denn sonst würde es nicht mehr lange dauern, und die ersten wirklich ernst zu nehmenden und auch Erfolg versprechenden Klageschriften würden vor einigen US-Amerikanischen Gerichten eintrudeln. Was dies bedeuten könnte, ist nicht nur uns, sondern diesem Wirtschaftsunternehmen ebenso bewusst.

Viel mehr denke ich, dass immer Webseiten sich mit der Thematik befassen, und man dabei ist sich mit immer mehr und neueren Ideen, was denn so alles passieren könne, überbietet. Diesem Hype sollte man so entgehen, wie es hier schon mehrmals aufgezeigt wurde. Einfach seriös an der Seite arbeiten, Content, Relevanz schaffen und auch möglichst noch steigern.
 
Zurück
Oben