Google mag ayom.com nicht

Status
Für weitere Antworten gesperrt.
Ich fürchte du irrst dich (ich hoffe nicht ich
wink.gif
)
301 ist permanent und 302 temprorary

http://www.ietf.org/rfc/rfc2616.txt

Thorsten
 
QUOTE Ich möchte euch folgendes vorschlagen (kaputt gehen kann ja nicht mehr viel)

Ausser ich schmeiss den Computer zum Fenster raus oder so ;-)


QUOTE mit dieser Technik haben wir eine gut besuchte Seite nach großer Umstrukturierung (komplett neue URLS) in 4 Wochen wieder nach oben bekommen, nach 12 Wochen Nr. 1:

War die denn auch nie drin, oder unter oder wieder draussen nach Umleitung?


QUOTE passender "perment redirect" Status-Code: 302 (nicht 301)
- Für alle alten Seiten, die es nicht mehr gibt: "gone" Status-Code: 410. (nicht 404)
- Für alle neuen Domains ayom.* (außer com) : "permanent redirect" Status-Code 302 auf die Startseite der Hauptdomain

Das war so etwa der Gedanke mit dem Meta Refresh, bzw an die ayom.* hab ich nicht gedacht.

Aber wenn das wirklich die Lösung ist, frage ich mich, ob das mein Ziel ist ;-) bull hat seine Gründe warum er das w3 zitiert.

Mit den alten Seiten ist es so ne Sache ;-) Die IPB Software hat mir die Implementierung von Mod_rewrite sehr schwer gemacht. An sehr vielen Orten sehr viel Mist. Ich muss sogar zugestehen, dass ich immer wieder neue Sachen im IPB entdecke, wo dann doch noch ein Link nach irgendwo rumgurgelt. Ich setze eher auf den selbstreinigenden Effekt, da das meisste doch nicht mehr verlinkt ist. ~Heute holte sich der Googlebot auf 1% nicht 100% saubere Links.


QUOTE Zusätzlich könnt ihr alle Backlinks suchen und die Webmaster gezielt anschreiben: "Hallo, das webmasterforumc.h ist jetzt ayom.com.

Das ist ein sehr guter Punkt, der in dieser "technischen" Diskussion gar noch nicht erwähnt wurde (?). Aber ist schon geschehen. Da ich - man kann sich denken - die SERPs zu ayom angeschaut habe, war ich überrascht, dass es viele gemacht haben, die ich nicht einmal kannte.


QUOTE aufgrund der aktuellen Lage bin ich mich nicht 100% sicher, ob ich euch empfehlen kann.

Das ist verständlich, wenn Du nicht genau weisst, was abgeht. Jeder Mensch reagiert in Situationen die mit Unklarheiten verbunden sind mit Vorbehalten.
Deshalb bin ich mir auch ziemlich sicher, dass Du die Diskussion bis zum Schluss verfolgen wirst ;-)

Deshalb wundert mich auch ob deine Domain auch nie im Index war...


QUOTE Immerhin habt ihr das Forum hier SEOmäßig kaputt gemachtr. Vorübergehend wahscheinlich.

Ich glaube auch, dass das ein temporärer Zustand ist, aber ich verstehe nicht ganz, wieso wir das Forum "kaputt" gemacht haben? Siehe F.(i),(iii) ayom.com war nicht in den Index zu bekommen. Sicherlich kann es als Fehler gewertet werden die Domain zu wechseln, aber ;-)


QUOTE Das kann Menschen, die ihr Geld nur mit ihrer Website verdienen in den Ruin treiben.

Wohl wahr ;-) Aber Ruin ist leicht übertrieben im Falle von Ayom ;-)


QUOTE Ich verstehe übrigens überhaupt nicht, warum ihr über auf 301 setzt
...
Vorübergehend findet man die Inhalte dort (301), sondern diese Inhalte befinden sich b.a.w. dort (302)

Wegen dem w3 Ding da... Verstehe baw nicht. Bei aller Wahrscheinlihckeit? Nein? Aber 302 ist temp, 301 ist Moved Permanent, also ich möchte schon mal ein Weilchen in Ayom bleiben ;-)
 
Wir sprechen doch schon ein Weilchen drüber, hier gegen alle Unklarheiten:

QUOTE | "100" ; Section 10.1.1: Continue
| "101" ; Section 10.1.2: Switching Protocols
| "200" ; Section 10.2.1: OK
| "201" ; Section 10.2.2: Created
| "202" ; Section 10.2.3: Accepted
| "203" ; Section 10.2.4: Non-Authoritative Information
| "204" ; Section 10.2.5: No Content
| "205" ; Section 10.2.6: Reset Content
| "206" ; Section 10.2.7: Partial Content
| "300" ; Section 10.3.1: Multiple Choices
| "301" ; Section 10.3.2: Moved Permanently
| "302" ; Section 10.3.3: Found
| "303" ; Section 10.3.4: See Other
| "304" ; Section 10.3.5: Not Modified
| "305" ; Section 10.3.6: Use Proxy
| "307" ; Section 10.3.8: Temporary Redirect
| "400" ; Section 10.4.1: Bad Request
| "401" ; Section 10.4.2: Unauthorized
| "402" ; Section 10.4.3: Payment Required
| "403" ; Section 10.4.4: Forbidden
| "404" ; Section 10.4.5: Not Found
| "405" ; Section 10.4.6: Method Not Allowed
| "406" ; Section 10.4.7: Not Acceptable


PS @Michael, bin wirklich stark an den Begleitumständen der von Dir erwähnten Domain interessiert!
 
Also, die Domain, auf die wir damals umgezogen sind, war jungfräulich. Es gab also keine Altlasten oder ähnliches. Allerdings haben wir nur die Subdomain gewechselt: Irgendjemand fand das mal witzig und hatte w3.example.com gewählt. Die Umstellung erfolgte dann auf www.example.com, weil es einfach viel intuitiver ist. Parallel dazu wurde die Seite massiv umstrukturiert und auf ein CMS (Typo3) umgestellt. Wir haben bei der Umstellung dafür gesorgt, dass die Seitennamen (nicht die kompletten URLs) erhalten bleiben und per Skript eine Tabelle der alten und neuen Positionen gesucht. Diese Tabelle wurde händisch überarbeitet um ein paar Ausnahmen abzudecken. Aufgrundlage dieser Tabelle haben wir dann (und diesmal wird's richtig) 301-Status-Codes mit Location der neuen URL erzeugt. Der Rest wurde als 410 Gone deklariert. Google reagierte vor allem auf die 410er Codes sehr schnell. Viele der weitegeleiteten Seiten wurden bei Google bereits nach 1-2 Wochen bei Google gut gefunden, obwohl der sichtbare PR erst viel später aktualisiert wurde. Aus der Logfile-Analyse konnte man entnehmen, dass Google, nachdem es einige Tage 301 und 410 zu sehen bekam, die URLS nicht mehr anforderte, sondern im 310er Fall die neuen URLs. Nur einige wenige Altlasten (nicht mehr ex. Seiten) hielten sich hartnäckig noch einige Monate in den SERPs. Ich schätze, dass es 2-5% waren.
 
Habt Ihr mal bei Google direkt nachgefragt? Bei Euch klingt ja auch schon die Vermutung durch, dass es eine gesperrte Domain ist. Dem schließe ich mich absolut an. So falsch kann man es IMHO garnicht machen, dass Google die Domain nichtmal am Rande wahrnimmt und nicht zumindest rudimentär verzeichnet.
 
@Shaggy:
QUOTE nun da stellt sich wohl die frage, ob man über seinen eigenen Schatten springen soll und das ganze mal von einem Dritten anschauen lassen sollte. den es könnte euch ja theoretisch ein Fehler unterlaufen sein.

Verständliche Überlegung. Doch unsere Tests (v.a. auch mit ayom.ch) sollten gezeigt haben, dass wir praktisch jede x-beliebige Domain innert 48h in den Index kriegen. Einen Fehler bei uns halte ich deshalb für ziemlich unwahrscheinlich.

@ric:

QUOTE die domain ist verbrannt. glaube, dass es sehr lange braucht, oder sehr sehr starken linkpower damit die alte tante wieder spass an der dom bekommt.

Wieso kann es denn sein, dass Domains dermassen verbrennen können? In diesem Falle würde dieser Algorithmus m.E. der Optimierung bedürfen. Es darf doch nicht sein, dass ein neuer Domainhalter mit neuem Content und neuen Links eine solche Bürde auferlegt bekommt. Das widerspricht meinem gesunden Menschenverstand.

QUOTE Versuchs Tipp

Danke für den Tipp, dies würde unsere Tests noch klarer machen. Auf dieselbe Schlussfolgerung sind wir aber schon mit den bisherigen Tests gekommen.

@Rainer:

QUOTE Ich glaub das auch. Da hilft nichts, außer sich von der Domain zu trennen oder bei Google um Aufnahme "betteln".

Noch lieber als nur unsere Aufnahme hätten wir die Änderung dieses Prozesses bei Google. Google soll besser erkennen können, wann eine verbrannte Domain wieder "geheilt" ist. Hier scheint das Problem m.E. zu liegen.

@Michael:

QUOTE Ich würde daher auch nie so etwas riskantes tun, d.h. mein wirtschaftliches Überleben vnom Suchmaschinenlisting abhängig zu machen

Das tun wir ja auch nicht (oder zumindest nur partiell) und genau davor möchten wir die Leute ja auch unter anderem warnen. Viele Webmaster (und vor allem viele kleine und mittlere Unternehmen) verlassen sich zu stark auf Suchmaschinen (namentlich Google). Es braucht dringend bei jedem Webmaster mehr Diversifikation im Marketingmix. Sowohl bei uns als auch bei vielen anderen. Die Zeit des Handelns sollte bei jedem gekommen sein, will er langfristig überleben.
Man sollte aber aufpassen, nicht zum anderen Extrem überzugehen und Suchmaschinen zu verteufeln. Ein gesunder Mix ist gefragt und Suchmaschinen sollten darin natürlich angemessen vertreten sein (z.B. mit 20-40%).

@SloMo:

QUOTE Habt Ihr mal bei Google direkt nachgefragt? Bei Euch klingt ja auch schon die Vermutung durch, dass es eine gesperrte Domain ist. Dem schließe ich mich absolut an.

Ja, wir haben Google auf die Problematik aufmerksam gemacht. Google macht aber sehr ungern manuelle Änderungen (ist auch kaum möglich, da die Datenmenge zu gross ist). Unser Ziel ist es unter anderem, Google darauf aufmerksam zu machen, den "Verbrenn"-Algorithmus zu optimieren (angenommen, dies sollte sich als Ursache herausstellen), damit die ganze Branche davon profitieren kann. Immer weniger Domains sind jungfräulich und das Problem wird demnach eher zu- als abnehmen.

Weitere kritische Meinungen gerne willkommen.

Gruss, Remo
 
QUOTE (Remo Uherek @ Mi 9.2.2005, 18:53)@ric:

QUOTE die domain ist verbrannt. glaube, dass es sehr lange braucht, oder sehr sehr starken linkpower damit die alte tante wieder spass an der dom bekommt.

Wieso kann es denn sein, dass Domains dermassen verbrennen können? In diesem Falle würde dieser Algorithmus m.E. der Optimierung bedürfen. Es darf doch nicht sein, dass ein neuer Domainhalter mit neuem Content und neuen Links einen solche Bürde auferlegt bekommt. Das widerspricht meinem gesunden Menschenverstand.

QUOTE Versuchs Tipp

Danke für den Tipp, dies würde unsere Tests noch klarer machen. Auf dieselbe Schlussfolgerung sind wir aber schon mit den bisherigen Tests gekommen.



warum domains besipielsweise dermassen verbrennen könnten. ACHTUNG reine spekulation, wie so vieles im seo business.

ein beispiel. ich habe die domain virenschutz.com (stimmt nicht) und nutze die domain um 100'000 doorwaypages oder anderen unsinn zu erstellen.... spame google zu. google nicht blöd kippt die domain aus dem index... blacklist (verbrannt) --- wenn jetzt nun solche domains nach der löschung wieder bei 0 starten können, dann lass ich die domain droppen, regge sofort wieder, baue eine neues site, andere linkstruktur, knalle nen dialer drauf und los gehts... das nächste mal dann zur abwechslung eine normale site usw. in einer firma andere kontaktdaten im whois einzutragen ist ein kinderspiel (ein bindestrich würde auch schon reichen ;-) und die sache ist gegessen.... es wäre zu einfach. (eine möglich sepkulation)

aus verschiedenen berichten und erfahrungen glaube ich heute, dass solche domains nur einigermassen schnell wieder mit viel viel linkpower von sites die google ganz ganz gerne hat wieder innert vernünftiger zeit im index auftauchen.

stichwort sandboxfilter (hat hier im herkömmlichen sinne sicher nichts verloren, da die domain ja im index wäre, nur schlecht in den serps) ---- was ich mir aber vorstellen könnte ist, dass domains, welche google mal auf der blacklist führte, nach delete und nach neuem inhaber im whois ein noch stärkeren filter anwendet als bei jungfräulichen doms, oder der domain eine bewährungsprobe gibt.... zeit y .... wenn in zeit y keine anderen warnungen ausschlagen, kommt die site mit dem üblichen sandboxfilter in den index.... usw. (alles nur mögliche szenarien, wie sowas funzen könnte)

grüsse ric
 
Ric, danke für Deine Ausführungen. Ich verstehe schon, warum es einen solchen Mechanismus gibt und dass er in vielen Fällen auch sicher Sinn macht und die Qualität verbessert. Trotzdem sollte darüber nachgedacht werden, wie man den Prozess optimieren könnte.

Definitionen:
- "Unartige Domain": Domain, die durch Manipulation auf einer Art schwarzen Liste ist. Gleichzusetzen mit "verbrannt", "abgestraft" etc.

Meine Inputs:
- Unartige Domains sollten in regelmässigen Abständen darauf überprüft werden, ob es noch gerechtfertigt ist, die Domain länger als unartig einzustufen. Die Algorithmen sollten ja relativ schnell merken, ob die Seite immer noch unartig ist oder ob die Domain inzwischen von einem artigen Halter gehalten wird.
- Die Rückaufnahmeschwelle sollte optimiert werden. Es kann nicht sein, dass man 1000 hochwertige Links braucht, um wieder eine Chance zu haben (damit wären sehr viele kleinere Webmaster benachteiligt).
- Es sollte evtl. eine Liste geben, wo man sich bei solchen Problemen eintragen kann (ähnlich dem Spamreport). Damit könnten dann neue Algorithmen getestet werden.

Gruss, Remo
 
da gehe ich mir dir ja voll einig. sage auch nicht, dass es durchaus gut ist. es ist reine spekulation von mir ;-)

cheers ric
 
QUOTE
Ich würde daher auch nie so etwas riskantes tun, d.h. mein wirtschaftliches Überleben vnom Suchmaschinenlisting abhängig zu machen

Das tun wir ja auch nicht (oder zumindest nur partiell) und genau davor möchten wir die Leute ja auch unter anderem warnen


Ich wollte auch nicht sagen, dass ihr das tut. Ich wollte nur sagen - es gibt Leute, die sich mit ihrem Unternehmen fürcherlich abhängig machen, sei es von einem Großkunden, sei es von Technikanbietern (Google, eBay,...) Wie viele Unternehmer gibt es, die "fertig" wären, wenn Google oder eBay von heute auf morgen nicht mehr existent wäre bzw. alles ändern würden. "Fertig" deshlab, weil ihre Geschäftsidee zu sehr von diesen Anbietern abhängt.

Ich möchte euch eigentlich dazu ermutigen, den Kopf nicht in den Sand zu stecken, da ihr eben letztlich nicht von Google abhängen wollt und jetzt die Initiative für noch mehr Unabhängigkeit zu starten.
 
QUOTE (Remo Uherek @ Mi 9.2.2005, 19:37) Meine Inputs:
- Unartige Domains sollten in regelmässigen Abständen darauf überprüft werden, ob es noch gerechtfertigt ist, die Domain länger als unartig einzustufen. Die Algorithmen sollten ja relativ schnell merken, ob die Seite immer noch unartig ist oder ob die Domain inzwischen von einem artigen Halter gehalten wird.
- Die Rückaufnahmeschwelle sollte optimiert werden. Es kann nicht sein, dass man 1000 hochwertige Links braucht, um wieder eine Chance zu haben (damit wären sehr viele kleinere Webmaster benachteiligt).
- Es sollte evtl. eine Liste geben, wo man sich bei solchen Problemen eintragen kann (ähnlich dem Spamreport). Damit könnten dann neue Algorithmen getestet werden.

Auch wenn viele Behaupten, dass Google nicht manuell in den Index eingreift, werden derartige Sperrungen "von Hand" verursacht und die Domains landen auf einer Blacklist. Eine "Verbesserung" dieses Mechanismus halte ich daher für ausgeschlossen und "fair" war Google noch nie und es wird dort niemanden belasten, wenn einige "unschuldige" Domains nicht im Index sind.

Zu deinem Test mit ayom.com in der URL: Hast du die Testseite ordentlich verlinkt oder nur aus diesem Forum hier?
 
Ich denke, dass Ihr in dieser Situation nicht nach den Sternen greifen solltet, indem Ihr Google zu einer Überarbeitung des "Verbrennen"-Algos zu bringen versucht. Google hat in dieser Richtung keine wirtschaftliche Motivation, also wird eine systematische Anpassung sehr lange dauern - was für die Entwicklung dieses Forums sehr übel ist. Der manuelle Eingriff kann nicht soooo schwierig sein, wenn die Domain tatsächlich verbrannt wurde.

Ich frage mich, wie andere solche Probleme vermeiden können. Wie sollte man eine Domain prüfen, bevor man ein Projekt darauf stützt?
 
QUOTE Wie sollte man eine Domain prüfen, bevor man ein Projekt darauf stützt?


Indem man die Seite mal mit wenig Inhalt in den Index bringt bevor man das eigentliche Projekt dort ansiedelt.

 
Ne interessante Frage SloMo.

Wobei meiner Meinung nach die verbrannte Domain noch lange nicht erwiesen ist.

Ich glaube eher, das zuviele Domainnamen auf den gleichen Inhalt zielen.
Google wird nicht kommen und fragen - Hallo Webmaster, welche Domain hättet ihr am liebsten als Authority.
Er wird sich für einen Namen entscheiden - und zwar für den mit den meisten Backlinks.

Und Ayom.com ist im Moment nicht sein Favorit.

Gruss space
smile.gif
 
QUOTE (spacefun @ Do 10.2.2005, 9:38) Ne interessante Frage SloMo.

Wobei meiner Meinung nach die verbrannte Domain noch lange nicht erwiesen ist.

Ich glaube eher, das zuviele Domainnamen auf den gleichen Inhalt zielen.
Google wird nicht kommen und fragen - Hallo Webmaster, welche Domain hättet ihr am liebsten als Authority.
Er wird sich für einen Namen entscheiden - und zwar für den mit den meisten Backlinks.

Und Ayom.com ist im Moment nicht sein Favorit.

Gruss space
smile.gif


aber anscheinend ist die domain auch vorher nicht in den index gekommen (nur mit nem normalen link als test) und deshalb scheint es ne verbrannte zu sein .. nur stellt sich für mich die frage wieso das ganze projekt dann trotzdem so schnell auf ayom.com zügeln wenn anscheinend was mit der domain nicht stimmte? dachte man das die vielen links etc dann doch zur aufnahme helfen würde (das hätte man auch so ausprobieren können)? ich denke nich das google was an seinem algo ändern wird nur weil ayom.com davon betroffen ist (auch irgendwie utopisch) die haben ganz andere probleme .. nunja man kanns versuchen nur ob bis dahin der atem ausreicht (wer weiss wenns noch mehr als 1 jahr geht?) .. hätte wenn und aber irgendeine lösung muss gefunden werden ..

grüsse
 
Na ja, falls ayom.com vor der Einbindung des Forums und altem Content wirklich mit unique Content und einem Link von einer mindestens PR5-Seite während 2Wochen nicht von Google indexiert wurde, dann wäre das etwas anderes.

Ich kann mir nicht vorstellen das dies der Fall war - im Normalfall denkt man ja nicht an sowas
sad.gif
.

Aber immerhin beantwortet es die Frage wie man dies im Vorfeld testen kann.

Gruss space
smile.gif
 
QUOTE Na ja, falls ayom.com vor der Einbindung des Forums und altem Content wirklich mit unique Content und einem Link von einer mindestens PR5-Seite während 2Wochen nicht von Google indexiert wurde, dann wäre das etwas anderes.


Um neue Seiten schnell (2 Tage) in Google zu bekommen braucht es nur ein Link von einer PR3 Seite.
 
Vielleicht werden Domains auch nicht so statisch "verbrannt", wie bisher angenommen. Möglicherweise ist es nur ein sehr träger Filter, der eine bestimmte Anzahl Crawlzyklen braucht, um gelockert zu werden.
 
Die Diskussion über Algorithmen bei google bringt doch nichts...
Was man nicht weiss ...

Sieht es noch einmal rein philosophisch und vergleicht die Situation mit der Evolution:
Die Erde ist ein Biotop, dessen Umweltbedingungen sich ständig ändern. Arten, die robust sind, überleben, aber auch Arten, die sich schnell anpassen können.

Hier ist google das Biotop. Die Naturgesetze, welche nicht bekannt sind, sind die google-Algorithmen. Als Robuste Seiten bezeichne ich einmal Seiten mit einem sehr konservativen Gebrauch von nur html. Die anderen Seiten - mit diversen weiterführenden Techniken - müssen sich also notgedrungen schnell anpassen können. Es kann aber auch sein, dass das Biotop innert kürzester Frist wieder attraktive Lebensbedingungen bietet. Das weiss aber niemand. Die Frage, die in der google-Evolution wie auch in der Natur gestellt wird: welche Art kommt am besten zu recht ? Dinosaurier waren auch einmal mächtig, aber die Nager haben überlebt...

Die Strategie nichts zu tun, führt eigentlich nur in Ausnahmefällen zum Ziel. Egal ob das Naturgesetzt lautet: "Ayom mag ich nicht" oder "Diese Seite mag ich nicht, weil sie mich mit dem Code irritiert..."
 
Status
Für weitere Antworten gesperrt.
Zurück
Oben