SES München 2005 Bereicht 2ter Teil

Alain Aubert

Legendäres Mitglied
Hi Ayom

Auf http://www.ayom.com/topic-6711.html aufbauend hier meine Notizen und Kommentare. Teilweise sind sie ein wenig Stichworthaft.... Kursiv geschrieben ist, was nicht direkt auf den Notizblättern war.
Das sind noch nicht alle Notizen...
@Remo, bitte Gegenlesen


Ordnung ins Chaos bringen, so ist es
möglich

Mod: Hubert Gertis von gertis.media

Referenten: Michael Machon von SoQuero
GmbH und Tim Ringel, CEO von Metapeole GmbH

M:

Massnahmen um Webseiten nach vorne zu
bringen:


  1. On Site Optimierungsmassnahmen

    Webseiten Ziele definieren

    Action Planung

    Umsetzung der Massnahmen

    Checkliste On Site Optimierung

    ?!?!

    Zusammenfassung


  1. On Site Optimierungsmassnahmen:

    Def.: Robots den Zugriff zur Seite
    ermöglichen.Optimierung die es möglich macht die hohe
    Relevanz zum Thema zu erkennen. Den Content in Form und Struktur
    optimal maschinenlesbar und maschinenverstehbar zu machen.
    Ziele:
    Gute Positionen in Suchmaschinen, d.h. Auffindbarkeit für
    bestimmte Suchbegriffe.

    Webseiten
    Ziele definieren:

    Unterscheidung in
    drei Kategorien: B2B, B2C und Ecommerce Webseiten:

    B2B:

    Sichtbarkeit,
    Branding, genügen Traffic

    B2C:

    Abverkäufe

    Ecommerce:

    Welche
    Besucherstöme, woher kommen sie, wie kommen sie, wie teuer sind
    sie? Die Frage des Aufwandes.

  • SEO

    Sponsored
    Links

    Paid Links
    (Links kaufen aka high-PR Links ThomasB)

    Kooperationen
    (Content-Syndication)

    Affilate-Marketing

    Email-
    (Permission-) Marketing

    Geruillia-Marketing

  1. Umsetzung der
    Massnahmen:

    Klar.

    Controlling,
    Reporting, Kennzahlen. Was muss ich messen, wie muss ich es
    betrachten?


    Erfolg ist eine
    Frage der Definition!

    Tracking:

    Wichig ist, zu
    Beginn eine IST-Messung durchzuführen. Dies ist aus Gründen
    einer optimalen Verkaufskontrolle und Budgetplanung unabdingbar.
    Ausserdem ist es relativ schwer zu sehen was sich verändert
    hat, wenn man nicht weiss, wie es vorher war ;-)


    Kennzahlen:

  • Traffic
    (Channels)

    Conversion
    (=Umwandlungsrate) inkl. Herkunft

    Klickpfade (in
    meinen Augen nicht zu verachtendes Instrument, das noch viel zu
    selten angewandt wird. Guter Kommerzieller Anbieter ist etracker.
    Wichtig ist dabei zu beachten, dass durch die Klickpfaderfassung
    (d.h. Tracking der einzelnen Klicks) keine Links
    „Suchmaschinenunlesbar“ gemacht werden
    (Zwischenschaltung von JS etc.))


    POA (Point
    of Action ~„aka Point of Sale“ nicht ganz dasselbe
    online)


    POE (Point
    of Exit, d.h. Der Benutzer/Kunde verlässt die Seite. Z.B. der
    potentielle Kunde bringt den Bestellvorgang ab, da das Formular zu
    kompliziert ist. In meinen Augen auch noch stark vernachlässigt.


    ROI (Return
    of Investment, klar)


  1. Checkliste:

  • Welche
    Massnahmen wurden durchgeführt

    Welche
    Keywords werden anvisiert (selten mehr als 20 (an dieser
    Stelle bin ich nicht ganz gleicher Meinung, wobei es für
    „kleine“ (o.a. Nischen-) Seiten durchaus zutrifft.
    Sicherlich ist ein Hauptset von 20 Keywords i.O., wobei ich der
    Meinung bin, dass die notwendige Breite der Keyword-Palette i.d.R.
    unterschätzt (bzw. nicht genügend ausgenützt) wird.)
    )

    Target Advertising (d.h.
    Zielgruppenabhängige Werbung)

    vs. Gieskannenprinzip (d.h. Masse statt Klasse, „Mit
    der Gieskanne streuen“)


    Welche
    Keywords sind schon gut in den SERPs? Und welche davon bringen
    Traffic?

    Wettbewerbsanalyse.
    (Online sind es oftmals andere Konkurrenten als Offline in derselben
    Branche). Welche sind reale Konkurrenten? Was haben diese überhaupt
    gemacht? Was ist mein Allteinstellungsmerkmal (aka USP: Unique
    Selling Proposition)?


  1. Probleme
    (nicht im Inhalt?!?)

    Keine Seiten
    meiner Webseite sind im Index:

    Ursachen:

  • Seite ist neu

    Keine Links
    von anderen Webseiten, die auf die Webseite zeigen

    Viele
    Parameter in der Url (d.h.
    Index.php?ich=müde&...&fahre=zug&s=dfd9f78df75647...).


    Navigation in
    Javascript (allgemein Links in JS. Dies reicht aber nicht zur
    Nichtindizierung, da von aussen verlinkte Seiten gefunden werden,
    d.h. i.d.R. mindestens die Startseite).


    Domain wurde
    gehijacked (Chanche klein, m.E. übertriebenes Medieneche).

    Domain ist auf
    der Blacklist (Google führt bekanntermassen solche Listen,
    Seekport auch).


    Robots.txt
    falsch konfiguriert (Falsch sollt m.E. für die meissten
    Suchmaschinen egal sein, solange es sich nicht um einen „Disallow
    /“ handelt).


    Der Content
    befindet sich nur in Popups die per Javascript geöffnet werden.

    Eine
    Introseite ohne Links ist vorgeschalten (m.E. würde wiederum
    mindestens diese Seite indiziert).


    Kein
    Maschinenlesbarer Code (d.h. nur JS, nur Bilder, nur Flash oder
    nur Java, etc...).


    Seiten sind
    indiziert, aber nur mit seltsamen Titeln (etc.)

    Ursachen:

    Fehlender
    Titeltag.

    Frames (d.h.
    Titel nur im Frameset und nicht in der Contentseite).


    Hoher
    Bild-, Java(script)- oder Flashanteil.

    Erfolg ist die
    Summe aller Faktoren. (d.h. diese sollen nicht separat bewertet
    werden, da diese kaum definiert werden können) (diese
    Aussage scheint sicht sinnvollerweise nur auf SEO zu beziehen).



  1. Zusammenfassung

    Zielformulierung
    (Controlling), Verlaufskontrolle, Fehler bei der Optimierung können
    fatale Folgen haben (m.E. Formulierung stark übertrieben, da
    müssen schon sehr gravierende Fehler gemacht werden, die dem
    gesunden Menschenverstand massiv wiedersprechen).
    SEO kann
    selten inhouse erledigt werden. Optimierung ist ein fortlaufender
    Prozess

    Q&A


  • Was ist, wenn
    ich mit meiner Webseite auf der Blacklist bin? Antwort: Fragen sie
    sich wieso sie dort sind... (sonst keine wirkliche Antwort)

    (Am Beispiel von Google: 1.
    Sicherstellen ob Seite wirklich auf Blacklist (aka „gebanned“):
    Seite ist alt genug, Seite ist verlinkt, Seite war (i.d.R.) schon im
    Index, Seite ist für den Suchbegriff 'site:domain.tld' (www.
    unnötig) nicht auffindbar, es lassen sich genügen echte
    Links für die Seite finden ('„domain.tld“',
    '„domain“' suchen, Yahoo 'linkdomain:domain.tld' suchen,
    etc). 2. Hinsetzen und ehrlich sein, was habe ich gemacht. 3. Fehler
    von 2. korrigieren. Alle! 4. Entscheidung ob Domain ausgetauscht
    wird (a) (wenn notwendig sogar Server, d.h. IP (sind alle Webseiten
    dieser IP aus dem Index gefallen?)) oder ob die Seite (bzw. der
    Webmaster) 3 Monate (sowie die Anlaufphase) ohne Google verkraften
    kann (b). 4.a. Klar, ich empfehle nicht von Anfang an „mit der
    grossen Kelle“ zu verlinken, sowie wenn möglich auf
    künstliche Links verzichten. 4.b. Es existiert eine verbreitete
    Meinung, dass Seiten die (bei Google) auf der Blacklist gelandet
    sind, nie mehr in den Index und viel wichtiger in die SERPs zu
    bringen sind. Dies ist offensichtlich falsch. Nach meiner Erfahrung
    beträgt die Untergrenze 90 Tage. (Evtl. ist es möglich mit
    grossem Budget und sehr sehr guten Links diese Zeit zu verkürzen,
    ich gehe aber vom Gegenteil aus.) Während dieser Zeit sollte
    der Webmaster sich um echte Links (themenrelevante) kümmern,
    und an seinem Content weiterarbeiten. Eine Domain die spärlich
    verlinkt ist, kann auch für 6 Monate auf der Blacklist bleiben,
    oder sie gar nie mehr verlassen). Dieser Exkurz könnte noch
    ausgeführt werden.


    Was kann ich
    gegen Url-Hijacking tun? Antwort: Url Hijacking wird durch
    Serverseitige 302 verursacht (m.E. durch Server- und
    Clientseitige 302 (Meta-Refresh))
    . Schreiben sie den Webmaster
    an und bitten sie ihn den Link in einen 301 zu ändern.

    (Ich habe zu wenig Erfahrung mit
    Hijacking, denke aber die Base Href (erstmals erwähnt von Klaus
    Schallhorn) Lösung funktioniert. Ausserdem sehe ich das Problem
    als wenig gravierend an. Eine sinnvolle aber nie erwähnte
    Lösung bestünde darin, die gehijackte Seite mit
    zusätzlichen Links auszustatten, was ein Hijacking schwer bis
    unmöglich macht (Schon mal jemand versucht dmoz.org zu hijacken
    ;-) Begründung klar. Unglücklicherweise konnte ich die
    Base Href nur in eine Seite verifizieren.


    Wirklich stören tut mich in
    dieser Affäre nur die Selbstgefälligkeit Googles. Die
    Arroganz des 80% Marktführers ist deutlich sprürbar: „We
    are aware of it“ (d.h. wir sind uns dessen bewusst, m.E. seit
    wohl über einem Jahr), „Well, it's more a theoretical
    than a thechnical problem,“ (d.h. es ist mehr ein
    theoretisches wie ein praktisches Problem; sowie ~“nicht
    wirklich relevant in der Praxis“), Auf die Frage der
    schlechten Presse und die Sorgen der Webmaster „well, it's an
    issue, but it's good because of the PR“ (d.h. naja, es ist
    public relation, dh „gratis Werbung“) Ist es nicht
    schlechte Werbung? Schulterzucken, Verweis auf PR Abteilung.


    Wie schon oben erwähnt halte
    ich dieses Problem für weit weniger schlimm als viele andere
    Webmaster. Trotzdem kann ich sehr schlecht damit leben, wenn der
    Head des whatever Departments hinsteht und klarmacht, was ich schon
    von einigen Googler in Positionen gehört habe: Es ist uns sehr
    wichtig was ihr sagt, und wenn wir es oft genug hören, werden
    wir uns daran machen es zu lösen. Solche Versprechungen müssen
    immer eingehalten werden! Und das Hijacking Problem wurde wohl oft
    genug angemeldet.


    Ich darf mir diese Kritik erlauben,
    da ich ein grosser Fan von Google bin, bzw. ihrere Technik etc.
    Jedoch bin ich der Meinung, dass Google stark an der PR arbeiten
    müsste. Wichtig ist m.E. vor allem, dass sie eine europäische
    Identität aufbauen, „we are a californian tech. company“
    anlässlich der pre-Florida Problematik. Ich denke nicht, dass
    sich dies gross geändert hat, und dass die Ausrichtung noch zu
    stark in den Staaten liegt. Ausserdem sollen die guten Herren
    endlich mal anfangen die Webmaster zu erziehen, denn sie hätten
    die Möglichkeit dazu und es liegt m.E. grosses
    (Bindungs-)Potential in dieser Idee.


    Wird
    die Blacklist automatisch oder manuell geführt? Antwort: Nur
    semiautomatisch. (Wobei mindestens am Beispiel von Google
    klar ist, dass der allergrösste Teil automatisch passiert, d.h.
    es muss zuerst vom Algorithmus etwas erkannt werden, dass sich
    überhaupt ein Mensch das anschaut. M.E. läuft viel
    vollautomatisch.)


    (M.E. ist die Blacklist ein Ort,
    den ein normaler Webmaster mit gesundem Menschenverstand nie
    erreicht (Aussnahmen!)).


    Hat
    Google Probleme mit komprimierter Datenübertragung? Antwort:
    Nein, Google unterstützt immer zip. (M.E. ist klar,
    dass bei nicht unterstützter Komprimierung unverschlüsselte
    Daten gesenden werden, wonach sich die Frage erübrigt. Anfügen
    sei jedoch noch, dass der „alte Googlebot“ (welcher m.E.
    für die eigentliche Indizierung zuständig ist) die Daten
    unkomprimiert zieht, während der „neue Googlebot“

    (welcher m.E. sich zuerst einen überblick beschafft (Url
    Sortieren, DC erkennen, etc) komprimierung unterstützt und
    verwendet.


Tim Ringel


  1. Off Site Massnahmen

    Schon durchgeführte
    Massnahmen

    Planung von Off Site Aktionen

    Zusammenfassung


  1. Off Site Massnahmen

    Sind wichtig um On Site Massnahmen zu
    unterstützen. Bsp:

  • Sponsored Listings

    Keyword Advertising

    Quantitative Link Popularity

    Qualitative Links Popularity

    Webserverstruktur (...)

    IP Adresse
    (...)

    Domainumfeld

    History einer
    Domain

    Wettbewerbsumfeld
    und Analyse (Eigene Seite sowie Konkurrenz anschauen und
    vergleichen.

    Sponsoring
    (Bsp. Spenden führt zu einer Erwähnung mit Link)

    Content
    Kooperationen (Content Syndication)

    Externe
    Trackinglösungen und ihre Funktionalität (Referrer,
    aber bitte nicht spammen, muss nicht manuell gemacht werden!)


    Katalogeinträge

    Domaineinträge
    (?)

    (Wichtig ist der
    Markenschutz in sponsored Listings)

  1. Schon durchgeführte
    Massnahmen

  • Anzahl Links und deren Qualität
    überprüfen (Linkpartner überprüfen)

    Webserverstruktur (..)

    Was ist mit der „History“

    der Domain

    Kontaktieren Sie relevante
    Vermarkter

    Was machen die Mitbewerber (diese
    Identifizieren)?

    Benutzen Sie eine
    Trackingsoftware!

    Ist meine Marke schützenswert?


  1. Planung von Off Site Aktionen

  • Ansprechpartner sensibilisieren
    (Ziele, Erfolge) (d.h. Wenn viele Personen an Contenterstellung
    und insbesondere Programmierung beteiligt sind)


    Schaffen Sie
    Qualitative und Quantitative Link Popularität

    PR Prozesse,
    welche die SEO Bemühungen unterstützen:

    Nutzung
    vorhandener Unternehmungsstruktur (Tochterunternehmen,
    Partnerunternehmen)

    Austausch von
    Themenrelevanten Links mit Marktpartnern und Verbänden

    Planen Sie ein
    Budget ein

    Kundenaqusitionkosten
    (..., die Kosten die entstehen um aus dem SE Traffic einen Kunden
    zu gewinnen)


    Mit dem
    Pruduktmanager relevante Keywords erarbeiten

    Beobachten Sie
    die Benutzer, Welche Keywords führen zu welchen Ergebnissen?

    Neben SEO
    (langfristig) ist es sinnvoll auch sponsored Listings (schnell)
    auszuprobieren)

    Bestellvorgangoptimierung

    Alle Daten
    Sammlen (Logs, Keywordslisten, etc.)

    Zeitplan für
    On und Off Site Optimierung erstellen. Entscheidung treffen of
    Arbeiten in house oder von einem Dienstleister erledigt werden.
    Controlling!

Q&A

Frage: Wie kann ich die Domain History
herausfinden? Antwort: Links suchen. (archive.org, „domain.tld“
(mit „) bei Google suchen)


Frage:
Tracking/Controlling Kennzahlen? Antwort: Speziallfälle tracken,
Session Länge ermitteln (Anzahl PI pro Unique Visitor)

Optimale Struktur
für erfolgereiche und sichere Web Seiten

Stefen Karzauninkat
(..)


  • Suchmaschinen
    sind Datensammler

    Sie erkenen
    Html und Text, folgen Links, Zeichenketten, sie verstehen keine
    Wortbedeutung. Suchmaschinen verstehen (meisst) keine
    Multimediadateien. „Sie lesen Seiten wie ein alter Browser“

    Struktur
    (interne Linkstruktur) einer Seite (Hierarchie) soll
    möglichst flach sein.

    Hierarchische
    Links mit Deeplinks auf der Startseite (Je kürzer der
    interne Linkweg zu einer Seite (vom Zentrum aus) ist, desto
    wichtiger ist sie. D.h. Wichtge Seiten von der Startseite verlinken)


    Verteilseiten
    (Sitemaps, nicht zu viele Links, Teilsitemaps)

    Interne Verlinkung

    Querlinks zu
    Verteilseiten

    Querlinks
    innerhalb des Themas

    Inhaltliche
    Querlinks (Querlinks im Text)

    Auf jeder
    Seite auf die Startseite verlinken (sowie die Sitemap)

    Einheitliche
    Links Urls

    Alle Seiten müssen auf kurzem
    Weg (max 3 Klicks) erreichbar sein.

    Ziel: Autoritäten schaffen

    Broken Links checken mit Xenu
    (http://home.snafu.de/tilman/xenulink.html#Download
    Das Tool ist recht schnell)


    Mögliche
    Problemzohnen:

    Frames: E
    inzelne Seiten ohne Navigation werden indexiert

    Lösung:
    No-Frames Bereich, Auf Frames verzichten (Frames sind durch CSS
    „imitierbar“)


    JavaScript:
    Links werden nicht erkannt

    Lösung: Blank
    Links

    Flash: Inhalte
    werden nicht (oder nur teilweise) erkannt, Links werden nicht
    erkannt.

    Lösung: Keine
    Zentralen Aussagen in Flash, keine wichtigen Links oder die
    Navigation in Flash. Flash nur als Illustration verwenden.

    Bilder statt
    Text: Keine durchsuchbaren Infos

    Lösung:
    Alt-Text, Bilder nur zur Illustration verwenden

    Weiterleitungen:

    Lösung:
    Möglichst Vermeiden

    Dynamische
    Seiten

    Lösung:
    Dynamische Seiten mod_rewrite, statischen Content auch statisch
    darstellen, Einzelne Elemente können auch dynamisch eingebunden
    werden.

    Unproblematisch

    PHP und SSI
    includes, Layer

    Verwenden Sie Meta
    Angaben, robots.txt, Seitenstruktur (klare Titel)
Testen Sie ihre Seiten mit dem http://www.seekport.de/seekbot/
(Seiten auf ihre Suchmaschientauglichkeit prüfen)

HTTP Protokoll und
die Suchmaschienen

Jürgen
Pruschausky (Webmaster von der Credit Suisse, CS)

Da die CS das HTTPS
Protokoll verwenden wollte und trotzdem von Suchmaschinen indiziert
werden wollten, tratz ein Problem auf, da die meissten Suchmaschinen
dies nicht unterstützen (Ausnahme: Google).

Als Gründe für
die Verwendung von HTTPS führt P. Authenzität, Integrität
und Anonymität an. Ohne HTTPS kann man alles mitloggen.

Deshalb hat er eine
Backdoor für Suchmaschinen gebaut.

Er erzählt die
Anektote von Google im März 2002, als sie anfingen HTTPS zu
erkennen. Dabei passierte der Fehler, dass sie die robots.txt
missachtet haben. 3.8 Millionen Seiten mussten gelöscht und neu
indiziert werden.

„Agent Web
Ranking“

SEO ist
Usabilityoptimierung




 
Ist zwar wirklich etwas stichwortartig geschrieben aber trotzdem interessant,
mir fehlen manchmal die Antworten bzw, Aussagen zu angesprochenen Themen.
Wurden diese nicht gegeben, sondern immer nur kurz angerissen?
 
ähm Nein, die Vorträge waren meistens gut strukturiert (ich hab erst ca. die hälfte der Notizen verarbeitet). Die nicht ganz optimale Form, die Du hier vorfindest ist vielmehr mein Notizen Stil. Ich notiere irgendwo zwischen Steno und Gekritzel nur die Stichworte, d.h. die Kernaussagen. Weitere Informationen kriegt man dann immernoch. Z.B. einfach das Stichwort in Google eingeben. Ich muss zugegeben, dass meine Form zwar sehr angenehm ist um damit zu arbeiten, aber doch bei weitem nicht so lesbar, wie es die Zusammenfassungen von Remo waren.

Du kannst aber jeden Abschnitt hier quoten und einfach nochmal nachfragen.
 
klasse danke die infos sind so gut das ich fast nicht sauer bin.
das geld dieses jahr für die veranstaltung nicht gehabt zu haben ...


viele grüße
 
Zurück
Oben