SES München 2005 - Bericht von Small-n-Tall

Remo Uherek

Ayom Gründer
Hallo Ayom

Am Dienstag, den 12.4.2005, besuchten wir die Search Engine Strategies Konferenz in München. Es gab zwei Veranstaltungsreihen, die parallel liefen. Deshalb trennten wir uns und besuchten je einen Panel. Meine Ausführungen werden sich deshalb auf den Panel 1 beziehen. Alains Kommentare findet Ihr im 2. Teil unseres Berichts

09:00-10:30: Einführung in das Suchmaschinen-Marketing
Referent: Danny Sullivan
Moderator: Tim Cole
Tim Cole ist schon seit 40 Jahren Journalist und seit 10 Jahren schreibt er über die neuen Medien mit Schwerpunkt Internet. Er beschreibt Suchmaschinen als „Mittelpunkt des Lebens vieler Millionen Menschen“. Er empfiehlt, den Searchenginewatch.com-Newsletter von Danny zu abonnieren, der schon über 100'000 Abonnenten hat. Huch, selbst wir haben den Newsletter noch nicht abonniert. Das habe ich soeben aber nachgeholt :).
Danny beginnt mit seiner Einführungsveranstaltung. Er bezeichnet den kostenlosen/natürlichen/organischen Bereich der Suchmaschinen als Public Relations, da der organische Bereich ja „redaktionell“ aufbereitet wird. Genau so, wie man nicht erwarten kann, dass die Presse über einen schreibt, so darf man nicht erwarten, dass die Suchmaschinen das tun. „As with all PR, good coverage is NOT guaranteed.“ Man hat keinerlei Garantien und darf sich davon nicht abhängig machen. Wenn es passiert, ist es natürlich in Ordnung, und man kann es auf eine gewisse Weise auch beeinflussen (genauso, wie man die Journalisten anrufen und um einen Artikel bitten kann). Übertreibt man aber (ruft die Journalisten z.B. im 5-Minuten-Takt an), dann muss man sich nicht wundern, dass einem niemand mehr zuhört und man womöglich ausgeschlossen wird.
„Want guarantees? Buy an ad…“
“Don’t depend on free listings, but don’t ignore them, either. Do a mix.”
Wichtig wäre auch anzumerken, dass organische Suchmaschinenlistings nicht Basis für Erfolg sind, sondern dass vielmehr Erfolg und Kundennutzen Basis von gute Suchmaschinenlistings sind (Fachmagazine schreiben ja auch bevorzugt über gute und/oder etablierte Produkte/Unternehmen).
Sehr wichtig ist, dass man eine gute Keyword-Recherche vornimmt, damit man weiss, auf welche Keywords man sich fokussieren soll.
Der Title-Tag ist nach wie vor eine sehr einfache und effektive Methode, seine Rankings zu verbessern. „Keep it short, attractive and enticing. Remember, you want people interested.“
Meta-Tags sind zwar schon lange nicht mehr ausschlaggebend, aber dennoch empfiehlt Danny, den “keyword”-Tag und den “description”-Tag zu verwenden. Yahoo benutzt den „keyword“-Tag und Teoma inoffiziell. Der „description“-Tag wird an vielen Orten nach wie vor verwendet. Zum „description“-Tag: „In a hurry? Just use the first paragraph of each page.“
Der meta robots Tag sollte nicht verwendet werden, wenn man gefunden werden will. Er sollte nur verwendet werden, wenn man NICHT gefunden werden will. Der Meta Revisit Tag ist schon lange absolut sinnlos. Man sollte sich den Code sparen.
Eingehende Links sind wichtig. Noch wichtiger ist die Qualität der Links. „A few links from quality sites is better than hundreds of links from bad sites.“ Ausserdem spielt der Link-Kontext eine immer wichtigere Rolle. Nicht nur der Linktext, sondern auch der Text unmittelbar vor und nach dem Link. Ein sehr effizienter Weg, um an qualitativ hochwertige Links zu kommen, ist eine Suche nach seinen Top-Keywords in den Suchmaschinen. Von allen Seiten in der Top 10 sollte man versuchen, einen Link zu erhalten. Denn diese Sites sind es, die von der entsprechenden Suchmaschine als „relevant“ angesehen werden.
Zum PageRank: „Forget the PR meter“ Danke Danny :).
Goldene Regeln zum Link-Building: 1. Eingehende Links von relevanten Seiten bekommen, 2. Links kaufen, wenn es wirtschaftlich Sinn macht, 3. Ausgehende Links auf relevante Seiten
Eine Eintragung in Suchmaschinen ist nicht zwingend, kann unter Umständen aber dennoch den Indizierungsprozess beschleunigen (nicht immer!). Besser ist es jedoch, wenn die Spider von alleine durch Links auf die Website aufmerksam werden.
Ganz wichtig ist, dass man zusätzlich zum organischen Listing kostenpflichtige Listings bei AdWords, Overture und Espotting anstrebt. Dies sorgt für kalkulierbaren Traffic bei kalkulierbaren Kosten und kalkulierbarer Umwandlungsrate.
Eine Eintragung in die grossen Verzeichnisse wie Yahoo oder DMOZ sollte auch von jeder Website angestrebt werden. Auch dies bringt zusätzlichen Traffic (und damit mehr Unabhängigkeit von Suchmaschinen) und es hilft den Suchmaschinen-Crawlern, die eigene Seite zu finden.
Die drei grössten Suchmaschinen Google, MSN und Yahoo decken zusammen 92% des Marktes ab.
Paid Inclusion (z.B. bei Yahoo) macht eigentlich nur für sehr grosse und kommerzielle Websites Sinn, die bereits eine „Autorität“ sind. Ansonsten wird es wohl schwierig, gute Rankings zu erhalten. „No money? Don’t worry – pages do still get in for free“.
Unterschiedliche TLDs für verschiedene Länder machen durchaus Sinn, da man dann auch in regionalen Suchmaschinen und Verzeichnissen mit höherer Wahrscheinlichkeit gelistet wird. „Have separate sites for each country.“ Man sollte aber darauf achten, dass auf jeder Landes-Website auch tatsächlich einzigartiger Content in der entsprechenden Landessprache veröffentlicht wird.
Frage von Cole an Danny: „So, when we write for search engines, should we write for complete morons?“ Danny: “Yes!”. Der Meinung bin ich nicht. Ich denke, gute, journalistisch wertvolle Texte sind im Zweifelsfall stupiden Suchmaschinentexten, die mit Keywords vollgestopft sind, vorzuziehen.
Fazit: Nette Zusammenfassung für Anfänger. Schön, Danny Sullivan mal live gesehen zu haben.

11:00-12:00: Identifizierung der relevanten Suchbegriffe
Referenten: Stefan Fischerländer, Alexander Gösswein (Overture), Marcus Koch, Christian Vollmert
Laut einer Studie werden 50% aller Online-Käufe über Suchmaschinen generiert. Und trotz mittlerweile gegensätzlichen Annahmen sind generische Keywords nach wie vor sehr wichtig. Ein weiteres Fakt ist, dass 70% aller Sucher auf der ersten Suchergebnisseite bleiben.
Wie findet man die passenden Keywords?
- Brainstorming
- Keyword-Datenbanken verwenden
- Logfile-Analyse (Achtung: In den Logfiles findet man nur, worüber man gefunden wurde, und nicht, worüber man NICHT gefunden wurde!)
- Cluster-Suchmaschinen wie Clusty
Bevor jemand auf einer Website einkauft, besucht er sie im Durchschnitt drei mal. Bei kostenpflichtigen Listings gilt der Grundsatz: Je mehr Keywords in der Liste, desto grösser wird der erwartete Traffic.
Generell gilt, dass die Bedürfnisse des Kunden auch im Internet zentral sind, und dass Ziele und Kontrollen essentiell für den Erfolg sind. Man sollte nicht per Bauchgefühl arbeiten.
Fazit: Keyword-Recherche sollte sehr früh im Suchmaschinen-Marketing-Prozess durchgeführt werden. Einige interessante Fakten & ein bisschen Eigenwerbung von Overture.

Fleissig, wie wir sind, verzichteten wir sogar auf ein Mittagessen und besuchten über die Mittagszeit stattdessen die Google University zum Thema Tools für Suchmaschinen-Vermarkter. Thomas Korte, Channel Manager SEO/SEM, führte die Präsentation durch.
Google sieht Agenturen als „Partner“ an, da sie einen sehr wichtigen Vertriebsweg für AdWords darstellen. Um die Spreu vom Weizen zu trennen gibt es seit ca. zwei Monaten das Google Advertising Professionals Programm, bei dem man sich über eine Prüfung zum „Qualified Google Advertiser“ hocharbeiten und dies dann als Verkaufsargument bei seinen Kunden verwenden kann. Die Prüfung ist aber alles andere als ein Kinderspiel. Aus 500 Fragen werden in der Prüfung zufällig 120 Fragen ausgewählt, wovon man 75% richtig beantworten muss. Zudem muss man in den letzten 90 Tagen jeweils einen Umsatz von >1000$ über AdWords erwirtschaften.
Korte sprach auch über die Smart-Pricing-Technik bei den Content-Partner-Seiten (AdSense). Grundlage ist eine komplexe statistische Analyse, die die Umwandlungsrate der entsprechenden Website schätzt. Über Smart-Pricing wurde auf Ayom ja auch schon diskutiert, und jetzt konnte dies mit der geschätzten Umwandlungsrate bestätigt werden.
Über die Funktion „ValueTrack“ ist es möglich, Conversions zwischen dem Such- und Content-Netzwerk zu unterscheiden. Dazu muss in der Ziel-URL ein Parameter eingefügt werden (einfach die Google-Hilfe dazu durchforsten).
Korte betont, dass Conversion-Tracking das A und O jeder Keyword-Advertising-Kampagne ist. Conversion-Tracking sollte man als professioneller Webseitenbetreiber sehr ernst nehmen. Google bietet ein kostenloses Tracking an. Ebenso wichtig ist es, dass man sich im Vorfeld eine Gebots-Strategie überlegt. Will man um jeden Preis oben sein? Reichen die unteren Plätze? Besonders wichtig ist in diesem Zusammenhang der Customer Lifetimevalue. Weiss man, wie viel man pro Lebensdauer eines Kunden durchschnittlich verdient, könnte es Sinn machen, für die Kundenaquisition mehr Geld auszugeben als man durch den Erstkauf verdient.
Fazit: Alles in allem interessant, die Präsentation gesehen zu haben, aber im Grunde war nichts Neues dabei. Wir hatten Glück, gute Sitzplätze gefunden zu haben. Dutzende musste am Boden sitzen oder stehen.

13:15-14:30: Webseiten-Design für Suchmaschinen
Referenten: Marcus Koch, Thomas Eisinger, Douwe Osinga (Google Engineer)
Informationen auf Websites müssen zugänglich sein. Nicht nur für Besucher, sondern auch für Suchmaschinen. Generell gilt: Ist eine Website barrierefrei, so ist sie sehrwahrscheinlich auch suchmaschinentauglich. Testen kann man dies z.B. mit einem textbasierten Browser (z.B. Lynx).
Koch: Top-Positionen alleine bringen nicht viel. Die Sucher müssen auch klicken. Um den „Klick-Effekt“ zu erreichen, muss man einen attraktiven Title-Tag, eine attraktive Beschreibung und eine attraktive URL präsentieren können. Entscheidend sollten also nicht die Positionen, sondern die Klickrate, sprich im Endeffekt der Traffic sein.
Eisinger: Grundsätzlich gibt es im Suchmaschinen-Marketing einen Zielkonflikt. Man muss folgende drei Anspruchsgruppen gleichzeitig befriedigen: 1. Benutzer (wollen Nutzen), 2. Betreiber (wollen Umsatz), 3. Suchmaschinen (wollen relevante Suchergebnisse).
Grundsätzlich gelten folgende Anforderungen an einen Spider: 1. Zugänglichkeit von Informationen (Sackgassen vermeiden), Lösung: Sitemap; 2. Wiederaufrufbarkeit gewährleisten: Problem des Session-ID Timeouts vermeiden; 3. Themenrelevanz
Douwe Osinga: Man sollte auf jeden Fall mit alten Browsern testen. Läuft die Website auch auf Netscape 3.0 einwandfrei, dann werden auch Spider vermutlich keine Probleme mit ihr haben. Probleme beim Webdesign: 1. Such-Boxen, 2. Formulare, 3. Splash-Seiten, 4. Frames, 5. Flash (wird mitlerweile teilweise indiziert), 6. Komplizierte CMS, 7. Komplizierte, dynamische URLs.
Nur extreme Cloaking-Varianten werden geahndet. „Leichtes“ Cloaking im Sinne von Flash/Non-Flash oder die Änderung einzelner Wörter ist unproblematisch. (Vor allem letzteres finde ich interessant. Damit könnte der Konflikt „write for morons“ vs. „journalism“ doch elegant umgangen werden; aber auch hier gilt: Nicht übertreiben!). Es ist ratsam, Suchmaschinen als eine Art „behinderte User“ zu sehen.
Trotz aller Suchmaschinenoptimierung ist Usability im Zweifelsfall IMMER vorzuziehen. Es macht z.B. nicht immer Sinn, die Navigation mit für Besucher unpassenden Keywords zu bestücken, nur weil es den Suchmaschinen-Rankings was bringen könnte.
Websites müssen vermarktet werden. Nur Webdesign allein nützt nichts. Der Betrieb einer Website kostet immer Geld und Arbeit. Dessen sollte man sich bewusst sein.
Die Hauptfrage beim Webdesign lautet: „Sind die Besucher glücklich?“
Fazit: Interessante Grundlagenveranstaltung mit durchaus auch technischen Aspekten. Die Inputs von Eisinger machten den besten Eindruck.

15:00-16:15: Einkauf und Optimierung von bezahlten Suchresultaten
Referenten: Jens Bargmann (InfoSpace), Thomas Eisinger (explido), Wolfhart Fröhlich (Espotting), Thomas Korte (Google), Isabell Wagner (GF Overture Deutschland)
Diese Session war eine wahre Elefantenrunde und Werbeveranstaltung zugleich.
Overture: 6000 zahlende Kunden in Deutschland, sehr viel Aktivität im Reise- und Finanzbereich. Die Umsätze im kommerziellen Suchmarkt sollen sich bis 2010 ca. verdreifachen.
Espotting: Espotting bietet völlige Transparenz. Auf der Website kann sich zu jedem Suchbegriff die aktuelle Liste inkl. der Gebote ansehen. Somit kann man immer genau kalkulieren, auf welcher Position man sich „einkauft“. Espotting will ausserdem einige Innovationen in diesem Bereich lancieren, z.B. im Bereich „pay-per-call“ mit 0800er Nummern.
Infospace: Metasuchmaschine mit interessantem Konzept (statistische Analysen). Gibt’s seit 1996 und macht heute 250 Mio USD Umsatz. Geschäftsmodell ist „Kombination und Distribution“.
Eisinger: Explido verwaltet bis zu 7-stellige Budgets und hat eine eigene Tracking-Technologie. Seine Tipps für bezahlte Suchergebnisse: 1. Sinnvolle und realistische Ziele, 2. Messen, messen, messen, 3. Gute Strategie, 4. Flexible Budgets auf Basis des Customer Lifetime Value.
Die lokale Suche soll sich in den nächsten Jahren sogar zu einem noch grösseren Markt als die „normale“ Suche entwickeln.
Click-Betrug wird von den Betreibern sehr ernst genommen. Overture: „Tausende Filter sind aktiv, und zahlreiche Methoden haben wir patentiert.“
Fazit: Die teilweise detaillierten Vorstellungen der Anbieter können durchaus als Werbung angesehen werden, aber dennoch waren bei jedem einige interessante Aspekte dabei. Wichtig ist, dass man sich nicht nur auf einen Anbieter konzentriert, sondern dass man alle Anbieter ausprobiert und dann mit dem weitermacht, der am wirtschaftlich am meisten Sinn macht (ausserdem deckt kein Anbieter den Markt zu 100% ab).

16:30-17:45: Texten für Suchmaschinen und Textlinks
Referenten: Christian Petersen, Gerda von Radetzky (optimierung.net)
Petersen: Texte sind „Filter“. Man kann gute von schlechten Klickern trennen. Individuelle Landing-Pages können für bezahlte Ergebnisse sinnvoll sein. Das Wort „günstig“ im Titel erhöht die CTR merklich (gilt nur im B2C-Bereich). Markennamen sollten so oft wie nur möglich erwähnt werden, da auch dies die CTR erhöht. Die zentrale Herausforderung im PPC-Marketing: Die Marketingmessage muss auf extrem wenig Platz rübergebracht werden. Bei so wenig Worten kann ein einzelnes Wort über Erfolg oder Misserfolg entscheiden!
Gerda von Radetzky: Position 1 des Suchbegriffs „hier“ ist Acrobat Reader, weil viele Leute beim „hier downloaden“ das „hier“ verlinkt haben.
Die fünf Schritte zum Erfolg: Analyse, Marketing, Optimierung, Realisierung, Evaluierung. Jede einzelne Seite einer Website ist wie ein Artikel einer Zeitung. Jeder Artikel bracht einen attraktiven Titel, eine Zusammenfassung des Textes zu Beginn und den Text an sich. Dasselbe gilt für Webseiten. Optimale Texte sollten so aufgebaut sein: 1. Titel, 2. Kurze Zusammenfassung, 3. Text.
Bei Bildern sollte man unbedingt sinnvolle Alt-Texte verwenden. Diese werden von Suchmaschinen durchaus beachtet. Ausserdem sollte das passende Keyword zum Bild auch im Dateinamen vorkommen. Sinnvoll kann auch eine Bildlegende sein (wie im Printbereich üblich).
Linktexte eingehender Links sollte man gezielt optimieren. Logfile-Analyse ist wichtig, sagt einem aber leider nicht, worüber man nicht gefunden wird.
Fazit: Auch Texte im Internet sollten journalistisch wertvoll sein. Viel Traffic ist schön und gut, doch zum Kauf überzeugen kann nur ein guter Text. Bei aller Optimierung sollte man die journalistischen und redaktionellen Grundsätze nie ausser Acht lassen.

Alles in allem war es ein anstrengender Tag mit dichtem Programm. Inhaltlich waren die Veranstaltungen zwar auf hohem Niveau, doch allzuviel Neues konnte ich nicht erfahren. Dennoch war es äusserst interessant, die vielen bekannten Namen der Branche mal live erleben und teilweise persönlich kennenlernen zu dürfen. Und insgeheim bin ich froh, dass wir nur einen Tag dort waren, denn sonst müsste ich jetzt doppelt so viel schreiben ;-).

Gruss, Remo
 
@Remo

Vielen Dank für den ausführlichen und guten Bericht, ich war ja nur im Austellungsbereich,
da mir die Kosten für die Vorträge doch recht hoch vorkommen.
Ich freue mich schon auf den Bericht deines Partners.


Grüße Luis
 
@Remo

Auch von meiner Seite aus DANKE für den ausführlichen Bericht.

@alle
Mir ist aufgefallen, dass Google wieder mehr Wert auf den Description-Tag legt (nach meinen Test`s). Ich hab meine Seiten/Rubriken angepasst und siehe da ... bis zu 20% mehr Besucher.

Ist zwar nichts neues aber vielleicht hilft`s jemanden.

Gruss Onlineshoppig.ch
smile.gif
 
Remo: Guter Bericht

Miro: Werde ich mal ausprobieren.
 
QUOTE Der meta robots Tag sollte nicht verwendet werden, wenn man gefunden werden will. Er sollte nur verwendet werden, wenn man NICHT gefunden werden will


Könnt ihr dem zustimmen?
Hier wird doch von dem Code Teil gesprochen
CODE <meta name="robots" content="INDEX,FOLLOW" />
oder?

Danke schonmal.

Grüße Luis
 
@Luis

Ich denke der Tag ist gut, wenn Du "gewisse" Ordner/Dateien nicht "freigeben" willst. Ansonsten wurde meine Seiten bisher auch ohne diesen Tag gefunden.

Gruss Marco
 
QUOTE Könnt ihr dem zustimmen?

Ja, man kann sich den Code sparen, da "index,follow" die Standard-Einstellung von Suchmaschinen ist. Es sprechen zwei Argumente dafür: 1. Weniger Code, 2. Weniger Fehleranfälligkeit und deshalb kleinere Wahrscheinlichkeit für Spider-Probleme.

Gruss, Remo
 
Zurück
Oben