Warnungen wegen blockiertem JavaScript und CSS

Besten Dank für die Info. Was empfiehlst du, wie man vorgehen soll?
Den ganzen Ordner "includes" freigeben? Oder einzelne Dateien?
Wie sieht das mit der Sicherheit aus?
 
nun ja, die javascript dateien sind dann ja auch im google index und man kann einfach per "ext:js + codesegment" gezielt nach sicherheitsluecken oder anfaengerfehlern suchen.

oder?
 
QUOTE (Duvi @ Mi 29.07.2015, 21:24) nun ja, die javascript dateien sind dann ja auch im google index und man kann einfach per "ext:js + codesegment" gezielt nach sicherheitsluecken oder anfaengerfehlern suchen.

oder?

Das kann ich dir so gar nicht beantworten wie Google das Listen möchte. Jetzt jedenfalls scheint es noch nicht zu gehen und da Google ja gerade die Websicherheit ganz oben sich auf die Fahne geschoben hat, glaube ich nicht das sie es so einfach machen werden.. Aber ja sein kann es natürlich. Wir werden es erfahren
smile.gif
 
scheint noch nicht zu gehen? wenn ich bei der googlesuche mal was harmloses eingebe, z.b.:
CODE ext:js jquery

findet sich ja schon was.

nicht gesperrte javascript dateien werden heute schon gelistet und man kann sie heute schon durchsuchen.

der naechste exploid kommt bestimmt. und dann duerfen dank googlesuche alle mitspielen?
zudem ist die welt gross. vielen leute mit geringen programmierkenntnissen haben heute eine website. ich will nicht schaetzen wie viele einfach js-codeschnippsel kopiert haben, ohne sie zu verstehen, und darin hart ihre passwoerter stehen haben.

ich habe nicht dein googlevertrauen michael
wink.gif
... ich halte diese aufforderung im moment fuer dreist bis unverantwortlich. zumindest solange bis sie sich zu dem sicherheitsaspekt geaeussert haben.
 
Edit: Da hab ich wohl mit Duvi gleichzeitig geantwortet... Seine Antwort scheint aber besser informiert zu sein, als meine ;-)
 
Duvi ich werde diese Frage im nächsten Hangout einbringen, ich finde Sie nach deinen Schilderungen mehr als Berechtigt, danke dafür.
 
Vielen Dank für die Infos und die bereitgestellten Links. Jetzt macht also, google richtig ernst und versendet Warnungen an einige Webmaster. Wird hier nicht schnell reagiert, dann werden die Seiten mit massiven Ranking Verlusten bestraft.
 
QUOTE (nina1984 @ Do 30.07.2015, 16:22) Wird hier nicht schnell reagiert, dann werden die Seiten mit massiven Ranking Verlusten bestraft.

Woher hast du die Info?
 
QUOTE (nina1984 @ Do 30.07.2015, 17:22) Vielen Dank für die Infos und die bereitgestellten Links. Jetzt macht also, google richtig ernst und versendet Warnungen an einige Webmaster. Wird hier nicht schnell reagiert, dann werden die Seiten mit massiven Ranking Verlusten bestraft.

Sry aber diese Aussage ist komplett falsch, bzw. muss ich sagen sagt John Mueller da etwas ganz anderes. Ich habe mit ihm gestern im Hangout darüber nochmal gesprochen. Er sagt, dass es keien Abstrafung gibt, sondern dass es ja eher so ist, dass Google das jetzt auslesen kann und will und wenn die Inhalte nicht Freigegeben sind, dann kann daraus auch nichts Indexiert werden. Schaltet man die Inhalte also frei, kann Google eine Seite besser verstehen und hat mehr Informationen um deine Seite ranken zu lassen. (Solange du eben nichts gegen die Webmaster Richtlinien machst). Eine Abstrafung und Bestrafung hat er aber konkret verneint.
 
Das hat John Mueller ganz klar verneint, dass es an dieser Stelle keinen Penalty geben wird. Das ist mir schon klar, dass google alle Texte und Inhalte sehen möchte. Es gibt auch keine Sicherheitsbedenken nach seiner Ansicht nach.
 
Es geht auch um Google's Fähigkeit, externes JS in irgendeiner unangenehmen Art zu interpretieren oder zu fehlinterpretieren.

Ich habe da schon Erfahrungen mit frühen Versuchen von Google, wo der Spider einfach URLs aus dem JS gezogen hat und die ganzen Seiten im Index umschichtete. Und klar: ich nehme JS z.B. auch für Linksculpting. Nur versteht Google einige meiner Funktionen auch schon...

Es gibt einfach einen immens wichtigen Grund, weshalb ich JS vor Google verstecken will und muss:
Banner-Anzeigen.

Die Fähigkeit Googles durch Banneranzeigen "zu klicken" oder Views zu erzeugen... Zumindest mal in den Server-Statistiken, die bei mir auch immer Back-Up sind. Oder eben, Banneranzeigen falsch zu verstehen und dann ausgehende Links zu erkennen, die eigentlich nicht statisch vorhanden sind.

Als diese Klage (vor)gestern kam, habe ich Google den Freischein für das CSS und einige JS-Skripte gegeben. Aber für Google bleibt die weisse Fläche oben und rechts mit Banneranzeigen einfach tabu!
 
QUOTE (Michael Schöttler @ Fr 31.07.2015, 09:01)
QUOTE (nina1984 @ Do 30.07.2015, 17:22) Vielen Dank für die Infos und die bereitgestellten Links. Jetzt macht also, google richtig ernst und versendet Warnungen an einige Webmaster. Wird hier nicht schnell reagiert, dann werden die Seiten mit massiven Ranking Verlusten bestraft.

Sry aber diese Aussage ist komplett falsch, bzw. muss ich sagen sagt John Mueller da etwas ganz anderes. Ich habe mit ihm gestern im Hangout darüber nochmal gesprochen. Er sagt, dass es keien Abstrafung gibt, sondern dass es ja eher so ist, dass Google das jetzt auslesen kann und will und wenn die Inhalte nicht Freigegeben sind, dann kann daraus auch nichts Indexiert werden. Schaltet man die Inhalte also frei, kann Google eine Seite besser verstehen und hat mehr Informationen um deine Seite ranken zu lassen. (Solange du eben nichts gegen die Webmaster Richtlinien machst). Eine Abstrafung und Bestrafung hat er aber konkret verneint.

Also wenn Google eine Seite besser ranken "kann" weil der Crawler durch JS und CSS Dateien die Seite besser verstehet, dann heisst es zuminedst indirekt dass andere Seiten schlechter ranken.
Bei jedem Ranking-Gewinner gibt es einen Ranking-Verlierer.
Auch wenn man durch das Sperren von CSS und JS für den Crawler keinen Penalty erhält kann man beim Ranking abrutschen.
Und falls es die Freigabe von JS und CSS keinen Einfluss für ein eventuell besseres Ranking bringt, wozu denn das ganze?

Wenn man beispielsweise eine Seite hat auf der die Keywords fehlen erhält man auch kein Penalty.
Allerdings ist es logisch dass Seiten mit Keywords besser dastehen und ranken.
 
Mit keine Bestrafung ist eine direkte gemeint. Natürlich kann durch diese Änderung es zu Rankingveränderungen kommen. Dies wird aber schwer in Verbindung zu bringen sein, du bräuchtest für diesen Vergleich schon zwei Seite mit dem gleichen Inhalt, einer sperrt einer nicht.. aber ansonsten stimmt das natürlich was du sagst.

Rem meinst du nicht das man den Crawler auf andere Weise sagen kann, dass er hier eine gewisse Aktion nicht ausführen soll)wegen deinem beispiel Banner)? Kenne mich jetzt so gut mit HTML und PHP auch nicht aus
smile.gif
 
Ich sehe es als Kompromiss, die Werbung weiterhin per robots.txt zu blockieren, aber zwei, drei andere js-Inhalte freizugeben. Aber klar, unter Nutzung des css rendert Google einige weiße Flächen...

Aber was bleibt außer robots.txt, Meta noindex, oder nofollow übrig? Eigentlich nichts... Php gut und recht: aber es echod ja auch nur html. Und den Google-Spider mit einer spezialversion zu beliefern geht ja auch nicht. Nein: da muss Google halt einen quality rater drüberschicken, wenn die vielen weißen Flächen bei z.b einer Bildanalyse auffallen...

Ich denke entscheidend wird z.b. der Abstand des contents vom oberen Rand sein oder ob er sich der Breite anpasst. In allen weißen Flächen muss Google fast logischerweise annehmen, dass Werbung erscheint... Das mit dem oberen Rand gilt ja womöglich auch für Panda... Und wegen Panda hat Google ja auch keine Warnungen verschickt, js wäre blockiert...

Konsequenterweise: wer z.b. Adsense oder sonstige drittwerbemittel einbaut, hat ja auch blockiertes, externes js. Man kann gespannt sein, was alles moniert wird...
 
Lasst mich noch kurz etwas anmerken:

drei wichtige Unterseiten meiner 8000-Pages-Website bestehen zu ca. Zweidritteln aus Werbung. Auf diesen Pages hat Panda in den Jahren den Traffik um ca. 30% rasiert. Ich lebe deswegen nicht unbedingt gefährlich, weil die Zugriffe auf das Gesamtangebot zunehmen.

Aber lasst es mich so sagen: es besteht ein Druck, statt klassischer Bannerwerbung, redaktionell erscheinende Schleichwerbe-Artikel zu publizieren, um das Angebot zu finanzieren. Das kann nicht im Sinne von Google sein. Aber das macht jeder Affiliate-Blogger auch.

Insofern schaue ich gespannt auf meine Statistiken. Mein Gefühl ist, dass Google weiterhin weisse Flächen tolerieren muss. Ansonsten kommen die Seiten wieder zum Vorschein, die man früher abgestraft hat.

Das ist etwa, was ich grob einschätze. Ich habe jetzt 8 Warnungen wegen CSS und js erhalten. Bei 7 habe ich sozusagen vollständig eingelenkt und bei einer Warnung gibt es Häppchenweise etwas mehr...
 
Zurück
Oben