środa, 23 lutego 2011

Wie interessant ist Ihre Seite für Google?

ktw/23.02.2011/15:00

Startbild beim Aufruf von Google.es

Es gibt einfache Methoden um festzustellen, wie interessant eine Homepage für Google ist. Stellen Sie sich nicht darauf ein, dass hier Geheimnisse verraten werden. Es ist auch nicht das Ziel dieses Beitrages. Viel mehr wollen wir Ihnen die “onboard”-Werkezeuge zeigen, wie Sie die Aktivitäten des Datensammlers – auf Ihre Homepages bezogen – beobachten und auswerten können.

Die “Webmaster-Tools” sind den meisten Webmastern bestens bekannt. Falls Sie noch damit keine Erfahrungen gemacht haben, loggen Sie sich bei Google.com ein. Um Ihnen die Suche zu erleichtern, folgen Sie einfach diesem Link: https://www.google.com/webmasters/tools.

Sie finden dort die unten abgebildete Oberfläche vor. Falls Sie dort zum ersten Mal sind, müssen Sie Ihre Homepages hinzufügen. Anschließend wird von Ihnen verlangt, dass Sie sich als Webseiten-Eigentümer identifizieren. Es gibt vier Methoden dies zu tun. Die Einzelheiten sind aber dort sehr gut beschrieben. Die Authentifizierung selbst stellt ebenfalls kein Problem dar.Google´s Webmaster-Tools

Nach der Bestätigung der Eigentumsverhältnisse werden dort Ihre Homepages angezeigt. Sie Klick auf die eine oder andere Homepge, und Sie bekommen die Details der von Ihnen ausgewählten Homepage – in einer Übersicht -  angezeigt.

Webmaster-Tools: Dashboard

Auf der linken Seite sehen Sie die Menüpunkte: Webseiten-Konfiguration, Ihre Website im Web, Diagnose und Google Labs.
In der Webseiten-Konfiguration können Sie Ihre Sitemaps eintragen. Ein wenig später wird der Google-Bot die Sitemaps kontrollieren und ggf. die eine oder andere Seite in den Index aufnehmen. Das Ergebnis könnte z.B.: folgendermaßen aussehen:
Beispiel Sitemap mit Anzahl der Links und der Seiten, die in Index aufgenommen wurde.

Es besagt, dass in diesem einen speziellen Fall 874 Seiten übermittelt wurden. Von allen übermittelten Seiten, 593 wurden in den Index aufgenommen. Eine ganz gute Quote für eine durchschnittliche Homepage. Bei den Blogs ist die Quote – wenn Ihre Artikel und Kommentare einzigartig sind – noch höher. Es ist keine Seltenheit, dass von den 21 übermittelten Seiten, 21 in den Index aufgenommen werden. Werfen Sie jetzt einen Blick auf das Datum. Daraus können Rückschlüsse gezogen werden, wie oft Google Ihre Seite besucht. Denn, wir brauchen uns hier nichts vorzumachen: Google lebt doch von der Aktualität der Treffer genauso, wie Sie. Algorithmus hin oder her, bestimmte Schräubchen werden auch manuell (Personal) – und das gar nicht so selten - angezogen. An diesem Beispiel können Sie sehen, dass Google diese Sitemap bereits am heutigen Tage, aufgerufen hat. Wenn Sie am frühen morgen, z.B.: um 07 Uhr unserer Zeit dort nachsehen, und immer noch das Datum von gestern sehen, keine Panik! Es gibt einen Zeitunterschied, der genau 9 Stunden beträgt. Im Klartext, wenn Google-Bot kurz nach 9 Uhr (unserer Zeit) die Sitemaps aufgerufen hat, erscheint in den Webmaster-Tools das heutige Datum.

In unseren früheren Beiträgen haben wir bereits beschrieben, wie Sie darauf Einfluss nehmen können, was die Suchmaschinen sehen können. Für die Einschränkungen, die Sie setzen wollen ist die Datei robots.txt, verantwortlich. robots.txt - der "Begrenzer" Ihrer Homepage

Hier sieht man es auch auch, dass Google die robots.txt - Datei, die sich im Hauptverzeichnis Ihrer Homepage befindet, vor 17 Stunden mit Erfolg downgeloaded hat.

Als Unterpunkt des Menüs “Ihre Website im Web” gibt es die “Suchanfagen”. Hier können Sie erfahren, wie wirksam Ihre Keywords in den Suchergebnissen sind.image

In der “Diagnose” finden Sie den Menüpunkt: “Crawling-Statistiken”. Die Statistiken sind in drei Bereiche unterteilt:
1. Pro Tag gecrawlte Seiten
2. Pro Tag heruntergeladene Kilobyte
3. Dauer des Herunterladens einer Seite in Milisekunden.
Wir wollen uns hier den ersten zwei Punkten widmen.

Auswertung aus Google´s Webmaster-Tools

In dem konkreten Beispiel oben war die Domain (wegen eines nicht bis zum Ende durchdachten Umzugs im Eigenregie des Kunden) drei Tage lang nicht erreichbar.  Dies wirkt sich fatal auf die Attraktivität der Homepage für die Suchmaschinen, aus. Aber damit werden wir uns in den kommenden Beiträgen befassen.

Last but not least “Google-Labs”. Dort findet man man den Unterpunkt:

Google Labs, wichtiges Werkzeug eines Webmasters

Die durchschnittliche Ladezeit von 10,5 besagt keinesfalls, dass es die Zeit ist, bis man die Seite sieht. Nein. Es handelt sich um die Zeit, bis alle Elemente (samt der zeitintensiven externen Links) der jeweiligen Seite, vollständig geladen werden. Interessant ist aber der erste Satz der Leistungsübericht. Genauer gesagt: “aktualisiert am 20.02.2011). Diese langsame Seite (zu viele externe Links, nicht optimierter Aufbau / Code, schwacher Domain-Server, etc) wird häufig komplex von den Google-Bots besucht und untersucht. Der Kunde hat sich für einen V-Server bei einem – für uns, NES – suspekten Provider entschieden. Trotz unserer Warnungen, war angeblich der Preis entscheidend. Neulich hat er die Entscheidung getroffen, auf unsere Server umzuziehen. Dazu bezahlt er noch den Domain- Applikationen- und Datenbankenumzug.

Zurück zum Thema: wir wollen Ihnen noch mal zeigen, dass der PR noch lange nicht alles ist. Auch nicht für Google (oder gerade nicht für Google?).  Unten sehen Sie die Werte aus den Google Labs. Dies sind die Ergebnisse einer Seite, die mit einem PR4 glänzt. Diese Seite ist SEO-mäßig absolut korrekt aufgebaut. Informativ ist der Inhalt (nach unserer Meinung) jedoch sehr, sehr überschaubar. Ähnlich sieht das der Google-Bot. Ein Beweis dafür:imageDiese Domain wurde vor knapp einem Monat durchgemessen. Trotz des höheren PR (um ganze 3 Punkte!) scheint sie doch nicht so oft von den Bots untersucht zu werden. Sie hat nur 480 Seiten im Google-Index. Der kleine PR-Bruder mit 10,5 Sekunden Ladezeit, über 18.400.

Für viele Webseitenbetreiber ist der PR-Wert das A und O. Falls die Webseite jedoch – wie das normalerweise immer der Fall sein sollte – eine Mission hat, eine Quelle für Informationen sein sollte, dann ist das Vorhandensein möglichst vieler Seiten in den Top-Treffern, das Ziel im Vordergrund.

 

Der kleine Ausflug zu den Webmaster-Tools sollte Ihnen den Einblick in die Google´s – Welt anschaulich machen.
Gleich wird es wahrscheinlich ein paar Zuschriften geben, warum hier nicht auf die Analytics-Tools von Google eingegangen wurde?

Es gibt viele gute Gründe, warum wir uns von Analytics distanzieren. Unsere regelmäßigen Leser kennen unsere Initiative “Fair-Surfen” und die damit verbunden Vorschläge / Anmerkungen für die Webmaster – Kollegen.

Generell möchten ich allen Webmastern  die Google´s Webmaster-Richtlinien ans Herz legen. Erschreckend weniger Webseitenbetreiber haben dort einen Blick gewagt. Es kostet nichts, erhält aber jede Menge durchaus wichtige Informationen.


Bei Fragen stehen wir Ihnen gerne zur Verfügung!


D. Nocon

NES Euro sp. z o.o.
Adres: Panewnicka 29/4, 40-730 Katowice (Ligota) 
Telefon: 32 441 7377, fax: 32 441 7321, Tel. kom.: +48 693 208273 
Website: www.nes-europe.comwww.nes-group.biz, Twitter: twitter.com/nesnocon
Pagerank: euro-pr.eu. Service prasowy: www.nes-support.eu  Blog: neseuro.blogspot.com / neseuro.wordpress.com

 

Brak komentarzy:

Prześlij komentarz

Counter

Free BackLinksKostenlose Backlinks bei http://www.backlink-clever.de

Besucher - Map