środa, 23 lutego 2011

Wie interessant ist Ihre Seite für Google?

ktw/23.02.2011/15:00

Startbild beim Aufruf von Google.es

Es gibt einfache Methoden um festzustellen, wie interessant eine Homepage für Google ist. Stellen Sie sich nicht darauf ein, dass hier Geheimnisse verraten werden. Es ist auch nicht das Ziel dieses Beitrages. Viel mehr wollen wir Ihnen die “onboard”-Werkezeuge zeigen, wie Sie die Aktivitäten des Datensammlers – auf Ihre Homepages bezogen – beobachten und auswerten können.

Die “Webmaster-Tools” sind den meisten Webmastern bestens bekannt. Falls Sie noch damit keine Erfahrungen gemacht haben, loggen Sie sich bei Google.com ein. Um Ihnen die Suche zu erleichtern, folgen Sie einfach diesem Link: https://www.google.com/webmasters/tools.

Sie finden dort die unten abgebildete Oberfläche vor. Falls Sie dort zum ersten Mal sind, müssen Sie Ihre Homepages hinzufügen. Anschließend wird von Ihnen verlangt, dass Sie sich als Webseiten-Eigentümer identifizieren. Es gibt vier Methoden dies zu tun. Die Einzelheiten sind aber dort sehr gut beschrieben. Die Authentifizierung selbst stellt ebenfalls kein Problem dar.Google´s Webmaster-Tools

Nach der Bestätigung der Eigentumsverhältnisse werden dort Ihre Homepages angezeigt. Sie Klick auf die eine oder andere Homepge, und Sie bekommen die Details der von Ihnen ausgewählten Homepage – in einer Übersicht -  angezeigt.

Webmaster-Tools: Dashboard

Auf der linken Seite sehen Sie die Menüpunkte: Webseiten-Konfiguration, Ihre Website im Web, Diagnose und Google Labs.
In der Webseiten-Konfiguration können Sie Ihre Sitemaps eintragen. Ein wenig später wird der Google-Bot die Sitemaps kontrollieren und ggf. die eine oder andere Seite in den Index aufnehmen. Das Ergebnis könnte z.B.: folgendermaßen aussehen:
Beispiel Sitemap mit Anzahl der Links und der Seiten, die in Index aufgenommen wurde.

Es besagt, dass in diesem einen speziellen Fall 874 Seiten übermittelt wurden. Von allen übermittelten Seiten, 593 wurden in den Index aufgenommen. Eine ganz gute Quote für eine durchschnittliche Homepage. Bei den Blogs ist die Quote – wenn Ihre Artikel und Kommentare einzigartig sind – noch höher. Es ist keine Seltenheit, dass von den 21 übermittelten Seiten, 21 in den Index aufgenommen werden. Werfen Sie jetzt einen Blick auf das Datum. Daraus können Rückschlüsse gezogen werden, wie oft Google Ihre Seite besucht. Denn, wir brauchen uns hier nichts vorzumachen: Google lebt doch von der Aktualität der Treffer genauso, wie Sie. Algorithmus hin oder her, bestimmte Schräubchen werden auch manuell (Personal) – und das gar nicht so selten - angezogen. An diesem Beispiel können Sie sehen, dass Google diese Sitemap bereits am heutigen Tage, aufgerufen hat. Wenn Sie am frühen morgen, z.B.: um 07 Uhr unserer Zeit dort nachsehen, und immer noch das Datum von gestern sehen, keine Panik! Es gibt einen Zeitunterschied, der genau 9 Stunden beträgt. Im Klartext, wenn Google-Bot kurz nach 9 Uhr (unserer Zeit) die Sitemaps aufgerufen hat, erscheint in den Webmaster-Tools das heutige Datum.

In unseren früheren Beiträgen haben wir bereits beschrieben, wie Sie darauf Einfluss nehmen können, was die Suchmaschinen sehen können. Für die Einschränkungen, die Sie setzen wollen ist die Datei robots.txt, verantwortlich. robots.txt - der "Begrenzer" Ihrer Homepage

Hier sieht man es auch auch, dass Google die robots.txt - Datei, die sich im Hauptverzeichnis Ihrer Homepage befindet, vor 17 Stunden mit Erfolg downgeloaded hat.

Als Unterpunkt des Menüs “Ihre Website im Web” gibt es die “Suchanfagen”. Hier können Sie erfahren, wie wirksam Ihre Keywords in den Suchergebnissen sind.image

In der “Diagnose” finden Sie den Menüpunkt: “Crawling-Statistiken”. Die Statistiken sind in drei Bereiche unterteilt:
1. Pro Tag gecrawlte Seiten
2. Pro Tag heruntergeladene Kilobyte
3. Dauer des Herunterladens einer Seite in Milisekunden.
Wir wollen uns hier den ersten zwei Punkten widmen.

Auswertung aus Google´s Webmaster-Tools

In dem konkreten Beispiel oben war die Domain (wegen eines nicht bis zum Ende durchdachten Umzugs im Eigenregie des Kunden) drei Tage lang nicht erreichbar.  Dies wirkt sich fatal auf die Attraktivität der Homepage für die Suchmaschinen, aus. Aber damit werden wir uns in den kommenden Beiträgen befassen.

Last but not least “Google-Labs”. Dort findet man man den Unterpunkt:

Google Labs, wichtiges Werkzeug eines Webmasters

Die durchschnittliche Ladezeit von 10,5 besagt keinesfalls, dass es die Zeit ist, bis man die Seite sieht. Nein. Es handelt sich um die Zeit, bis alle Elemente (samt der zeitintensiven externen Links) der jeweiligen Seite, vollständig geladen werden. Interessant ist aber der erste Satz der Leistungsübericht. Genauer gesagt: “aktualisiert am 20.02.2011). Diese langsame Seite (zu viele externe Links, nicht optimierter Aufbau / Code, schwacher Domain-Server, etc) wird häufig komplex von den Google-Bots besucht und untersucht. Der Kunde hat sich für einen V-Server bei einem – für uns, NES – suspekten Provider entschieden. Trotz unserer Warnungen, war angeblich der Preis entscheidend. Neulich hat er die Entscheidung getroffen, auf unsere Server umzuziehen. Dazu bezahlt er noch den Domain- Applikationen- und Datenbankenumzug.

Zurück zum Thema: wir wollen Ihnen noch mal zeigen, dass der PR noch lange nicht alles ist. Auch nicht für Google (oder gerade nicht für Google?).  Unten sehen Sie die Werte aus den Google Labs. Dies sind die Ergebnisse einer Seite, die mit einem PR4 glänzt. Diese Seite ist SEO-mäßig absolut korrekt aufgebaut. Informativ ist der Inhalt (nach unserer Meinung) jedoch sehr, sehr überschaubar. Ähnlich sieht das der Google-Bot. Ein Beweis dafür:imageDiese Domain wurde vor knapp einem Monat durchgemessen. Trotz des höheren PR (um ganze 3 Punkte!) scheint sie doch nicht so oft von den Bots untersucht zu werden. Sie hat nur 480 Seiten im Google-Index. Der kleine PR-Bruder mit 10,5 Sekunden Ladezeit, über 18.400.

Für viele Webseitenbetreiber ist der PR-Wert das A und O. Falls die Webseite jedoch – wie das normalerweise immer der Fall sein sollte – eine Mission hat, eine Quelle für Informationen sein sollte, dann ist das Vorhandensein möglichst vieler Seiten in den Top-Treffern, das Ziel im Vordergrund.

 

Der kleine Ausflug zu den Webmaster-Tools sollte Ihnen den Einblick in die Google´s – Welt anschaulich machen.
Gleich wird es wahrscheinlich ein paar Zuschriften geben, warum hier nicht auf die Analytics-Tools von Google eingegangen wurde?

Es gibt viele gute Gründe, warum wir uns von Analytics distanzieren. Unsere regelmäßigen Leser kennen unsere Initiative “Fair-Surfen” und die damit verbunden Vorschläge / Anmerkungen für die Webmaster – Kollegen.

Generell möchten ich allen Webmastern  die Google´s Webmaster-Richtlinien ans Herz legen. Erschreckend weniger Webseitenbetreiber haben dort einen Blick gewagt. Es kostet nichts, erhält aber jede Menge durchaus wichtige Informationen.


Bei Fragen stehen wir Ihnen gerne zur Verfügung!


D. Nocon

NES Euro sp. z o.o.
Adres: Panewnicka 29/4, 40-730 Katowice (Ligota) 
Telefon: 32 441 7377, fax: 32 441 7321, Tel. kom.: +48 693 208273 
Website: www.nes-europe.comwww.nes-group.biz, Twitter: twitter.com/nesnocon
Pagerank: euro-pr.eu. Service prasowy: www.nes-support.eu  Blog: neseuro.blogspot.com / neseuro.wordpress.com

 

wtorek, 22 lutego 2011

PageRank. Mögliche Gründe einer Herabsetzung (Analyse)

ktw/22.02.2011/14:00/nesdnGoogle (tm) - Logo

Einige unserer geschätzten Benutzer haben uns noch den möglichen Gründen für die Herabsetzung Ihrer Domains gefragt.

Es ist äußerst schwierig einen eindeutigen und generell geltenden Hinweis hier auszusprechen. Wir wollen uns also hier nur auf ein paar Beispiele konzentrieren. Vielleicht werden es uns zum wiederholten Male ein paar SEO-Agenturen übel nehmen, dass wir so offen darüber schreiben. Dies ist aber für uns nur zweitrangig.

Zurück zum Thema.
Bei einer Domain haben wir festgestellt, dass der Inhalt nicht mehr da ist. Die interne Zuweisung / Link zu dem CMS – System war nicht mehr korrekt. Das war eine harte Herabsetzung von PR4 auf 0. Der Domaineigentümer ist nicht mehr unter der angegebenen und bestätigten eMail-Adresse erreichbar. Deshalb haben wir auch kurzerhand die Domain aus unserem kostenlosen System, entfernt.

Es ist kein Geheimnis, dass Google ständig an dem Algorithmus seines Datensammlers arbeitet und diesen auch ändert. In letzter Zeit wurde zum Beispiel viel an einer automatischen Spamerkennung gearbeitet. Dies führte dazu, dass Seiten, wie viele DoFollow´s  haben, direkt verdächtig sind und niedriger eingestuft werden. Da kann aber Google nicht ernsthaft von den Webmastern verlangen, dass die Homepages an den G-Algorithmus angepasst werden (Ausnahmen sind hier Domainlisten und Presseportale). Nein, das werden wir mit Sicherheit nicht tun. Es gibt gute Beispiele, dass Suchmaschine auch dazu lernen kann. Erinnert Ihr Euch noch an die Diskussion über die – ich beschreibe es, damit es für alle verständlich wird – Namensgebung für die Seiten einer Homepage? Im Klartext handelte sich hier um die Frage:
muss es unbedingt: sitemap.xml sein, oder geht auch:
http://nes-europe.com/index.php?option=com_xmap&sitemap=1&view=xml ?
Viele haben noch vor gar nicht so lange Zeit behauptet, es müsse sitemap.xml sein. Dies erwies sich als falsch. Denn, viele Webmaster haben sich überhaupt nicht darum gekümmert, was die eine Suchmaschine erwartet und haben ihre Sitemaps weiterhin – wie oben beschrieben – von der Software, erstellen lassen. Und es passierte, was niemand so richtig für möglich gehalten hat: die Suchmaschine hat dazu gelernt und jetzt hat sie überhaupt gar kein Problem mit den “aktiven” Sitemaps. Analog verhält sich die Situation bei den Namen der einzelnen Unterseiten. Es ist nämlich absolut egal ob eine Seite durch die Eingabe des folgenden Links aufgerufen wird:
http://www.nes-group.biz/opis-naszych-dzialow/it-consulting/ oder mit durch so einen:
http://nes-europe.com/index.php?option=com_content&view=article&id=13564:sitemapsuchmasch0511&catid=153:webmastertipps&Itemid=344

Wie Sie bereits festgestellt haben, auch Artikel wie dieser hier, werden von Google nicht gerne gesehen. Er enthält Links, mehrere Links. Wie soll man aber manchmal einige technische Sachen erklären, ohne sie – anhand von Beispielen – vorzustellen?
Es ist keine Kritik an Google. Denn, wem Google nicht gefällt, kann sich von der Suchmaschine distanzieren. Ein paar Einträge in die robots.txt und die Sache ist erledigt. Eins darf man nicht vergessen: Google ist ein privates Unternehmen und kann so handeln, wie es den Machern gefällt und wie sie es für richtig handeln. Zu bedauern sind nur die Webmaster, die alles tun, um nur Google – konform zu sein. Dabei werden die Inhalte und die Mission einer Homepage absolut vergessen. PageRank ist nicht alles. Es wird es auch nie werden.

Die SEO dürfen nicht auf den PR fixiert sein, sondern auf die best mögliche Plazierung der Seiten bei den Suchmaschinen. Nicht nur Google bietet diese Dienste an. Interessante Variante stellt - nach dem Zusammenschluss auf Zeit – das Duo: MSN + Yahoo => Bing, dar. Laut den letzten Studien sind nämlich die Treffer wesentlich relevanter und besser, als die von Google. Nur, wen nützt das, wenn die meisten Benutzer sowieso Google als die Standardsuchmaschine wählen?

D.Nocon

NES Euro sp. z o.o.
Adres: Panewnicka 29/4, 40-730 Katowice (Ligota) 
Telefon: 32 441 7377, fax: 32 441 7321, Tel. kom.: +48 693 208273 
Website: www.nes-europe.comTwitter: twitter.com/nesnocon
Pagerank: euro-pr.eu. Service prasowy: www.nes-support.eu  Blog: neseuro.blogspot.com / neseuro.wordpress.com

 

Counter

Free BackLinksKostenlose Backlinks bei http://www.backlink-clever.de

Besucher - Map