Pagerank-Update zum Jahresausklang 2009

Zum Ausklang des Jahres 2009 gab es neben Silvesterknaller einen weiteren Knaller, aber eher webmaster-technischer Natur. Es war wieder mal soweit und wir durften ein erneutes PR-Update erleben. Vom letzten Update habe ich hier berichtet. Google muss Nerven haben und ja, das hat sie. Vielen Webmastern geht es offensichtlich anders und die einen waren mit dem Endergebnis des Updates zufrieden, die anderen wiederum eher weniger.

Mich hat diese Nachricht als Allererstes durch Thomas von Blogger-world.de auf Facebook erreicht und darüber hat er auch schon in seinem Blog geschrieben. Übrigens könnt ihr bei SEO-ranking-tools.de die Update-Historie inklusive der Backlink-Updates nachvollziehen. Ich habe das so gelernt, dass unmittelbar nach einem Backlink-Update ein PR-Update stattfindet. Soviel Grün wie auf der Abbildung oben rechts hätte man doch schon auf manchen eigenen Projekten.(Abb. stammt von meinem Twitter-Account) Ehrlicherweise wäre ein PR von 5 auf einem Blog eine sehr gute überdurchschnittliche Leistung, weil ein Blogdurchschnitt meiner Meinung nach ein Pagerank von 1-4 ist. Zumindest kann ich das auf vielen deutschen Blogs beobachten

Dieses Blog blieb weiterhin auf der 0, was ich mir auch erklären kann. Ich hatte doch neulich eine Blog-Weiterleitung eingerichtet gehabt, was auch zu keinerlei PR-Veränderung mitbeigetragen hat. Des Weiteren hatte ich immer wieder bloginterne Schwierigkeiten, sei es ein sauberer Themewechsel oder andere Sachen mit der .htaccess etc. pp. Alles kein Ding und das regt sich so langsam, sodass dieses Blog nur noch unter „http“ zu erreichen ist.

Die grösste Sorge macht mir aber die Tatsache, dass diese Blogdomain mit dem Suchbegriff „Internetblogger“ nicht mehr mit der Blog-Startseite in der Google Blog Search vorhanden ist. Es sind alles meine Bookmarks oder Links anderer Blogs und Webseiten, welche dort in den Suchtreffern auftauchen. Dass muss ich in diesem Jahr definitiv noch bereinigen und auch wenn die Sichbarkeit von Internetblogger.de im Internet gestiegen ist, werde ich mir keine Ruhe gönnen und weiterhin einen stetigen Linkaufbau betreiben. Im Internet ist es doch wie im Leben: „Von nichts kommt nichts“.

Die Auswertung von Seitwert.de ist von 25.18 auf 26.30 gestiegen, immerhin ein kleiner Plus in die richtige Richtung. Der BL-Checker von Internetbaron läuft gerade und zum Schluss sah ich 1080 Backlinks und der Checker zeigt mir einen angezeigten PR von 3 sowie einen geschätzten von 4. Aber ich sehe in der PR-Toolbar nur noch alles weiss. Naja, vll. ändert sich das noch.  Nur bei einem meiner weiteren Projekte, wobei dieses Blog die höchste Priorität hat, hat sich der Pagerank von 0 auf die 2 katapultiert. Auf anderen Blogs in der Blogosphere erfuhr ich, dass es beim Alten geblieben ist oder eine kurze Pagerank-Korrektur zu erkennen war.

Mein Twitter-Account hat seinen PR 5 wieder zurückbekommen und einige meiner Profile diverser Social Bookmarking Dienste haben ebenfalls einen Pagerank abbekommen. Wie ihr ja vll. wisst, betreibe ich das Social Bookmarking sehr gerne, auch wenn viele davon nichts halten :).

Solange es den Google Pagerank noch gibt, werden wir uns darüber unterhalten und heiss diskutieren und Google kann darauf wohl auch nicht verzichten. Immerhin ist es immer noch eines der vielen Webseiten-Bewertungskriterien. Zum Schluss möchte ich ein paar Blogs mit frischen Blogposts zu dieser Thematik verlinken.

Bloggonaut.net berichtet über eine positive Entwicklung seiner Seiten

Tagseoblog im Sinne des PR-Updates und mit eigener Meinung über Hobby-Webmaster und SEOler:)

SEO-blog.ch hat die Veränderung der PR-Werte auch festgestellt

       Webology.technology – Blog mit einem informativen englischen Beitrag zu den Ranking-Tools

  • Wie ist es euch ergangen?
  • Wie werdet ihr den PR dieses Jahr handhaben? (wie immer, ganz egal, alles wird gut!)

by Alexander Liebrecht

59 Kommentare

  1. Ja, so Weiterleitungen können es ganz schön in sich haben, vor allem wenn sie mit dem falschen Status Code ausgerüstet sind (302 statt 301).

    In der normalen Site Abfrage sowie auch in den Web Suche Ergebnissen ist Deine Startseite aber noch da.

  2. Pingback: Webnews.de
  3. Pingback: Rostock-Blogs.de
  4. @Crazy Girl,
    ja da hast du völlig recht und ich hatte auch eine 301er-Weiterleitung im Blog.

    Ja die Blogdomain ist nachwievor drin, das habe ich alles gesehen und ganz oben ist sie auch. Aber in der BlogSearch ist irgendwas los und früher war es so, wenn ich dort „Internetblogger“ eintippte, zeigte mir Google „Verwandte Blogs“. Dabei war Internetblogger.de.

    Ich weiss, dass ein Blogger unter Internetblogger.eu auch bloggt und momentan ist nur seine Blogdomain dort ersichtlich. Mal schauen, ob Google in diesem Jahr mehr Vertrauen in mein Blog hat. Letztendlich hatte ich 2009 stets blogtechnische Veränderungen gehabt.
    .-= Alex´s last blog ..Rootserver und ihre Anbieter =-.

  5. Pingback: Daniel aus Dresden
  6. Moin Alex,

    danke für den Link 😀

    Wenn alles ein bisschen ruhiger wird und sicher weniger ändert wird Google schon Trust für die Seite haben. Bei mir läuft es was den Trust angeht ja, nur fehlen etwas die Besucher ^^

  7. Hey Robin,
    keine Ursache 😉 Ja, also ich habe mal gehört, dass Google sowas wie Beständigkeit bei einem Internetprojekt mag. Einmal alles Notwendige richtig festlegen und gut. Aber sowas kann man nicht von einem Tag auf den anderen realisieren. Es ist wohl ein ständiges Auf und Ab oder was denkst du? Dennoch Danke für die ermutigenden Worte.

    Besucher-Traffic kann es in unseren Blogs nie genug geben, da gebe ich dir recht. Und ich wünsche mir sehr, dass die Blogosphere im Jahr 2010 einen Ansturm an neuen Besuchern erfährt.

    Ich sage dir ehrlich, Twitter und Facebook nehmen eine Menge Besucher den Blogs weg und es wird nicht mehr so viel kommentiert wie früher. Ich möchte nicht, dass Twitter da Überhand gewinnt.
    .-= Alex´s last blog ..Seniorenhandy mit Vertrag =-.

  8. Bei mir ist glücklicherweise die 2 zurück gekehrt, die ich vor Monaten verloren hatte. Man freut sich drüber, auch wenn am Ende für mich die Besucher zählen. Google watscht gern mal völlg unbeständig Leute ab, also schreibe ich weiter und verlinke ebenfalls so gern, wie du 😉

  9. Ja wie im letzten Jahr gab es einen guten Rutsch des grünen Balkens 😉 den BL-Checker von Internetbaron vertraue ich nicht und analysiere immer mit http://www.x4d.de/backlinkchecker meine Seiten habe sich nicht verändert nur mein Blog. Nach dem Warum und Wieso frage ich schon lange nicht mehr. Viele Blogger haben extreme Schwankungen beim PR. Ich freue mich aber auch immerwieder auf das PR-Update (es sei denn der Balken nimmt ab, was aber noch nicht vorgekommen ist)

  10. @Andre,
    das freut mich für dich und ohne das ständige gegenseitige Verlinken kommt der Linkaufbau komplett zum Erliegen. Wenn auch niemand Pingbacks auf eigene Blogposts setzt, verlinkt man eben andere. Ich habe keine Schwierigkeiten damit. Anfangs war es etwas mühselig, aber jetzt suche ich mir ein paar themenpassende Blogposts und es wird sofort verlinkt :).

    Du hast Recht. Schreiben und regelmässig verlinken, ist schon eine halbe Miete.

    @Chris,
    ja, extreme Schwankungen sind auch keine Seltenheit mehr auf den Blogs, manchmal von 0 auf 3 oder umgekehrt. Ich weiss nicht, irgendwie habe ich mich schon seit ein paar Jahren an den BL-Checker von Internetbaron gewöhnt und keinen anderen mehr sonderlich ausprobiert habe.

    Danke aber für den Linktipp, welchen ich mir soeben auch schon angetan habe. Das Ergebnis des Backlink-Checks sah ganz ok aus, sind zwar viele PR 0 BLs dabei, aber ein paar 5er und sogar ein 6er. Bild unten.

    Diese Blogdomain hätte locker einen Pagerank abbekommen, aber nicht nach der neuen Schreibweise http://internetblogger.de. Das ist jetzt ganz neu und vorher war jahttp://www.internetblogger.de, wo auch PR vorhanden war. Man sieht auf dem Bild, dass Google nichts anzeigt. Klar und die Weiterleitung in der .htaccess hat super funktioniert.

    Egal, ich werde das dieses Jahr zurechtbiegen und dann hat das Blog wieder Pagerank :).

  11. Bei mir blieb alles beim alten – Pagerank 4.
    Glaube aber nicht, das er jemals bei mir steigen wird.
    Kümmere mich auch kaum drum.

    Ich habe dir mal einen Backlink im Strays Beitrag geschenkt.
    🙂

    Beste Grüße und auf ein gutes Jahr 2010.

  12. @Millus,
    aha, na den PR von 4 noch anzuheben, ist nicht mehr so einfach. Aber das mit dem Pagerank ist auch nun nebenbei. Wichtig ist es nach wie vor, dass unsere Blogs so gut es geht in den SERPs gelistet sind:)

    Danke für den Backlink und ich werde gleich mal zum Trailer rübergehen :).
    Ganz meinerseits zwecks 2010!

  13. @Christian,
    ja, da ist was dran. Ich weiss nicht mehr, um welche Backlink-Seite es sich gehandelt hat, englischsprachig oder deutschsprachig. Aber wahrscheinlich ist es mir durch einen Kommentar oder Ähnliches gelungen.

  14. Hi Alex,

    danke für die Erwähnung, für den Backlinkcheck nehme ich immer den Yahoo site explorer, wird in auch in den gängigen SEO Foren empfohlen. >> http://siteexplorer.search.yahoo.com/

    Du hast übrigens eine beachtliche Zahl an Backlinks, solltest eigentlich bald wieder nen guten PR erhalten, hat ja bei mir auch geklappt mit dem Umzug, …mir macht nur deine robots.txt etwas sorgen, da wird ja alles disallowed was nicht niet und nagelfest ist =) habe in meiner nur die sitemap erwähnt, da sollte man vorsichtig sein.

    Das gleiche Problem mit der Google Blogsuche habe ich übrignes auch schon länger, hmpf.. würde gerne wissen woran das liegt…

  15. Hi Jonas,
    immer wieder gerne:) Den Siteexplorer kenne ich von meiner etwas zurückliegenden Anmeldung her. Meine Blogdomain ist dort bereits seit geraumer Zeit eingetragen und es sind auch schon diverse Werte abzulesen wie auf dem Pic unten.

    Der Siteexplorer bietet ein paar nette Funktionen wie ich es sehen kann. Ja, also Backlinks sind fürs Erste genügend vorhanden und da hoffe ich doch mal, dass Google es irgendwann mal im Laufe des Jahres für voll nimmt.

    Wegen der robots.txt, so habe ich mal zu einer Zeit auf Blogs und Co. recherchiert wie man sie erstellen muss und was alles da rein gehört. So ergab das den momentanen Inhalt der robots.txt.

    Aber in den GWT sind immer noch fast 300 Seiten durch sie gesperrt, darunter nicht alle, aber viele der guten Bloglinks. Kannst du mir was empfehlen, was ich daraus wieder entfernen soll? Darunter der Inhalte der robots.txt.

    Freut mich an dieser Stelle, dass dein Umzug gut verlaufen ist.

  16. ich muß zugeben, das ich selber gar nicht mehr nach dem PR schaue, mir ist da doch wichtiger, wie ich gefunden werde und das es den Besuchern gut gefällt.

    Auch dachte ich gelesen zu haben das der PR nicht mehr so wichtig ist für die Suchmaschinen Position bei den Suchwörtern oder hat sich da schon wieder was geändert??

  17. Ich hatte früher eine ähnliche robots.txt, aber da gabs auch noch das Problem mit duplicat content. Google (Matt Cutts) hat selber gesagt, das Sie mit WordPress gut klar kommen und man sich wegen „dc“ keine Sorgen machen muss. Ich würde also alles rausnehmen, mir hats nicht geschadet, eher im Gegenteil. Die index.php würde ich auf keinen Fall auf „disallow“ setzen, auch Tags, Kategorien etc. nicht, bringen mir immer extra Besucher, die dadurch auf meinem Blog landen…
    Was meinst du genau mit 300 gesperrten Seiten?

    Gruß
    Jonas

  18. @Michael Finger,
    nein, das hat sich nicht geändert. Der PR ist nur ein Bewertungskriterium für Webseiten, aber nicht mehr „Das Kriterium“ :).

    Jedoch wie das so ist, möchten viele Webmaster aus eigenen Beweggründen etwas Grün im Balken haben.

    @Jonas,
    Ja, davon hörte ich auch und dass Google wohl das Ganze bei WP-Blogs auch schon unterscheiden kann und immer die relevanteste Seite in den SERPs angezeigt wird.

    Ich habe jetzt index, Tags, Categories entfernt und nach der neuesten Aktualisierung in GWT(gestern) ist die Anzahl der durch die robots.txt gesperrten Seiten von 300 auf 200 + gegangen. Pic unten:

    Ja, das was du fragst, bezieht sich wohl auch auf meine Einträge in der robots.txt. Unter den gesperrten Seiten sind aber auch viele Blog-Unterseiten, welche noch sauber aufgerufen werden können.

    Ich mache mir da jetzt keinen grossen Kopf und warte nun ein paar Tage ab, wie es sich nach dem Entfernen dieser Sachen aus der robots.txt verhält.
    .-= Alex´s last blog ..Seniorenhandy mit Vertrag =-.

  19. Alex, mach mal alles aus der robots.txt raus was irgendwie von intern oder extern angelinkt wird. Im Prinzip braucht darin so gut gar nichts mehr stehen. Stattdessen umsteigen auf meta tag robots noindex. Google behandelt seit einem halben Jahr die robots.txt etwas anders.

  20. Pingback: jssz
  21. @Crazy Girl,
    Morgen Tanja,
    haben wir die Metatags nicht schon immer so wie unten behandelt.

    Ich habe jetzt das entfernt, was Jonas oben meinte und muss abwarten, bis alle gesperrten Blog-Links nicht mehr gesperrt sind. Dauert höchstens ein paar Tage.

    Auf Metatag „noindex,follow“ umsteigen? Warum sollte auf einmal „noindex“ sein. Es war doch schon seit Jahren „index,follow“.

  22. Ich habe gerade einen Artikel über die robots.txt geschrieben Robots.txt – Double Content Einträge sind kontraproduktiv. Vielleicht magst Du Dir diesen mal zu Gemüte führen.
    Die Einträge bei „durch robots.txt gesperrt“ sind in meinem Shop von über 1000 auf 0 gefallen, seitdem ich mich an die neuen empfohlenen Vorgehensweisen bezüglich der robots.txt halte. Im Shop hatte ich die größten Probleme, da auf einmal viele Session IDs im Index auftauchten, die dort gar nicht hingehören 😉

  23. @Michael Finger: So sicher wie das Amen im Gebetbuch, denn sie sagen es an diversten Stellen offziell selbst. Lies meinen neuesten Artikel, da sag ich richtig ausführlich was dazu 😉

    @Alex: Nicht generell den Meta Tag noindex,follow sondern nur explizit auf den entsprechenden Seiten, die Du nicht im Index haben willst 😉

  24. Moin Alex,
    natürlich nur die Seiten auf noindex setzen, die du Sperren möchtest. Aber Tanja hat schon recht, ich würde alles rausnehmen. Habe gestern auch noch wegen dem Blogsearch Problem rumgestöbert und ich glaube, ich bin fündig geworden.

    Habe immer meinen Blog Feed durch WPSEO für Suchmaschinen sperren lassen, was bei der Google BlogSuche das crawlen der Artikel verhindert. Habs jetzt deaktiviert und muss abwarten, werde dann einen Artikel zu schreiben wenns klappt.

    Bei dir wird es daran liegen, das du deinen feed in der robots.txt gesperrt hast.
    Auch die ganzen anderen disallows bringen im Prinzip nix, außer das du etwas sperrst, was eigentlich nicht gesperrt werden sollte.

  25. So ich melde mich auch mal 🙂 Also du speerst viele Sachen in deiner Robots.txt, warum weiß ich nicht, dass kannst nur Du uns sagen.

    Wie Crazy schon sagt, setzte lieber noindex ein. Leider speerst du den armen Google Bot fast ganz aus.

    Hier mal einen optimale Robot.txt nach meiner Aufassung für einen Blog:

    User-agent: *
    Allow: /*
    Disallow: /cgi-bin
    Disallow: /wp-admin
    Disallow: /wp-includes
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes

    Das ganze Noindex für Kategorien und Tags würde ich sowieso lassen, Google erkennnt sowas auch nicht als DC falls du daran gedacht hast.

    Gruß

    Mirco

  26. @Crazy Girl,
    danke für den Lesetipp und ich lese mir das auf jeden Fall durch. Das erwähnte Plugin „Robots Meta“ setze ich auch ein und dort sind zahlreiche Sachen auf NoIndex gesetzt worden. Der Blogfeed und alle RSS-Feeds sind so wie es sich herausstellt fälschlicherweise auf Noindex gesetzt.(war aus Google BlogSearch fast verschwunden)

    Einzelne Blogposts und Blog-Seiten sollen allesamt ganz klar in den Index rein. Nur Login-und-Adminpages auf NoIndex, aber das ist klar.
    @Jonas,
    Und daran könnte es liegen, wobei ich in den Plugin-Optionen von „Robots Meta“ alle RSS-Feeds im Blog inkl. dem Eintrag in der robots.txt auf NoIndex hatte. Das könnte es sogar alles in allem gewesen sein, warum ich so langsam nicht mehr in der Google Blogsearch vertreten bin und die Zugriffe aus Google bei 50% liegen.

    Ich danke dir für diesen wichtigen Hinweis. Dann warten wir mal ab, ob es sich nun ändern wird.

    @Mirco,
    du sagst es und wo habe ich es bloss ausgegraben!? Die Robots.txt habe ich nun dank euch allen nachbessern können. Das Problem war ja, dass ich bloss nichts falsch machen wollte und ja alle Tags und Kategorien schön auf NoIndex setzen, da es sonst zum DC kommen kann.

    Aber verursacht habe ich offensichtlich ein ganz anderes Problem. Nun lasse ich paar Tage verstreichen, besuche dann GWT und schaue mal in der Google Blogsearch nach, ob es zu Veränderungen gekommen ist. Google setzt solche Sachen normalerweise schnell um.

  27. Hey Leute, viel gerede über die Robots. Wir lassen die Suchmachinen auch nicht über alles laufen. Teilweise möchten unsere Kunden, dass keine Bilder indiziert werden. Bei einem CMS sollte der Admin-Bereich und „Testumgebungen“ auch generell ausgelassen werden. Generell sollten aber alle Content-Bereiche erfasst werden, da geb‘ ich natürlich der Mehrheit recht! *grins*

  28. Pingback: KW - ITworks!
  29. Ich denk Du bist auf dem richtigen Weg. Als ich grad gesehen hab was Du über die Robots.txt ausschließt hab ich mich schon etwas gewundert. Ich hab nur die Adminseiten ausgeschlossen.
    Das Problem mit dem DC besteht mE nur bei Fremd-Websites, die Content klauen. Die interne Verlinkung sollte die Inhalte, die relevant sind klar bevorzugen.
    Ich seh Dich bei allen Suchen klar oben unter internetblogger – auch bei der Blogsuche.

    …und: alles Gute für 2010;-)

  30. Hallo @Kim,
    wäre schlimm, wenn wir Google nicht an dem Content beteiligen lassen würden :).
    Hi Susann,
    ja, das bin ich nun auch. Das Blog ist in der Google BlogSearch wieder aufgetaucht und die Blogposts werden angezeigt. Die robots.txt habe ich nach der Debatte oben dementsprechend inhaltlich verbessert und beobachte nun Veränderungen in den GWT bezüglich der gesperrten Seiten.
    Es werden Stück für Stück weniger:).

    Admin-Seiten sind bei mir nach dem neuesten Stand der Dinge vom Indizieren auch ausgeschlossen. Wünsche dir mit dieser Zeile ein besucher-starkes Jahr auf deinen Seiten.
    .-= Alex´s last blog ..Neues bei Artikelplanet.de =-.

  31. @Alex habe gerade erst rein geguckt. 😀 Beständigkeit leibt google und wenn du nur mal das Design änderst ist ok, aber nicht zu oft, zu viele Veränderungen gleichzeitung. Wenn es dann halt mal nicht anders geht, dann geht es halt nicht anders und man muss damit leben

  32. @Sensei,
    allerdings und das hat sich mir auch schon mehrmals bestätigt. Wenn man zu oft an zu ändern anfängt, verliert Google bei einer jungen Domain(Internetblogger.de ist jung) das gewisse Vertrauen. Aber naja, aus Fehlern lernt man.

  33. Moin Alex,

    mein Trackback scheint immer noch nicht bei Dir angekommen zu sein. Hmm, seltsam. Oder musst Du ihn noch freigeben?

    Im Übrigen finde ich es immer wieder schön, welche informativen Diskussionen sich bei Deinen Artikeln entwickeln. Den Blogbeitrag von Crazy Girl zur robots.txt werde ich gleich mal lesen und drücke Dir die Daumen, dass Du hier bald auch wieder einen grünen Balken vorfindest. Die drei Gründe dafür habe ich ja in meinem Blogbeitrag „Google PageRank-Update Dezember 2009“ aufgezählt. 😉

    Beste Grüße
    Dieter

  34. @Christian,
    eine Bedeutung soll der PR wohl noch haben, wie es sich nach diesen zahlreichen Diskussionen herausstellt. Aber inwieweit Google dieses Kriterium fürs Ranking einbezieht, werden wir nie erfahren :).

    @Dieter,
    und wie „seltsam“ es schon wieder ist:( Ich checke oft meine Comment-Ordner im Dashboard und den Spam-Ordner auch, weil Spam Bee erstmalige Pingbacks oft nicht für voll nimmt und als Spam einstuft.

    Ich verstehe das nicht. Liegt es vll. daran, dass ich noch WP 2.9 habe!? Andererseits hatte ich oft Probleme mit dem Empfangen von TBs seitens WordPress-Blogs. Hier kommt sonst alles als TB an, Blogger.com, Webnews, t3n etc. pp. Nur bei Blogger.com sind dabei Blogs, aber dennoch.

    Na Danke für die netten Worte:). Ja, es staut sich in den Kommentaren so einiges zusammen und ich scheue keine Mühe, wenn auch mal eine Abbildung eingebunden werden muss. Daher interaktiv 🙂

    Bei Tanja habe ich zum Thema auch schon kommentiert und deinerseits hier verlinkten Blogartikel nicht ausser Acht gelassen.

  35. War nach Silvester schon mal wieder ein pagerank update?
    ich habe meinen mal durch rechnen lassen, und sollte auf pr2 kommen, aber google zeigt immer noch 1 an.

    gruss

  36. OK danke.

    aber ich weiss einfach nicht, warum ich immer noch auf PR 1 rumgammele. Wie kann man denn der PR-Qualität von x4d.de Glauben schenken? Gibt es irgendwo ein Tool, welches Vorhersagen machen kann, was man ungefähr für einen Pagerank bekommen wird?

    Wann wird das nächste mal ein PR-Update stattfinden? 1.7.?

  37. wow,
    sehr viel info auf einmal (hab noch viel zu lernen)
    Google und die Bewertung der einzelnen Seiten ist ein ganz spezielles Thema für sich.

    Gerade als „Neuling“ ist es wirklich nicht einfach sich darüber einen guten Überblick zu verschaffen.

    Kann mir jemand einen kleinen oder gar einen größeren Tip geben auf was alles im Detail geachtet werden muss um bei Google etwas mehr an Beachtung zu gewinnen ?

  38. Hallo,

    wir haben unsere seite gerade neu erst aufgesetzt. aus mit neuer adresse. nach einigen backlink-checkern haben wir einen angezeigten PR von 0, das stimmt, und sollten aktuell haben von 2,…

    Wann aktuallisiert google das nächste mal?

    Musketiere

  39. Hallo SEO-Experten,

    wir haben uns in den letzten Monaten mit unserer Seite unserer Seite Dsl-preistipp-de auf Seite 7 mit dem Begriff „DSL Vergleich“ vorgekämpft. Nun sind wir mit der Startseite, die wir für diesen Begriff optimiert haben, nicht mehr mit dem genannten Begriff zu finden.

    Haben wir es mit Webkatalogeinträgen übertrieben oder ordnet uns Google im Moment nur an einer neuen Position ein?

    Ist Euch das auch schon mal passiert? Was können wir nun tun?

  40. Hey DSL,

    könnte sein, das due gerade neu ein sortiert wurdest,
    bei meinen seiten kam es auch zu komischen ergebnissen. am 1.7. war ja wieder update.

    bei bei mir ist jetzt alles wieder OK!

  41. Hi Susann,
    ja Danke sehr und nach diversen Tipps anderer Blogger und meinen Wünschen sowie Anstrengungen, einem Google Antrag auf die erneute Webseiten-Überprüfung hat es nun wirklich geklappt. Dieser Artikel hat sogar einen PR von 2. Die Startseite des Blogs wurde mit einer 3 gesegnet, was nicht unbedingt hoch ist, aber das ist auch nicht so wichtig. Die Blogseiten wandern jetzt mehr in die Serps als vorher.

    Und nach diesem kleinen Webmaster-Erfolg ist die Vorfreude fürs Next Google-PR-Update schon mal vorhanden.

  42. wann kommt den das nächste Google-Update. Gibt es da irgendwelche fundierte Quellen und Informationen. Oder ist das meistens nur ein Lesen aus dem Kaffeesatz?

  43. Wir hatten am 23.10. eine PR-Veränderung bei unserem Projekt tus-hasede.blogspot com von 0 auf 2 obwohl es kein PR Update gegeben hat. Hat jemand eine Erklärung dafür?

  44. Hallo Alex,

    Wenn ich mir die ganzen Kommentare so durchlese, scheinst du richtig Ahnung vom PR zu haben. Ich habe eine Frage an dich! Meine Seite schwankt sehr stark (was den PR angeht). Ich weiß überhaupt nicht woran es liegt und niemand kann mir weiter helfen! Weißt du woran es liegt? von 5 auf 3… und wieder zurück. Aber das kann eigentlich nicht sein. Habe nicht soviel Erfahrung in dem Bereich, aber das weiß selbst ich. Normal kann das ja nunmal nicht sein.

    Danke
    Mit freundlichem Gruß Susanne.

  45. Hallo Susanne,
    na ja, geht so, bin nicht unbedingt ein SEO-Profi, wobei man nach einer Zeit als Webmaster ein paar Erfahrungen sammeln konnte. Der PR ist doch nicht mehr so ausschlaggebend wie früher. Apropos Pagerank, hattest du das Update am 20.01. mitbekommen? Dass deine Werte schwanken, ist normal, wie bei jedem anderen Projekt auch. Die Backlinks entscheiden über den Wert des Pageranks und diese Linkverweise auf anderen Webseiten zu der eigenen müssen stets ausgebaut werden. Wenn gute und vorher PR-starke Backlinks an Wert verlieren, macht sich das bei der eigenen Seite ebenfalls bemerkbar. Es ist ein Kreislauf, welcher stets aufrecht erhalten werden muss. Kennst du den Backlinkchecker von x4d? Mit deren Hilfe kannst du die Anzahl und den Wert deiner Backlinks bestimmen.

  46. Ich bin gerade über diesen Artikel gestolpert und auch wenn es wohl nicht mehr diskutiert wird, aber an der Stelle habe ich doch noch eine Frage… kann man irgendwo nachsehen, wenn google ein up-Date gemacht hat? also gibt google das bekannt?

  47. Soweit ich weiss, gibt Google es nicht bekannt, aber in der Webmaster-Gemeinde beobachtet man es aus den Augenwinkeln heraus und vermutet wann es dann wieder soweit sein könnte. Ich erfahre oft über Twitter-Timeline oder Facebook, dass Google erneut updatet. Falls es dir weiterhelfen kann!??

  48. klasse, danke für die infos und die links. der internet-baron-checker funktioniert aber in der letzten zeit leider leider nie. keine ahnung wie gut er mal wahr – wieder sein wird?!?

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert