Die Suchmaschinenoptimierung SEO verbessert das Google Ranking. Das Ranking zu verbessern, erfordert sehr viel Fleiß und Ausdauer. Bis sich das im Google Ranking widerspiegelt, dauert viele Monate. Ich schreibe hier über meine persönlichen Erfahrungen mit der SEO bei meiner privaten Homepage. Jeder Google Nutzer lebt in seiner persönlichen Filterblase. In meinem persönlichen Fall kann ich nur von Google Nutzern gefunden werden, die meine Interessen teilen, was aber von mir als Familienforscher beabsichtigt ist. Und hier liegt genau mein Problem. Wenn ich meine SEO zu präzise vornehme, gibt es nur sehr wenig Nutzer, die mich finden. Aber das sind dann die Gleichgesinnten, die mir wichtig sind. Wenn ich die SEO großzügiger auslege, finden mich mehr Nutzer. Aber auch überwiegend Desinteressierte. Der Grund dafür liegt an dem sehr speziellen Thema meiner Familienforschung. Gesteuert wird das Ganze durch Keywords, Meta-Tags und H1 bzw. H2 Überschriften im Quelltext der Website. Es gibt noch andere Parameter im SEO, die alle von Googlebot beim Crawlen durch Algorithmen berücksichtigt werden. Schwierig ist, dass alle Parameter in Wechselwirkung stehen. Wenn man an einer Stelle etwas ändert, hat das Auswirkungen auf die anderen Parameter. Sogar beim Verfassen der Texte auf der Website muss man diese Situation berücksichtigen. Ein großer Prozentsatz aller Server weltweit gehört der Suchmaschine Google. Aber Google ist nicht das Internet. Die Google Suchergebnis Liste wird erst in Sekundenbruchteilen zeitgleich generiert, wenn der Nutzer den Suchbegriff eingibt. Als Webseiten Betreiber sieht man Google wesentlich positiver, als ein passiver Konsument im Internet. Und ist brennend daran interessiert, daß Googlebot die eigene Website häufig besucht. Firmen nutzen SEO Profi Tools, die teures Geld Miete monatlich kosten, um in der Google Suchergebnisliste auf Rang 1 zu stehen.
Meine Homepage wird etwa 1-2 mal am Tag vom Google Web Crawler besucht und gecrawlt (gelesen) und dabei nach Suchbegriffen für die Suchdatei (Index) der Google Suchmaschine analysiert. Diese Web Crawler durchwühlen das Internet und besuchen ständig die Milliarden von Homepages. Manche stündlich, andere selten oder alle paar Monate. Aber besucht wird jede Webseite mal. Die Web Crawler hangeln sich dabei von Link zu Link und durchpflügen dabei sämtliche Informationen, die für sie maschinenlesbar sind. Diese Webseiten werden somit indiziert und in den Index von Google gebracht. Der Index, das ist die Gesamtheit aller Google-Server weltweit. Das Programm Googlebot sortiert alle Informationen nach Algorithmen und bereitet diese auf. Informationen, nach denen öfters gesucht wird, kommen ins Cache, damit die Zugriffszeit kürzer ist. Der Googlebot besucht nur Web Sites, wo Suchmaschinen Zutritt haben und nicht ausgesperrt sind. Auf meiner Homepage ist Googlebot von mir gerne gesehen und ich habe alles unternommen, daß er meine Homepage leicht findet und crawlen kann. Dadurch bekommt meine Homepage letztendlich mehr Besucher. Denn es nicht damit getan, eine Web Site online zustellen. Dann fängt die Arbeit erst an, nämlich die Web Site unter Milliarden von Seiten bekannt und auffindbar zu machen.
Wenn nun weltweit im Browser ein Suchbegriff eingegeben wird, durchsucht die Google Suchmaschine den Index nach den passenden Keywords. Basierend auf der Linkpopularität ergibt sich das aktuelle Ranking in der Google Suchergebnisliste und es erscheint auch meine Metaangabe, sprich Suchtext, und mein Link zu meiner entsprechenden Unterseite meiner Homepage auf z. B. Position 27 auf Seite 3. Der Index ist dynamisch und nicht statisch. Er wir also kontinuierlich aktualisiert. Das Ranking von meinem Suchbegriff ist abhängig von meinem SEO (Search Engine Optimazation), in die ich bei meiner Homepage sehr viel Arbeit investiert habe. Über den Suchbegriff kommt der Suchende schließlich auf meine Homepage. Sein Besuch kann ich über „meine“ Web Analytics feststellen, allerdings ohne seine persönliche Daten.
Auf der Google Search Console bin ich mit meiner Web Seite registriert unter Nachweis meiner Eigentümerschaft. Wenn ich diese Google Search Console öffne, kann ich schauen, wie der Web Crawler Googlebot meine Webseiten auswertet. Ich kann feststellen, wie viele externe Links auf meine Homepage verweisen. Je mehr externe Links vorhanden sind, desto besser ist das Ranking in den Google Suchergebnislisten. Nach dem Motto, wer oft erwähnt wird, ist wichtig. Übrigens, meine Suchbegriffe erscheinen meistens auf den ersten drei Seiten. Außerdem kann ich in der Google Search Console die Häufigkeit in % der Aufrufe meiner von mir gewählten Suchbegriffe sehen. Sehr wichtig ist die Kenntnis von Crawling Fehlern, wenn Googlebot auf einer Web Site von mir etwas nicht „lesen“ konnte. Man kann auch anschauen, an welchen Tagen (Datum) im Jahr Googlebot wie viele Web Sites von meiner Homepage gecrawlt hat. Bei mir werden „jeden“ Tag alle Seiten gecrawlt auf der Suche nach neuen Infos.
Spam Backlinks. Normalerweise freut sich ein Webmaster, wenn seine Homepage viele Backlinks bekommt. Backlinks, d. h. externe Links, die auf meine Homepage verweisen, verbessern ja mein Google Ranking. Aber es gibt leider diese Spam Backlinks, die meine Homepage im Google Ranking fallen lassen. Diese Spam Backlinks dienen ausschließlich dazu, mir zu schaden, also beinhalten keine Wertschätzung meiner Homepage. Wenn ein Webmaster solche Backlinks von minderwertigen Seiten erhält, kann daß sogar von Google abgestraft werden. Es ist also Eile geboten. In der Google Search Console gibt es Informationen zum Erkennen von Spam Backlinks und deren Beseitigung mittels Google SEO Tools.
Das Grundsatz-Problem bei der SEO ist bei meiner Homepage folgendermaßen: Wenn ich Keywords verwende, die in der Google Suche häufig eingetippt werden, lande ich beim Ranking in der Google Suchergebnis Liste ganz weit hinten. Wenn ich Keywords benutze, die genau meine Homepage beschreiben, lande ich im Ranking in der Google Suchergebnis Liste ganz weit vorne. Weil aber diese speziellen Keywords selten eingetippt werden von den Usern, erhalte ich dann nur wenige Klicks. Außerdem wird im Ranking der Standort des Users berücksichtigt durch GPS oder IP-Adresse. Wenn ich in Baiersdorf und Landkreis gefunden werden will, muss ich das bei der SEO berücksichtigen. Auch wenn meine SEO super ist und besser als die SEO einer konkurrierenden Website, die von einer IT-Firma erstellt wurde, habe ich ein schlechteres Ranking wegen der Linkpopularität. Dabei handelt es sich um externe Links von anderen Websites, die auf meine Homepage verlinken. Davon habe ich nur sehr wenige, weil ich nicht so bekannt bin beim Nischenthema Familienforschung.
Die Linkpopularität wird von der Suchmaschine Google herangezogen für das Ranking in den Google Suchergebnislisten. Darunter versteht man die Links, die von fremden Websites auf meine Homepage verweisen. Wenn man als Webmaster viele externe Links besitzt, werden die spezifischen Suchtexte der Google Suchergebnisliste, die auf die eigene Website (Link) zeigen, auf den ersten Seiten weit vorne aufgelistet und können daher eher angeklickt werden. Diese externen Links werden übrigens vom Web Crawler Googlebot gefunden und aufgelistet in der Google Search Console.
Meine abschließenden Erfahrungen mit der Suchmaschinenoptimierung möchte ich so beschreiben:
Je mehr ich zu diesem Thema weiß, desto mehr weiß ich, daß ich nichts weiß. Ich beschäftige mich immer noch mit der Suchmaschinenoptimierung SEO für Google. Ich benutze für meine Webseite den Homepage Baukasten WIX, der den Anwender auch bei der Suchmaschinenoptimierung SEO anleitet und unterstützt. An dieser Stelle berichte ich über meine wohl typischen Anfängerfehler. Ich benutze zusätzlich noch ein kostenloses SEO Tool (und zwar SEO Check, Keyword Check, Ranking Check) von einem anderen Anbieter, mit dem ich einige SEO Fehler gefunden hatte. Als ich in meinem WIX Editor nachgeforscht habe, habe ich einen gravierenden Anfängerfehler gefunden, den ich früher begangen habe, als ich anfing, meine Homepage zu erstellen. Bei der Methode learning-by-doing entstehen solche Fehler leicht. Und zwar hatte ich keine eindeutige Formatierung festgelegt.
Die Formatierung meiner gesamten Homepage war verkehrt. Ich habe wohl die SEO Standards auf jeder Seite penibel eingehalten beziehungsweise nachgebessert, aber auf den einzelnen Seiten keine eindeutige Formatierung im Text vorgesehen. Das bedeutet, WIX unterscheidet zwischen Website-Titel, Seitentitel, Überschrift und Textabschnitt. Diese genaue Formatierung ist wohl wichtig, damit der Web Crawler die einzelnen Seiten crawlen ("lesen") kann. Ich habe daraufhin die gesamte Formatierung meiner Homepage überarbeitet. Wie gesagt, es ist ein Grundsatzfehler, den ich zu Beginn begangen habe als ahnungsloser Anfänger. Aber ich kann wohl behaupten, daß man sich in die Suchmaschinenoptimierung SEO nur mit der Methode learning-by-doing einarbeiten kann. Die SEO Anleitungen dazu sind teilweise derart kompliziert und mit Fachausdrücken gespickt, zumal oft in englisch, daß man als Laie schwer durchblickt. Aber nun kann ich sagen, ich habe es geschafft und zwar ohne Hilfe, ohne Kursus und ohne Fachbuch.
Google Index. Das sind sämtliche URLs (Unterseiten von Websites), die irgendwann von Googlebot indiziert wurden. Milliarden von Seiten weltweit auf unzähligen Google Servern, und täglich werden es mehr. Der Google Index ist sozusagen das Gedächtnis, was nichts vergißt. Beim Abfragen meiner alten gekündigten Domains habe ich auch festgestellt, daß die alten Unterseiten noch alle im Google Index vorhanden sind. Ich habe danach folgendes Experiment gemacht: Ich habe den ersten Satz meines ältesten Blogbeitrags von 2015 kopiert und in das Google Suchfenster eingeben. Daraufhin wurde in der Google Suchergebnis Liste der richtige Blogbeitrag mit der selben Textstelle in Verbindung mit meiner aktuellen Domain angezeigt. Die alten Domains kamen nicht mehr vor. Wenn ich auch den Index löschen wollte, müsste ich bei Google 122 Einzelanträge auf Löschung stellen. So viele URLs habe ich. Aber darauf kann ich nun verzichten, wie oben ausgeführt.