Auch als Privatperson kann man eine eigene Homepage ins Internet stellen. Hier gebe ich dazu einige wichtige kostenlose Tipps für Einsteiger. Ich schreibe hier über meine persönlichen Erfahrungen mit meiner Homepage. Zuerst muss man sich die Frage stellen, ob ein allgemeines öffentliches Interesse vorliegt, ob man über eine persönliche Thematik die Öffentlichkeit informieren will, oder ob man für eine sehr spezielle Materie Gleichgesinnte und Mitstreiter sucht, die man sonst niemals kennenlernen würde. Letzteres ist bei mir der Fall. Diese Fragestellung über Sinn und Zweck kann man gezielt in die Suchmaschinenoptimierung (kurz SEO) einbringen, indem man die entsprechenden Keywords wählt. Was allerdings viel schwieriger ist, als man denkt. Nicht jeder hat Informatik studiert. Hier helfen Homepage Baukästen weiter, über die man sich in einschlägigen Vergleichsportalen informieren kann. Aber man muss auch hier ein "technisch" versierter Tüftler sein. Allerdings braucht man keine Programmiersprache anzuwenden. Das Abo für einen Baukasten kostet etwa 100 Euro im Jahr einschließlich Hosting und Support. Wenn man Werbung zulässt vom Baukasten Anbieter, ist es sogar kostenlos. Hosting bedeutet, daß ich mich mit meiner Homepage in einem Webserver einmiete, wie in einem Mietshaus.
Jetzt braucht man noch eine Domain, die weltweit einmalig sein muss. Da man keine starke Marke ist, wie z.B. VW, auch sehr schwer. Diese Domain muss man bei einem der vielen Domainanbieter kaufen und registrieren lassen. Zuvor wird geprüft, ob der Domainname noch frei ist. Domains sind sozusagen die Adressen (Anschriften) der Webseiten auf den jeweiligen Servern. Die Domains sind leichter zu merken und einzutippen als die IP-Adressen. Denn für die Computer sind nur die IP-Adressen relevant. Aber das sind ja reine Zahlen-Ungetüme. Als Privatperson sollte man sich über die Impressumspflicht und die EU Datenschutzverordnung ausführlichst informieren sowie über das Urheberrecht in Text und Bild. Sonst drohen empfindliche Geldstrafen von Abmahnanwälten. Die eigentliche Arbeit beginnt erst jetzt mit der Ausarbeitung eines Konzepts bzw. Entwurfes für das persönliche Projekt. Die Homepage muss dann in verschiedene Unterseiten strukturiert werden. Aber das sind dann überwiegend redaktionelle Arbeiten.
Redaktionelle Bearbeitung einer Homepage:
Man kann nicht einfach drauf los schreiben sondern muß darauf achten, daß der Text für Googlebot und andere Webcrawler maschinenlesbar ist. Der Homepage Baukasten übersetzt zwar den verfassten Text in den maschinenlesbaren Quellcode, jedoch sind etliche Formalien dabei zu beachten. Bilder kann ein Webcrawler nicht "lesen". Bilder brauchen daher zugeordnete Texte (ALT-Attribute). Man muss vor allem stets die Ladezeit der Homepage im Auge behalten. Sie sollte unter 1 sec liegen. Das ist die Zeit vom Eintippen der Domain in die Adresszeile des Browsers bis zum Seitenaufbau der Homepage im Notebook/Smartphone. Man muß daher die Bilder alle im jpg-Format unter 500 kB einstellen und zwar so, daß sie erst nach dem Laden endgültig scharf gezeichnet werden. Also lieber Animationen, Diashows, Videos, etc. vermeiden wegen zu langer Ladezeiten.
Meine Homepage hält die Ladezeit von unter 1 sec ein. Diese Zeit habe ich mit einem Tool von verschiedenen Anbietern gemessen. Langsamere Ladezeiten liegen dann am eigenen Computer oder im lokalen DSL Netz oder Mobilnetz. Große Internetfirmen hosten die Websites redundant weltweit auf Servern in Nordamerika und Europa. Und dann noch in verschiedenen Ländern. Wenn ein User weltweit meine Homepage anklickt, wird meine Seite vom geografisch nahe liegenden Webserver geladen. Dadurch wird die Ladezeit minimiert.
Wegen der Webcrawler muß man eine Überschriften-Hierarchie einhalten, sprich H1, H2, H3 Überschrift etc. Auch müssen Metaangaben geschrieben werden. Das sind die Texte, die in den Google Suchergebnislisten erscheinen. Und dort darf kein Blödsinn drin stehen, weil der Internetsurfer ja verführt werden soll, auf meinen Link zu klicken. Man muss also Google, natürlich auch Bing, alles beibringen. Es ist nämlich eine "mathematische Kommode", in deren Schubladen ich alle Infos meiner redaktionell verfassten Texte einsortieren muss. Beim Verfassen von Texten auf meiner Homepage muss man also immer an die Maschinenlesbarkeit durch Googlebot denken.
Thema: Textqualität für googlebot und bingbot
Im Hintergrund von diesen Webrobots (Webcrawler) arbeiten Hunderte von Programmierern, um die benutzten Algorithmen dieser robots noch perfekter zu machen. Der Namenszusatz bot kommt von robot (Roboter). Wie schon mal gesagt, gibt es sehr viele googlebot bzw. bingbot, die alle selbstständig im World Wide Web unterwegs sind. Deren IP-Nummern kann man sich im Internet beschaffen, um sicher zu sein, daß ein Webcrawler und nicht ein feindlicher robot die eigene Homepage besucht. Wenn man will, daß die Webcrawler die eigenen Seiten regelmäßig crawlen, muss man schon einiges tun.
Webcrawler lieben Homepages, die oft neue Texte erhalten und am besten einen Blog besitzen. Die Texte sollen frei von Rechtschreibfehlern sein und authentisch, einzigartig und interessant. Langweilige Wiederholungen, langatmige Aufzählungen und Verwendung von geklauten Textpassagen ziehen eine rigorose Herabstufung im Ranking nach sich, d. h. die Suchbegriffe in den Suchergebnislisten von Google bzw, Bing erscheinen erst ganz weit hinten und nicht auf den vorderen Seiten.
Das ist kein Witz. Webcrawler haben eine hohe Maschinenintelligenz und können die Textqualität exakt beurteilen. Diese Webcrawler untersuchen auch, ob die Schlüsselwörter (Keywords) im Text vorkommen, oder ob sie manipuliert wurden, um bessere Suchergebnisse in den Suchergebnislisten zu erzwingen. Wer versucht, die googlebots bzw. die bingbots auszutricksen, um die Suchmaschinen zu manipulieren, kann von Google bzw. Microsoft abgestraft werden. Die dann verhängten Sanktionen reichen von der drastischen Herabsetzen im Ranking über den zeitweiligen Ausschluss von den Suchmaschinen bis zum lebenslangen Ausschluss. Schlimmstenfalls ist also die eigene Homepage bei Google oder Bing nicht mehr auffindbar.
Website wird nicht indiziert.
Was tun, wenn nicht alle Unterseiten einer Website von Google indiziert wurden. Bei den Suchmaschinen entfällt weltweit über 92% Marktanteil auf Google. Daher ist es für jeden Webmaster notwendig, bei der Google Search Console registriert zu sein. Von Googlebot nicht indizierte Seiten stehen nicht im Google Index und erscheinen damit nicht in den den Google Suchergebnis Listen. Was nutzt die schönste Homepage, wenn sie nicht gefunden wird. In der Google Search Console gibt es Informationen, welche Unterseiten nicht indiziert wurden und was die Ursachen sind. Mögliche Ursachen können sein, daß Suchmaschinen ausgesperrt sind, falsches SEO, Verstoß gegen Google Richtlinien, etc. pp.
Learning by doing.
Meine Homepage ist seit nunmehr seit 4 Jahren online. Im Laufe der Zeit habe ich sehr viele Fehler bei der Suchmaschinenoptimierung SEO gemacht und daraufhin mehrfach Korrekturen bei der SEO durchgeführt. Dadurch sind "Schleifen" entstanden, durch die Googlebot nicht durchblickte. Ich habe etliche Fehlermeldungen über Crawlingfehler in meiner Google Search Console erhalten. Normalerweise aktualisiert Googlebot den Google Index, wenn Googlebot beim erneuten Crawlen Änderungen auf den Webseiten vorfindet. Aber zusätzlich hatte ich ja auch mehrfach meine Domain geändert. Dadurch ist Googlebot vollkommen irritiert worden. Ich habe daher vor 4 Wochen einen Neubeginn gewagt durch Löschen sämtlicher alter Sitemaps. Ich habe die SEO neu aufgestellt mit der aktuellen Domain. Die aktuelle Sitemap habe ich bei Google Search Console eingereicht. Die alten Sitemaps habe ich alle gelöscht. Durch diesen Neuanfang werden alle meine Anfängerfehler aufgrund meiner Methode "learning by doing" beseitigt. Allerdings wird in den nächsten Wochen mein Ranking in den Google Suchergebnis Listen absacken, wodurch ich letztendlich weniger Besucher habe. Aber das ist für mich tragbar. Anschließend werde ich wieder im Ranking ansteigen in dann fehlerfreier SEO.
Backlinks.
Diese externen Links verweisen auf meine Homepage. Dadurch erziele ich ein besseres Ranking in den Google Suchergebnis Listen. Ausschlaggebend ist die Summe der Backlinks sowie die Anzahl der verweisenden Websites. Diese Backlinks sind unterschiedlich wichtig, weil nämlich der Bekanntheitsgrad und die Qualität der verweisenden Website eine große Rolle spielt. Ich habe mich in etliche Telefonverzeichnisse, Business Sites und Webkataloge mit meiner Homepage eingetragen. Dabei sind die redaktionell aufgenommenen Einträge generell wertvoller. Natürlich muß man sich schon anstrengen und eine hochwertige Homepage zur Aufnahme in das jeweilige Verzeichnis einreichen. Bis Googlebot diese Einträge von mir dort crawlt, kann einige Monate dauern. Weil der Webcrawler Googlebot durch Algorithmen gesteuert wird, habe ich keinen direkten Einfluss auf das Crawlen dieser Seiten.
Backlinks sind wie gesagt wichtig für ein gutes Ranking in den Google Suchergebnis Listen. Im Internet findet man Backlinks Checker, mit denen man die Anzahl der Backlinks sowie die Anzahl der verweisenden Domains finden kann. Es gibt auch kostenlose Backlink Tools. Die Google Search Console gibt natürlich auch die Anzahl der Backlinks an. Es dauert Wochen, oft auch Monate, damit aktuelle Backlinks in den jeweiligen Backlinks Datenbanken aufgenommen werden. Große Datenbanken umfassen mehr als eine Billionen Backlinks. Weil ich in letzten Monaten mehrfach meine Domain gewechselt habe, dauert es sehr lange, bis meine Backlinks aktualisiert werden. Es kommt darauf an, wie oft die verweisende Domain von Googlebot gecrawlt wird. Also, ob es eine wichtige Website oder eine unbekannte Website ist.