Hier steht die H1 Überschrift von creazybear
Creazybears Testseite zum Thema SEO. Hier steht ganz viel Text den ich mir noch ausdenken muss. Dazu kann ich ganz viel labern, was sicherlich auf den ersten Blick nach einem tollen Inhalt aussieht, aber eigentlich nur Blödsinn ist. Creazybear ist ein Testprojekt, um die Funktion des Homepage M Pakets zu testen. Dabei geht es um die Serverkonfiguration für Seobility. Sollte es möglich sein mit wenig Aufwand die Serverkonfiguration zu optimieren, dann könnte man dieses dem Kunden empfehlen.
Je nachdem was ich jetzt hier tippe, und was am Ende dabei heraus kommt, ist das Homepage M Paket zu empfehlen, oder aber auch nicht.
Ich hoffe ich bekommen genügend Text zusammen, damit dieses für Seobility nicht zu wenig ist.
Zur Not muss ich weiteren inhaltlosen Text formulieren, nur damit es so aussieht, als würde hier etwas sinnvolles stehen. Vielleicht kopiere ich doch irgend einen Text hierher, damit es dann endlich gut ist und ich aufhören kann zu tippen.
Hier steht die H2 Überschrift
Unter der H2 Überschrift werde ich nur ganz wenig Text verfassen. Einfach nur soviel, dass es nach Text aussieht. Egal wie sinnlos dieser Text ist, ich schreibe ihn einfach hierhin.
Jetzt folgt kopierter Text von Wikipedia.org zum Thema SEO:
Suchmaschinenoptimierung – englisch search engine optimization (SEO) – bezeichnet Maßnahmen, die dazu dienen, die Sichtbarkeit einer Website und ihrer Inhalte für Benutzer einer Websuchmaschine zu erhöhen. Die Optimierung bezieht sich auf die Verbesserung der unbezahlten Ergebnisse im organischen Suchmaschinenranking (Natural Listings) und schließt direkten Traffic und den Kauf bezahlter Werbung aus. Die Optimierung kann auf verschiedene Arten der Suche abzielen, einschließlich Bildersuche, Videosuche, Nachrichtensuche oder vertikale Suchmaschinen.
Die Suchmaschinenoptimierung ist ein Teilgebiet des Suchmaschinenmarketings.
Und zu guter letzt, die H3 Überschrift
Weiterer Text von Wikipedia.org:
Mitte der 1990er Jahre fingen die ersten Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Suchergebnissen und recht bald entwickelten sich Unternehmen, die sich auf die Optimierung spezialisierten.
In den Anfängen erfolgte die Aufnahme oft über die Übermittlung der URL der entsprechenden Seite an die verschiedenen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie. Der Webcrawler lud die Webseite auf den Server der Suchmaschine, wo ein zweites Programm, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die frühen Versionen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster selbst gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick über den Inhalt einer Seite, allerdings stellte sich bald heraus, dass die Nutzung dieser Hinweise nicht zuverlässig war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei spezifischen Suchen listen. Auch versuchten Seitenersteller verschiedene Attribute innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Suchergebnissen gelistet wird.
Da die frühen Suchmaschinen sehr auf Faktoren angewiesen waren, die allein in den Händen der Webmaster lagen, waren sie auch sehr anfällig für Missbrauch und Manipulationen im Ranking. Um bessere und relevantere Ergebnisse in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen an diese Gegebenheiten anpassen. Weil der Erfolg einer Suchmaschine davon abhängt, relevante Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Ergebnisse dazu führen, dass sich die Benutzer nach anderen Möglichkeiten für die Suche im Web umsehen. Die Antwort der Suchmaschinen bestand in komplexeren Algorithmen für das Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwer beeinflussbar waren. Larry Pageund Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Google – eine Suchmaschine, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen bezogen in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in Ihre Algorithmen mit ein.