Schlagwort-Archiv: suchmaschinen

Suchmaschinenranking: Machtkampf der Suchmaschinen

Mit Suchmaschinenranking wird eigentlich die Reihenfolge der von Suchmaschinen ermittelten Ergebnisse definiert. Die Betreiber der Suchmaschine legen die jeweiligen Kriterien, über welche Inhalte ein Internetauftritt für die optimale Positionierung verfügen muss, in einer Art Rangordnung fest.

Eine Beeinflussung kann durch gezielte Maßnahmen der Suchmaschinenoptimierung (kurz SEO genannt) erfolgen. Bei der Nutzung illegaler oder unerwünschter SEO-Methoden drohen dem Website-Betreiber Sanktionen in Form von Negativ-Bewertungen und Löschungen aus dem Suchmaschinen-Index.

Eine weniger oft thematisierte Form des Suchmaschinenrankings ist das Ranking der Suchmaschinen selbst sowie Statistiken über das Verhalten der Internet-User in Bezug auf die Nutzung von Suchmaschinen. Richtig genutzt geben diese Daten Anhaltspunkte dafür, auf welche Suchmaschinen-Faktoren bei Websites für eine optimale Positionierung geachtet werden muss.

Wie viele Suchanfragen beantwortet Google täglich?

Das sich auf Analysen der digitalen Welt spezialisierte Unternehmen comScore hat hierzu Statistiken aus dem Monat Dezember 2012 veröffentlicht, wonach in diesem Monat weltweit 176 Milliarden Anfragen über Suchmaschinen gestellt wurden.

Suchmaschinenranking und die weltweiten-suchanfragen
Suchmaschinenranking und Ihre weltweiten-

SuchanfragenVon diesen Anfragen wurden 114,7 Milliarden über die Suchmaschine Google gestellt, was Google mit 65,2 % zum Weltmarktführer macht. Erst mit einem großen Abstand folgen die chinesische Suchmaschine Baidu mit 14,5 Milliarden Anfragen und die Suchmaschine Yahoo, über die immerhin 8,6 Milliarden Suchanfragen gestellt wurden.

Die aus Russland stammende Suchmaschine Yandex belegt mit 4,8 Milliarden Anfragen den vierten Platz.

Das Schlusslicht bildet der in anderen Bereichen sonst so erfolgreiche Anbieter Microsoft, über dessen Suchmaschine lediglich 4,5 Milliarden Suchanfragen gestartet wurden.

Suchmaschinenranking: Wie viele Menschen nutzen Google?

Diese Daten werden von der nächsten Analyse untermauert, die das Nutzerverhalten dokumentiert. Denn im Monat Dezember 2012 haben 1,17 Milliarden unterschiedliche User die Suchmaschine Google genutzt. Der große Abstand zu den Konkurrenten zeigt sich durch etwa 290 Millionen verschiedene Nutzer der Suchmaschinen Baidu und Yahoo. Immerhin schafft es hier Microsoft mit knapp 270 Millionen Usern auf den vorletzten Platz vor der mit 74 Millionen Nutzern registrierten Suchmaschine Yandex.

wieviele-sucher
wieviele-sucher

Zunächst zeigen diese Statistiken auf, dass für eine gute Positionierung von Websites kein Weg an Google vorbeigeht.

Der Anbieter selbst gibt über 200 das Suchmaschinenranking beeinflussende Faktoren an.

Weder die Ranking-Faktoren selbst, noch deren Gewichtung werden jedoch von Google publiziert. Viele Unternehmen analysieren daher die Eigenschaften von gut positionierten Websites und vergleichen mutmaßliche Faktoren.

Bekannt ist, dass beispielsweise für Google Deutschland die sogenannten „Social Signals“ von sozialen Netzwerken wie Facebook und Twitter die Positionen im Google-Index erheblich beeinflussen. Andererseits positionieren sich Websites mit einem Höchstmaß an Werbung, insbesondere Adsense Werbeblöcke, nicht optimal.

Die Mischung macht das Ranking aus

Gut strukturierte Websites mit einer gekonnten Mischung aus hochwertigen Links, starken Marken, Keyword-Domains und Meta-Keywords haben gute Chancen auf eine adäquate Platzierung beim Suchmaschinenranking.

Wer jedoch mit seinem Internetauftritt auch in der fernöstlichen Region erfolgreich sein will, sollte mit seiner Website auch den Ranking-Kriterien von Baidu entsprechen. Hierzu gehören u.a.

  • chinesische Inhalte,
  • Keywords und
  • ein Hosting-Standort in China.

Aufgrund der strikten Zensur im chinesischen Web müssen verlinkte Seiten immer wieder überprüft werden.

Letztendlich hängt es von der jeweiligen Zielgruppe und der Region ab, welchen Kriterien des Suchmaschinenrankings die Website entsprechen muss. Wer jedoch seinen Webauftritt nach den Vorgaben von Google optimiert, ist nach den aussagekräftigen Daten aus den Statistiken immer auf der sicheren Seite.

Was ist ein Crawler?

Als Crawler bezeichnet man Programme zum Auffinden und Indexieren von Webseiten. Alternative Bezeichnungen sind Webcrawler, Robots, Spider oder auch Searchbot. Das englische Verb „to crawl“ wird in diesem Zusammenhang meist mit „kriechen“ übersetzt. Denn der Webcrawler kriecht im Web sozusagen von einer URL zur nächsten. Als HTTP-Client sendet er eine URL (Request) an einen Server, der ihm daraufhin die angefragte Information bzw. Datei zusendet (Response).

Wie funktioniert Crawling?

Die Suche (search) beginnt mit der Hinzufügung von Start-URLs. Diese werden einzeln und auf dem Umweg über die Frontier dem Downloader übergeben, der – vereinfacht dargestellt – die betreffenden Webseiten kopiert und auf Verweise – also weitere URLs hin untersucht. Diese werden dann zur Grundlage des folgenden Suchkreisläufe. Je nach Voreinstellung kann die Suche andauern, bis keine neuen Verweise mehr gefunden werden oder bis ein definiertes Ziel erreicht wurde.

Aufgrund der hohen Zahl existierender Webseiten ist es faktisch nicht umsetzbar, dass ein Crawler tatsächlich alle Seiten durchsucht. Daher werden vorab Beschränkungen festgelegt, die sich auf URL-Adressen, Inhalte, Downloadzeiten oder auch bestimmte Elemente einer Webseite beziehen.

Beispiel vom Google Crawler

Crawler von Google
In die Webmastertools von Google ist zu sehen wie oft eine komplette Seite Gecrawled wird.

Wofür werden Crawler benötigt?

Genutzt werden Crawler hauptsächlich von Suchmaschinen zur Indexierung von Seiten, zur Listung verfügbarer URLs und zur Auswertung von Inhalten. Welche Aufgaben ein Bot im Einzelnen übernimmt und in welcher Abfolge er diese durchführt, hängt von der Programmierung ab.

Einige Programme indexieren zunächst und speichern Inhalte für eine spätere Sichtung ab. Andere erledigen diese Aufgaben parallel. Auch werden „focused“ oder „topical crawler“ eingesetzt, um Webseiten zu erfassen, die relevant für eine spezielle Thematik sind; manche Programme werden verwendet, um gezielt nach Urheberrechtsverletzungen zu suchen.

Crawl dates in the Google cache

Wie unterscheiden sich freundliche Crawler von schädlichen Bots?

Wer eine Website betreibt, möchte in der Regel auch gefunden werden und wird daher einer Indexierung zustimmen.

Ein großes Ärgernis stellen jedoch Programme dar, die elektronische Daten sammeln, um diese missbräuchlich zu verwenden. Ein solcher schädigender Use besteht beispielsweise im Sammeln von E-Mail-Adressen, die anschließend mit Spam überhäuft werden.

Als Schutzmaßnahme vor einer ungewünschten Indexierung soll der bereits 1994 entwickelte Robots Exclusion Standards dienen. Dieser legt fest, dass ein Crawler seine Sichtung mit dem Lesen der Datei robots.txt beginnt, in welcher der Betreiber einer Website definiert, welche Seiten indexiert werden dürfen.

Auch kann der Zugriff auf bestimmte Seiten ganz verweigert werden. Da sich die „bösen“ Bots im Gegensatz zu Suchmaschinenbetreibern wie Google aber nicht an derlei Regeln halten, müssen zum Schutz bestimmter Dateien und Seiten andere Maßnahmen ergriffen werden – wie beispielsweise das Anlegen von .htaccess-Dateien.

Was sind Suchmaschinen und wie Optimiere Ich richtig?

SuchmaschinenSuchmaschinen sind heute eines der wichtigsten Instrumente, um Inhalte im Internet zu finden.

Sie helfen dabei, mit entsprechenden Suchalgorithmen diejenigen Seiten mit einer hohen Relevanz von denjenigen mit einer niedrigen Relevanz bei der Eingabe eines beliebigen so genannten Keywords zu unterscheiden.

Da die Suchmaschine inzwischen so wichtig geworden ist, gibt es zahlreiche Anbieter, die sich um die Gunst der suchenden Netzgemeinschaft streiten.

Beliebte Suchmaschinen

Unter den Suchmaschinen, die in Deutschland und Österreich am verbreitetsten sind, befinden sich weltbekannte Namen wie Yahoo!, Bing, Lycos und natürlich Google. Letzterer Konzern aus Kalifornien übertrumpft bei der Nutzerauslastung noch immer alle anderen Unternehmen spielend.

Besonders in Deutschland können die anderen Dienstleister kaum einen Fuß auf dem Markt fassen, so dass Googles Marktanteil bei über 90% liegt. Dass sich dies im Jahr 2013 ändern wird, ist nicht abzusehen – es sei denn, Microsoft verstärkt seine Bemühungen rund um Bing oder Facebook entwickelt seine Eigene Suchmaschine.

Alle anderen Anbieter sind derzeit für Google keine Gefahr.

Marktanteile der Suchmaschinen weltweit

Marktanteile Suchmaschinen Weltweit

Die Statistik zeigt die Marktanteile der Suchmaschinen weltweit. Im August 2012 entfielen rund 91,4 Prozent aller Suchanfragen auf Google

Reichweite von Suchmaschinen in Deutschland

Marktanteile Suchmaschinen Deutschland 2012

Die Statistik zeigt den Anteil der Suchmaschinen, über die im Januar 2012 Suchanfragen im Internet gestartet wurden. Die Nummer 1 Suchmaschine hat ihren Marktanteil in Deutschland auf 95,9 Prozent aller Suchanfragen ausgebaut.

Wie funktionieren Suchmaschinen?

Laienhaft ausgedrückt könnte man sich eine Suchmaschine wie einen gigantischen Index aller durchsuchbaren Seiten im weltweiten Netz vorstellen. Sobald ein Nutzer einen bestimmten Begriff eingibt – wie vielleicht „Top 10 Shops“ –, durchsucht die Suchmaschine ihren Index nach Seiten, die im Zusammenhang mit diesem Begriff als besonders relevant angesehen werden.

Wichtig anzumerken ist, dass jede Suchmaschine mit unterschiedlichen Algorithmen arbeitet. Das bedeutet, dass für jede Suchmaschine im Grunde andere Faktoren für eine gute Platzierung wichtig sind..

In dem Beispiel werden nach Eingabe des Suchbegriffs alle Webseiten angezeigt, die etwas mit die Wörter „Top 10 Shops“ zu tun haben.

Da es sich dabei wahrscheinlich um mehrere Milliarden Webseiten handelt, weist die anschließende Ergebnisliste eine entsprechende Länge auf, die niemals von einem Menschen komplett durchsucht werden kann. Das wiederum bedeutet, dass die hinteren Seiten unter keinen Umständen von echten Nutzern gefunden werden können.

Um dieses unschöne Ergebnis für die Webseiten auf diesen Plätzen zu umgehen, gibt es die so genannte Suchmaschinenoptimierung.

Was ist die Suchmaschinenoptimierung?

Da die Suchmaschinen ihre Ergebnisse in einer Art Liste nach Relevanz ordnen, ist es natürlich möglich, dieses System „auszunutzen“ und den Suchmaschinen Webseiten zu geben, deren Inhalte sie als besonders wertvoll ansehen.

Dieses Vorgehen heißt Suchmaschinenoptimierung oder Search Engine Optimization, kurz: SEO. Dabei werden diverse Maßnahmen ergriffen (Mehr wie 200!), um die Webseite so darzustellen, dass sie einen wesentlich höheren Relevanz und/oder Pagerank erzielt.

Darunter fallen z.B. die häufige Nennung von bestimmten Keywords oder auch die Verwendung von verwandten Synonymen, hier bietet unser SEOlyze zum Thema Onpage (Text) Optimierung eine gute Hilfestellung.

In dem Top 10 Shops-Beispiel etwa könnte die Webseite auch mit Begriffen wie Amazon, Games, Versand, iPhone, web, kostenlos, Informationen, ipad, Bestellungen, Region oder ähnlichen Schlüsselwörtern ausgestattet werden, um einen deutlich höhere Platzierung durch die offensichtliche Verwandtschaft mit dem Thema „Top 10 Shops“ zu generieren.

Top 10 Shops

Die genauen Maßnahmen für eine komplette SEO werden in die Onpage– und Offpage-Optimierung unterteilt und sind insgesamt relativ kompliziert.

Wozu dient die Suchmaschinenoptimierung?

Für Unternehmen oder generell jede Webseite, die Umsätze durch Werbung oder den Verkauf von Dienstleistungen oder Produkten generieren möchte, ist es sehr wichtig, im Index der Suchmaschinen auf einem der vorderen Plätze zu erscheinen. Der hintere Bereich ist für die Zielgruppe nicht von Bedeutung, da nur die wenigsten Personen mehr als zwei bis drei Ergebnislisten durchsuchen.

Während für Unternehmen, die auf ihrer Webseite keine Verkäufe erzielen, zu verschmerzen ist, dass sie nicht auf den ersten Plätzen gefunden werden, leidet der Umsatz bei allen anderen profitorientierten Webseiten direkt unter einer schwachen Platzierung im Suchindex. Je besser die Richtige Platzierung zu vordefinierte Keywords, desto größer der Gewinn  – dies könnte als Faustregel festgehalten werden.

Zukünftige Entwicklung  der Investitionen in SEO

Zukünftige Entwicklung Investitionen in SEO

Die Statistik bildet die Ergebnisse einer Umfrage unter SEO-Verantwortlichen und Online-Marketing Managern führender Unternehmen der Online-Welt zu den künftigen Investitionen in die Suchmaschinenoptimierung ab. Zu Beginn des Jahres 2012 gaben 56,9 Prozent der befragten Unternehmen an, dass sie in Zukunft mehr in nationale SEO investieren werden als bisher.

Bemerkenswerte Suchmaschinen

Neben die schon erwähnten etablierten Unternehmen gibt es weitere nennenswerte Produkte in diesem Bereich. Altavista etwa war 1995 die erste Suchmaschine, die Text im Internet durchsucht hat. Inzwischen ist die Bedeutung der inzwischen zu Yahoo! gehörenden Suchmaschine jedoch praktisch nicht mehr vorhanden. Weiterhin gibt es mit Suchmaschinen wie MetaCrawler auch Unternehmen, die die Suchergebnisse von mehreren anderen Maschinen zusammenfassen, um eine möglichst informative Ergebnisliste anzuzeigen. Auch das funktioniert nicht immer zufriedenstellend, als Experiment ist dieses Vorgehen jedoch bemerkenswert.

In der nahen Zukunft wird die Bedeutung von Suchmaschinen und Universal Search nicht abnehmen. Im Gegenteil: Da das Internet nach wie vor wachsen wird, werden auch diese Maschinen wachsen müssen, um beispielsweise für westliche, asiatische und vielleicht afrikanische Nutzer gleichermaßen von hohem Nutzen zu sein – doch bis dahin ist es noch ein langer Weg.

Möchten Sie zum Thema Suchmaschinen und SEO mehr erfahren? Wir Beraten Ihnen gerne!

Content Management System (CMS) – was ist das?

Content Management System CMSWurde das klassische Content Management System, auch kurz CMS genannt, zunächst für das Management und das Organisieren von Webinhalten entwickelt, dient es heute verstärkt auch als leistungsstarkes Redaktionssystem und vereinfacht alle webbasierten Arbeitsprozesse.

Dazu gehören unter anderem die Administration von Online Inhalt wie Artikel, Bilder, Werbebanner und News wie sie von Unternehmens- und Informationsportalen und Online-Zeitungsauftritten benötigt werden.

Wer spezielle Inhalte einer Seite für den Printbereich im PDF-Format benötigt, kann diese mittels eines speziellen Moduls generieren und mit individuellen Angaben versehen. CMS Systeme gibt es Kostenlos und im Open Source, was aber nicht immer bedeutet das es keine Zeit kostet.

Vorteilen von Content Management Systemen

Zu den unschlagbaren Vorteilen von CMS Systemen gehört eine klar strukturierte Verwaltung unterschiedlicher Komponenten, die User individuell abrufen und auch in Kombination aus Texten und Bildern zusammen setzen können, um einen Artikel zu veröffentlichen. Die gängige CMS Systeme sind im Open Source zu bekommen und sind damit Kostenlos.

Die Funktionen des CMS ermöglichen es, anders als bei klassischen Websites, eine getrennte Speicherung von unterschiedlichen Inhalten die, zugeschnitten auf den jeweiligen Autor, mit speziellen Metadaten versehen sind und in einer Datenbank abgelegt werden.

Zu den charakteristischen Merkmalen von Content Management Systemen gehören somit das Beschaffen von Inhalten über Suchmaschinen und deren Veröffentlichung, das nachträgliche Bearbeiten und die Aktualisierung, wie auch eine effiziente Verteilung und Wiederverwendung.

Video; What is a CMS?

CMS stellt auch Funktionen bereit, die eine gezielte Personalisierung von Inhalten ermöglicht. Angemeldete Besucher einer Webseite haben die Möglichkeit, ein individuelles Interessenprofil zu hinterlegen, um die gezielte Suche nach einem Inhalt zu beschleunigen.

Darüber hinaus sind diese noch recht jungen Systeme mit einer Funktion ausgestattet, die nicht nur der Qualitätssicherung dienen, sondern auch den problemlosen Austausch zwischen zwei Websites gewährleistet.

Wofür sind CMS Systeme zu verwenden?

Das Content System eignet sich auch bestens für die Verwaltung von „kleinen Webauftritten“, wobei die individuellen Anforderungen auf die Website ausgerichtet sein sollten.

Für einen eher kleinen Webauftritt sind komplexe Systeme nicht notwendig, während ein stark vereinfachtes System den hohen Featureerfordernissen eines großen Webauftritts meist nicht genügen.

Internetnutzer mit eigen Homepage

Anzahl der Internetnutzer, die einen eigenen Blog oder eine eigene Homepage betreiben, nach Häufigkeit der Beschäftigung damit von 2010 bis 2012 (in Millionen)

User Blog Homepage mit CMS

Diese Zeitreihe zeigt die Anzahl der Internetnutzer in Deutschland, die einen eigenen Blog/eine eigene Homepage betreiben, nach Häufigkeit der Beschäftigung damit. Im Jahr 2010 gab es rund 1,03 Millionen Personen, die sich häufiger/regelmäßig mit einem eigenen Blog bzw. einer eigenen Homepage beschäftigten.

Allen Anforderungen gemein ist, dass ein einmal installiertes CMS alle Bereiche wie Technik, Layout und Design automatisch abdeckt und dem Nutzer ermöglicht, sich auf das Wesentliche hinsichtlich der Erstellung von Inhalten zu kümmern.

Der Markt für CMS Systeme ist heute groß und umfasst eine große Bandbreite, die mit einer simplen Navigation ausgestattet sind, bis hin zu Allroundern. Auch im Jahr 2013 werden sich Neue CMS-Systeme auf den Markt begeben, die Frage ist nur was möchten Sie das ein CMS-System kann?

Welche CMS-Systeme gibt es?

WordPress als Kostenloses CMS-System

Zu den erfolgreichen und bekanntesten CMS gehört WordPress, dass sich nicht nur leicht den Anforderungen des Nutzers anpassen lässt, sondern auch problemlos erweitert werden kann. Neue Entwicklungen bei diesem zukunftsfähigen System gewährleisten Leistungsstärke, verhindern Sicherheitslücken und mittels Updates wird über das Admin-Menü eine kontinuierliche Aktualisierung ermöglicht.

Dabei beeinträchtigen Veränderungen nicht das Seitendesign oder Plugins, die somit nicht erneut installiert werden müssen. Hilfe bei der Fehlerfindung finden Nutzer auch bei der großen Community, die permanent mit hilfreichen Tipps zur Verfügung steht. WordPress bietet den Vorteil, dass selbst Einsteiger den Adminbereich leicht überschauen können und auch Seiten und News mit wenigen Klicks veröffentlichen können.

Diese Vorgehensweise spart Geld und Zeit und vereint alle Dienstleistungen rund um Design, Anpassungen und die Installation.

Typo 3

Zu den quelloffenen und kostenlosen CMS gehört Typo3. Jedoch lässt sich dieses Content Management System nicht selber installieren und administrieren und setzt neben einer leistungsfähigen und hohen Serverinfrastruktur auch ein entsprechendes Know-how voraus.

Zu den Vorteilen gehört, dass sich Typo3 auch für einen komplexen Webauftritt einsetzen lässt.

Dem User stehen zahlreiche Möglichkeiten zur Verfügung, das CMS zu erweitern und entsprechende Plugins zu nutzen. Typoscript heißt die Skriptsprache, die jedoch beherrscht werden muss, um alle Ressourcen auszunutzen.

Drupal, Joomla, Silverstripe und Google

Zu den oft genutzten CMS gehören neben Drupal und Joomla auch Silverstripe und Google.

Mit dem Page-Creator von Google wird ein Standard-System angeboten, dass sich leicht handeln lässt und zu den weiteren Referenzen gehört, dass es sich problemlos und effizient für den Hausgebrauch nutzen lässt.

Links zu Kostenlose CMS-Systeme

Auf Gratis CMS befindet sich eine Liste mit verschiedene Systeme die nach Kriterien beurteilt und Vorgestellt werden.

Welchem Algorithmus folgen Suchmaschinen und Warum?

AlgorithmusWer in der Schule die vier Grundrechenarten erlernt hat, ist damit in der Lage, einfache Algorithmen praktisch anzuwenden.

Denn in der Mathematik bezeichnet der Begriff „Algorithmus“ ganz allgemein ein Verfahren, mit dem sich ein Problem zuverlässig lösen lässt.

Kann dieses automatisiert und von Maschinen durchgeführt werden, befinden wir uns bereits im Bereich der Informationstechnologie. 

Unterscheidung zwischen berechenbaren und kontextabhängigen Problemen

Damit eine Maschine einen Algorithmus ausführen kann, der zu einem Ergebnis führt, müssen sowohl das Problem als auch die Lösungsschritte genau definiert werden.

Wer auf dem PC ein Korrekturprogramm installiert hat, um Textbeiträge für den eigenen Blog oder die Webseite zu überprüfen, der weiß, dass dies nicht in allen Fällen zuverlässig funktioniert. Das Programm findet Rechtschreibfehler und Buchstabendreher, falsche Artikel und grammatische Ungereimtheiten.

Es versagt regelmäßig dann, wenn zwei Alternativen nebeneinander bestehen, die beide theoretisch anwendbar sind, von denen aber nur eine im Kontext als richtig gilt. In diesem Fall handelt es sich nicht um ein konkret eingrenzbares und daher berechenbares Problem, sondern um eines, das einer Entscheidung bedarf.

Suchmaschinen-Algorithmen: das Problem der Relevanz

Wie verhält es sich dann um die Algorithmen, die von Suchmaschinen verwendet werden?

  • Welchem Zweck dienen sie und
  • zu welcher Aussagekraft gelangen sie?

Die erste Frage ist leicht zu beantworten: Algorithmen, wie sie von Google, Bing, Yahoo und anderen Suchmaschinen verwendet werden, sollen im Suchverlauf die für den Nutzer relevanten Websites finden und in eine geeignete Reihenfolge bringen. Wie der jeweilige Algorithmus Relevanz und Reihenfolge ermittelt, hängt von den Kriterien ab, die der Suchmaschinenbetreiber zur Lösung dieses Problems aufgestellt hat.

Im Fall von Google sollen es rund 200 Kriterien sein, die die Indexierung einer Page beeinflussen; und in der Zukunft werden es sicher nicht weniger. Das Problem, diesen Kriteriendschungel zu lichten, wird zusätzlich dadurch erschwert, dass sich die Suchmaschinenbetreiber nicht offen zu ihrer Auswahl äußern und diese zudem regelmäßig verändern.

Relevante Faktoren für den Suchmaschinen-Algorithmus

Die Entwickler von Suchmaschinen-Algorithmen haben es vornehmlich mit Problemen der Bewertung zu tun. Hierzu werden verschiedene algorithmische Berechnungen kombiniert.

Zu den bekanntesten und für die Suchmaschinenoptimierung (SEO) bedeutenden gehören der Pagerank– und der Trustrank-Algorithmus. Diese messen den Webseiten im Rahmen einer Skala Zahlenwerte zu, die ihre Linkqualität beziffern. Die Zahl der Backlinks fließt in die Berechnungen ebenso ein wie deren Relevanz und die Autorität der verweisenden Seiten.

Neben diesen OffPage-Faktoren sind zudem die OnPage-Faktoren für die Bewertung einer Website entscheidend. Dazu zählen alle Inhalte einer Seite sowie deren

  • Navigation,
  • Benutzerfreundlichkeit (Bounce Rate),
  • Formatierung und Web-Standards,
  • Keywordoptimierung
  • Interne Verlinkungen
  • Ladezeit
  • Server Standort und Weiteres mehr.

Und so wie sich bestimmte Faktoren positiv auf die Indexierung auswirken können, gibt es auch Negativfaktoren, die durch die Algorithmen ebenfalls erfasst werden.

Das Individuum als Parameter: der Google-Algorithmus

Insgesamt handelt es sich um einen komplizierten Vorgang, bei dem viele einzelne Algorithmen zu einer Gesamtheit verknüpft werden.

Wie am Beispiel Korrekturprogramm deutlich wurde, ist ein solches System hilfreich, aber nicht fehl-los. Häufig sind kontextabhängige Entscheidungen zu treffen. Vielleicht ist dies einer der Gründe dafür, dass die Berechnungen zunehmend auf eine personalisierte Suche aufgebaut werden – neben den neuen Marketingmöglichkeiten, die sich daraus ergeben.

How Google makes improvements to its search algorithm

Im Jahr 2010 haben Studenten der Northwestern Network Group einen Weg gewählt um den Google Algorithmus tiefer zu analysieren. Dazu haben Sie sich im Prinzip eine eigene Suchmaschine entworfen und dabei den eigenen Algorithmus solange variiert bis er soweit wie möglich das Ergebnis wiederspiegelt dass die Google Ergebnisliste bringt.

Die Originalarbeit als PDF finden Sie hier: http://cobweb.ecn.purdue.edu/~ychu/publications/wi10_google.pdf

Personalisierte Suche im Algorithmus

Personalisierte Suche bedeutet dabei, dass dem Algorithmus ein Parameter „Individuum“ hinzugefügt wird.

Wer im Besitz eines Google E-Mail- und/oder Plus-Accounts ist, kann seine Suchanfragen und Ergebnisse speichern lassen. Der Google-Algorithmus kann ihm dann Suchergebnisse zuordnen, die für ihn persönlich als besonders relevant errechnet wurden. Wir sind gespannt wo sich die Reise nach 2012 hinbewegt.

Ein ähnliches Verfahren nutzen bereits Social Media wie Facebook. Darin liegt die Chance, der großen Informationsflut mitsamt allen Kommentaren im Internet zu entgehen.

Leider verbirgt sich darin aber auch die Gefahr, dass der Befehl „ Search“ nicht mehr zu neuen Informationen führt, sondern nur noch eine Anzahl Google+ Vorschläge hervorbringt, die den Blick über den eigenen Tellerrand nicht mehr ermöglichen.