Die Qualität von OpenStreetMap

Freitag, 28. März 2014 at 14:38

In dieser Serie soll die spannende Frage nach der Qualität von OpenStreetMap und dessen Daten nach und nach beleuchtet werden. Von den vielseitigen Untersuchungen, die bereits durchgeführt wurden, über einzelne Kriterien mit denen die Qualität festgestellt werden kann, bis hin zu Aussagen, wie gut die Daten denn tatsächlich sind wird das große Spektrum der Qualitätsanalyse von OpenStreetMap betrachtet.

Sehr bald nach dem Start des OpenStreetMap-Projektes im Jahre 2004 stellten sich immer mehr Nutzer die Frage, wie gut die Daten, die da so zusammengetragen wurden (der gebräuchliche Ausdruck ist mappen), eigentlich sind. Schon ab 2008, also vier Jahre nachdem OpenStreetMap ins Leben gerufen wurde, hat diese Frage bereits die Universitäten und Hochschulen erreicht. Seitdem werden jährlich neue Qualitätsanalysen veröffentlicht, die immer einen anderen Fokus auf die Datenqualität  legen und somit zu vielseitigen Ergebnissen kommen. Während die ersten Untersuchungen versuchten die Abdeckung des Straßennetzes in London zu ermitteln, sind heutzutage eine  Vielzahl an Methoden entworfen worden, die umfangreichere Analysen erlauben.

Bei der Frage nach der Qualität der OpenStreetMap-Daten muss auch immer die Frage gestellt werden, was denn eigentlich gute Daten sind. Wenn ich beispielsweise das Navigationsgerät meines Autos mit OpenStreetMap-Daten versorgen möchte, müssen natürlich möglichst viele Straßen und deren offizielle Namen vorhanden sein. Außerdem müssen weitere Eigenschaften, wie die Fahrtrichtung oder Geschwindigkeitsbegrenzungen, in den Daten enthalten sein. Wenn ich dagegen ein Unternehmen betreibe, das die Glascontainer einer oder mehrerer Städte anfährt und leert, müssen möglichst alle Standorte der Glascontainer in den Daten vorkommen. Wichtig ist vor allem dass der Standort  exakt eingetragen wurde, da ich sonst unter Umständen die falsche Straßenseite oder gar die falsche Straße anfahre.

Diese zwei Beispiele zeigen, dass die Qualität der Daten immer von der Anwendung bzw. dem Einsatzzweck abhängt. Es lassen sich jedoch einige grundlegende Kriterien ableiten, die grundsätzlich ein Maß für die Qualität der OpenStreetMap-Daten angeben. Wie das Beispiel mit dem Navigationsgerät zeigt, müssen die Daten möglichst vollständig sein. Wenn Daten fehlen, die für meine Anwendung wichtig sind,  kann die Anwendung unter Umständen nicht ohne weiteres benutzt werden. Das Glascontainer-Beispiel macht deutlich, dass vorhandene Daten auch an der richtigen Position auftauchen müssen. Also ist die Positionsgenauigkeit von Daten ein weiteres Kriterium.  Ein weiterer Faktor ist die Update-Rate der Daten. Werden die Daten täglich aktualisiert, wie es bei OpenStreetMap der Fall ist, oder fließen die Updates nur jedes halbe oder ganze Jahr in die Daten ein.

Aus all diesen Kriterien müssen diejenigen ausgewählt werden, die für meine Anwendung von Interesse sind. Anschließend müssen die Daten auf dieser Basis analysiert werden. Wie die Daten grundsätzlich analysiert werden können und welche Maße angelegt werden müssen und vernünftige Ergebnisse zu erhalten, wird im nächsten Teil dieser Reihe betrachtet.

Thorsten Zylowski

Thorsten Zylowski

Thorsten ist ein Quell von Expertenwissen. Schon das Thema seiner Bachelorarbeit – ein softwarebasierter Qualitätsvergleich zwischen kommerziellem und OSM-Kartenmaterial sowie dessen Umsetzung zeigen deutlich, dass er intellektuell keine kleinen Brötchen backt. Auch alles was er sagt ist zumeist clever und durchdacht, allerdings auch äußerst selten. Anfangs dachte ich, es sei Schüchternheit, aber inzwischen drängt sich mir der Verdacht auf, dass dahinter das simple ökonomische Prinzip "Knappheit bestimmt den Preis" steckt.
Thorsten Zylowski

Letzte Artikel von Thorsten Zylowski (Alle anzeigen)