Die Qualität von OpenStreetMap Teil 2

Mittwoch, 9. April 2014 at 16:57

Im vorherigen Teil über die Qualität von OpenStreetMap wurden grundsätzliche Kriterien vorgestellt, die eine gute Datenqualität ausmachen. In diesem Teil sollen nun konkrete Maße zur Bestimmung der Qualität vorgestellt und die Frage geklärt werden, wie die Daten auf Basis dieser Maße analysiert werden können.

Wie also kann ich die Vollständigkeit der OpenStreetMap-Daten feststellen? Wie kann ich erkennen, ob die Positionierung der für mich relevanten Daten aus OpenStreetMap gut ist? Für diese Fragen gibt es eine kurze Antwort: Referenzdaten. Wenn ich die Qualität der OpenStreetMap-Daten analysieren möchte, muss ich das immer im Vergleich zu anderen Datensätzen tun, die ich als richtig annehmen kann. Aber verschiebt sich dadurch nicht einfach die Frage nach der Datenqualität auf einen anderen Datensatz? Ja. Die eigentliche Aufgabe ist es, Datensätze zu finden, von denen ich ausgehen kann, dass sie für meine Anwendung ausreichend sind und diese mit den OpenStreetMap-Daten zu vergleichen.

Die Frage, welche Referenzdaten die richtigen sind, ist auch immer mit der Frage verbunden, wer über den „wahren Standort“ bestimmen darf. Ein kürzlich erschienener Blog-Beitrag von Serge Wroclawski, über das Deutungsmonopol von Standorten und warum die Welt Projekte wie OpenStreetMap braucht, geht sehr kritisch auf diese Frage ein. Insbesondere wird die Frage gestellt, ob ein privates Unternehmen wie Google mit seinem Service Google Maps weltweit die Deutungshoheit über den Standort aller Dinge haben darf. Im Bezug auf die Analyse der Datenqualität von OpenStreetMap, müssen also Referenzdaten auch unter diesem Aspekt ausgesucht werden. Eine interessante Quelle sind vor allem die in letzter Zeit vermehrt aufkommenden, offenen Behördendaten (Open Governmental Data).

Um nun ein OpenStreetMap-Objekt (z.B. ein Haus) mit dem entsprechenden Objekt aus den Referenzdaten vergleichen zu können, muss ich zuerst bestimmen, wie ich gleiche Objekte aus zwei Datensätzen so identifizieren und zusammenzuführen kann, dass Analysen darauf möglich sind. Dieses Zusammenführen von Objekten ist eine schwierige Aufgabe und muss für verschiedene Objekttypen (Straßen, Häuser, Verwaltungsgebiete etc.) jeweils gelöst werden.

Wenn zwei Objekte einmal zusammen geführt sind, kann ich meine Untersuchungen durchführen. Wenn ich für jedes Referenzobjekt auch ein Objekt in den OpenStreetMap-Daten gefunden habe, kann ich von der Vollständigkeit dieser Objekte ausgehen. Wenn ich jetzt noch die einzelnen Positionen miteinander vergleiche und die Abweichungen nicht allzu groß sind, ist die Positionierung gut und ich kann die Daten vielleicht schon in einigen Anwendungen verwenden. Diese Abweichungen können auf verschiedene Weisen bestimmt werden. Eine Möglichkeit wäre beispielsweise, die so genannten Flächenschwerpunkte zu bestimmen und deren Distanz zueinander zu berechnen. Weichen sie stark voneinander ab, ist mit hoher Wahrscheinlichkeit auch die Positionsgenauigkeit nicht sonderlich gut.

Dieser kurze Einblick in die Untersuchung der Qualität von OpenStreetMap lässt eine grundlegende Schlussfolgerung zu: Es kann nicht ohne weiteres gesagt werden, ob die Daten von OpenStreetMap gut oder schlecht sind. Die Bewertung hängt immer vom Anwendungszweck ab und muss individuell untersucht werden. Übrigens gilt das für alle Geodaten, nicht nur für die von OpenStreetMap.

Dennoch bleibt festzustellen, dass immer mehr freiwillige Nutzer jeden Tag das OpenStreetMap-Projekt unterstützen und somit zur stetigen Verbesserung der Daten beitragen.

Thorsten Zylowski

Thorsten Zylowski

Thorsten ist ein Quell von Expertenwissen. Schon das Thema seiner Bachelorarbeit – ein softwarebasierter Qualitätsvergleich zwischen kommerziellem und OSM-Kartenmaterial sowie dessen Umsetzung zeigen deutlich, dass er intellektuell keine kleinen Brötchen backt. Auch alles was er sagt ist zumeist clever und durchdacht, allerdings auch äußerst selten. Anfangs dachte ich, es sei Schüchternheit, aber inzwischen drängt sich mir der Verdacht auf, dass dahinter das simple ökonomische Prinzip "Knappheit bestimmt den Preis" steckt.
Thorsten Zylowski

Letzte Artikel von Thorsten Zylowski (Alle anzeigen)