SPLITTER 2012-II - IT-Dienstleistungszentrum Berlin
SPLITTER 2012-II - IT-Dienstleistungszentrum Berlin
SPLITTER 2012-II - IT-Dienstleistungszentrum Berlin
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>SPL<strong>IT</strong>TER</strong><br />
<strong>SPL<strong>IT</strong>TER</strong><br />
<strong>IT</strong>-Nachrichten für die <strong>Berlin</strong>er Verwaltung Nr. 2/<strong>2012</strong> - 22. Jahrgang<br />
Schwerpunkt: Open Data<br />
2/12 1
<strong>SPL<strong>IT</strong>TER</strong><br />
Editorial<br />
Liebe Leserinnen und Leser,<br />
<strong>Berlin</strong> nimmt eine Vorreiterrolle in der Entwicklung einer<br />
modernen, serviceorientierten Verwaltung ein. Das zeigte<br />
sich erst jüngst wieder in der Verabschiedung des<br />
Modernisierungsprogramms „ServiceStadt <strong>Berlin</strong> 2016“<br />
durch den Staatssekretärsausschuss zur Verwaltungsmodernisierung.<br />
Erneuerungsbestrebungen in der <strong>Berlin</strong>er Verwaltung gehen<br />
einher mit dem Begehren der Bürgerinnen und Bürger<br />
nach einem offenen und transparenten Regierungs- und<br />
Verwaltungshandeln. Das hat das Land <strong>Berlin</strong> frühzeitig<br />
erkannt und sich daher intensiv Gedanken gemacht, wie<br />
zum Beispiel auch die Datenbestände der öffentlichen<br />
Hand der Bevölkerung zur Verfügung gestellt werden können.<br />
„Open Data“ heißt die Devise – das Öffnen und Bereitstellen von nicht personenbezogenen<br />
Daten in einem maschinenlesbaren Format. Das Institut Fraunhofer<br />
FOKUS, die Senatsverwaltung für Wirtschaft, Technologie und Forschung, die Senatsverwaltung<br />
für Inneres und Sport, das Amt für Statistik <strong>Berlin</strong>-Brandenburg und die<br />
<strong>Berlin</strong>Online Stadtportal GmbH haben gemeinsam eine wegweisende Strategie zum<br />
Umgang mit Open Data vorgestellt. Seit letztem Jahr ist das <strong>Berlin</strong>er Open-Data-Portal<br />
freigeschaltet und wird immer stärker genutzt.<br />
Die Open-Data-Initiative des Landes ist ein wichtiger Baustein für eine fortschrittliche<br />
Netzpolitik. Das <strong>IT</strong>DZ <strong>Berlin</strong> unterstützt als <strong>IT</strong>-Dienstleister der <strong>Berlin</strong>er Verwaltung<br />
diese Position in jeder Hinsicht. In dieser <strong>SPL<strong>IT</strong>TER</strong>-Ausgabe wird der Stand von<br />
Open Data in <strong>Berlin</strong> beschrieben (ab Seite 3). Daneben finden sich viele weitere Beispiele<br />
der Open-Data-Entwicklung aus anderen Bundesländern und der Bundesebene.<br />
Das <strong>IT</strong>DZ <strong>Berlin</strong> betreibt bereits seit 2002 ein eigenes SAP ERP-System (Enterprise-<br />
Resource-Planning), das auch das Rückgrat für die Vertriebs- und Abrechnungsprozesse<br />
bildet. Das <strong>IT</strong>DZ <strong>Berlin</strong> führt das Projekt „UPA“ (Umsatzforecast, Produktstruktur,<br />
Auftragssteuerung) durch, um die internen Abläufe mit dem Ziel zu optimieren,<br />
den Service für die Kunden des Landes weiter zu verbessern und die Effizienz der<br />
Leistungserbringung zu steigern (Seite 30). Zu den zentralen strategischen Zielen des<br />
<strong>IT</strong>DZ <strong>Berlin</strong> zählt die stetige Optimierung des Kundenservice.<br />
Ich wünsche Ihnen eine anregende Lektüre<br />
Konrad Kandziora<br />
Vorstand<br />
2/12 2
<strong>SPL<strong>IT</strong>TER</strong><br />
Editorial 2<br />
Impressum 52<br />
Schwerpunktthema<br />
<strong>Berlin</strong> Open Data 4<br />
Offene Regierungs- und Verwaltungsdaten in <strong>Berlin</strong> 9<br />
Einfache Bereitstellung von Open Data<br />
1O<br />
Open Data in Hamburg 11<br />
Verbundkatalog B3Kat als Linked Open Data freigegeben 13<br />
Prototyp des Open Data-Portals Baden-Württemberg vorgestellt 13<br />
Offene Daten sind das Öl des 21. Jahrhundert 14<br />
Bundesinnenminister beantwortete Fragen zu Open Data 14<br />
Geoportal.DE freigeschaltet 16<br />
PEGELONLINE 16<br />
Sensor-GDI 18<br />
Management von 3D-Geodaten mit Oracle Spatial 19<br />
Open-Government-Lösung für straßenverkehrsrelevante Online-Daten 21<br />
EU: Nutzung öffentlicher Daten als Goldmine 22<br />
Hyperlokal 23<br />
E-Government und Verwaltung<br />
Digitale Daten im Katastrophenschutz (DiDaKat) 25<br />
Zwei Jahre Nationale Prozessbibliothek – Status und Ausblick 26<br />
Mobile Government nimmt Fahrt auf 28<br />
E-Government für Unternehmen ist in Deutschland ausbaufähig 28<br />
58 Prozent der Internetnutzer gehen online ins Amt 29<br />
Alle ELENA-Daten sind gelöscht 29<br />
Berichte und Infos<br />
Optimierung der internen Abläufe im zentralen SAP-System des <strong>IT</strong>DZ <strong>Berlin</strong> 3O<br />
Wirtschaftsatlas und 3D-Stadtmodell zu neuer Anwendung verknüpft 3O<br />
Stromverbrauch von Rechenzentren und Servern sinkt 31<br />
Hohe Investitionskosten Haupthindernis für <strong>IT</strong>-Mittelstand 32<br />
„DNS-Changer“und (k)ein Ende 33<br />
Zunehmend Trojaner, Viren und Würmer im Anhang 35<br />
Wachstum bösartiger Spam-Attachments 35<br />
Weniger Spam-Mails an Behörden 36<br />
Geschäftskunden vertrauen ihren <strong>IT</strong>K-Dienstleistern mehrheitlich bei<br />
Datenschutz und Sicherheit 37<br />
Airbag fürs Smartphone 37<br />
Datenmüll-Management als Konsequenz im Datenmanagement 38<br />
Die Funktionalität eines Computerprogramms und die Programmiersprache<br />
sind nicht urheberrechtlich geschützt 39<br />
Online<br />
Wo „.de“ am stärksten ist 41<br />
<strong>Berlin</strong> unterstützt Bewerbung für Top-Level-Domain „.berlin“ 42<br />
Europäische Kommission veranstaltet Konsultation zu Regeln<br />
für vernetzte intelligente Geräte 42<br />
Verwaltungs- und Beschaffernetzwerk 43<br />
<strong>Berlin</strong> freut sich über Twitter-Ansiedlung 43<br />
Die Hälfte der deutschen Unternehmen setzt soziale Medien ein 44<br />
Die Zukunft der Wikipedia 45<br />
PolitikNews-App 46<br />
WorkHub ermöglicht Barrierefreiheit von öffentlichen Webseiten<br />
mithilfe der Crowd 47<br />
Neue App für Online-Weltkarte OpenStreetMap 48<br />
Wettkampf der Smartphone-Plattformen 49<br />
Veranstaltungen<br />
Weltkongress für Informationstechnologie wird in Montreal stattfinden 5O<br />
Literatur<br />
Fachbuch zu <strong>IT</strong>-Projektmanagement erschienen 51<br />
Bitkom mit neuen Leitfäden zu Enterprise Content Management 51<br />
Dies und Das<br />
Vor 2O Jahren im <strong>SPL<strong>IT</strong>TER</strong>: Telefax – tolle Technik mit Gefahren! 52<br />
2/12 3
Projektgruppe legt<br />
Abschlussbericht vor<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
<strong>Berlin</strong> Open Data<br />
In einem umfassenden Projektbericht<br />
legt die Stadt <strong>Berlin</strong> 39 Handlungsempfehlungen<br />
für die stufenweise Öffnung<br />
der Datenbestände vor. Nach<br />
einer Analyse der rechtlichen und technischen<br />
Situation werden Vorschläge<br />
sowie ein Stufenplan zur Umsetzung<br />
des Open-Data-Gedankens in der öffentlichen<br />
Verwaltung gemacht.<br />
Die Projektgruppe des ServiceStadt <strong>Berlin</strong>-<br />
Vorhabens „Von der öffentlichen zur<br />
offenen Verwaltung“ hat zum Ende des<br />
Jahres 2011 planmäßig ihren Abschlussbericht<br />
vorgelegt. Durch den Wirtschaftsstaatssekretär<br />
Nicolas Zimmer wurde der<br />
Bericht gemeinsam mit dem Fraunhofer-<br />
Institut für offene Kommunikationssysteme<br />
(FOKUS) am 16. Februar <strong>2012</strong> in<br />
einer gut besuchten Pressekonferenz der<br />
Öffentlichkeit vorgestellt.<br />
Der Staatssekretärsausschuss für die<br />
Verwaltungsmodernisierung hatte das<br />
Projekt im Februar 2011 in Auftrag gegeben,<br />
um Gegenstand und Potenziale rund<br />
um das neue Schlagwort „Open Data“<br />
erkunden zu lassen.<br />
Worum geht es bei Open Data?<br />
Nach mehr als zehn Jahren E-Government-Entwicklung<br />
tauchte in der letzten<br />
Zeit ein neuer Begriff auf: Open<br />
Government. Dies meint „offenes und<br />
transparentes Regierungshandeln“. Im<br />
Unterschied zu E-Government ist dies<br />
weniger ein technisch-organisatorisches<br />
Thema als vielmehr eine Weiterentwicklung<br />
unseres demokratischen Staatswesens.<br />
Mit den Schlagworten „Open<br />
Government and Transparency“ bestückte<br />
Barack Obama seine erste Regierungshandlung<br />
im Januar 2009. Das geht über<br />
die virtuellen Rathäuser und die elektronischen<br />
Serviceangebote der Verwaltung<br />
im klassischen E-Government-Prozess<br />
hinaus. Es ist nicht mehr und nicht weniger<br />
als eine Umkehr von Teilen des bisherigen<br />
Regierungs- und Verwaltungshandels:<br />
statt Vertraulichkeit und Geheimhaltung<br />
nun Offenheit und Transparenz,<br />
Angebote zu Partizipation und<br />
zur Zusammenarbeit mit der Zivilgesellschaft,<br />
den Medien, den Unternehmen.<br />
Die im E-Government entwickelte<br />
Beziehung Government-to-Citizen (g2c)<br />
wandelt sich in eine Government-for-<br />
Citizen-Relation (g4c).<br />
Technisch baut Open Government auf<br />
E-Government auf. Ohne die informationstechnische<br />
Infrastruktur bis in<br />
die Anwendungen und Datenbanken<br />
hinein wäre Open Data nicht realisierbar.<br />
Im Ergebnis erfolgt eine selbstständige<br />
und aktive Bereitstellung von Daten und<br />
Informationen aus den Behörden, die<br />
bisher scheinbar verschlossen waren. Dies<br />
geschieht nicht als Antwort auf Einzelanfragen<br />
nach dem Informationsfreiheitsgesetz<br />
sondern in einem breiten Datenstrom<br />
aus vielen Quellen. Mittelfristig<br />
kann ein Angebot als Data-as-a-Service<br />
(DaaS) entstehen.<br />
Inzwischen gibt es mit der Open<br />
Government Partnership ein globales<br />
staatliches Bündnis, das die vielen zivilgesellschaftlichen<br />
Aktivitäten ergänzt.<br />
Die Weiterentwicklung unseres demokratischen<br />
Gemeinwesens ist einer der<br />
Ansätze, Politikverdrossenheit zu begegnen,<br />
Teilhabe zu ermöglichen und zur<br />
Stärkung des gesellschaftlichen Systems<br />
beizutragen. Offenheit kann hierfür ein<br />
Schlüssel sein.<br />
Die öffentliche Hand erhebt – entweder<br />
im gesetzlichen Auftrag oder zu Planungs-<br />
und Prognosezwecken – eine<br />
Vielzahl von Daten, erstellt Karten und<br />
Statistiken und gibt sie z.T. an Nutzer in<br />
Industrie und Medien weiter. In einigen<br />
Bereichen (Bauvorhaben, Haushalt) werden<br />
Bürgerinnen und Bürger bereits heute<br />
direkt in Entscheidungsprozesse einbezogen.<br />
Mit der Öffnung und Bereitstellung<br />
frei verfügbarer Datenbestände<br />
der öffentlichen Hand (Open Data) soll<br />
nun eine Online-Veröffentlichung in offenen<br />
Formaten unter Aufhebung bisheriger<br />
Beschränkungen erfolgen. Damit<br />
wird zukünftig eine unmittelbare maschinelle<br />
Weiterverarbeitung der gelieferten<br />
Daten möglich. Denken wir an aktuelle<br />
Verkehrs- oder Wetterinformationen,<br />
die mittels mobiler Anwendungen<br />
(Apps) direkt und in Echtzeit an den<br />
Nutzer gelangen.<br />
Dies wird in der Europäischen Union<br />
schon seit längerem verfolgt: Mit der Richtlinie<br />
zur Weiterverwendung von Informationen<br />
aus dem öffentlichen Sektor<br />
(PSI-Directive) wurde bereits 2003 eine<br />
entsprechende gesetzliche Grundlage geschaffen,<br />
die 2009 mit der Malmö-Deklaration<br />
noch einmal bestätigt wurde.<br />
<br />
2/12 4
Open Data, die Öffnung der Datenbestände,<br />
ist somit kein rein technischer<br />
Prozess. Er beinhaltet viele rechtliche und<br />
organisatorische Belange, trifft auf unterschiedliche<br />
Verwaltungskulturen und<br />
wird sich erst in einem längeren Prozess<br />
durchsetzen. Fragen wie Datenschutz,<br />
Urheberrecht und Lizenzregeln sind global<br />
abzustimmen. Der anglo-amerikanische<br />
Rechtsraum ist hier führend.<br />
Mit der geplanten Novellierung der PSI-<br />
Richtlinie wird Europa eigene Marken<br />
setzen.<br />
<strong>Berlin</strong> hat sich frühzeitig diesen Herausforderungen<br />
gestellt und mit dem Projekt<br />
Vorarbeit für notwendige Entscheidungen<br />
geleistet. Im Koalitionsvertrag<br />
von 2011 heißt es entsprechend:<br />
„Das Open Government wird zur Förderung<br />
von Transparenz, Partizipation und Zusammenarbeit<br />
ausgebaut. … Die Koalition wird die<br />
Open-Data-Initiative des Landes fortsetzen<br />
und ausbauen. Dazu setzt sie sich für eine<br />
Prüfung der weitergehenden Offenlegung von<br />
öffentlichen Daten (z.B. Geoinformationsdaten)<br />
unter Wahrung des persönlichen Datenschutzes<br />
ein.“<br />
Der <strong>Berlin</strong>er Innenstaatssekretär Andreas<br />
Statzkowski stellte hierzu Anfang <strong>2012</strong><br />
fest:<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
„Die Diskussion um Bürgerbeteiligung und<br />
Transparenz von Politik und Verwaltung hat<br />
aktuell mit Open Government eine neue Dimension<br />
und Qualität erreicht. Der inzwischen<br />
nahezu überall und jederzeit verfügbare<br />
Internetzugang, neue Möglichkeiten für schnelle<br />
Informationsweitergabe und Mitbestimmung<br />
unterstützen diesen gesellschaftlichen Wandel,<br />
sie machen neue Formen der Zusammenarbeit<br />
und der Arbeitsteilung in allen Politikfeldern<br />
möglich. … Dabei würde eine transparente,<br />
partizipative und kollaborative Regierungs-<br />
und Verwaltungsarbeit den staatlichen<br />
Akteuren die Handlungsfreiheit zurückgeben,<br />
die ihnen in einer repräsentativen Demokratie<br />
auch zusteht. Zudem haben Erfahrungen<br />
in den Vereinigten Staaten und Großbritannien<br />
gezeigt, dass die Modernisierung der<br />
Verwaltung mit Hilfe von elektronischen<br />
Medien, die Bereitstellung von offenen Daten<br />
und die neue Dialog-Kultur neue Effizienzpotentiale<br />
generierten. In diesem Sinne können<br />
moderne Kommunikationsmodelle zu einem<br />
integralen Bestandteil modernen Verwaltungshandelns<br />
werden.“<br />
Das Motto für <strong>Berlin</strong> lautet also: Transparenz,<br />
Partizipation und Effizienz.<br />
Vorarbeiten<br />
Anfang 2010 startete das Fraunhofer Institut<br />
FOKUS mit einer Vorstudie zu<br />
Open Data, die der Senatsverwaltung im<br />
Herbst 2010 vorgelegt wurde. Neben einem<br />
Vorschlag für eine „City Data Cloud“<br />
enthielt sie drei Empfehlungen:<br />
• Entwicklung und Beschluss eines<br />
ressortübergreifenden Konzepts zur<br />
Öffnung der Datenbestände<br />
• Technische Umsetzung in einer Daten-Cloud<br />
• Vorbereitung durch kleine Erprobungsprojekte<br />
Parallel zu dieser Voruntersuchung führte<br />
die Senatsverwaltung für Wirtschaft<br />
gemeinsam mit <strong>Berlin</strong>.de im Herbst 2010<br />
eine Onlinebefragung durch, an der sich<br />
mehr als 1.300 <strong>Berlin</strong>erinnen und <strong>Berlin</strong>er<br />
beteiligten. Zur Auswahl standen 20<br />
Datenkategorien von Abfall über Gesundheit<br />
bis hin zu Verkehr, von denen drei<br />
ausgewählt werden konnten. Das mehrheitliche<br />
Interesse galt den städtebaulichen<br />
Informationen, Angaben zur Verwaltung<br />
sowie den Umweltdaten (siehe<br />
Abbildung 1).<br />
Damit gab es eine Vorklärung hinsichtlich<br />
Vorgehen und Inhalten, die nun in<br />
einem größeren Projekt vertieft bearbeitet<br />
werden sollte. <br />
Abbildung 1: Favoriten bei der Auswahl von Datenkategorien<br />
Abbildung 2: Gesamtergebnis des Online-Votings<br />
2/12 5
<strong>SPL<strong>IT</strong>TER</strong><br />
• Plattformkonzept, Technik und Standards<br />
• Handlungsempfehlungen, Leitfaden<br />
Der zuständige Staatssekretärsausschuss<br />
für die Verwaltungsmodernisierung genehmigte<br />
erst einmal ein Teilprojekt.<br />
Abbildung 3: Motivation für Open Data-Initiativen in europäischen Großstädten<br />
Die Konzeptstudie wurde daraufhin ausgeschrieben,<br />
das Fraunhofer-Institut<br />
FOKUS erhielt den Zuschlag. Die Vorschläge<br />
aus der FOKUS-Vorstudie wurden<br />
in der Leistungsbeschreibung für das<br />
Projekt aufgegriffen, weiter vertieft und<br />
zum Gegenstand der Projektarbeit gemacht.<br />
In der Projektphase I wurden die Analysearbeit<br />
sowie die Ausformung des<br />
Plattformkonzepts in Angriff genommen.<br />
Neben dem Auftragnehmer bestand<br />
die Projektgruppe unter Federführung<br />
der Wirtschaftsverwaltung aus Mitarbeitern<br />
der Innenbehörde, des Amtes<br />
für Statistik und der Senatskanzlei.<br />
Abbildung 4: Bereitgestellte Datenkategorien<br />
Gleichzeitig gelang der Sprung auf die<br />
europäische Ebene. Ende 2010 startete<br />
ein EU-Projekt von fünf Partnerstädten,<br />
das auch ein Arbeitspaket Open Data<br />
beinhaltet. Die Federführung des Projekts<br />
„Open Cities“ liegt in Barcelona, das<br />
Arbeitspaket gestaltet <strong>Berlin</strong>. Weitere<br />
Partnerstädte sind Helsinki, Amsterdam<br />
und Paris. Anfang 2011 nahm eine neue<br />
Arbeitsgruppe im Städtenetzwerk<br />
EuroCities die Arbeit zu Open Data auf.<br />
Hier haben sich 22 Städte zusammengefunden,<br />
um länderübergreifend über<br />
Erfahrungsaustausch und Abstimmung<br />
zu einer Harmonisierung in technischen<br />
und rechtlichen Fragen zu finden. Auch<br />
hier hat <strong>Berlin</strong> die Leitung der Arbeitsgruppe<br />
übernommen.<br />
In einer ersten Umfrage wurden Motivation<br />
und Datenlage in den Städten ermittelt<br />
(siehe Abbildung 3).<br />
Das Projekt<br />
<strong>Berlin</strong> betrat mit diesem Vorhaben Neuland.<br />
Keine andere deutsche Stadt hatte<br />
bisher ein Konzept zu Open Government<br />
oder Open Data vorgelegt. Daher wurde<br />
ein eigenes Projekt entwickelt. Das Vorhaben<br />
gliederte sich in sechs Themenblöcke:<br />
• Bedarfs- und Potenzialanalyse<br />
• Organisationsanalyse<br />
• rechtliche Rahmenbedingungen<br />
• Geschäftsmodelle<br />
Der erste <strong>Berlin</strong> Open Data Day (BODDy)<br />
im Mai 2011 zeigte mit mehr als 130<br />
Besuchern das große Interesse sowohl in<br />
der Verwaltung als auch in der Öffentlichkeit<br />
an diesem Thema. Die Veranstaltung<br />
wurde gemeinsam vom Aktionsbündnis<br />
„Open Data <strong>Berlin</strong>“, einem informellen<br />
Zusammenschluss von Netzaktivisten,<br />
Vertretern aus der Verwaltung, Forschern<br />
sowie Mitarbeitern von Firmen vorbereitet<br />
und gestaltet. Die Projektgruppe konnte<br />
hier bereits erste Ergebnisse vorstellen.<br />
Eine weitere Erkenntnis aus der Veranstaltung<br />
war, dass die technische Entwicklung<br />
zur Sammlung und Bereitstellung<br />
von Daten durch Vorarbeiten des<br />
<strong>IT</strong>DZ <strong>Berlin</strong> sowie der <strong>Berlin</strong>Online Stadtportal<br />
GmbH weiter vorangeschritten<br />
war, als bisher angenommen. Daher wurde<br />
mit dem Projektantrag für die Phase <strong>II</strong> ein<br />
Ausbau über das eigentlich vorgesehene<br />
Plattformkonzept hinaus in die pilothafte<br />
Realisierung eines Datenportals eingereicht.<br />
Mit neuen Partnern und politischem<br />
Rückenwind ging es über den Som- <br />
2/12 6
mer an die Gestaltung des ersten Datenportals<br />
in Deutschland.<br />
Datenportal<br />
Mit dem Aufbau und dem Internetangebot<br />
eines Datenportals wurde ein zentraler<br />
Zugang zu den bisher verteilt vorliegenden<br />
Datenbeständen der Landesverwaltung<br />
geschaffen. Prinzip ist dabei,<br />
dass die Originaldaten bei den Bearbeitern<br />
verbleiben, sie dort weiterhin gepflegt<br />
und aktualisiert werden. Damit<br />
bietet das Datenportal eine gut strukturierte<br />
Vermittlung zwischen Datennutzer<br />
und Datenquelle.<br />
Um dies einheitlich zu gestalten, die Daten<br />
gleichermaßen zu beschreiben und<br />
eine Vergleichbarkeit zu ermöglichen,<br />
wurde im Projekt viel Aufwand in den<br />
Entwurf eines Metadatenschemas gesteckt.<br />
Die Metadaten beschreiben ein einzelnes<br />
Datum, einen Datensatz, hinsichtlich<br />
Titel, Quelle und Format, enthalten<br />
des Weiteren Angaben zur räumlichen<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
und zeitlichen Abdeckung, dem Bearbeiter<br />
oder zu den Nutzungsbedingungen.<br />
Das Metadatenschema entstand in gründlicher<br />
Auswertung bestehender Angebote,<br />
z.B. der Datenportale von London<br />
oder Wien. Es baut auf dem Dublin-Core<br />
auf, einer Sammlung von Konventionen<br />
zur Beschreibung von Objekten und Dokumenten<br />
im Netz. Dadurch werden<br />
Objekte leichter auffindbar, vergleichbar<br />
und verknüpfbar.<br />
Die Ablage der Metadaten (nicht des<br />
Datums selber) erfolgt in einem Datenregister.<br />
Dies stellt das Backend des Datenportals<br />
dar. Im Rahmen der Vorbereitungen<br />
für das <strong>Berlin</strong>er Datenportal haben<br />
wir uns für das Comprehensive<br />
Knowledge Archive Network (CKAN)<br />
der Open Knowledge Foundation, einem<br />
Open Source-Paket, entschieden.<br />
Zum einen erlaubte dies eine schnelle<br />
Realisierung, zum anderen wurde CKAN<br />
bereits in anderen Städten eingesetzt. Ein<br />
Leistungsmerkmal von CKAN ist die<br />
Föderation, dass heißt, die Möglichkeit<br />
der Verknüpfung unter- oder übergeordneter<br />
Aggregationsebenen von Datenbeständen.<br />
Somit können <strong>Berlin</strong>er Inhalte<br />
direkt auch in übergeordneten Ebenen,<br />
wie Bund oder Europa, bereitgestellt<br />
werden. Die in der Pilotphase gewonnenen<br />
Erfahrungen flossen in das Arbeitspaket<br />
des OpenCities-Projekts ein.<br />
Das Schaufenster nach außen ist das<br />
Datenportal daten.berlin.de. Die Oberfläche<br />
ist schnell und übersichtlich mit<br />
einem Drupal Content Management System<br />
gestaltet worden. Hier geht es weniger<br />
um aufwändige Gestaltung und Navigation.<br />
Denn die Datenbestände sind<br />
vorwiegend maschinenlesbar gestaltet.<br />
Vielmehr muss eine Suche schnell zum<br />
Ergebnis führen und es Maschinen ermöglichen,<br />
sich einfach durch den Datenbestand<br />
zu arbeiten. Daher ist als ein<br />
weiteres Merkmal in den Metadaten eine<br />
Datenkategorie vorgegeben. Diese Zuweisung<br />
beschleunigt die gezielte Suche.<br />
Gleichzeitig hilft sie dem menschlichen<br />
Besucher der Seite bei der Navigation<br />
durch das Angebot.<br />
Registrierte Datenbearbeiter können<br />
selbstständig neue Datensätze einstellen<br />
bzw. bestehende aktualisieren. Zum einen<br />
ist ein manueller Eintrag in das Datenregister<br />
möglich (hierfür liegt ein Leitfaden<br />
vor). Zum anderen bietet das CMS-<br />
Imperia-Werkzeug „SimpleSearch“ eine<br />
Exportfunktion in das Register, mit der<br />
alle Merkmale zu den Metadaten gleich<br />
erfasst und übertragen werden (siehe<br />
Artikel Seite 10). Bei Schulungen wird<br />
zukünftig stärker auf diese Funktionalität<br />
hingewiesen.<br />
<strong>Berlin</strong>s Portal für offene Daten: <strong>Berlin</strong> Open Data (daten.berlin.de)<br />
Mit diesem Konzept ist es gelungen,<br />
bereits am 14. September 2011 das erste<br />
Datenportal einer deutschen Stadt freizuschalten.<br />
Ummittelbar nach der <strong>Berlin</strong>-<br />
Wahl standen bereits die Wahlergebnisse<br />
maschinenlesbar als neuer Datensatz im<br />
Portal, bereitgestellt vom Amt für Statistik<br />
<strong>Berlin</strong>-Brandenburg. Nur eine Woche<br />
später stand die „Wahl-App“ bereit, die<br />
Wahlergebnisse und Bevölkerungsdaten<br />
miteinander verknüpfte. <br />
2/12 7
Obwohl das Angebot von der<br />
Denkmalliste über die Konjunkturdaten<br />
bis hin zu Wanderwegen im Wesentlichen<br />
aus maschinenlesbaren Rohdaten<br />
besteht, verzeichnen wir einen stetigen<br />
Besucherstrom auf unser Datenportal.<br />
Nach dem ersten Hype im September hat<br />
sich die Nutzerzahl auf werktäglich ca.<br />
1.000 Besucher eingependelt. Der Tagesrhythmus<br />
folgt dem Sonnenstand, mittags<br />
sind also die meisten Besucher auf der<br />
Plattform. Vorrangig besucht werden die<br />
Datensätze. Da die Klickrate auf die Datensätze<br />
inzwischen höher ist als auf die<br />
Startseite, werden die Datensätze offenbar<br />
mehr und mehr von Suchmaschinen<br />
direkt gefunden. Angeregt durch den<br />
bundesweiten Wettbewerb „Apps4-<br />
Deutschland“ sind neue Anwendungen<br />
mit <strong>Berlin</strong>er Datensätzen entstanden. Von<br />
den über 170 Einsendungen nutzten 20<br />
unmittelbar den <strong>Berlin</strong>er Bestand. Mehrere<br />
Beiträge aus <strong>Berlin</strong> wurden auf der<br />
CeB<strong>IT</strong> <strong>2012</strong> ausgezeichnet. Dazu gehörte<br />
u.a. die „Weihnachtsmarkt-App“ und das<br />
Angebot des deutschen Bibliotheksverbundes<br />
unter Beteiligung des KOBV<br />
(siehe Artikel Seite 13).<br />
Ergebnisse und Umsetzung<br />
In der Zwischenzeit sind weitere Anwendungen,<br />
aufbauend auf <strong>Berlin</strong>er Datensätzen,<br />
entstanden und auch über das<br />
Datenportal verfügbar. Der Datenbestand<br />
ist kontinuierlich gewachsen, aus Landesund<br />
Bezirksverwaltungen kommen stetig<br />
neue Beiträge.<br />
Erste Erfahrungen aus dem Portalbetrieb<br />
sind in den Abschlussbericht eingeflossen.<br />
Er liefert auf 180 Seiten detaillierte<br />
Betrachtungen zu den o.g. Themenblöcken<br />
und schließt mit einem Stufenplan<br />
und 39 Handlungsempfehlungen<br />
zum Umsetzung des Open Data-Konzepts<br />
in <strong>Berlin</strong> ab.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
So wurde festgestellt, dass das rechtliche<br />
Umfeld durch viele Fachgesetze recht unübersichtlich<br />
und nicht harmonisch gestaltet<br />
ist. Daher ist in <strong>Berlin</strong> geplant, den<br />
Punkt der Datenbereitstellung in einem<br />
übergreifenden E-Government- und<br />
Organisationsgesetz mit zu regeln. Auch<br />
der Bund arbeitet an einem entsprechenden<br />
Gesetz.<br />
Einer weiteren Klärung bedürfen die Lizenz-<br />
und Nutzungsbedingungen. Wir<br />
haben uns erst einmal an der Creative<br />
Commons Licence, die auch in Wikipedia<br />
für dort eingestellte Inhalte angewendet<br />
wird, orientiert. Diese Lizenzform ist im<br />
Internet weitgehend bekannt und akzeptiert,<br />
andererseits nicht speziell für Daten<br />
ausgelegt. Hier wird zukünftig eine Weiterentwicklung<br />
und globale Harmonisierung<br />
erforderlich sein. Unsere europäischen<br />
Netzwerke sollen uns hierbei<br />
helfen.<br />
Die Handlungsempfehlungen in der Studie<br />
sind nach einem kurz-, mittel- und<br />
langfristigen Zeithorizont gegliedert. Des<br />
Weiteren sind die Bereiche Politik, Verwaltung,<br />
Recht und Technik angesprochen.<br />
Kurzfristig sind einige Punkte auf der<br />
politischen Ebene zu klären: Wie sollen<br />
– gemäß der zitierten Erklärung aus der<br />
Koalitionsvereinbarung – Fortsetzung<br />
und Ausbau der Open-Data-Initiative<br />
konkret erfolgen? Wird es einen Open-<br />
Data-Beauftragten geben? Wie kann der<br />
Übergang vom Labor- und den Regelbetrieb<br />
gestaltet werden? Wo wird er<br />
angesiedelt? Mittelfristige Themenstellungen<br />
sind u.a. technischer Art: Auf<br />
welche Datenformate verständigt man<br />
sich? Sind diese aus den vorhandenen<br />
Datenbeständen ableitbar? Sind Konverter<br />
zu entwickeln? Welche Weiterbildungsmaßnahmen<br />
müssen gestaltet<br />
und angeboten werden. Die Klärung<br />
offener Rechtsfragen hat sicher Langfristcharakter.<br />
Hier ist ein <strong>Berlin</strong>er Alleingang<br />
nicht Ziel führend. Vielmehr muss es zu<br />
einer bundesweiten und europäischen<br />
Abstimmung und Harmonisierung<br />
kommen. Hierzu gibt es im Moment<br />
zwei Ansätze: Zum einen hat die europäische<br />
Kommission Ende 2011 den Entwurf<br />
für eine Novellierung der PSI-Richtlinie<br />
von 2003 vorgelegt, der nun in den<br />
Mitgliedsstaaten beraten wird. Zum<br />
anderen hat sich eine Bund-Länder-<br />
Arbeitsgruppe unter Federführung des<br />
Bundesinnenministeriums gebildet, die<br />
dem <strong>IT</strong>-Planungsrat zu den Themen<br />
Open Government und Open Data zuarbeitet.<br />
Damit bestehen Strukturen, die<br />
genannten Herausforderungen bis auf die<br />
europäische Ebene zu tragen.<br />
Auf dem <strong>Berlin</strong> Open Data Day<br />
(BODDy12) am 6. Juni <strong>2012</strong> im <strong>Berlin</strong>er<br />
Rathaus haben die Senatsverwaltungen<br />
die nächsten Schritte zur Umsetzung der<br />
Open Data-Initiative vorgestellt. Schwerpunkt<br />
des Treffens war die Sicherung der<br />
Nachhaltigkeit aus der Projektphase<br />
heraus. Dazu werden in den gegenwärtigen<br />
Haushaltberatungen Mittel für die<br />
Sicherung des Regelbetriebes eingestellt.<br />
Danach stehen organisatorische Entscheidungen<br />
an. Weiter gepflegt wird die Zusammenarbeit<br />
mit anderen Städten, wie<br />
Hamburg, Wien und Bremen.<br />
Der Abschlussbericht steht übrigens unter<br />
http://bln.io/bEw5i3q zum kostenlosen<br />
Download bereit.<br />
Effizienz durch Transparenz?<br />
In der nächsten Zeit wird es auch darum<br />
gehen, den Effizienzgewinn für die Verwaltung<br />
durch die Öffnung und Bereitstellung<br />
bisher interner Datenbestände<br />
deutlich zu machen. Zweifellos ist ein<br />
Gewinn an Legitimität durch die Öffnung<br />
für das Regierungs- und Verwaltungshandeln<br />
zu erzielen. Die Nachvollziehbarkeit<br />
und Überprüfbarkeit von<br />
Regierungshandeln ohne die Einzelanfrage<br />
nach Informationsfreiheitsgesetz<br />
trägt zu einer Stärkung unseres demokratischen<br />
Gemeinwesens bei. Gleichzeitig<br />
bietet die Öffnung eine Grundlage für<br />
eine qualifizierte Partizipation über ein<br />
„Bauchgefühl“ hinaus. Vorschläge werden<br />
in ihrer Konsequenz verständlich und<br />
nachvollziehbar, Alternativen sachkundig<br />
abwägbar. Neben dem Zuwachs an Legitimität<br />
zeigt sich hier bereits ein Effizienzpotenzial<br />
von Offenheit, da alle Beteiligten<br />
auf einer gleichen Informationsbasis<br />
und -ebene agieren können. Missverständnisse<br />
und Reibungsverluste werden so<br />
reduziert.<br />
Beispiele aus anderen Ländern zeigen,<br />
dass durch die Bereitstellung von <br />
2/12 8
Die Freigabe der GPS-Daten durch das US-Militär<br />
ermöglichte eine Milliardenindustrie auf Basis dieser<br />
offenen Daten (im Bild: Navstar 2 GPS-Satellit)<br />
Daten auch unmittelbar die öffentlichen<br />
Kassen entlastet werden. Eine Abschätzung<br />
in Manchester ergab, dass es<br />
wesentlich kostengünstiger ist, Informationen<br />
für die Bürger aktiv bereitzustellen<br />
statt sie auf Einzelanfrage gemäß Informationsfreiheitsgesetz<br />
herauszusuchen<br />
und zur Verfügung zu stellen. Die Suche<br />
nach angefragten Dokumenten kostet die<br />
Stadtverwaltung jährlich mehr als acht Millionen<br />
britische Pfund. Diesen Betrag<br />
möchte man durch eine aktive Bereitstellung<br />
von Dokumenten aus dem Rathaus<br />
deutlich reduzieren.<br />
Die Veröffentlichung von Subventionsempfängern<br />
aus der europäischen Agrarbeihilfe<br />
hatte zur Folge, dass ein Zuckerkartell<br />
aufgedeckt werden konnte. Mittels<br />
gefälschter Exportbescheinigungen hatte<br />
eine kriminelle Gruppe über drei Millionen<br />
Euro ergaunert. Erst die Offenlegung<br />
der Subventionsliste machte der Prüfbehörde<br />
OLAF einen Abgleich möglich.<br />
Im Ergebnis konnte nicht nur Betrügern<br />
das Handwerk gelegt werden, auch der<br />
Steuerzahler wird entlastet.<br />
Offenheit trägt auch zum Gemeinwohl<br />
bei. Nach mehreren Todesfällen in englischen<br />
Krankenhäusern wurde die Überlebensrate<br />
nach Herzoperationen in den<br />
einzelnen Häusern untersucht und veröffentlicht.<br />
In der Folge sank die Todesrate<br />
um 21 Prozent. Die Patienten schauten<br />
genauer hin, aber auch die Ärzte arbeiteten<br />
akkurater. Letztlich verbesserte sich nicht<br />
nur die Qualität der Arbeit, mit der Reduzierung<br />
von Komplikationen nahm auch<br />
die Lebensqualität der Patienten zu.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
In den USA war der Effekt<br />
einer vergleichbaren Aktion<br />
ebenso dramatisch: So zeigte<br />
die Veröffentlichung von<br />
Hygienekontrollen in den<br />
Restaurants von Los Angeles<br />
deutliche Wirkung: Während<br />
sich im Folgejahr der allgemeine<br />
Gesundheitszustand<br />
der Bevölkerung um 2,9 Prozentpunkte<br />
leicht verschlechterte,<br />
nahm die Zahl von Erkrankungen<br />
des Magen-<br />
Darm-Trakts um 13,3 Prozent<br />
deutlich ab. Gleichzeitig<br />
erhöhte sich der Umsatz in<br />
den mit „gut“ bewerteten Restaurants.<br />
Der letzte Fall zeigt das ökonomische<br />
Potenzial von Offenheit und Transparenz.<br />
Bekanntestes Beispiel ist die Freigabe<br />
der GPS-Daten durch das US-Militär.<br />
Seit dem ist eine Milliardenindustrie auf<br />
der Basis dieser Daten entstanden, von<br />
GPS-Chips über GPS-Geräte bis hin zu<br />
Services für Navigation, Flottenmanagement<br />
und Vermessungswesen.<br />
Dies Beispiel illustriert, welche großes,<br />
auch wirtschaftliches Potenzial in den<br />
Datenbeständen der öffentlichen Hand<br />
steckt. Hier entstehen ganz neue<br />
Geschäftsideen und Wertschöpfungsketten.<br />
Die Europäische Kommission<br />
schätzt das Marktvolumen der öffentlichen<br />
Daten auf 40 Milliarden Euro, bei<br />
Veredelung und kommerzieller Verwertung<br />
auf bis zu 140 Milliarden Euro. Um<br />
dieses Potenzial schöpfen zu können,<br />
bedarf es einer weitgehenden Harmonisierung<br />
und Liberalisierung von Bereitstellung<br />
und Zugang.<br />
Hierin steckt die Chance, die weitgehend<br />
kostenfreie Datenbereitstellung durch<br />
Mehreinnahmen zu kompensieren, wie<br />
es die Dänische Behörde für Unternehmen<br />
und Gebäude (DECA) oder das<br />
Österreichische Bundesamt für Eich- und<br />
Vermessungswesen (BEV) durch eine<br />
neue Gebührenpolitik schon unter Beweis<br />
gestellt haben.<br />
So könnten am Ende Transparenz und<br />
Effizienz vielleicht ein anderes Ergebnis<br />
haben als eingangs angenommen.<br />
DR. WOLFGANG BOTH<br />
Senatsverwaltung für Wirtschaft, Technologie<br />
und Forschung <br />
Open Government Data im<br />
Fokus<br />
Offene Regierungs- und<br />
Verwaltungsdaten in<br />
<strong>Berlin</strong><br />
Seit einigen Jahren wird im In- und<br />
Ausland unter dem Losungswort<br />
„Open Government“ die weitere<br />
Offenlegung von Regierungs- und<br />
Verwaltungshandeln zur Stärkung<br />
von Transparenz, Partizipation und<br />
Kooperation verfolgt. Mehr Transparenz<br />
im öffentlichen Sektor soll dabei<br />
u.a. durch die vermehrte Bereitstellung<br />
von Daten und Informationen<br />
öffentlicher Stellen in maschinenlesbaren<br />
Formaten und unter Lizenzen,<br />
welche eine einfache Weiterverwendung<br />
durch jedermann erlauben,<br />
erreicht werden.<br />
Ende letzten Jahres veröffentlichte die<br />
Europäische Kommission einen Vorschlag<br />
für eine Strategie zu offenen Regierungs-<br />
und Verwaltungsdaten. Die<br />
Kommissionsstrategie sieht u.a. eine<br />
Fortentwicklung der Richtlinie zur<br />
Informationsweiterverwendung vor. In<br />
Deutschland wird die Öffnung von Daten<br />
und Informationen öffentlicher Stellen<br />
auf Bundesebene mit dem<br />
Regierungsprogramm „Vernetzte und<br />
transparente Verwaltung“ sowie dem<br />
Steuerungsprojekt Open Government<br />
des <strong>IT</strong>-Planungsrates verfolgt. Das<br />
Bundesministerium des Innern hat<br />
jüngst eine Studie zu Open Government<br />
Data für Deutschland beim <strong>Berlin</strong>er<br />
Fraunhofer-Institut FOKUS beauftragt.<br />
Aber auch auf Länderebene manifestieren<br />
sich die Bestrebungen zur Öffnung<br />
von Verwaltungsdaten. Gerade <strong>Berlin</strong><br />
nimmt eine Vorreiterstellung im Hinblick<br />
auf offene Daten ein. Im Auftrag<br />
der <strong>Berlin</strong>er Senatsverwaltung für Wirtschaft,<br />
Technologie und Forschung hat<br />
das Fraunhofer-Institut FOKUS im Jahr<br />
2011 die Bereitstellung von Daten <br />
2/12 9
durch öffentliche Stellen aus strategischer,<br />
betrieblich-organisatorischer, rechtlicher<br />
und technischer Hinsicht untersucht.<br />
Gleichzeitig entwickelte FOKUS gemeinsam<br />
mit der <strong>Berlin</strong>Online Stadtportal<br />
GmbH & Co. KG das <strong>Berlin</strong>er Datenportal<br />
daten.berlin.de, welches im Herbst<br />
2011 als erstes offizielles Open-Data-<br />
Portal in Deutschland gestartet wurde.<br />
Ziel der <strong>Berlin</strong>er Untersuchung war es,<br />
aufbauend auf dem Ist-Zustand der Bereitstellung<br />
von Daten und Informationen<br />
durch öffentliche Stellen im Land<br />
<strong>Berlin</strong>, Handlungsschritte hin zu offeneren<br />
Regierungs- und Verwaltungsdaten<br />
zu identifizieren und bezüglich ihrer<br />
Umsetzbarkeit in verschiedene Zeithorizonte<br />
einzuteilen. Als Ergebnis dieser<br />
Analyse hat FOKUS unter anderem<br />
folgende kurz- bis mittelfristige Schritte<br />
und Handlungsempfehlungen zur erfolgreichen<br />
weiteren Umsetzung offener<br />
Verwaltungsdaten in <strong>Berlin</strong> ausgemacht:<br />
• Abgabe eines klaren politischen Bekenntnisses<br />
zu offenen Daten in und<br />
aus <strong>Berlin</strong><br />
• Benennung von Verantwortlichen für<br />
offene Verwaltungsdaten<br />
• Finanzierung des Betriebs des <strong>Berlin</strong>er<br />
Datenportals und damit verbundener<br />
Prozesse<br />
• Ausbau der Bereitstellung von Datensätzen<br />
unter Creative Commons Lizenz<br />
mit Namensnennung<br />
• Koordination offener Verwaltungsdaten<br />
mit existierenden Vorhaben<br />
• Fortentwicklung von Schulungen für<br />
Datenbereitsteller<br />
Mittel- bis langfristig ergeben sich weitere<br />
Handlungsbedarfe wie:<br />
• Entwicklung einer generellen<br />
Informationsstrategie für die <strong>Berlin</strong>er<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Verwaltung, in die der Umgang mit<br />
offenen Verwaltungsdaten eingebettet<br />
ist<br />
• Anpassung gesetzlicher Grundlagen<br />
und Verwaltungsvorschriften in <strong>Berlin</strong><br />
zur Fortentwicklung der Bereitstellung<br />
offener Daten<br />
• Ausbau des <strong>Berlin</strong>er Open-Data-Portals<br />
um Dienste und Werkzeuge für<br />
die Aggregation, Auswertung und<br />
Visualisierung von Basisdaten sowie<br />
daraus abgeleiteter Daten und Informationen<br />
Nur mit der kontinuierlichen Pflege und<br />
Fortentwicklung der Daten- und<br />
Informationsangebote kann es <strong>Berlin</strong><br />
gelingen, die gelegten Grundlagen nachhaltig<br />
in der öffentlichen Verwaltung zu<br />
verankern und einen langfristigen<br />
Paradigmenwechsel hin zu einer offeneren<br />
Administration aktiv zu gestalten.<br />
Dazu gab es aus Anlass der Veröffentlichung<br />
der <strong>Berlin</strong>er Open Data Strategie<br />
am 16. Februar <strong>2012</strong> ein klares politisches<br />
Bekenntnis vom Staatssekretär für Wirtschaft<br />
und Forschung Nicolas Zimmer.<br />
Beim 2. <strong>Berlin</strong> Open Data Day (BODDy<br />
<strong>2012</strong>) am 6. Juni <strong>2012</strong> wurden aktuelle<br />
Ergebnisse und nächste Schritte der Umsetzung<br />
besprochen.<br />
Die <strong>Berlin</strong>er Open Data Studie kann unter<br />
folgendem Link heruntergeladen werden:<br />
www.berlin.de/projektzukunft/<br />
fileadmin/user_upload/pdf/sonstiges/<strong>Berlin</strong>er_Open_Data-Strategie.pdf<br />
Das Programm von BODDy <strong>2012</strong> ist<br />
unter: berlin.opendataday.de/berlineropen-data-day/boddy-<strong>2012</strong>/<br />
verfügbar.<br />
PROF. DR.-ING. INA SCHIEFERDECKER<br />
Abteilungsleiterin<br />
Fraunhofer-Institut FOKUS<br />
FLORIAN MARIENFELD<br />
Wissenschaftlicher Mitarbeiter<br />
Fraunhofer-Institut FOKUS<br />
JENS KLESSMANN<br />
Wissenschaftlicher Mitarbeiter<br />
Fraunhofer-Institut FOKUS, Doktorand<br />
der DHV Speyer <br />
Einfache Bereitstellung<br />
von Open Data<br />
Bereits heute werden eine Vielzahl an<br />
strukturierten und unstrukturierten<br />
Daten online im <strong>Berlin</strong>er Intranet und<br />
dem Stadtinformationssystem <strong>Berlin</strong><br />
.de zur Verfügung gestellt.<br />
Mehr als 1.000 Online-Redakteure/innen<br />
der <strong>Berlin</strong>er Verwaltung sorgen tagtäglich<br />
für die Datenpflege und -aktualisierung.<br />
Damit diese veröffentlichten Daten tatsächlich<br />
im Sinne von „Open Data“ genutzt<br />
werden können, müssen sie aufbereitet<br />
werden, dass sie das wichtige Kriterium<br />
der Maschinenlesbarkeit erfüllen.<br />
Für die <strong>Berlin</strong>er Online-Redakteure/<br />
innen wurde dafür ein einfacher Weg für<br />
die Generierung von Open Data geschaffen,<br />
der den existierenden Datenpflege-<br />
Workflow mit dem eingesetzten Content<br />
Management Systems (CMS) „Imperia“<br />
sinnvoll erweitert.<br />
Hierzu wurde in das CMS der von der<br />
<strong>Berlin</strong>Online GmbH und dem <strong>IT</strong>DZ<br />
<strong>Berlin</strong> entwickelte „SimpleSearch-Baukasten“<br />
integriert:<br />
Die SimpleSearch greift auf eine Datenbank<br />
zu, die sich aus strukturierten Daten<br />
speist. Diese strukturierten Daten (bspw.<br />
CSV-Dateien) werden entweder aus vorhandenen<br />
Informationssystemen oder<br />
aus Programmen (bspw. für Tabellenkalkulationen)<br />
exportiert, durch das Hochladen<br />
im CMS hinterlegt und in unterschiedlichen<br />
Abständen vom Redakteur<br />
aktualisiert - oder aber eine solche Datei<br />
wird von einem anderen Verfahren automatisch<br />
bereitgestellt und die Quelle wird<br />
in der SimpleSearch referenziert. <br />
2/12 10
Für die Online-Redakteure von<br />
berlin.de wurden einfache Wege für die<br />
Erzeugung offener Daten gefunden<br />
Der Nutzerzugang erfolgt durch eine<br />
mit dem Redaktionssystem Imperia einmalig<br />
erstellte und anforderungsgemäß<br />
konfigurierte Ausgabeseite.<br />
Neben der optischen Anzeige der Daten<br />
in der Ausgabeseite transformiert die<br />
SimpleSearch die Daten in maschinenlesbare<br />
Formate (XML, RSS, JSON, ...) und<br />
stellt einen parametrisierten Zugriff zur<br />
Verfügung. Sie kann daher für vorhandene<br />
Datenquellen, die nicht über weitere<br />
Eigenschaften verfügen, als Transformationswerkzeug<br />
sowie als REST-<br />
Schnittstelle eingesetzt werden. Im<br />
Internet ist zudem nach Festlegung der<br />
Lizenz die unmittelbare Übergabe der<br />
Daten in das Open Data-Portal des Landes<br />
möglich.<br />
Somit lässt sich zusammenfassend sagen:<br />
Die Bereitstellung von (im technischen<br />
Sinne „echter“) Open Data wird in <strong>Berlin</strong><br />
bereits an der Quelle (CMS) unterstützt.<br />
Hierfür notwendige Arbeitsmittel sind<br />
bereits in die vorhandene Arbeitsumgebung<br />
der Online-Redakteure/innen<br />
integriert und sorgen für einen einfachen<br />
Zugang.<br />
Weitere Informationen:<br />
support.berlin.de/wiki/index.php/<br />
SimpleSearch-Baukasten<br />
DAVID LIPPERT, TINO EILENBERGER<br />
Produktmanagement<br />
<strong>IT</strong>DZ <strong>Berlin</strong><br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Open Data in Hamburg<br />
Schriftliche Kleine Anfrage des Abgeordneten<br />
Hansjörg Schmidt (SPD)<br />
vom 5. August 2011 und Antwort des<br />
Hamburger Senats.<br />
Bewusst oder unbewusst hantieren wir<br />
täglich mit einer Unmenge an nicht<br />
personenbezogenen Informationen,<br />
zum Beispiel Fahrpläne, Geo- oder Umweltdaten,<br />
Statistiken oder Gesetzestexte.<br />
Grundlage dieser Informationen sind<br />
häufig aus Steuergeldern finanzierte Daten,<br />
die isoliert in Datenbankengespeichert<br />
und der Öffentlichkeit nicht oder nur sehr<br />
eingeschränkt zugänglich sind.<br />
Das Prinzip von Open Data sieht vor,<br />
dass Daten strukturiert und maschinenlesbar<br />
zur Verfügung gestellt werden,<br />
sodass sie sich filtern, durchsuchen und<br />
von anderen Anwendungen weiterverarbeiten<br />
lassen können. Dies kann viele<br />
positive Entwicklungen befördern,<br />
zum Beispiel im Bereich der Wissenschaft,<br />
der politischen Bildung, der Partizipation<br />
an demokratischen Prozessen und in<br />
der Wirtschaft. So will beispielsweise die<br />
Handelskammer Hamburg mit Open<br />
Data zur Hochburg mobiler Applikationen<br />
entwickeln. Ebenfalls kann der elektronische<br />
Zugang zu Verwaltungsinformationen<br />
Bürokratiekosten vermindern.<br />
Fragen an den Hamburger Senat<br />
Der Senat weist darauf hin, dass es bislang<br />
in Deutschland keine allgemeingültige<br />
Definition von Open Data gibt. In Anlehnung<br />
an die von der Sunlight<br />
Foundation herausgegebenen Prinzipien<br />
zu offenen Regierungsinformationen<br />
(Sunlight Foundation: Ten Principles for<br />
Opening Up Government Information,<br />
Sunlight Foundation, Washington DC<br />
2010. Online: sunlightfoundation.com/<br />
policy/documents/ten-opendataprinciples/<br />
wird üblicherweise unter dem<br />
Begriff „Open Data“ die Öffnung von<br />
Datenbeständen der öffentlichen Hand –<br />
in der Regel in Form von strukturierten,<br />
maschinenlesbaren Rohdaten – zur kostenlosen<br />
und lizenzfreien Weiterverwendung<br />
und Weiterverbreitung für<br />
die Allgemeinheit bezeichnet. Charakteristisch<br />
für Open Data ist, dass es keine<br />
rechtlichen, technischen oder sonstigen<br />
Hindernisse gibt, die den Zugang, die<br />
Weiterverwendung und die Weiterverbreitung<br />
der Daten einschränken.<br />
Ausgenommen von Open Data sind<br />
personenbezogene Daten sowie Daten,<br />
die anderweitig schutzwürdig sind (zum<br />
Beispiel sicherheitsrelevante Daten, Betriebs-<br />
und Geschäftsgeheimnisse).<br />
Die Hamburger Behörden und Ämter<br />
stellen übers Internet zahlreiche und vielfältige<br />
Informationen für die Allgemeinheit<br />
zur Verfügung. Die meisten dieser<br />
Informationsangebote entsprechen aber<br />
nicht dem vorgenannten Verständnis von<br />
Open Data, da es sich nicht um Rohdaten<br />
und/oder nicht um maschinenlesbare<br />
Daten und/oder um kostenlos zur Verfügung<br />
stehende Daten handelt. Sie sind<br />
deshalb in der Antwort nicht aufgeführt.<br />
Eine gegebenenfalls notwendige vorherige<br />
kostenlose Registrierung der Nutzer<br />
wird nicht als „sonstiges Hindernis“ im<br />
Sinne des Open-Data-Verständnisses<br />
interpretiert. Entsprechende Angebote<br />
werden in der Antwort aufgeführt.<br />
1. Welche Angebote im Sinne des Open<br />
Data-Prinzips gibt es vonseiten der<br />
Freien und Hansestadt Hamburg<br />
bereits?<br />
2. In welcher Form werden diese Daten<br />
zur Verfügung gestellt?<br />
Das Statistikamt Nord hält ein breit gefächertes<br />
Angebot an Daten aus der Amtlichen<br />
Statistik bereit. Es finden sich statistische<br />
Berichte, Tabellen sowie Datenbanken<br />
zu einer Vielzahl von gesellschaftlich<br />
interessanten Themen. Die meisten<br />
Angebote sind maschinenlesbar und stehen<br />
unter www.statistik-nord.de/daten<br />
zum kostenlosen Download bereit.<br />
Die Behörde für Schule und Berufsbildung<br />
stellt diverse Daten rund um die<br />
Hamburger Schullandschaft der Öf- <br />
2/12 11
fentlichkeit zur Verfügung; Angebote<br />
der Hamburger Schulstatistik sind unter<br />
www.hamburg.de/schulstatistiken/ abrufbar.<br />
Das Hamburgische Krebsregister dokumentiert<br />
die Zahlen und Raten der Krebserkrankungen<br />
als öffentlich zugängliche<br />
Daten unter www.krebsregisterhamburg.de.<br />
Die Daten werden in<br />
aggregierter, das heißt nicht personenbezogener<br />
Form dargestellt.<br />
Die Messdaten zur Gewässergüte aus dem<br />
Hamburger Wassergütemessnetz<br />
(WGMN) sind über das Hamburg-<br />
Gateway unter gateway. hamburg.de verfügbar.<br />
Aufgrund der großen Datenmenge<br />
und der Komplexität des Datenmodells<br />
ist kein direkter Datenbankzugriff<br />
möglich. Eine Beschreibung des<br />
WGMN ist unter www.wgmn.<br />
hamburg.de einsehbar.<br />
Daten des Hamburger Luftmessnetzes<br />
werden stündlich aktuell über das Internet<br />
unter www.hamburger-luft.de publiziert.<br />
Es werden auch monatliche und jährliche<br />
Daten der Schadstoffe sowie die Metadaten<br />
der Stationen et cetera veröffentlicht.<br />
3. Wie sehen die Zugriffszahlen auf diese<br />
Angebote aus?<br />
Das Statistikamt Nord verzeichnete auf<br />
der Seite www.statistik-nord.de (ohne<br />
Wahlen) im Monatsdurchschnitt des Jahres<br />
2009 rund 22.300 Internetbesuche. In<br />
2009 wurden dort insgesamt rund 31.200<br />
Downloads von Excel-Tabellen gezählt.<br />
Die Zugriffe auf die Informationen der<br />
Hamburger Schulstatistik der Behörde<br />
für Schule und Berufsbildung werden<br />
nicht gesondert erfasst. Für das Hamburgische<br />
Krebsregister wurden seit August<br />
2010 2.810 Zugriffe ermittelt. Für<br />
das WGNM gab es seit Beginn 2011 über<br />
das HamburgGateway bis heute über<br />
2.200 Zugriffe. Es wird bis zum Ende<br />
des Jahres mit über 3.500 Zugriffen gerechnet.<br />
Die Daten für das Hamburger<br />
Luftmessnetz werden statistisch nicht<br />
erfasst.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
4. Sind weitere Angebote geplant?<br />
Die Behörde für Gesundheit und Verbraucherschutz<br />
plant eine Geovisualisierung<br />
von Trinkwasseruntersuchungen.<br />
Geodaten zu verschiedenen Fachthemen<br />
wie zum Beispiel den Oberflächengewässern<br />
sollen im Rahmen der Umsetzung<br />
der INSPIRE-Richtlinie über den<br />
Landesbetrieb Geoinformation und Vermessung<br />
der Öffentlichkeit als standardisierte<br />
Services zur Verfügung gestellt<br />
werden. In Planung befinden sich folgende<br />
Themen: Stadtteilinformationskarte<br />
mit thematischen Karten Polizei-/<br />
Feuerwehrdienststellen, Kundenzentren,<br />
Schulen, Kindergärten, Grün, Sportanlagen<br />
und weitere, Arten- und Biotopschutzprogramm<br />
APRO, Freiraumverbundsystem,<br />
Spielplätze, Radtouren<br />
(überregional).<br />
Im Übrigen siehe Antwort zu 5. bis 7.<br />
5. Die Handelskammer Hamburg fordert<br />
im Standpunktepapier „Hamburg<br />
2030“, Hamburg mit Open Data zur<br />
Hochburg mobiler Applikationen zu<br />
entwickeln. Unterstützt der Senat dieses<br />
Anliegen und wenn ja, in welcher<br />
Form?<br />
6. Sieht der Senat durch den elektronischen<br />
Zugriff auf Verwaltungsinformationen<br />
im Sinne von Open<br />
Data Einsparungspotenzial und<br />
Synergieeffekte durch Crowd-Sourcing<br />
und wenn ja, in welcher Form?<br />
7. Gibt es eine Open Data-Strategie vergleichbar<br />
mit der <strong>Berlin</strong>er Open Data<br />
Agenda oder ist Vergleichbares geplant?<br />
Bei Bund, Ländern und Kommunen<br />
gewinnt das Thema Open Data – als<br />
Bestandteil von Open Government –<br />
zunehmend an Bedeutung. Eine vom<br />
Bund über die Mitglieder des <strong>IT</strong>-<br />
Planungsrats ins Leben gerufene Bund-<br />
Länder-Arbeitsgruppe ist derzeit dabei,<br />
ein Eckpunktepapier zu erarbeiten, das<br />
als einen Schwerpunkt gemeinsame<br />
Empfehlungen und gegebenenfalls erste<br />
Maßnahmen für die Förderung von Open<br />
Data enthalten soll. Ferner hat die Arbeitsgruppe<br />
den Auftrag, grundsätzliche Fragen<br />
im Zusammenhang mit technischen<br />
Standards (zum Beispiel Schnittstellen,<br />
Formate, Plattform) wie auch mit rechtlichen<br />
Inhalten (zum Beispiel Kosten, Lizenzen,<br />
Datenschutz) zu prüfen.<br />
Hamburg ist über die zuständige Behörde<br />
in dieser Arbeitsgruppe vertreten und<br />
wird im Zuge der zu erwartenden Ergebnisse<br />
prüfen, welche Handlungsoptionen<br />
sich daraus für die Hamburgische Verwaltung<br />
ergeben. Dabei wird es auch um<br />
die Frage der jeweils am besten geeigneten<br />
Form von Open Data-Angeboten (Anwendung<br />
oder mobile Applikation) sowie<br />
die Entwicklung einer eigenen Hamburger<br />
Open Data-Strategie an sich gehen.<br />
Im Zuge dieses Prozesses werden<br />
bereits vorhandene Überlegungen der<br />
Behörden ebenso wie die weiterer Akteure,<br />
wie zum Beispiel auch der Handelskammer<br />
Hamburg, mit einbezogen werden.<br />
Im Übrigen hat sich der Senat damit<br />
bislang noch nicht befasst.<br />
8. Wo sieht der Senat die Grenzen von<br />
Open Data durch den Datenschutz?<br />
Das Recht auf informationelle Selbstbestimmung<br />
kann dem Open Data-Prinzip<br />
entgegenstehen, sodass Veröffentlichungen<br />
unterbleiben oder zuvor geeignete<br />
Schutzmaßnahmen getroffen werden<br />
müssen; die erforderlichen Maßnahmen<br />
und die sich daraus ergebenden Grenzen<br />
von Open Data richten sich nach den<br />
Erfordernissen des jeweiligen Sachverhalts.<br />
Im Übrigen siehe Vorbemerkung<br />
und Antwort zu 5. bis 7.<br />
(Drucksache 20/1202)<br />
<br />
2/12 12
Verbundkatalog B3Kat<br />
als Linked Open Data<br />
freigegeben<br />
Die Bayerische Staatsbibliothek, der<br />
Bibliotheksverbund Bayern und der<br />
Kooperative Bibliotheksverbund<br />
<strong>Berlin</strong>-Brandenburg haben ihren Katalog<br />
„B3Kat“ als OpenData im Format<br />
MARC-XML www.bib-bvb.de/<br />
open-data.html und als LinkedOpen-<br />
Data im Format RDF/XML unter<br />
lod.b3kat.de/download veröffentlicht.<br />
Enthalten sind die Beschreibungen zu<br />
über 23 Millionen Medien aus 180 wissenschaftlichen<br />
Bibliotheken in Bayern,<br />
<strong>Berlin</strong> und Brandenburg. Die Daten werden<br />
im Internet zur allgemeinen Nutzung<br />
unter der Lizenz „Creative<br />
Commons Zero“ bereitgestellt.<br />
Dies ist das umfangreichste Datenpaket,<br />
das bisher von deutschen Bibliotheken<br />
und Bibliotheksverbünden als Linked<br />
Open Data zugänglich gemacht wurde.<br />
Zusammen mit den Datenfreistellungen<br />
des Hochschulbibliothekszentrums des<br />
Landes Nordrhein-Westfalen und mehrerer<br />
Bibliotheken weiterer Bundesländer<br />
steht damit nun ein erheblicher Teil der<br />
bibliografischen Titel- bzw. Mediennachweise<br />
wissenschaftlicher Bibliotheken in<br />
Deutschland unter einer freien Lizenz zur<br />
Verfügung.<br />
Das Angebot ist u.a. über das Open Data-<br />
Portal des Freistaats Bayern erreichbar:<br />
opendata.bayern.de<br />
„Die Wissenschaft erhält mit diesen Daten<br />
ein mächtiges Instrument zur eigenen<br />
Nutzung und uneingeschränkten<br />
Weiterverwendung”, so der Generaldirektor<br />
der Bayerischen Staatsbibliothek,<br />
Dr. Rolf Griebel.<br />
Es ist nun möglich, wissenschaftliche<br />
Publikationen im Web zu verlinken und<br />
Auswertungen der Daten nach eigenen<br />
Fragestellungen vorzunehmen. Um dies<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
zu unterstützen, wurden möglichst viele<br />
Links zu anderen Datenangeboten gesetzt.<br />
Diese Dienstleistung wird nach der<br />
Erstveröffentlichung kontinuierlich weiterentwickelt<br />
werden.<br />
Alle Zugänge zu den bereitgestellten<br />
Daten im RDF-Format finden Sie unter<br />
der Adresse lod.b3kat.de . Dort erreichen<br />
Sie unter anderem eine Beispiel-Buchbeschreibung,<br />
eine API für maschinelle<br />
Abfragen (SPARQL-Endpoint) und die<br />
technische Dokumentation des Angebots.<br />
(PR/ idw)<br />
<br />
Prototyp des Open Data-<br />
Portals Baden-<br />
Württemberg vorgestellt<br />
Gisela Erler, Staatsrätin für Zivilgesellschaft<br />
und Bürgerbeteiligung,<br />
und Dr. Herbert O. Zinell, Amtschef<br />
des Innenministeriums Baden-<br />
Württemberg, haben am 7. März <strong>2012</strong><br />
den Prototyp eines Open Data Portals<br />
Baden-Württemberg freigeschaltet.<br />
„Das Portal ist ein wichtiger Baustein auf<br />
dem Weg des Landes zu einer Bürgergesellschaft“,<br />
sagte Gisela Erler. „Wenn<br />
Regierung und Verwaltung ihr Handeln<br />
transparenter gestalten wollen, müssen<br />
sie den Zugang zu ihren Daten und Informationen<br />
öffnen“, betonte Dr.<br />
Herbert O. Zinell. Das sei der zentrale<br />
Faktor für mehr Teilhabe und Mitwirkung<br />
der Zivilgesellschaft, ergänzte Erler.<br />
Mit der Stadt Ulm habe das Land einen<br />
leistungsfähigen kommunalen Partner<br />
gewonnen. So werde mit dem Prototyp<br />
der Zugang zu Daten mehrerer Verwaltungsebenen<br />
anschaulich, setzte Zinell<br />
fort. Der baden-württembergische Prototyp<br />
unterscheide sich von anderen Open<br />
Data Portalen außerdem darin, dass er<br />
nicht nur Daten bereitstelle. Er erschließe<br />
auch Dienste und Anwendungen, Register<br />
und Verzeichnisse von Behörden in<br />
Baden-Württemberg, die staatliche und<br />
kommunale Daten und Dokumente<br />
nutzen.<br />
„Wir wollen diesen Prototyp zu einem<br />
funktional und inhaltlich hochwertigen<br />
Open Data Portal Baden-Württemberg<br />
weiterentwickeln“, sagte Zinell. „Helfen<br />
Sie uns dabei und nutzen Sie für Ihr<br />
Feedback die Dialogfunktionen des Portals“,<br />
schloss Erler.<br />
Der Prototyp zeigt die Grundstruktur<br />
und -funktionen eines Open Data-Portals<br />
Baden-Württemberg. Der Prototyp<br />
ist eine Komponente des Serviceportals<br />
des Landes www.service-bw.de. Er stellt<br />
exemplarisch Datensätze in einem von<br />
Maschinen lesbaren und interpretierbaren<br />
Format zur Verfügung. So können interessierte<br />
Nutzer die Haushaltsplandaten<br />
des Landes Baden-Württemberg von 2007<br />
bis 2011 und die Haushaltsplandaten der<br />
Stadt Ulm für die Jahre 2011 und <strong>2012</strong><br />
herunterladen und praktisch ohne Einschränkung<br />
weiter nutzen. Ähnliches gilt<br />
für Datensätze des Statistischen Landesamts.<br />
Darüber hinaus erschließt der Prototyp<br />
exemplarisch weitere, aktuell noch nicht<br />
von Maschinen les- und interpretierbare<br />
Datensätze, auf Daten beruhende Berichte<br />
sowie Dokumente. Außerdem lassen<br />
sich über den Prototyp leicht Dienste und<br />
Anwendungen staatlicher Behörden finden,<br />
beispielsweise Kartendienste im<br />
Umweltportal Baden-Württemberg, das<br />
Landesinformationssystem des Statistischen<br />
Landesamts, das Geoportal Raumordnung,<br />
diverse Online-Register, den<br />
Landeserdbebendienst, die Landtagsdrucksachen<br />
oder das Landesrecht Baden-Württemberg.<br />
(PR/ Innenministerium<br />
Baden-Württemberg) <br />
2/12 13
Offene Daten sind das Öl<br />
des 21. Jahrhundert<br />
Das Statistische Bundesamt hat den<br />
Auftrag, statistische Informationen<br />
über Wirtschaft und Gesellschaft in<br />
Deutschland bereitzustellen und zu<br />
verbreiten. Diese Informationen sind<br />
objektiv, unabhängig erstellt und qualitativ<br />
hochwertig und stehen allen zur<br />
Verfügung: Politik, Regierung, Verwaltung,<br />
Wirtschaft und Bürgern. Das<br />
Internet ist der Hauptverbreitungskanal<br />
für das breite Informationsangebot<br />
des Statistischen Bundesamtes<br />
(Destatis).<br />
Als eine der ersten Bundesbehörden hat<br />
Destatis seine Verbreitungspolitik Zug<br />
um Zug an die Ziele der E-Government<br />
Pläne der Bundesregierung angepasst und<br />
Zugangsbarrieren weiter abgebaut.<br />
Bereits 2005 hat das Statistische Bundesamt<br />
seine bis dahin kostenpflichtigen<br />
Informationsangebote im Internet<br />
kostenfrei zugänglich gemacht. Gestützt<br />
auf das 2006 in Kraft getretene<br />
Informationsweiterverwendungsgesetz<br />
(IWG) hat das Statistische Bundesamt<br />
seine Lizenzbestimmungen soweit geöffnet,<br />
dass eine Weiterverwendung der<br />
Daten – auch für kommerzielle Zwecke –<br />
kosten- und vertragsfrei zulässig ist.<br />
Praktisch entsprechen diese Lizenzregelungen<br />
einer sehr offenen/freizügigen<br />
CC-Lizenz. Damit sind u.a. für Wirtschaft<br />
und Wissenschaft Anreize geschaffen,<br />
Daten des öffentlichen Sektors für<br />
eigene Zwecke zu nutzen und damit einen<br />
Mehrwert zu schaffen. Denn: der<br />
Zugang zu qualitativ hochwertigen Daten<br />
ist im 21. Jahrhundert so wertvoll wie<br />
einst der Zugang zu Öl. Unsere<br />
Informationsgesellschaft lebt vom Austausch<br />
aktueller Daten.<br />
Derzeit unterstützt Destatis in einem<br />
dritten Schritt die gemeinsame Open-<br />
Government-Initiative von Bund und<br />
Ländern im Rahmen des Regierungsprogramms<br />
„Vernetzte und transparente<br />
Verwaltung“ der Bundesregierung. Im<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Zentrum steht hierbei das Datenangebot<br />
in der Online-Datenbank GENESIS, das<br />
mit einem Angebot an Webservices eine<br />
standardisierte Schnittstelle zu vollständig<br />
automatisierter Nutzung der Datenbank<br />
ermöglicht. Hierüber können bedarfsgerecht<br />
alle Daten in den unterstützten<br />
Exportformaten extrahiert und in<br />
Verarbeitungsprozesse des Nutzers integriert<br />
werden.<br />
Das Potential des vielfältigen Datenangebots<br />
in GENESIS-Online wurde bereits<br />
frühzeitig von der Netzgemeinschaft erkannt<br />
und in unabhängige Datenkataloge<br />
integriert. Im Datenkatalog „OffeneDaten“<br />
(www.offenedaten.de) der Open<br />
Knowledge Foundation Deutschland,<br />
der im Übrigen auch Grundlage für den<br />
ersten nationalen Programmierwettbewerb<br />
„Apps für Deutschland“ war,<br />
stellt der Datenbestand von GENESIS-<br />
Online den größten Anteil verfügbarer<br />
Daten dar.<br />
www.destatis.de<br />
DORIS STÄRK<br />
Statistisches Bundesamt<br />
Bundesinnenminister<br />
beantwortete Fragen zu<br />
Open Data<br />
Die Verwaltung verfügt über einen<br />
Schatz an Daten: Geodaten, Wetterund<br />
Umweltdaten, aber auch Planungs-<br />
und Infrastrukturdaten, Haushalts-<br />
und statistische Daten und vieles<br />
mehr. Es gibt zunehmend Interesse<br />
an diesen Daten.<br />
Ende 2011 hatte Bundesinnenminister<br />
Dr. Hans-Peter Friedrich (CSU) alle Bürger<br />
aufgefordert, ihm Fragen rund um<br />
das Thema „Alle Daten offenlegen!“ zu<br />
schicken. Drei wurden zur Beantwortung<br />
durch die Behörde ausgewählt:<br />
1. Es haben sich 46 Staaten zur Open<br />
Government Partnership für mehr<br />
Transparenz in Verwaltungen und von<br />
Regierungshandeln zusammen getan.<br />
Warum hat sich Deutschland bislang<br />
nicht zur Mitgliedschaft entschlossen?<br />
Friedrich: Ich glaube, bevor man international<br />
auftritt, ist es gut, wenn man<br />
zunächst die Hausaufgaben im eigenen<br />
Haus macht. Wir haben 2010 im Bundeskabinett<br />
ein Projekt Open Government<br />
beschlossen und jetzt ging es darum mit<br />
den Ländern gemeinsam eine Plattform,<br />
auch eine Verhandlungsmöglichkeit zu<br />
suchen. Seit Oktober gibt es nun eine<br />
Einigung zwischen Bund und Ländern,<br />
dass wir gemeinsame Standards entwickeln<br />
wollen. Das wird jetzt angepackt<br />
und vorangetrieben. Danach werden wir<br />
uns der internationalen Ebene zuwenden.<br />
2. Warum liegen die Exklusiv-Rechte für<br />
die digitale Distribution von öffentlichen<br />
Handelsregister-Daten beim pri<br />
vaten Dumont-Verlag? Wann werden<br />
die Handelsregister-Rohdaten, wie<br />
z.B. in Großbritannien bereits verfüg<br />
bar, über eine freie Schnittstelle bereitgestellt?<br />
Friedrich: Diese Frage muss man an die<br />
Länder stellen, denn die Handelsregisterdaten<br />
werden bei den Ländern geführt.<br />
Es ist ein Missverständnis zu glauben,<br />
dass der Bund sie hat. Der Bund hat nur<br />
den Bundesanzeigerverlag beauftragt, das<br />
Unternehmensregister zu führen, das<br />
zum Teil auch Daten aus dem Handelsregister<br />
verwendet. Dieses Unternehmensregister<br />
wird beim Verlag geführt<br />
– der ist damit beauftragt. Dass der<br />
Verlag der Familie Dumont gehört, <br />
2/12 14
ist nicht von Bedeutung in diesem<br />
Zusammenhang, glaube ich.<br />
3. Warum müssen Kommunen, Zweckverbände<br />
und Private noch einmal<br />
Nutzungsgebühren zahlen, wenn sie<br />
mit Steuergeldern erhobene Geobasisdaten,<br />
z.B. ATKIS oder Digitale<br />
Höhenmodelle, des Bundes oder der<br />
Bundesländer anfordern?<br />
Friedrich: Die Datenerhebung ist sehr<br />
kostspielig und sie wurde in der Vergangenheit<br />
nur zum Teil aus Steuermitteln<br />
bezahlt, zum Teil aber über Nutzungsgebühren<br />
finanziert. Wenn man jetzt die<br />
Diskussion führt – und sie wird geführt<br />
– dass zukünftig keine Nutzungsgebühren<br />
mehr anfallen sollen, dann muss<br />
der Steuerzahler alles allein bezahlen. Ob<br />
das gerechtfertigt ist, darüber kann man<br />
streiten. Ich denke, zumindest für die<br />
kommerziell genutzten Daten ist es angebracht,<br />
dass man auch eine Gebühr<br />
verlangt.<br />
(Abbdruck mit freundlicher Genehmigung des<br />
BMI)<br />
<br />
Geodaten besser nutzen<br />
Wo steht ein Windrad gut? Wie wirkt<br />
sich der Umzug des <strong>Berlin</strong>er Flughafens<br />
aus? Ein Gutachten zur Georeferenzierung<br />
wurde an das Bundesministerium<br />
für Bildung und Forschung<br />
(BMBF) und das Bundesministerium<br />
des Innern (BMI) übergeben.<br />
Wer Standorte für Windräder plant oder<br />
die Versorgung mit Breitbandanschlüssen<br />
und den Ausbau von Kindertagesstätten,<br />
oder wer kontrollieren will,<br />
wie sich Umweltbelastungen verringern,<br />
ist darauf angewiesen, Daten mit Ortsbezug<br />
zu nutzen. Diese sogenannten<br />
Geodaten enthalten einerseits Informationen<br />
über natürliche, bauliche und soziale<br />
Merkmale wie zum Beispiel durchschnittliche<br />
Windstärke, Helligkeit bei<br />
Nacht, Sozialstruktur, und andererseits<br />
exakte geografische Koordinaten oder<br />
andere räumliche Angaben wie<br />
Postleitzahlbezirke. So werden sich<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
beispielsweise die Auswirkungen der<br />
Verlagerung des <strong>Berlin</strong>er Flugverkehrs von<br />
Tegel nach Schönefeld mit Hilfe<br />
georeferenzierter Daten wissenschaftlich<br />
exzellent analysieren lassen. Denn: Viele<br />
Statistiken, so etwa der Mikrozensus, das<br />
Sozioökonomische Panel oder die <strong>Berlin</strong>er<br />
Altersstudie (BASE <strong>II</strong>) erheben Daten<br />
zum Gesundheitszustand und der<br />
Lebensqualität der Menschen in Deutschland<br />
und in <strong>Berlin</strong>. Wenn diese Erhebungsdaten<br />
georeferenziert werden,<br />
kann analysiert werden, welchen Einfluss<br />
der wegfallende Fluglärm für Tegel und<br />
der neue Fluglärm für Schönefeld haben<br />
werden.<br />
Solche Geodaten gibt es für Deutschland<br />
in Hülle und Fülle, allerdings mangelt es<br />
an einer Harmonisierung und an der<br />
Transparenz des Zugangs: sie werden<br />
von den unterschiedlichsten öffentlichen<br />
und privaten Stellen erhoben und nicht<br />
zentral und in einheitlichem Format gesammelt.<br />
Nun hat der Rat für Sozial- und Wirtschaftsdaten<br />
eine Bestandsaufnahme zur<br />
Georeferenzierung von Daten in Deutschland<br />
vorgenommen und Empfehlungen<br />
erarbeitet, wie Defizite und Schwachstellen<br />
georeferenzierter Daten beseitigt werden<br />
und wie Wissenschaft, Politik und<br />
Verwaltung dieses Wissenspotenzial besser<br />
ausschöpfen können. Den Abschlussbericht<br />
übergaben der Vorsitzende Gert<br />
G. Wagner und Johann Hahlen als Leiter<br />
der interdisziplinären Arbeitsgruppe an<br />
die Staatssekretärin im Bundesforschungsministerium,<br />
Cornelia Quennet-<br />
Thielen, und an die Staatssekretärin im<br />
Bundesinnenministerium, Cornelia<br />
Rogall-Grothe.<br />
„Der Rat für Sozial- und Wirtschaftsdaten<br />
hat sich intensiv mit den Potentialen<br />
und Verbesserungsmöglichkeiten der<br />
Georeferenzierung befasst. Damit bieten<br />
sich neue Chancen, die Daten mit Ortsbezug<br />
für die Wissenschaft und für die<br />
Gestaltung der Zukunft zu nutzen“, so<br />
Quennet-Thielen. „Gleichzeitg stellen wir<br />
sicher, dass der gebotene Datenschutz<br />
gewährleistet wird.“<br />
Frau Staatssekretärin Rogall- Grothe erklärt<br />
hierzu: „Der Abschlussbericht bestätigt<br />
die Auffassung der Bundesregierung,<br />
dass Geodaten für viele Entscheidungen<br />
in Verwaltung, Wirtschaft und<br />
Wissenschaft eine unverzichtbare Grundlage<br />
sind. Qualität und Nutzungsbedingungen<br />
werden deshalb durch die<br />
Bundesregierung weiter verbessert. Das<br />
neue Bundesgeoreferenzdatengesetz oder<br />
das in diesem Monat freigeschaltete<br />
Geoportal.de sind wichtige Meilensteine<br />
auf diesem Weg.“<br />
Der vom BMBF geförderte Rat für Sozialund<br />
Wirtschaftsdaten ( RatSWD ) arbeitet<br />
seit gut einem Jahrzehnt erfolgreich<br />
am Auf- und Ausbau einer informationellen<br />
Infrastruktur insbesondere<br />
für die empirische Wirtschafts-, Sozialund<br />
Verhaltensforschung in Deutschland.<br />
In seinem Auftrag wurde die vorliegende<br />
Bestandsaufnahme im Jahr 2011<br />
von einer interdisziplinären Arbeitsgruppe<br />
von 26 Experten aus Geographie,<br />
Geodäsie, Geoinstituten, Vermessungsverwaltung,<br />
Datenschutz, amtlicher Statistik<br />
und von kommerziellen Anbietern<br />
sowie Nutzern von Geodaten vorgenommen.<br />
Auf dieser Basis empfiehlt der Rat unter<br />
anderem, den Datenschutz bei der<br />
Georeferenzierung von Daten klarer zu<br />
regeln. Für ausschließlich private und<br />
wissenschaftliche Nutzung sollten öffentlich<br />
finanzierte Geodaten kostenlos oder<br />
nur zu den Bereitstellungskosten zur<br />
Verfügung gestellt werden. Es sind einfache<br />
standardisierte Lizenzbedingungen<br />
nötig. Zu dem ständig wachsenden und<br />
nicht mehr übersehbaren Bestand an<br />
Geodaten muss Transparenz geschaffen<br />
werden, damit private Nutzer, Behörden<br />
und Wissenschaftler sehen, wo welche<br />
Geodaten wie verfügbar sind.<br />
Der Bericht ist unter www.ratswd.de/<br />
Geodaten verfügbar. (PR/ BMBF) <br />
2/12 15
Geoportal.DE<br />
freigeschaltet<br />
Auf der CeB<strong>IT</strong><strong>2012</strong> haben Bundesinnenminister<br />
Dr. Hans-Peter<br />
Friedrich und der Staatssekretär im<br />
Hessischen Ministerium für Wirtschaft,<br />
Verkehr und Landesentwicklung<br />
Steffen Saebisch das<br />
Geoportal.DE am Messestand des Beauftragten<br />
der Bundesregierung für<br />
Informationstechnik (Bf<strong>IT</strong>) freigeschaltet.<br />
Die Freischaltung fand im Beisein der für<br />
die Maßnahmen der digitalen Agenda<br />
Europas verantwortlichen Vizepräsidentin<br />
der EU-Kommission, Frau<br />
Neelie Kroes, statt. Das Geoportal.DE<br />
ist eine im Internet frei verfügbare Webseite,<br />
um Geodaten der öffentlichen Hand<br />
zu suchen, sie zu visualisieren oder sie<br />
direkt bei den Datenanbietern zu bestellen.<br />
Die Realisierung des Geoportal.DE<br />
ist ein wichtiger Meilenstein bei der Kooperation<br />
von Bund, Ländern und Kommunen<br />
zum Aufbau der Geodateninfrastruktur<br />
Deutschland (GDI-<br />
DE).<br />
Das Geoportal.DE (www.geoportal.de)<br />
wurde von Bund und Ländern durch das<br />
Bundesamt für Kartographie und Geodäsie<br />
(BKG) als die gemeinsame Informations-<br />
und Kommunikationsplattform<br />
der GDI-DE im Internet aufgebaut.<br />
Bundesminister Dr. Friedrich<br />
betonte: „Geoinformationen sind zu einem<br />
Garanten und Motor unserer<br />
Wissensgesellschaft geworden, kaum einsende<br />
Suche nach Geoinformationen von<br />
Bund, Ländern und Kommunen.“<br />
Die GDI-DE ist ein gemeinsames Vorhaben<br />
von Bund, Ländern und Kommunen<br />
mit dem Ziel, Geodaten der öffentlichen<br />
Verwaltung unabhängig von<br />
technischen Systemen und Formaten mit<br />
geltenden Standards über das Internet<br />
nutzbar zu machen. Als strategisches<br />
Entscheidungsgremium wurde das<br />
Lenkungsgremium der GDI-DE eingerichtet.<br />
Es setzt sich aus Vertretern des<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Bundes, der Länder und der kommunalen<br />
Spitzenverbände zusammen. In den<br />
Jahren 2011 und <strong>2012</strong> wird der Vorsitz<br />
des Lenkungsgremiums vom Land<br />
<strong>Berlin</strong>, vertreten durch Herrn Thomas<br />
Luckhardt, Senatsverwaltung für Stadtentwicklung<br />
und Umwelt, wahrgenommen.<br />
Ein in das Portal integrierter „Kartenviewer“<br />
ermöglicht die Präsentation digitaler<br />
Karten, die beliebig miteinander<br />
verbunden und kombiniert werden können.<br />
Die Geodaten werden nicht im Portal<br />
gespeichert, sondern in der Regel über<br />
Standards und Schnittstellen direkt bei<br />
den Datenanbietern abgefragt. Um als<br />
Datenhalter Geodaten und – dienste im<br />
Geoportal nutzbar zu machen, müssen<br />
die in der GDI-DE geltenden technischen<br />
Empfehlungen eingehalten werden.<br />
Diese beruhen grundsätzlich auf<br />
international anerkannten und geltenden<br />
Standards.<br />
Die nun realisierte länder- und verwaltungsübergreifende<br />
Vernetzung von<br />
Geodaten wird den verstärkten Einsatz<br />
von amtlichen Geoinformationen für<br />
Entscheidungsprozesse in vielen Bereichen<br />
von Wirtschaft, Verwaltung und<br />
Politik verbessern oder sogar erst ermöglichen.<br />
„Die Freischaltung des Portals ist<br />
aber nur der Anfang einer Entwicklung.<br />
Das Geoportal wird im Rahmen seiner<br />
Vernetzung wachsen und mit jedem Jahr<br />
eine Vielzahl weiterer Informationen anbieten.“,<br />
so Herr Minister Friedrich.<br />
Das Bundesamt für Kartographie und<br />
Geodäsie ist eine Behörde im Geschäftsbereich<br />
des Bundesministeriums des<br />
Innern. Es stellt ein einheitliches räumliches<br />
Bezugssystem (Koordinatensystem)<br />
für das gesamte Bundesgebiet sowie vielfältige<br />
Geobasisdaten für Bundeseinrichtungen,<br />
öffentliche Verwaltung, Wirtschaft,<br />
Wissenschaft und Bürger bereit.<br />
Hierfür unterhält es ein GeoDatenZentrum<br />
und geodätische Observatorien, auf<br />
denen mit verschiedenen Techniken die<br />
Bewegungen der Erdsatelliten beobachtet<br />
werden. Die Koordinierungsstelle der<br />
GDI-DE ist im Bundesamt für Kartographie<br />
und Geodäsie angesiedelt.<br />
www. geoportal.de (LPD/ GDI-DE,<br />
Bundesamt für Kartographie und Geodäsie<br />
und Senatsverwaltung für Stadtentwicklung<br />
und Umwelt) <br />
Ausgezeichnet beim<br />
Apps4Deutschland-Wettbewerb<br />
PEGELONLINE<br />
PEGELONLINE ist eine Webanwendung<br />
im Internet zur Veröffentlichung<br />
und Lieferung gewässerkundlicher<br />
Daten der Wasser- und<br />
Schifffahrtsverwaltung (WSV) an externe<br />
Dritte. Derzeit umfasst<br />
PEGELONLINE circa 550 Pegel an<br />
den Bundeswasserstraßen. Unter anderen<br />
kommt die WSV mit<br />
PEGELONLINE ihrer gesetzlichen<br />
Verpflichtung nach, aktuelle<br />
gewässerkundliche Daten den Ländern,<br />
Katastrophenstäben, Kommunen<br />
und allgemein der Öffentlich- <br />
Mini-Pegelkarte von PEGELONLINE.<br />
Am 15. Januar 2011 um 7:28 Uhr war<br />
erstmalig an 70 WSV-Pegeln gleichzeitig<br />
der höchste Schifffahrtswasserstand<br />
(HSW) erreicht oder überschritten.<br />
2/12 16
keit unentgeltlich und einfach bereit<br />
zu stellen.<br />
Die WSV hat die Dienste von<br />
PEGELONLINE bereits im Jahr 2006<br />
zur freien Nutzung gegeben. Alle Daten<br />
können unabhängig von der Art der<br />
Nutzung kostenfrei bezogen werden.<br />
Dies umfasst auch kommerzielle Anwendungen.<br />
Bedingung ist die Nennung der<br />
Datenquelle. Im Zuge des ersten Open<br />
Data-Wettbewerb Deutschlands wurde<br />
PEGELONLINE mit der Lizenz CC-<br />
BY3.0 versehen. (offenedaten.de/<br />
dataset/pegelonline)<br />
Damit war der Weg frei für eines der<br />
besten Open Data Projekte Deutschlands,<br />
wie die Verleihung des 1. Preises in der<br />
Kategorie „Daten“ beim ersten Open<br />
Data-Wettbewerb Deutschlands gezeigt<br />
hat.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Die Nutzer brauchen vielfältige und einfache<br />
aber sogleich auch moderne Datenschnittstellen.<br />
PEGELONLINE bietet<br />
klassische Datenformate und Techniken<br />
(ascii und https) neben komplexen und<br />
modernen Webdiensten an. Die Dokumentationen<br />
und herunterladbare Beispiel-Implementationen<br />
sind online verfügbar<br />
und bilden weitere wesentliche<br />
Grundlagen für die Nutzung durch Dritte.<br />
Doch Freude bei der Nutzung kommt<br />
erst dann, wenn die Daten aktuell und<br />
zuverlässlich bereit stehen. PEGEL-<br />
ONLINE erhält aktuell von den<br />
Messstellen circa zwei Messwerte pro Sekunde.<br />
Die Daten werden automatisch<br />
sofort veröffentlicht. Somit können<br />
derzeit vor allem im Küstenbereich Wasserstände<br />
veröffentlicht werden, die nur<br />
wenige Minuten alt sind.<br />
Derzeit bietet PEGELONLINE für öffentliche<br />
Messstationen folgende<br />
Informationsdienste/Schnittstellen an:<br />
• HTTP-Download von Tagesdateien<br />
(ascii) mit aktuellen Messdaten<br />
• Abonnement mit Versand der gewünschten<br />
Daten via E-Mail oder<br />
HTTPS<br />
• OGC-konformen WebMapService<br />
(WMS 1.1)<br />
• OGC-konformen WebFeatureService<br />
(WFS 1.1)<br />
• OGC-konformer SensorObservation-<br />
Service (SOS 1.0)<br />
• W3C-konformer Webservice für<br />
Messdaten und Stammdaten (SOAP)<br />
• Statische Onlinevisualisierung der<br />
Ganglinien (via URL beziehbar, REST)<br />
• Interaktive Onlinevisualisierung der<br />
Ganglinien (via URL beziehbar, REST)<br />
Aktuell werden die REST-Webservices<br />
erweitert, mit denen vor allem APPs für<br />
mobile Endgeräte optimal unterstützt<br />
werden können.<br />
Ziel ist es, die Daten schnell und einfach<br />
in die Welt der Kunden zu bringen. Dies<br />
sind Excel-Tabellen, Webseiten und<br />
APPs, hydrologische Modelle, eine Vielzahl<br />
von Fachapplikationen und weiteren<br />
Datennetzen wie GDI-DE und sensorgdi.de.<br />
PEGELONLINE liefert das Vorprodukt<br />
„gewässerkundliche Daten“.<br />
Zum Endprodukt werden die<br />
PEGELONLINE-Daten dann in den<br />
Systemen und Webseiten der Nutzer.<br />
PEGELONLINE unterstützt Alarmmodelle<br />
von Katastrophenstäben, liefert<br />
Daten an Kraftwerksbetreiber und Kanuvereine,<br />
ist Informationsquelle für eine<br />
Vielzahl von Medienunternehmen, Bundes-<br />
und Landesverwaltungen sowie der<br />
Forschung.<br />
Der Erfolg von PEGELONLINE ist<br />
greifbar – millionenfache Zugriffe zeigen<br />
dies.<br />
Der interne Nutzen ist ebenfalls offensichtlich.<br />
Unter anderen hat verwaltungsintern<br />
die telefonische Nachfrage zu Wasserständen<br />
um ca. 80 Prozent abgenommen.<br />
Zeitgewinn für hydrologische Arbeit<br />
der gewässerkundlichen Kollegen in<br />
der WSV.<br />
www.pegelonline.wsv.de<br />
Interaktive Onlinevisualisierung von Wasserständen. Solche Grafiken können via<br />
REST-Webservice über eine konfigurierbare URL bezogen werden<br />
DIETMAR MOTHES<br />
Themenleiter Gewässerkunde<br />
DLZ-<strong>IT</strong> BMVBS, Ilmenau<br />
<br />
2/12 17
Integration von Sensordaten in<br />
eine Geodateninfrastruktur<br />
Sensor-GDI<br />
Die Freischaltung des Geoportal.DE<br />
auf der CeB<strong>IT</strong> <strong>2012</strong> in Hannover machte<br />
deutlich, welche Fortschritte die<br />
Geodateninfrastruktur Deutschland<br />
(GDI-DE) bisher gemacht hat. Neben<br />
der Bereitstellung und Vernetzung von<br />
Geodaten aus ganz Deutschland bietet<br />
das Portal einen einheitlichen Zugriffpunkt<br />
zur Erkundung, Anwendung<br />
und Integration der aus unterschiedlichen<br />
Quellen stammenden Geodaten.<br />
Während jedoch über GDIs heutzutage<br />
eher konventionelle Geodaten (z.B. Karten<br />
und Geometriedaten) zur Verfügung<br />
gestellt werden, zeigen Anwendungsbereiche<br />
vom Umwelt-Monitoring bis<br />
hin zum Krisenmanagement und Katastrophenschutz<br />
einen kritischen Bedarf<br />
an Nah-Echtzeitdaten auf.<br />
Die notwendige Integration von Sensoren<br />
als Bestandteil einer GDI erfordert<br />
eine Erweiterung des GDI-Begriffs durch<br />
Konzepte aus dem sogenannten Sensor<br />
Abbildung 1: Ohne Interoperabilität findet<br />
ein unkontrollierter Datenfluss mit<br />
unterschiedlichen Datenformaten statt<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Abbildung 2: Sensor-GDI als Kopplung zwischen einer klassischen<br />
GDI (z.B. GDI-DE) und dem Sensor Web<br />
Web. Der Begriff „Sensor Web“ wurde<br />
durch das Open Geospatial Consortium<br />
(OGC) geprägt. Durch die Sensor Web<br />
Enablement Initiative des OGC wurde<br />
eine standardisierte Architektur geschaffen,<br />
welche bestehende GDI-Konzepte<br />
um Komponenten zur Bereitstellung von<br />
Sensordaten erweitert.<br />
Das Sensor Web stellt somit eine Abstraktionsschicht<br />
zur heterogenen Sensorwelt<br />
dar, und bietet mit seinen wohldefinierten<br />
Schnittstellen und Datenformaten<br />
nunmehr die Integrationsgrundlage<br />
von Nah-Echtzeit Sensordaten<br />
in eine GDI (siehe Abbildung 2). Werkzeuge<br />
und Dienste des Sensor Webs sind<br />
bereits heute im produktiven Einsatz.<br />
Die erfolgreiche Integration in die GDI-<br />
DE konnte zudem auf der diesjährigen<br />
CeB<strong>IT</strong> erfolgreich gezeigt werden.<br />
Kernbestandteil der gezeigten<br />
Entwicklungen ist ein Web<br />
basierter Client (siehe Abbildung<br />
3), zur Anzeige von Sensordaten<br />
aus verschiedenen Quellen.<br />
Im konkreten Beispiel<br />
werden Sensordaten<br />
aus<br />
PEGELONLINE (siehe<br />
vorheriger Artikel) sowie<br />
Daten des Wupperverbands<br />
über standardisierte<br />
Webdienste<br />
(SOS) zugreifbar gemacht.<br />
Diese Daten befinden<br />
sich dabei auf den<br />
Servern der jeweiligen<br />
Datenanbieter. Anhand<br />
der interoperablen<br />
Standards<br />
des Sensor<br />
Webs kann über<br />
einheitliche Schnittstellen<br />
auf diese<br />
Daten zugegriffen<br />
werden.<br />
Die gesamte Software,<br />
d.h. die Webserver<br />
(SOS) und<br />
der Client sind frei<br />
als Open Source<br />
Software verfügbar.<br />
Somit werden weitere interessierte<br />
Institutionen, welche beliebige Arten von<br />
Messdaten erheben, in die Lage versetzt<br />
sich in die Sensor Web-Infrastruktur einzubinden.<br />
Somit stellt die Sensor Web-<br />
Technologie einen wichtigen Schritt dar,<br />
um den interoperablen Austausch von<br />
Sensordaten zwischen verschiedenen Stellen<br />
über geographische und administrative<br />
Grenzen hinweg zu ermöglichen.<br />
www.sensor-gdi.de<br />
www.52north.org<br />
HENNING BREDEL, SIMON JIRKA<br />
52°North Initiative for Geospatial Open<br />
Source Software GmbH, Münster <br />
Abbildung 3: Das Hinzuladen von Daten aus unterschiedlichen<br />
Quellen bleibt dem Nutzer weitestgehend verborgen<br />
2/12 18
Management von 3D-<br />
Geodaten mit Oracle<br />
Spatial<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Georeferenzierte Daten sind ein vieldiskutiertes<br />
Thema. Erst Anfang März<br />
hat der Bundestag in <strong>Berlin</strong> den<br />
Regierungsentwurf für ein Bundesgeoreferenzdatengesetz<br />
(BGeoRG)<br />
angenommen.<br />
Hierdurch wurde ein weiterer wichtiger<br />
Schritt unternommen, die Haltung und<br />
Austauschfähigkeit von Geodaten auf<br />
nationaler Ebene, aber auch im Hinblick<br />
auf europäische Richtlinien wie INSPIRE,<br />
zu standardisieren und damit zu vereinfachen.<br />
In den öffentlichen Einrichtungen<br />
der Länder und Kommunen wird ein<br />
sehr großer Teil dieser georeferenzierten<br />
Daten erhoben, gepflegt und anderen<br />
Behörden, Unternehmen der freien Wirtschaft,<br />
aber auch den Bürgerinnen und<br />
Bürgern zugänglich gemacht.<br />
In der Produktion und Bereitstellung<br />
von Geodaten gewinnen insbesondere<br />
3D-Geobasis- und Geofachdaten zunehmend<br />
an Bedeutung. Werden doch<br />
insbesondere diese für aktuelle Fragestellungen<br />
und Fachanwendungen benötigt,<br />
z.B. für:<br />
• die Planung von Infrastrukturprojekten<br />
(Transport und Telekommunikation)<br />
• die Planung und Förderung<br />
erneuerbarer Energien (Solaratlas,<br />
Windparks)<br />
• die Analyse, Überwachung und Sicherung<br />
von Schutzgütern (Lärmkartierung)<br />
• die Überwachung der öffentlichen Sicherheit<br />
und Koordination von Sicherheitsmaßnahmen,<br />
• die Berechnung von Energiebedarfen<br />
oder Wärmeverlusten<br />
• die Verwaltung und Abbildung überirdischer<br />
(3D-Stadtmodelle) oder auch<br />
unterirdischer Infrastrukturen (Geologische<br />
Daten, Leitungsnetze)<br />
Abbildung 1: Von Oracle Spatial unterstützte 3D-Datentypen<br />
Standardkonforme 3D-Geodaten<br />
Raumbezogene Daten können in Datenbanken<br />
standardbasiert abgelegt werden.<br />
Hierzu gibt es eine Spezifikation des Open<br />
Geospatial Consortium (OGC), die die<br />
Speicherung sog. Simple Features definiert<br />
und die durch die entsprechenden<br />
ISO Gremien auch in den de jure Standard<br />
übernommen wurde. Diese Simple<br />
Features können beispielsweise in Oracle<br />
Datenbanken abgelegt (Datentyp<br />
SDO_GEOMETRY/ST_GEOME-<br />
TRY) und mit den zugehörigen Methoden<br />
(räumliche Funktionen und Operatoren)<br />
abgefragt oder bearbeitet werden.<br />
Standardkonformität ist eine zentrale<br />
Anforderung und Voraussetzung für den<br />
Aufbau von Geodateninfrastrukturen auf<br />
allen behördlichen Verwaltungsebenen.<br />
Oracle ist Principal Member im OGC und<br />
wesentlich an der Erstellung und Weiterentwicklung<br />
der OGC Standards für<br />
Geodaten und -dienste beteiligt. Die rasche<br />
Umsetzung und Verfügbarkeit dieser<br />
Standards in den eigenen Softwareprodukten,<br />
zusammengefaßt unter dem<br />
Begriff Oracle Spatial Technologies, ist<br />
ein ganz zentrales Anliegen und wird<br />
unternehmensweit mitgetragen.<br />
Simple Features sind Geometrien, welche<br />
die Grundelemente Punkt, Linie oder<br />
Fläche bzw. Zusammensetzungen davon<br />
abbilden. Geometrien in der Ebene sind<br />
dabei 2 dimensional (2D); im Raum 3<br />
dimensional (3D). Ergänzt um die Lagebezugsinformation<br />
stellen sie Geodaten<br />
dar.<br />
Geodaten setzen Standard-<strong>IT</strong>-Infrastrukturkomponenten<br />
wie Datenbanken<br />
und Application Server zusätzlich in Wert.<br />
Integriert in die zentralen oder auch dezentral<br />
gehaltenen Datenbestände von<br />
Behörden und Unternehmen erfordern<br />
sie keine separate Hard- und Software,<br />
Personal, Wartung oder Maßnahmen für<br />
die Gewährleistung der Datensicherheit.<br />
Datenbankseitige Vorteile wie hohe Leistung<br />
und Verfügbarkeit lassen sich somit<br />
auch optimal auf vorgehaltene Geodatenbestände<br />
anwenden; Daten stehen der<br />
gesamten Behörde und mit ihr kooperierenden<br />
Einrichtungen zur Verfügung.<br />
Forderungen nach einer wohlgeordneten<br />
Geodateninfrastruktur können ohne<br />
zusätzliche Aufwände umgesetzt werden,<br />
was die vielfältige wie effiziente<br />
Nutzung von Geoinformationen über<br />
verschiedene Verwaltungsebenen hinweg<br />
ermöglicht. Auch die Open Data Idee, der<br />
Ruf nach öffentlich und frei zugänglichen<br />
(Geo-)Daten, findet mit einem Oracle<br />
Spatial-basierten Ansatz ein optimales<br />
Fundament.<br />
Typen von 3D-Geodaten<br />
Luftbilder, Laserscandaten oder auch Digitale<br />
Geländemodelle sind Grundlage<br />
für 3D-Geodaten. <br />
2/12 19
<strong>SPL<strong>IT</strong>TER</strong><br />
Abbildung 2: SDO_GEOMETRY (3D) Export nach CityGML. (Datenquelle: British<br />
Ordnance Survey)<br />
3D Stadtmodelle, wie von der Firma<br />
virtualcitySYSTEMS für <strong>Berlin</strong> entwickelt<br />
und von <strong>Berlin</strong> Partner bereitgestellt oder<br />
das Projekt 3DCityDB der Technischen<br />
Universität <strong>Berlin</strong> setzen dabei stark auf<br />
die Oracle Datenbank. Denn mit Oracle<br />
Spatial lassen sich unter Nutzung von<br />
Vektordaten, Punktwolken, TINs, Rasterdaten<br />
und Bildinformationen (Texturen),<br />
3D Stadtmodelle in den unterschiedlichen<br />
LoD-Stufen (Level of Detail) erzeugen.<br />
Texturen (siehe Abbildung 4) ergänzen<br />
dabei die räumlichen bzw. geometrischen<br />
Informationen für eine realistische Darstellung<br />
von Gebäuden und Szenerien.<br />
Die Oracle Datenbank mit der Option<br />
Spatial unterstützt 3D Geodaten ab Version<br />
11gR1. Neben den 3D Vektordaten<br />
lassen sich zusätzlich Punktwolken (z.B.<br />
Laserscandaten) und Digitale Geländemodelle<br />
über die SDO_PC und<br />
SDO_TIN direkt in der Datenbank verwalten.<br />
Für das Prozessieren dieser Daten stehen<br />
neben der Unterstützung von 3D-Koordinatensystemen,<br />
einem räumlichen Index,<br />
welcher die 3. Dimension berücksichtigt,<br />
auch wichtige räumliche Funktionen<br />
zur Verfügung. Hierdurch ist es<br />
möglich, u.a.:<br />
• die topologischen Beziehungen zwischen<br />
Objekten zu bestimmen<br />
• Länge, Fläche und Volumen zu berechnen<br />
• geometrische Umrechnungen (z.B.<br />
Rotation, Skalierung, Translation)<br />
oder<br />
• den Import von bzw. Export nach<br />
CityGML oder KML (Keyhole Markup<br />
Language) vorzunehmen.<br />
Am einfachsten sind Daten und Funktionen<br />
mittels SQL zu nutzen, der<br />
Standardabfragesprache für Relationale<br />
Datenbanksysteme. So ist das Exportieren<br />
von Daten nach CityGML oder KML<br />
eine „Angelegenheit von Datenbank-<br />
Bordmitteln“ und im Blogeintrag<br />
„Gebäudekonstruktion mit Oracle Spatial<br />
– Teil 1: LOD1“ beschrieben. Für die<br />
Entwicklung von Fachanwendungen auf<br />
Basis von Oracle Spatial stehen darüberhinaus<br />
eine PL/SQL sowie eine Java<br />
Programmierschnittstelle zur Verfügung.<br />
Weitere standardbasierte Schnittstelle (wie<br />
XML, SOAP) sind nutzbar u.a. für die<br />
Bereitstellung von Geodiensten wie Web<br />
Feature Services (WFS).<br />
Abbildung 2 zeigt aus Gebäudeumrissen<br />
und Höhenangaben erzeugte 3D<br />
Geodaten. Diese wurden in der Datenbank<br />
nach CityGML transformiertund<br />
anschließend mit dem Landexplorer GML<br />
Viewer zur Anzeige gebracht.<br />
3D-Stadtmodelle mit Oracle Spatial<br />
in unterschiedlichen Detailtiefen<br />
Für Kommunen und Landesvermessungen<br />
ist die Bereitstellung von 3D<br />
Daten ein sehr aktuelles Thema. Ziel ist<br />
es, diese Daten für Fachanwendungen<br />
wie eingangs beschrieben verfügbar zu<br />
machen.<br />
Abbildung 4: Textur für Gebäudefassade<br />
Wie ein LoD4-Stadtmodell aus der Oracle<br />
Datenbank aussehen kann, verdeutlicht<br />
Abbildung 5. Datenquelle hier sind<br />
Vektordaten sowie Texturen für Gebäude<br />
sowie Grundfläche vom Oracle Partner<br />
TeleAtlas.<br />
Lösungen auf Basis von Oracle Spatial<br />
und 3D<br />
Geodaten in der Oracle Datenbank in<br />
Wert zu setzen, egal ob nun bei Behörden<br />
oder Unternehmen der freien Wirtschaft,<br />
dafür kommt vielfältig die Expertise von<br />
spezialisierten Oracle Partnern zum Einsatz.<br />
So arbeitet Oracle innerhalb des Oracle<br />
Partner Network sehr eng mit GIS- und<br />
Geofachanwendungsherstellern, mit<br />
Systemintegratoren oder auch<br />
Geodatenlieferanten zusammen. Einige<br />
dieser setzen dabei in besonderer Weise<br />
auf die 3D Funktionalität von Oracle<br />
Spatial, wie z.B. ABACO, Agency9,<br />
Autodesk, Bentley oder STAR-APIC. Ihre<br />
Lösungen und Werkzeuge lassen sich<br />
über die Suchbegriffe 3D Oracle Spatial<br />
leicht im Internet recherchieren. Eine Zusammenstellung<br />
von Partnern findet sich<br />
auch im Oracle Technology Network:<br />
www.oracle.com/technetwork/database<br />
/options/spatial/overview/partners/<br />
index.html<br />
Zusammenfassung<br />
Abbildung 3: Unterschiedliche Detaillierungsgrade, sogenannte Level of Details<br />
Behörden und öffentliche Einrichtungen<br />
der Länder und Kommunen unterliegen<br />
in Bezug auf die Erfassung, Haltung und<br />
Bereitstellung von Geodaten viel- <br />
2/12 20
fältigen Regelungen und Anforderungen.<br />
Neben der Erfüllung nationaler und<br />
europäischer Richtlinien zur Standardisierung<br />
und Harmonisierung von<br />
Geodaten (INSPIRE), der Verbesserung<br />
der Datenqualität und –verfügbarkeit<br />
(BGeoRG), stellt insbesondere die Integration<br />
neuer Datentypen (3D Punktwolken,<br />
3D Stadtmodelle) in bestehende<br />
Geodateninfrastrukturen eine aktuelle<br />
Herausforderung dar. Der Einsatz von<br />
Oracle Spatial ermöglicht vorhandene <strong>IT</strong><br />
Ressourcen optimal und performant für<br />
die Speicherung und Prozessierung von<br />
2D und 3D Geodaten zu nutzen. So<br />
entstehen interoperable und plattformunabhängige<br />
Geodateninfrastrukturen<br />
und Geofachanwendungen auf der Basis<br />
von Standard-<strong>IT</strong>-Infrastrukturkomponenten<br />
wie Datenbanken und<br />
Applikationsservern.<br />
oracle-spatial.blogspot.com<br />
oracle-maps.blogspot.com<br />
DIPL.-INF. KARIN PATENGE, DR. R<strong>IT</strong>A<br />
ENGEMAIER<br />
Systemberaterinnen<br />
Oracle Deutschland B.V. & Co. KG <br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Open-Government-<br />
Lösung für straßenverkehrsrelevante<br />
Online-Daten<br />
Die Bundesanstalt für Straßenwesen<br />
(BASt) realisiert zurzeit einen virtuellen<br />
Marktplatz für Verkehrsinformationen:<br />
den „Mobilitäts Daten<br />
Marktplatz“ (MDM). Ziel des<br />
Internet-Portals ist es, möglichst viele<br />
Anbieter und Nutzer von Verkehrsinformationen<br />
effizient zu vernetzen<br />
und so eine Plattform zu schaffen, auf<br />
der sie ihre Daten austauschen können.<br />
Der MDM unterstützt damit maßgeblich<br />
die Einführung intelligenter<br />
Verkehrssysteme.<br />
Daten über Verkehrsströme, Staus, Baustellen,<br />
Parkmöglichkeiten und Ähnliches<br />
werden in der Regel von Bund, Ländern<br />
und Kommunen erhoben. Diese Informationen<br />
sind allerdings bislang kaum<br />
miteinander vernetzt und für eine Nutzung<br />
nur teilweise unter komplizierten<br />
Voraussetzungen zugänglich. Dies wird<br />
sich mit dem Mobilitäts Daten Marktplatz<br />
ändern: In Zukunft sollen alle Daten<br />
von deren Erzeugern auf der MDM-<br />
Internet-Plattform angeboten werden –<br />
übersichtlich, zu transparenten Konditionen<br />
und klaren rechtlichen Bedingungen.<br />
Um einen echten Mehrwert zu schaffen,<br />
bringt der MDM drei Gruppen zusammen:<br />
die Anbieter, Veredler und Abnehmer<br />
von für den Straßenverkehr relevanten<br />
Daten. Anbieter sind bisher hauptsächlich<br />
Behörden, zunehmend aber auch<br />
private Firmen. Zu den Datenveredlern<br />
gehören vor allem Unternehmen, die<br />
vorhandene Daten zusammenbringen,<br />
in standardisierte Formate wandeln oder<br />
die Datenqualität bewerten. Die Datenabnehmer<br />
sind zum Beispiel Anbieter<br />
von Navigationsdiensten und Logistikfirmen.<br />
Zudem wird der Mobilitäts Daten<br />
Marktplatz die Möglichkeit schaffen,<br />
neue Ideen umzusetzen: Durch eine<br />
Kombination aktueller Informationen<br />
zu Staus und Umleitungen mit denen<br />
über öffentliche Verkehrsmittel, freie Parkplätze<br />
und Carsharing-Angebote, könnte<br />
ein Kunde innerhalb kürzester Zeit<br />
Alternativvorschläge für seine Route erhalten.<br />
Um zu erreichen, dass alle verfügbaren<br />
Informationen transparent aufbereitet<br />
und weitergegeben werden, hat die Europäische<br />
Union mit der Richtlinie 2010/40<br />
EU den Rahmen für die Einführung<br />
intelligenter Verkehrssysteme geschaffen.<br />
Zu ihrer Umsetzung gehört maßgeblich<br />
die optimale Nutzung von Straßen-,<br />
Verkehrs- und Reisedaten, wie sie auf<br />
dem Mobilitäts Daten Marktplatz ausgetauscht<br />
werden sollen.<br />
Abbildung 5: LoD4 Stadtmodell Ausschnitt <strong>Berlin</strong>. Darstellung mit Oracle Java 3D-<br />
Viewer (Datenquelle:TeleAtlas)<br />
Der MDM wurde im Rahmen des Projektes<br />
„Metadatenplattform für Verkehrsinformationen<br />
des Individualverkehrs“<br />
initiiert. Der Nutzerbeirat, der den MDM<br />
betreut, setzt sich aus Akteuren aus Wirtschaft,<br />
Verwaltung und Forschungseinrichtungen<br />
zusammen. Im Laufe des Jahres<br />
<strong>2012</strong> wird das System mit ersten <br />
2/12 21
Vorteile des Mobilitäts<br />
Daten Marktplatzes (MDM)<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
EU: Nutzung öffentlicher<br />
Daten als Goldmine<br />
• Austausch von Verkehrsdaten<br />
zwischen Dienstanbietern, der<br />
öffentlichen Hand und anderen<br />
Nutzern über standardisierte<br />
Schnittstellen und Kommunikationsverfahren<br />
erheblich ver<br />
einfacht<br />
• Schaffung von Transparenz<br />
über die Marktteilnehmer<br />
• Vereinfachung der Geschäftsprozesse<br />
der Marktteilnehmer<br />
• Reduzierung des technischen<br />
und organisatorischen Aufwands<br />
von Datenanbietern und<br />
Datenabnehmern<br />
Pilotdiensten getestet, für 2014 ist die<br />
Einführung des Regelbetriebs vorgesehen.<br />
Damit ist Deutschland auf einem<br />
guten Weg und setzt einen Meilenstein<br />
bei der Umsetzung des Europäischen<br />
Aktionsplans für Intelligenten Verkehr.<br />
Die Entwicklung der Plattform übernahm<br />
der <strong>IT</strong>-Dienstleister Materna<br />
GmbH. Darüber hinaus leistet das Unternehmen<br />
den Pilotbetrieb im eigenen<br />
Rechenzentrum. Kernstück der Lösung<br />
ist die Plattform MACS (Multimedia<br />
Application & Content Server), eine Service<br />
Delivery Middleware, die unter anderem<br />
Komponenten zur Aggregation,<br />
Verteilung und Vermarktung digitaler<br />
Inhalte bereitstellt, wie sie auch in diesem<br />
Projekt zum Einsatz kommen werden.<br />
Darüber hinaus ergänzte Materna projektspezifische<br />
Komponenten, beispielsweise<br />
zur Verwaltung der Datenstrukturen des<br />
MDM.<br />
www.mdm-portal.de<br />
DR. LUTZ R<strong>IT</strong>TERSHAUS<br />
Bundesanstalt für Straßenwesen<br />
<br />
Die Europäische Kommission hat im<br />
Dezember 2011 eine Strategie für offene<br />
Daten in Europa vorgestellt, die der<br />
EU-Wirtschaft einen erwarteten 40-<br />
Milliarden-Euro-Wachstumsschub<br />
pro Jahr bescheren soll. Europäische<br />
öffentliche Verwaltungen sitzen auf<br />
einer Goldmine, die ein bislang unerschlossenes<br />
wirtschaftliches Potenzial<br />
birgt: nämlich auf großen Mengen<br />
von Informationen, die von zahlreichen<br />
Behörden und Dienststellen angehäuft<br />
werden. In einigen Mitgliedstaaten<br />
wie dem Vereinigten Königreich<br />
und Frankreich wird bereits deutlich,<br />
welche Werte hier noch schlummern.<br />
Die Strategie zu ihrer EU-weiten Erschließung<br />
besteht aus drei Teilen: Erstens<br />
wird die Kommission mit gutem Beispiel<br />
vorangehen und der Öffentlichkeit<br />
ihre Informationsschätze kostenlos über<br />
ein neues Datenportal zugänglich machen.<br />
Zweitens werden überall in der EU<br />
gleiche Wettbewerbsbedingungen in Bezug<br />
auf offene Daten geschaffen. Drittens<br />
werden für diese neuen Maßnahmen 100<br />
Millionen Euro bereitgestellt, die im<br />
Zeitraum 2011 bis 2013 für Forschungsarbeiten<br />
über bessere Technologien für<br />
den Umgang mit diesen Daten ausgegeben<br />
werden sollen.<br />
Mit diesen Maßnahmen positioniert sich<br />
die EU als weltweiter Akteur auf dem<br />
Gebiet der Weiterverwendung von Informationen<br />
des öffentlichen Sektors. Ziel<br />
ist die Förderung einer dynamischen Branche,<br />
die Rohdaten in Material verwandelt,<br />
das Hunderte Millionen IKT-Nutzer<br />
dringend benötigen, beispielsweise in<br />
Smartphone-Apps für Landkarten, Echtzeit-Verkehrs-<br />
und Wetterinformationen,<br />
Preisvergleichen und vielen andere Anwendungen.<br />
Andere wichtige Nutznießer<br />
werden Journalisten und Wissenschaftler<br />
sein.<br />
Die Bestände an Daten in den europäischen<br />
öffentlichen Verwaltungen<br />
gleichen einer Goldmine<br />
Die Vizepräsidentin der Kommission,<br />
Neelie Kroes, sagte hierzu: „Wir senden<br />
heute ein deutliches Signal an alle öffentlichen<br />
Verwaltungen. Ihre Daten sind viel<br />
mehr wert, wenn Sie sie weggeben. Geben<br />
Sie Ihre Daten jetzt frei. Nutzen Sie diesen<br />
Rahmen, um zu den intelligenten Vorreitern<br />
aufzuschließen, die bereits von den<br />
Vorteilen offener Daten profitieren. Für<br />
diese Informationen haben die Steuerzahler<br />
ohnehin schon bezahlt. Nun sollten<br />
wir sie wenigstens all jenen zurückgeben,<br />
die sie auf neue Art verwenden wollen,<br />
um den Menschen zu helfen und um<br />
Arbeitsplätze und Wachstum zu schaffen.“<br />
Die Kommission schlägt vor, die Richtlinie<br />
von 2003 über die Weiterverwendung<br />
von Informationen des öffentlichen<br />
Sektors wie folgt zu ändern:<br />
• Grundsätzlich sollen alle Dokumente,<br />
die von öffentlichen Stellen zugänglich<br />
gemacht werden, auch zu beliebigen<br />
– gewerblichen wie nicht-gewerblichen<br />
– Zwecken weiterverwendet<br />
werden können, soweit sie nicht durch<br />
Urheberrechte Dritter geschützt sind.<br />
• Festlegung des Grundsatzes, dass öffentliche<br />
Stellen dafür keine Gebühren<br />
verlangen dürfen, die über den durch<br />
die jeweilige Einzelanforderung verursachten<br />
Mehrkosten („Zusatzkosten“)<br />
liegen; in der Praxis bedeutet<br />
dies, dass die meisten Daten kostenlos<br />
oder so gut wie kostenlos bereitgestellt<br />
werden, soweit die Erhebung <br />
2/12 22
von Gebühren nicht ordnungsgemäß<br />
begründet wird.<br />
• Einführung einer Verpflichtung zur<br />
Bereitstellung der Daten in üblichen,<br />
maschinenlesbaren Formaten, damit<br />
die Daten effektiv weiterverwendet<br />
werden können.<br />
• Schaffung einer behördlichen Aufsicht<br />
zur Durchsetzung dieser Grundsätze.<br />
• Massive Ausdehnung des Anwendungsbereichs<br />
der Richtlinie, nämlich<br />
zum ersten Mal auch auf Bibliotheken,<br />
Museen und Archive; die bestehenden<br />
Vorschriften von 2003 werden dann<br />
auch für Daten aus solchen Einrichtungen<br />
gelten.<br />
Darüber hinaus wird die Kommission<br />
ihre eigenen Daten über ein neues „Datenportal“<br />
öffentlich zugänglich machen.<br />
Hierfür hat sie bereits einen Vertrag geschlossen.<br />
Dieses Portal befindet sich<br />
gegenwärtig noch in der „Beta-Version“<br />
(Entwicklungs- und Testphase) und soll<br />
im Frühjahr <strong>2012</strong> an den Start gehen.<br />
Damit wird es rechtzeitig als einheitlicher<br />
Zugangspunkt für weiterverwendbare<br />
Daten aus allen Organen, Einrichtungen,<br />
Ämtern und Agenturen der EU und aus<br />
nationalen Behörden dienen.<br />
Hintergrund<br />
Offene Daten sind allgemeine Informationen,<br />
die frei verwendet, weiterverwendet<br />
und weiterverbreitet werden dürfen, entweder<br />
kostenlos oder nur zu den anfallenden<br />
Zusatzkosten.<br />
Der heutige Kommissionsvorschlag steht<br />
in vollem Einklang mit den Vorschriften<br />
für die Verarbeitung personenbezogener<br />
Daten.<br />
Wie im Auftrag der Europäischen Kommission<br />
durchgeführte Studien belegen,<br />
bereitet das Auffinden und Weiterverwenden<br />
von Informationen des öffentlichen<br />
Sektors den Unternehmen und<br />
Bürgern noch immer Schwierigkeiten. Das<br />
bedeutet, dass bei offenen Daten in<br />
Europa ein großer Entwicklungsrückstand<br />
besteht.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Bei Umfragen der Kommission zu dem<br />
wichtigen Gebiet der geografischen Informationen<br />
gaben fast 80 Prozent der<br />
Befragten an, dass sie Informationen im<br />
Besitz öffentlicher Stellen nicht voll für<br />
sich nutzen könnten. Gründe dafür sind<br />
hohe Gebühren, undurchsichtige Weiterverwendungsvorschriften<br />
und praktiken,<br />
mangelnde Transparenz in Bezug darauf,<br />
wer welche Daten besitzt, wie auch exklusive<br />
Lizenzvereinbarungen, die den Wettbewerb<br />
untergraben.<br />
In ihrer Digitalen Agenda für Europa<br />
nannte die Kommission die Weiterverwendung<br />
von Informationen des öffentlichen<br />
Sektors neben dem schnellen<br />
und ultraschnellen Internetzugang als<br />
Schlüsselvoraussetzungen für die Schaffung<br />
eines digitalen Binnenmarkts.<br />
Mit der Richtlinie 2003/98/EG über die<br />
Weiterverwendung von Informationen<br />
des öffentlichen Sektors wurde eine Reihe<br />
erster Maßnahmen eingeführt, um Unternehmen<br />
den Zugang zu behördlichen<br />
Informationen und die Erlangung entsprechender<br />
Genehmigungen zu ihrer<br />
Weiterverwendung zu erleichtern. Außerdem<br />
setzte die Richtlinie einen Prozess<br />
in Gang, in dessen Verlauf viele<br />
öffentliche Stellen die Gebühren für die<br />
Abfrage solcher Informationen gesenkt<br />
haben. Der heutige Vorschlag soll den<br />
Zugang weiter verbessern und den Anwendungsbereich<br />
der Richtlinie ausweiten.<br />
(PR/ Europäische Kommission)<br />
Nutzung von Open Data im<br />
Journalismus<br />
Hyperlokal<br />
Das Medium Internet befindet sich im<br />
ständigen Wandel und verändert<br />
weiterhin den Journalismus: Sowohl<br />
das Handwerk, den Beruf des Journalisten,<br />
aber auch Form und Art, wie<br />
Nachrichten konsumiert werden.<br />
Auch Open Data spielt dabei eine<br />
Rolle, das aus seinen Datenbanken<br />
punktgenau Informationen liefern<br />
wird. Das kann nicht nur den<br />
Lokaljournalismus verändern, sondern<br />
auch die Lokalpolitik.<br />
Immer „schlauere“ Mobiltelefone stecken<br />
in immer mehr Taschen. Und wenn die<br />
Zeichen nicht trügen, werden berührungsgesteuerte<br />
Tablet-PCs wie das iPad und<br />
Androidgeräte sich als wichtige Plattform<br />
durchsetzen - vor allem für den Konsum<br />
von Inhalten nebenbei und unterwegs<br />
(weniger für die produktive Arbeit). Gemein<br />
ist diesen Geräten, dass sie „wissen“<br />
können, wo man sich aufhält. Per<br />
Standorte der Mobilfunkmasten sowie<br />
WLAN-Routern und/oder per Satellitennavigation<br />
GPS.<br />
Der klassische Lokaljournalismus lebt<br />
davon, dass Leser immer das sehr interessiert,<br />
was sie unmittelbar umgibt, was<br />
ihren Alltag und ihr soziales Umfeld -<br />
Familie, Freunde, Bekannte, Kollegen -<br />
berührt: Der Verein um die Ecke, das Fest<br />
im nahen Kindergarten, die Baustelle<br />
vorne an der Kreuzung, der Einbruch<br />
beim Nachbarn gegenüber und das Angebot<br />
vom Laden die Straße herunter.<br />
Das Internet als Medium erlaubt es nun,<br />
das Nachrichten kleinteiliger und spezifischer<br />
werden. Und zwar dynamisch: Nachrichten<br />
werden an den Standort des Nutzers,<br />
der vielleicht automatisch erfasst<br />
wurde, angepasst. Hyperlokaljournalismus<br />
konzentriert sich also auf diese unmittelbare<br />
Umgebung. Neben dem Begriff<br />
„hyperlokal“ wird auch „mikrolokal“<br />
benutzt.<br />
Recht weit verbreitet und fast schon klassisch<br />
zu nennen, sind hyperlokale Blogs.<br />
Die berichten vielleicht über einen Ortsteil,<br />
ein Quartier, Viertel oder Kiez. Das<br />
kann einerseits als „Bürgerjournalismus“(Citizen<br />
journalism) geschehen, also<br />
mit keinem oder kaum kommerziellen<br />
Interesse. Verwandt damit sind<br />
Stadtwikis, die von eine offenen Gemeinschaft<br />
gepflegt werden und alle möglichen<br />
Informationen über ein Stadt sammeln<br />
und strukturieren. Ein gutes Beispiel<br />
dafür ist das Wiki zur Stadt Karlsruhe. <br />
2/12 23
Digitale Anzeigenblätter<br />
Hyperlokale Angebote können aber auch<br />
professionell und mit explizit kommerziellen<br />
Interesse betrieben werden. In den<br />
USA ist derzeit die Internetfirma AOL<br />
mit ihrem Angebot „Patch“recht erfolgreich.<br />
In eine Reihe von Bundesstaaten<br />
werden Nachrichtenportale für Orte oder<br />
Ortsteile angeboten, die von freien Mitarbeitern<br />
vor Ort bestückt werden.<br />
Das Geschäftsmodell ist schlicht: Es geht<br />
um Werbung. Der Werbemarkt im<br />
Internet wächst kontinuierlich und hat<br />
mittlerweile den Printbereich überholt.<br />
Von mobiler und standortabhängiger<br />
Werbung wird sich dabei viel erhofft.<br />
Exemplarisch für einen Hoffnungsträger<br />
kann der Dienst FourSquare gelten. Er<br />
erlaubt es Nutzern, sich an Orten per<br />
Mobiltelefon anzumelden, „einzuchecken“.<br />
Diese Standortfinformationen lassen<br />
sich mit Freunden per Web teilen und<br />
es lässt sich in einen Wettbewerb treten<br />
(„Gamification“), wer am meisten einen<br />
Ort besucht hat.<br />
Hier kommt die Werbung ins Spiel, die je<br />
nach Standort spezielle Werbung einblendet<br />
und Preisnachlässe anbietet. Four-<br />
Square kooperiert dafür beispielsweise mit<br />
Unternehmen wie Groupon, die sich eben<br />
auf regionale Rabattangebote spezialisiert<br />
haben. In diesem Zusammenhang bleibt<br />
abzuwarten, ob sich gedruckte lokale Anzeigenblätter,<br />
die in Deutschland 2010<br />
einen Umsatz von zwei Milliarden Euro<br />
erwirtschaftet, auf Dauer halten können.<br />
Diese Wochenzeitungen dienen als<br />
(Deck-)Mantel für zahlreiche Prospekte<br />
lokaler Geschäfte: Super-, Bau- und<br />
Elektromärkte. Doch Internetangebote<br />
wie MeinProspekt.de erfreuen sich wachsender<br />
Beliebtheit und lassen sich seitens<br />
der Werbetreibenden mit hyperlokalen<br />
und mobilen punktgenau an den Mann<br />
bringen.<br />
Hyperlokales Open Data<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Welche Rolle wird nun Open Data in<br />
diesem Bereich? Das demonstriert der<br />
Vorreiter hyperlokaler Angebote am Besten:<br />
2007 startete das US-<br />
Projekt Everyblock. Es ist<br />
mittlerweile für 16 große<br />
US-Städte verfügbar. Das<br />
ehemals stiftungsfinanzierte<br />
Projekt wurde<br />
vom Medienkonzern<br />
MSBNC im Sommer 2009<br />
gekauft.<br />
Everyblock generiert<br />
vornehmlich keine eigenen<br />
Inhalte sondern<br />
aggregiert sie, sammelt sie<br />
ein. Man versteht sich als<br />
„geographischer Filter“.<br />
Dabei geht es nicht um statischen Daten<br />
für eine Gegend, etwa Adressen von Schulen.<br />
Sondern um Nachrichten im weitesten<br />
Sinne, die sich auf einen Standort<br />
beziehen und ein Datum haben.<br />
Diese Informationen werden nicht auf<br />
Stadtteile (boroughs) sondern auf<br />
Nachbarschaften (neighborhoods) heruntergebrochen<br />
– was hierzulande „Viertel“<br />
oder „Kiez“ genannt. Die Palette der<br />
Informationen reichen von Ankündigungen,<br />
Erwähnung in den Medien und<br />
politischen Neuigkeiten über Immobilienangebote,<br />
Graffitientfernung,<br />
Ausschanklizenzen, Schulbesprechungen,<br />
Baugenehmigungen bis hin zum<br />
Polizeiticker. Neben den üblichen Listendarstellungen<br />
und Suchmöglichkeiten<br />
lassen sich die Informationen auch per<br />
Karte erschließen. Die Quellen insgesamt<br />
sind mannigfaltig: Fotos von Flickr, aus<br />
Anzeigenportalen, aus diversen Blogs und<br />
Zeitungsseiten und eben öffentlichen<br />
Informationen, die entweder als Open<br />
Data vorliegen oder andersweitig von<br />
Behörden zur Verfügung gestellt werden.<br />
Letztlich ist Everyblock nur ein Vorgeschmack<br />
darauf, was mit Open Data<br />
möglich sein wird. Denn Städte stecken<br />
voll Informationen, von denen immer<br />
mehr digital per Sensoren in Echtzeit<br />
erfasst werden. Und wenn der Trend zu<br />
Open Data anhält, werden Städte diese<br />
Informationen auch in offenen Formaten<br />
anbieten. Seien es Informationen zur<br />
Neue Formen der lokalen Partizipation – Screenshot der<br />
Seite frankfurt-gestalten.de<br />
Luftgüte, zur Dichte der Fahrzeuge auf<br />
der Stadtautobahn oder die aktuelle Position<br />
eines Busses, einer U- oder Straßenbahn.<br />
Apps für Mobiltelefone, die Abfahrtszeiten<br />
des Öffentlichen Personennahverkehrs<br />
je nach Standort anzeigen,<br />
demonstrieren schon heute, welchen praktischen<br />
Mehrwert Datensätze liefern können.<br />
Datengetriebene Lokalpolitik<br />
Doch weist das Beispiel von OpenlyLocal<br />
auf die politische Dimension von hyperlokalen<br />
Daten hin. Das britische Projekt<br />
bereitet die Gemeinderatsinformationen<br />
in Großbritannien als Open Data auf.<br />
Somit ist es Bürgern einfach möglich,<br />
politische Vorgänge und Strukturen auf<br />
lokaler Ebene zu verfolgen. Ein verwandtes<br />
Vorhaben aus Deutschland, Frankfurt-gestalten.de,<br />
kombiniert solche Informationen<br />
auf einer Karte für die Stadt<br />
am Main (siehe Abbildung).<br />
So zeichnet sich ab, dass nicht nur Lokalnachrichten<br />
und der Werbemarkt sich<br />
durch mobile und hyperlokale Anwendungen<br />
verändern werden. Sondern auch<br />
Lokalpolitik durch datengetriebene Informationen<br />
in neuen Formaten stattfinden<br />
kann.<br />
LORENZ MATZAT<br />
datenjournalist.de<br />
Dieser Text steht unter einer Creative Commons<br />
Namensnennung 3.0 Deutschland Lizenz<br />
2/12 24
Bewältigung von Krisen und<br />
Katstrophen im Zeitalter von<br />
Web 2.0<br />
Digitale Daten im<br />
Katastrophenschutz<br />
(DiDaKat)<br />
Krisen und Katastrophen wie<br />
beispielsweise die weltweite Verbreitung<br />
der Neuen Grippe A/H1N1 (im<br />
Volksmund bekannt als Schweinegrippe)<br />
im Jahr 2009, das Seebeben in<br />
Südostasien (2004) oder das Zugunglück<br />
von Eschede (1998) sind immer<br />
noch in unser aller Erinnerung. Alle<br />
diese Ereignisse führten im Land<br />
<strong>Berlin</strong> dazu, dass die für das Gesundheitswesen<br />
zuständige Senatsverwaltung<br />
ihren, genau für diese Situationen<br />
stetig einsatzbereiten, Krisenstab<br />
einberief. Gerade Ereignisse,<br />
die einen hohen Koordinierungs- und<br />
Entscheidungsbedarf und die Zusammenarbeit<br />
mit anderen Behörden und<br />
Einrichtungen erfordern, bedürfen ein<br />
Arbeiten in anderen organisatorischen<br />
Strukturen.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Zuletzt hat der Krisenstab seine Arbeit<br />
2009 aufgenommen, um die Auswirkungen<br />
der Neuen Grippe zu bewältigen. Die<br />
Aufgaben des Krisenstabes waren dabei<br />
vielfältig und reichten von der regelmäßigen<br />
Pressearbeit über Verhandlungen mit<br />
der Kassenärztlichen Vereinigung, in denen<br />
die Ärzte bestimmt wurden, die die<br />
Impfungen durchführen sollten, der<br />
Organisation der Impfungen mit der<br />
notwendigen Information der Bevölkerung<br />
bis hin zur Beschaffung, Verteilung<br />
und Einlagerung des Impfstoffes.<br />
Um in solchen Situationen handlungsfähig<br />
zu sein, wird seit dem Jahr 1995 in der<br />
Arbeitsgruppe Gesundheitlicher<br />
Bevölkerungsschutz ein Notfallhandbuch<br />
geführt. Dafür wurden in einer<br />
Access 2.0-Datenbank alle Ansprechpartner<br />
des Landes <strong>Berlin</strong> gepflegt, die in<br />
einer möglichen Katastrophensituation<br />
benötigt werden. Die Daten wurden als<br />
Lose-Blatt-Sammlung in Handbüchern<br />
zusammengeführt und standen ausgewählten<br />
Mitarbeitern zur Verfügung. In<br />
der <strong>Berlin</strong>er Verwaltung gab es 150 Handbücher.<br />
„Im Zeitalter der zunehmenden Digitalisierung<br />
und Vernetzung mit den neuen Medien werden<br />
auch in der Verwaltung Lösungen bevorzugt,<br />
die von überall abrufbar und erreichbar sind.“<br />
(Projektleiter Detlef Cwojdzinski über die<br />
Zielsetzung des Projektes)<br />
Die Vorplanungen für das Projekt<br />
DiDaKat (Digitale Datensammlung im<br />
Katastrophenschutz) wurden im Jahr<br />
2008 begonnen. Ziel des Projektes war<br />
die Umstellung auf ein neues Softwaresystem,<br />
um Automatisierungspotentiale<br />
auszuschöpfen. Das Verfahren der manuellen<br />
Datensammlung und Datendistribution<br />
sollte vereinfacht werden.<br />
Das Projekt wurde im Januar 2010 neu<br />
aufgenommen und<br />
u.a. mit Mitteln des Modernisierungsprogramms<br />
vom <strong>Berlin</strong>er Senat „ServiceStadt<br />
<strong>Berlin</strong>“ gefördert. Dort war es<br />
dem Handlungsfeld „Verwaltungseffizienz<br />
und Personalmanagement“<br />
zugeordnet.<br />
Ausgeschrieben wurde eine Lösung, die<br />
das bisher geführte Notfallhandbuch ersetzt,<br />
jedoch dessen Anforderungen gänzlich<br />
erfüllen und erweitern sollte. Die<br />
Ausschreibung hat die österreichische<br />
Firma icomedias gewonnen. Routiniert<br />
in der Realisierung von Portalen und<br />
Online-Lösungen, konnte die Firma vor<br />
allem mit ihrer Erfahrung im Katastrophenschutz<br />
überzeugen. In der Steiermark<br />
und in Salzburg implementierte<br />
icomedias ein Katastrophenschutzportal<br />
mit einer Suchsystematik und Geo-Unterstützung,<br />
das für den Krisenfall und<br />
die Nutzung über mobile Endgeräte<br />
optimiert wurde.<br />
„DiDaKat ist einfache dezentrale Online-<br />
Datenpflege und übergreifende gemeinsame<br />
Nutzung im Krisenfall. Online immer aktuell,<br />
mobil und auch offline – und das alles bei einem<br />
bestätigten sehr hohen Maß an barrierefreier<br />
Zugänglichkeit und Ergonomie.“ (Managing<br />
Director icomedias DI Christian Ekhart<br />
über das Projekt DiDaKat)<br />
DiDaKat ist eine webbasierte Datenbank,<br />
zu der ein ausgewählter Nutzerkreis Zugang<br />
erhält. Daneben gibt es eine Mobilversion,<br />
in der ausgesuchte Inhalte über<br />
ein Smartphone, oder BlackBerry abrufbar<br />
sind. Die Datenübertragung erfolgt<br />
verschlüsselt über das HTTPS-Protokoll<br />
(SSL) und bietet dadurch im Gegensatz<br />
zur Papier-Version eine optimierte Zugriffssteuerung<br />
auf die personenbezogenen<br />
Daten. Das System wird über<br />
ein komplexes Rollen- und Rechtesystem<br />
gesteuert, mit dem jedem einzelnen Nutzer<br />
eindeutig die ihm zustehenden Rechte<br />
zugeteilt werden. Durch die Weblösung<br />
können neben den Daten der<br />
Ansprechpartner detailliertere Inhalte wie<br />
Einsatzpläne, Handlungsanweisungen,<br />
Rechtsgrundlagen und Meldeschemata<br />
zur Verfügung gestellt werden. Mit XML,<br />
XSLT und HTML5 werden aktuelle und<br />
zukunftssichere Standards eingesetzt. <br />
2/12 25
DiDaKat-Technik<br />
Das Portal DiDaKat wird als hochverfügbarer<br />
virtueller Linux/<br />
CentOS-Server mit performantem<br />
PostgreSQL-Server und Apache-<br />
Webserver in einem ISO-27000-<br />
zertifizierten Rechenzentrum betrieben.<br />
Als Kern wird das<br />
Enterprise Content Management<br />
icomedias Enterprise CMS in der<br />
Civil Protecrion Portal Suite eingesetzt.<br />
Alle Daten werden hoch strukturiert<br />
im XML-Format verarbeitet<br />
und für die Online-Nutzung<br />
am Browser mit XSLT-Rendering<br />
in das benötigte Ausgabeformat<br />
HTML, Text oder PDF konvertiert.<br />
Das Server-Backend mit XML<br />
und Datenbank sowie der<br />
Berechtingungsverwaltung, der<br />
Zugriff für Bearbeiter und das Portal<br />
für Nutzer sind sicher getrennt.<br />
Alle Datenverbindungen sind mit<br />
SSL und Zertifikaten abgesichert,<br />
Backup-Daten sind verschlüsselt<br />
und die Administration ist nur aus<br />
dem sicheren Verwaltungsnetz<br />
<strong>Berlin</strong> möglich. Für das Monitoring<br />
und Reporting der garantierten<br />
Verfügbarkeit wird das Nagios-<br />
System eingesetzt.<br />
Alle Daten sind damit hoch strukturiert<br />
und können im Portal dynamisch in<br />
alle Darstellungen integriert werden. Alle<br />
Kontakte und Telefonnummern sind für<br />
mobile und integrierte Telefonie (Lync,<br />
Skype, CTI, VoIP) verlinkt und können<br />
so per Klick sofort angerufen werden.<br />
„Wichtig war uns immer, das Projekt<br />
langsam aber stetig wachsen zu lassen<br />
und erst in einer späteren Projektphase in<br />
die Breite zu streuen und somit neue<br />
Nutzer zu akquirieren.“ (Projektleiter<br />
Detlef Cwojdzinski über die<br />
Umsetzungsstrategie des Projektes)<br />
Im August 2010 gab es die ersten Schulungen<br />
für die Mitarbeitenden der Arbeitsgruppe.<br />
Inzwischen wurde DiDaKat<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
anhand der täglichen Arbeit mit dem<br />
Portal weiterentwickelt, sodass neben der<br />
mobilen und der Online-Version, nun<br />
auch als Rückfallebene eine Offline-Version<br />
der wichtigsten Teilbereiche zur Verfügung<br />
steht.<br />
Zusätzlich wurden weitere Bereiche der<br />
<strong>Berlin</strong>er Verwaltung in das Projekt miteinbezogen.<br />
Das Landesamt für Gesundheit<br />
und Soziales, sowie die beiden Pilotbezirke<br />
Lichtenberg und Steglitz-<br />
Zehlendorf können als Projektmitwirkende<br />
genannt werden. Inzwischen<br />
setzen neun Bezirke das System ein. Durch<br />
die Vernetzung mit anderen Verwaltungen<br />
und Einrichtungen, die am Katastrophenschutz<br />
mitwirken, können die Daten<br />
lokal gepflegt werden. Einheitlichen<br />
Strukturen des Web-Portals sichern das<br />
gleichartige Vorgehen aller Beteiligten.<br />
Die Beteiligungsphase des Projekts wurde<br />
erfolgreich abgeschlossen, seit Mai <strong>2012</strong><br />
läuft der Echtbetrieb.<br />
„Wir überlegen jetzt schon, wie die Anwendung<br />
weiterentwickelt und ergänzt werden kann.<br />
Reizvoll sind für uns technische Ergänzungen<br />
für die Stabsunterstützung, z.B. in Form eines<br />
Einsatztagebuches.“ (Projektleiter Detlef<br />
Cwojdzinski über die Weiterentwicklung<br />
der webbasierten Anwendung)<br />
Das Arbeiten mit DiDaKat hat schon in<br />
der Projektphase gezeigt, dass die erhofften<br />
Vorzüge der Weblösung voll und<br />
ganz zum Tragen kommen. Informationen<br />
sind jetzt viel schneller verfügbar.<br />
Zudem zeigt sich, dass die Pflege<br />
insbesondere der Kontaktdaten qualitativ<br />
hochwertiger und effizienter ist, weil<br />
die Daten aktueller und valider sind und<br />
eine systemseitige Benachrichtigung zum<br />
Überprüfen der Daten eingerichtet ist.<br />
Das System soll zukünftig verstärkt für<br />
die Erstellung von Einsatzplänen eingesetzt<br />
werden. Durch die berlinweite Nutzung<br />
von DiDaKat werden sich hier für<br />
die Senatsverwaltungen und die Bezirke<br />
positive Synergieeffekte ergeben.<br />
PROJEKTTEAM DIDAKAT DER SENATS-<br />
VERWALTUNG FÜR GESUNDHE<strong>IT</strong> UND<br />
SOZIALES, ICOMEDIAS GMBH<br />
<br />
Zwei Jahre Nationale<br />
Prozessbibliothek –<br />
Status und Ausblick<br />
Der Aufbau von E-Government-Lösungen<br />
und -Strukturen ist in den<br />
vergangenen fünf Jahren gut vorangekommen.<br />
Unterschiedliche Projekte<br />
und Initiativen auf Bundes-, Landesund<br />
Kommunalebene, z.B. die (technische!)<br />
Umsetzung der EU-DLR, die<br />
Einführung von D115, der Aufbau einer<br />
Ebenen übergreifenden Geodaten-<br />
Infrastruktur oder von Prozessregistern<br />
auf Landes-und Kommunalebene<br />
sind einige prominente Beispiele.<br />
Im Rahmen (nicht nur) dieser Projekte<br />
wurden auf den unterschiedlichen<br />
Verwaltungsebenen auch relevante Geschäfts-<br />
bzw. Verwaltungsprozesse aufgenommen<br />
und dokumentiert. Dennoch<br />
ist es derzeit ausgesprochen schwierig bis<br />
unmöglich, einen umfassenden Überblick<br />
über diese Prozesse und deren <strong>IT</strong>-<br />
Unterlegung zu erhalten (in einer Kommune<br />
wird die Zahl der Geschäftsprozesse<br />
auf 3.000 bis 4.000 geschätzt). Ein übergreifendes<br />
Portal im Sinne einer<br />
Kollaborationsplattform zur Zusammenführung<br />
von Prozessmodellen<br />
ist bisher nicht verfügbar und auch im<br />
internationalen Kontext nicht bekannt.<br />
Mit der „Nationalen Prozessbibliothek“<br />
(NPB) soll diese Lücke geschlossen werden.<br />
Die Wissenschaftler der Humboldt-Universität<br />
zu <strong>Berlin</strong> und des Hasso-Plattner-<br />
Instituts in Potsdam entwickeln seit 2010<br />
im Forschungsprojekt NPB Konzept und<br />
Lösung für eine derartige Plattform. Diese<br />
wird zum einen ein Repository für<br />
Verwaltungsprozesse beinhalten und<br />
somit perspektivisch einen umfassenden<br />
Überblick geben bzw. die weitere Nutzung<br />
des vorhandenen Prozesswissens<br />
über Verwaltungsgrenzen und -ebenen<br />
hinweg unterstützen. Zum anderen kann<br />
über (Sub)Communities in der NPB die<br />
notwendige Kollaboration innerhalb <br />
2/12 26
<strong>SPL<strong>IT</strong>TER</strong><br />
Nationale Prozessbibliothek: Gesamtmodell und Ziele<br />
der Verwaltungen aber auch verwaltungsebenen-<br />
bzw. institutionenübergreifend<br />
ausgebaut werden.<br />
Die NPB verfolgt dabei bewusst einen<br />
offenen Ansatz im Hinblick auf<br />
Modellierungssprachen und die jeweils<br />
genutzten Werkzeuge. Aufgenommen<br />
werden Prozesse aus allen Verwaltungsebenen<br />
und unterschiedlichen Perspektiven<br />
(Sichten auf Prozesse).<br />
Um den o.g. offenen Ansatz zu wahren<br />
und die Unterstützung verschiedener<br />
Prozesssichten zu gewährleisten, wurde<br />
ein gemeinsames Metadatenmodell bzw.<br />
ein Ebenen übergreifender Ordnungsrahmen<br />
entwickelt. Dieser stellt das theoretische<br />
Grundgerüst der NPB dar. Sämtliche<br />
Informationen, die in der Bibliothek<br />
hinterlegt werden, sind in dieser<br />
Systematik verankert. Im Rahmen der<br />
empirischen Untersuchungen wird dieser<br />
Ordnungsrahmen im Jahr <strong>2012</strong> weiter<br />
verfeinert.<br />
Strukturell besteht die NPB aus einem<br />
Prozess-Modul und einem Community-<br />
Modul. Im Community-Modul werden<br />
etablierte Funktionen, wie<br />
Foren, Wikis oder Tutorien<br />
eingebunden.<br />
Im Prozessmodul sind die Prozessmodelle<br />
abgelegt, die u.a. auch über den<br />
XÖV Standard XProzess aus anderen<br />
Bibliotheken (z.B. der KGSt-Prozessbibliothek)<br />
oder aus kommerziellen<br />
Werkzeugen übernommen werden können.<br />
Neben funktionalen Optimierungen steht<br />
im Jahr <strong>2012</strong> die Aufnahme von sogenannten<br />
Leuchtturmprojekten in die NPB<br />
im Vordergrund.<br />
NORBERT AHREND<br />
Projektleiter Nationale Prozessbibliothek<br />
Humboldt-Universität zu <strong>Berlin</strong> <br />
Grobarchitektur der Nationalen Prozessbibliothek<br />
2/12 27
Mobile Government<br />
nimmt Fahrt auf<br />
Die öffentlichen Verwaltungen in<br />
Deutschland investieren verstärkt in<br />
Mobile Government. 42 Prozent haben<br />
bereits Vorhaben für die Entwicklung<br />
von Smartphone-Anwendungen<br />
angestoßen. Das Entwickeln von Apps<br />
und mobiler Dienste für Bürger und<br />
Unternehmen geht dabei über die reine<br />
Imagewirkung hinaus. Hauptziele<br />
der M-Government-Vorhaben sind<br />
eine Steigerung der Servicequalität<br />
und mehr Effizienz im Verwaltungsbetrieb.<br />
Das sind die Ergebnisse der<br />
Studie „Branchenkompass <strong>2012</strong> Public<br />
Services von Steria Mummert<br />
Consulting in Zusammenarbeit mit<br />
dem F.A.Z.-Institut.<br />
Die Nutzung von Verwaltungsleistungen<br />
sowie der Abruf von Informationen von<br />
unterwegs aus soll künftig Standard sein.<br />
Bislang reicht die Bandbreite der Anwendungen<br />
von aktuellen Statusmeldungen<br />
per SMS, über das Fotografieren und<br />
Melden von Straßenschäden per<br />
Smartphone bis zur mobilen Krisenkommunikation,<br />
bei der Behörden<br />
beispielsweise per Handy vor drohendem<br />
Hochwasser oder Lebensmittelrisiken<br />
warnen. „Die Erfahrungen in den<br />
Verwaltungen sprechen sich rum. Gleichzeitig<br />
fordern Bürger von ihren Kommunen<br />
verstärkt solche Werkzeuge“, sagt<br />
Christian Mohser, Experte für E-<br />
Government von Steria Mummert<br />
Consulting. Die Zahl mobiler Apps und<br />
Services wird deshalb in den kommenden<br />
drei Jahren weiter steigen. Jede vierte<br />
Verwaltungseinrichtung plant bis 2014,<br />
erstmals in M-Government zu investieren<br />
– vor allem auf Bundesebene und in<br />
Kleinstädten.<br />
Die Entscheider in der Verwaltung versprechen<br />
sich von den mobilen Anwendungen<br />
zudem weitere Impulse für eine<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
noch einfachere Nutzung des neuen Personalausweises<br />
in der Verwaltung. „Das<br />
Mobiltelefon kann zukünftig<br />
beispielsweise das Kartenlesegerät ersetzen,<br />
was noch einmal einen deutlichen<br />
Komfortsprung für die Nutzer bedeutet“,<br />
so Christian Mohser von Steria<br />
Mummert Consulting. Die von einigen<br />
Smartphones bereits unterstützte Near<br />
Field Communication-Technologie<br />
(NFC) ermöglicht die Nutzung der<br />
Online-Ausweisfunktion und somit die<br />
sichere Identifikation eines Bürgers für<br />
mobile Online-Services, zeigen<br />
Entwicklungsstudien.<br />
Denkbar ist darüber hinaus ein zentraler<br />
App Store in Deutschland, in dem alle<br />
von und für öffentliche Organisationen<br />
entwickelten Anwendungen und zertifizierten<br />
Dienste auf einer Plattform gebündelt<br />
werden. Vorreiter sind hier die<br />
USA. Auf der Seite apps.usa.gov erhalten<br />
Nutzer mobiler Dienste einen schnellen<br />
Überblick, welche Online-Services der<br />
öffentlichen Verwaltung als App für<br />
mobile Plattformen zur Verfügung stehen.<br />
In Deutschland fehlt bislang eine<br />
solche zentrale Plattform. (PR/ Steria<br />
Mummert Consulting)<br />
<br />
E-Government für<br />
Unternehmen ist in<br />
Deutschland ausbaufähig<br />
Deutsche Unternehmen haben bei der<br />
Nutzung von E-Government-Angeboten<br />
weiterhin Nachholbedarf. Nur<br />
zwei Drittel (67 Prozent) aller Firmen<br />
haben 2010 per Internet Daten und<br />
Informationen mit staatlichen Stellen<br />
ausgetauscht, ein Jahr zuvor waren es<br />
63 Prozent. Damit liegt Deutschland<br />
im EU-Vergleich im hinteren Mittelfeld.<br />
Im europäischen Schnitt nutzen drei Viertel<br />
(77 Prozent) aller Unternehmen E-<br />
Government-Angebote. Spitzenreiter<br />
sind Litauen und die Niederlande mit je<br />
95 Prozent der Unternehmen. Dies gab<br />
der Hightechverband Bitkom im Februar<br />
bekannt. Basis sind neue Zahlen von<br />
Eurostat. „Die zurückhaltende Nutzung<br />
von E-Government kostet Wirtschaft<br />
und Staat Milliarden“, sagte Bitkom-Präsident<br />
Prof. Dieter Kempf. „Damit deutsche<br />
Unternehmen bei der E-<br />
Government-Nutzung weiter aufholen,<br />
sind Angebote notwendig, die den Unternehmen<br />
echte Entlastungen bringen.“<br />
Ein wichtiger Schritt in die richtige Richtung<br />
sei ein neues Angebot der öffentlichen<br />
Verwaltung, der so genannte<br />
Prozessdatenbeschleuniger (P23R). Dieser<br />
wurde auf dem <strong>IT</strong>-Gipfel vorgestellt.<br />
Mit Hilfe von P23R kann der Datenaustausch<br />
zwischen Wirtschaft und Verwaltung<br />
der heute viele unterschiedliche Programme<br />
je nach der Form der Meldung<br />
erfordert, einfacher, sicherer und transparenter<br />
gestalten. P23R stellt eine technische<br />
Basis für alle Arten der Datenübermittlung<br />
zwischen Unternehmen<br />
und Behörden sowie Sozialversicherungsträgern<br />
bereit. Unternehmen können<br />
hiermit ihre gesetzlichen Informationsund<br />
Meldepflichten in einer abgesicherten<br />
Umgebung weitgehend automatisiert<br />
erfüllen wobei die Datenhoheit beim<br />
Unternehmen bleibt. Kempf: „Derzeit<br />
müssen in Deutschland insgesamt rund<br />
13.000 Informationen an den Staat gemeldet<br />
werden, oft zu rein statistischen<br />
Zwecken. Eine sichere Übermittlung, die<br />
die Datenhoheit bei den Unternehmen<br />
belässt und auf zentrale Datenbestände<br />
verzichtet, wird den Datenaustausch zwischen<br />
Wirtschaft und Staat spürbar erleichtern.“<br />
Zur Methodik: Die Statistikbehörde der<br />
EU, Eurostat, befragte Unternehmen aus<br />
allen Branchen außer dem Bankensektor.<br />
Die Unternehmen haben mindestens 10<br />
Mitarbeiter. (PR/ Bitkom e.V.) <br />
2/12 28
58 Prozent der<br />
Internetnutzer gehen<br />
online ins Amt<br />
58 Prozent der Internetnutzerinnen<br />
und -nutzer in Deutschland hatten 2011<br />
über das Internet Kontakt zu Behörden<br />
oder öffentlichen Einrichtungen.<br />
Nach Angaben des Statistischen Bundesamtes<br />
(Destatis) waren dies 33,6<br />
Millionen Menschen.<br />
Am häufigsten wurden Webseiten von<br />
Behörden oder öffentlichen Einrichtungen<br />
für die Informationssuche genutzt<br />
(57 Prozent). Ein Drittel (33 Prozent) der<br />
Internetnutzer hatten amtliche Formulare<br />
von den Webseiten heruntergeladen.<br />
Die elektronische Rücksendung ausgefüllter<br />
Formulare nutzten mit einem<br />
Anteil von 17 Prozent noch vergleichbar<br />
wenige Internetnutzer.<br />
Vertrauen und Sicherheit sind für die<br />
Internetnutzer bei Online-Angeboten der<br />
öffentlichen Verwaltung von hoher Bedeutung:<br />
Als Hinderungsgrund, warum<br />
keine Formulare über das Internet an<br />
Behörden zurück gesendet wurden, nannten<br />
die Internetnutzer am häufigsten<br />
Bedenken hinsichtlich des Schutzes und<br />
der Sicherheit persönlicher Daten (42 Prozent).<br />
25 Prozent der Internetnutzer hatten<br />
keine ausreichenden Kenntnisse für<br />
die Onlineversendung von Formularen.<br />
Weitere 20 Prozent bemängelten, dass<br />
eine Onlineversendung von Formularen<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Der Bundesbeauftragte<br />
für den Datenschutz<br />
und die Informationsfreiheit,<br />
Peter<br />
Schaar, hat sich nach<br />
dem Stopp des<br />
ELENA-Verfahrens<br />
davon überzeugt, dass<br />
sämtliche personenbezogene<br />
Daten genicht<br />
angeboten wurde. Nur<br />
sieben Prozent der<br />
Internetnutzer gaben technische<br />
Probleme beim Ausfüllen<br />
oder Versenden des<br />
Formulars als Hinderungsgrund<br />
an.<br />
Innerhalb der Europäischen<br />
Union (EU) liegen Daten<br />
für die Gruppe der 16- bis<br />
74-jährigen Internetnutzerinnen<br />
und -nutzer vor. Demnach lag im<br />
Jahr 2011 nach Angaben der europäischen<br />
Statistik-Behörde (Eurostat)<br />
Deutschland (60 Prozent) bei Online-<br />
Kontakten mit der öffentlichen Verwaltung<br />
leicht über dem Durchschnitt der<br />
EU 27 (56 Prozent).<br />
Das hohe Niveau insbesondere der skandinavischen<br />
Länder wurde jedoch nicht<br />
erreicht. Dänemark erzielte mit 89 Prozent<br />
den höchsten Anteil. Auch in Schweden<br />
(78 Prozent) und Finnland (76 Prozent)<br />
nutzten relativ viele Internetnutzer<br />
die Online-Angebote von Ämtern und<br />
Behörden. Die Nachbarländer Frankreich<br />
(71 Prozent), Niederlande (68 Prozent)<br />
und Österreich (64 Prozent) konnten<br />
ebenfalls höhere Nutzungsanteile als<br />
Deutschland erreichen. (PR/ Destatis) <br />
Alle ELENA-Daten sind<br />
gelöscht<br />
löscht sind, die im Rahmen dieses Verfahrens<br />
bei der früheren Zentralen<br />
Speicherstelle und der Registratur<br />
Fachverfahren gespeichert waren.<br />
Nach dem Inkrafttreten des Gesetzes über<br />
die Aufhebung des ELENA-Verfahrensgesetzes<br />
Anfang Dezember 2011 wurden<br />
bereits wenige Tage später sämtliche<br />
Schlüssel für die ELENA-Daten durch<br />
den Bundesbeauftragten für den Datenschutz<br />
und die Informationsfreiheit vernichtet,<br />
der den Datenbankhauptschlüssel<br />
verwaltet hatte. Damit galten zwar die<br />
ELENA-Daten juristisch bereits als gelöscht<br />
– gleichwohl hatten sich alle am<br />
ELENA-Verfahren Beteiligten darauf<br />
verständigt, die Daten auch physikalisch<br />
zu löschen, auch wenn keine Möglichkeit<br />
der Entschlüsselung mehr bestand. Zu<br />
diesem Zweck wurden Verfahren entwickelt,<br />
die den Sicherheitsstandards für die<br />
Löschung staatlicher Geheimnisse entsprechen,<br />
um die Daten sowohl bei der<br />
Zentralen Speicherstelle als auch bei der<br />
Registratur Fachverfahren sicher zu löschen.<br />
Der Bundesbeauftragte für den Datenschutz<br />
und die Informationsfreiheit konnte<br />
sich davon überzeugen, dass die<br />
Löschung der ELENA-Daten erfolgreich<br />
durchgeführt wurde und diese auch physikalisch<br />
nicht mehr vorhanden sind. (PR/<br />
Bundesbeauftragter für den Datenschutz<br />
und die Informationsfreiheit) <br />
2/12 29
Umsatzforecast, Produktstruktur,<br />
Auftragssteuerung (UPA)<br />
Optimierung der internen<br />
Abläufe im zentralen<br />
SAP-System des <strong>IT</strong>DZ<br />
<strong>Berlin</strong><br />
Neben zahlreichen Kundenprojekten<br />
unternimmt das <strong>IT</strong>-<strong>Dienstleistungszentrum</strong><br />
<strong>Berlin</strong> (<strong>IT</strong>DZ <strong>Berlin</strong>) mit<br />
dem Projekt UPA (Umsatzforecast,<br />
Produktstruktur, Auftragssteuerung)<br />
auch ein ehrgeiziges Vorhaben zur<br />
Optimierung der internen Abläufe mit<br />
dem Ziel, den Kundenservice weiter<br />
zu verbessern und die Effizienz der<br />
Leistungserbringung und damit des<br />
Unternehmens zu steigern. Im Mittelpunkt<br />
dieser Arbeiten stehen umfassende<br />
Optimierungen am zentralen<br />
SAP ERP-System (Enterprise-<br />
Resource-Planning) des <strong>IT</strong>DZ <strong>Berlin</strong><br />
sowie die Anbindung des Dokumentenmanagementsystems<br />
VISkompakt<br />
an SAP.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Das <strong>IT</strong>DZ <strong>Berlin</strong> betreibt bereits seit<br />
2002 ein eigenes SAP ERP-System, das<br />
u.a. auch das Rückgrat für die Vertriebsund<br />
Abrechnungsprozesse bildet. Das<br />
Projekt UPA strebt die Verbesserung dieser<br />
Prozessbereiche und darüber hinaus<br />
auch eine stärkere Integration mit den<br />
sogenannten Produktionsbereichen an,<br />
die die Leistungen für die <strong>IT</strong>DZ <strong>Berlin</strong>-<br />
Kunden auf der Basis der in SAP erfassten<br />
Verträge erbringen. Mit der Auftragssteuerung<br />
gelingt es heute, einen weitgehend<br />
durchgehenden Prozess von der<br />
Beauftragung des Kunden bis zur Abrechnung<br />
der Leistung im SAP ERP abzubilden<br />
und zu steuern. Nach der Erfassung<br />
des Vertrags im ERP geben<br />
Mitarbeiterinnen und Mitarbeiter des<br />
Vertriebes die mit dem Kunden vereinbarten<br />
Leistungen frei. Mit dieser Freigabe<br />
erstellt das SAP-System automatisch<br />
interne Aufträge, die dann unmittelbar<br />
im Arbeitseingang des zuständigen Disponenten<br />
erscheinen. Die internen Aufträge<br />
enthalten die für die Leistungserbringung<br />
notwendigen Verrichtungen,<br />
die durch den Disponent auf die<br />
leistenden Mitarbeiter verteilt werden. In<br />
der Vergangenheit erfolgte die Beauftragung<br />
durch den Vertriebsmitarbeiter<br />
papier- oder mailbasiert, wodurch<br />
oftmals eine Vielzahl an Dokumenten<br />
gedruckt bzw. gescannt werden<br />
musste, die dann per Hauspost oder Mail<br />
an die leistenden Produktionsbereiche<br />
geschickt wurden. Die neue Vorgehensweise<br />
beschleunigt die internen Abläufe<br />
deutlich und treibt die Vernetzung der<br />
Abteilungen innerhalb des <strong>IT</strong>DZ <strong>Berlin</strong><br />
voran.<br />
Die Key User des <strong>IT</strong>DZ <strong>Berlin</strong>, die das<br />
UPA-Projekt maßgeblich begleiten, haben<br />
früh den Eindruck gewonnen, dass<br />
durch die Einführung der Auftragssteuerung<br />
sehr viel mehr Klarheit über<br />
die vertraglich vereinbarten Leistungen<br />
besteht. Dies liegt auch an der deutlich<br />
verbesserten Kommunikation, da Vertrieb<br />
und Produktion durch die Auftragssteuerung<br />
näher aneinander gerückt<br />
sind. Auch Konrad Kandziora, Vorstand<br />
des <strong>IT</strong>DZ <strong>Berlin</strong>, sieht die Vorteile: „Zu<br />
unseren zentralen strategischen Zielen<br />
zählt eine stetige Optimierung des<br />
Kundenservice. Mit dem Ausbau des<br />
SAP-Systems durch das Projekt UPA vereinfachen<br />
wir interne Abläufe und verbessern<br />
damit im Ergebnis auch unseren<br />
Service für die <strong>Berlin</strong>er Verwaltung.“<br />
Zurzeit führt das <strong>IT</strong>DZ <strong>Berlin</strong> als Erweiterung<br />
der vorhandenen Dokumentenmanagementlösung<br />
VISkompakt, die<br />
auch bereits bei verschiedenen Kunden<br />
des <strong>IT</strong>DZ <strong>Berlin</strong> erfolgreich eingesetzt<br />
wird, die „Vertriebsakte“ ein. VISkompakt<br />
ist eine DOMEA-zertifizierte Lösung<br />
für Dokumentenmanagement und<br />
zur elektronischen Vorgangsbearbeitung.<br />
Im Rahmen des UPA-Projektes wird<br />
VISkompakt mittels einer Schnittstelle<br />
an das SAP-System angebunden, damit<br />
die leistungserbringenden Mitarbeiter des<br />
<strong>IT</strong>DZ <strong>Berlin</strong> direkt auf alle relevanten<br />
Informationen zugreifen können, die<br />
durch den Vertrieb und das Produktmanagement<br />
abgelegt wurden. Mit dieser<br />
Schnittstelle wird ein wesentlicher<br />
Schwachpunkt der bisherigen Vorgehensweise<br />
abgestellt und ein durchgängiger<br />
Prozess von der Beauftragung bis zur<br />
Abrechnung geschaffen. (EB) <br />
Wirtschaftsatlas und 3D-<br />
Stadtmodell zu neuer<br />
Anwendung verknüpft<br />
Umfassende Information hat einen Ort:<br />
das <strong>Berlin</strong> Business Location Center<br />
(BLC). Ab sofort verknüpft das BLC<br />
auf einzigartige Weise Standortinformationen<br />
und Standorte miteinander.<br />
Der neue Wirtschaftsatlas<br />
ermöglicht Nutzern online den Zugriff<br />
auf alle wichtigen Wirtschaftsund<br />
Strukturdaten der deutschen<br />
Hauptstadt. Er verbindet zweidimensionale<br />
Karten, das virtuelle dreidimensionale<br />
Stadtmodell <strong>Berlin</strong>s mit<br />
über 550.000 Gebäuden und Google<br />
Street View mit den Standortinformationen<br />
des <strong>Berlin</strong> Business<br />
Location Centers in einer Anwendung.<br />
Wo finde ich Unternehmen meiner Branche,<br />
Kunden und Lieferanten? Steht das<br />
Gebäude, das ich kaufen will, unter Denkmalschutz?<br />
Eignet sich mein Dach für die<br />
Nutzung von Sonnenenergie? Welcher<br />
U-Bahnhof ist in der Nähe? Wie weit ist<br />
es zur nächsten Universität oder zum<br />
nächsten Restaurant, wo ist die nächste<br />
attraktive Wohnlage, finde ich Kinderbetreuung<br />
in der Nähe? Bevor in einem<br />
Unternehmen die Entscheidung über einen<br />
neuen Standort fällt, bevor ein<br />
Immobilienentwickler sein nächstes Projekt<br />
startet, sind die unterschiedlichsten<br />
Fragen zu beantworten. Meist geht dem<br />
aufwändige Recherchearbeit voraus.<br />
Nicht so in <strong>Berlin</strong>. Denn der Wirtschaftsatlas<br />
des BLC verbindet nun Bebauungsund<br />
Entwicklungspläne, Denkmalkarten,<br />
Umwelt- und Soziostrukturdaten, sowie<br />
Informationen zum Öffentlichen Nahverkehr<br />
mit Brancheninformationen <br />
2/12 30
über verschiedene Wirtschaftszweige.<br />
Dazu kommen die Standorte von Wissenschaft<br />
und Forschung in <strong>Berlin</strong>, Behörden,<br />
Schulen, Freizeit- und Kultureinrichtungen,<br />
Hotels und Gaststätten<br />
sowie wichtige Orte für Familien und<br />
Kinder. All diese Informationen können<br />
in eine zweidimensionale Karte eingeblendet<br />
oder im dreidimensionalen virtuellen<br />
Stadtmodell visualisiert werden.<br />
Ist der Standort der Wahl mit allen benötigten<br />
Informationen analysiert und bewertet,<br />
kann man sich auch noch ein aktuelles<br />
Panoramafoto ansehen, denn Google<br />
Street View ist ebenfalls in die Anwendung<br />
integriert.<br />
<strong>Berlin</strong>s Staatssekretär für Wirtschaft, Technologie<br />
und Forschung, Christoph von<br />
Knobelsdorff: „Der neue Wirtschaftsatlas<br />
ist das Werkzeug, das wir für eine<br />
intelligent argumentierende und emotional<br />
packende Investorenansprache brauchen.“<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Melanie Bähr, Geschäftsführerin von<br />
<strong>Berlin</strong> Partner erklärt: „Als Wirtschaftsförderer<br />
überzeugen wir mit Fakten<br />
und unserer Leidenschaft für <strong>Berlin</strong>.<br />
Beides transportiert der neue Wirtschaftsatlas,<br />
mit dem das <strong>Berlin</strong> Business<br />
Location Center (BLC) seine Technologieführerschaft<br />
auf dem Feld der Standortinformation<br />
beweist.“<br />
Der Wirtschaftsatlas des <strong>Berlin</strong> Business<br />
Location Centers wird unterstützt von<br />
den Senatsverwaltungen für Wirtschaft,<br />
Technologie und Forschung, sowie Stadtentwicklung<br />
und Umwelt, von der IHK<br />
<strong>Berlin</strong>, den Gelben Seiten und dem <strong>IT</strong>-<br />
<strong>Dienstleistungszentrum</strong> <strong>Berlin</strong> (<strong>IT</strong>DZ<br />
<strong>Berlin</strong>). Das Projekt wird aus dem Europäischen<br />
Fonds für Regionale Entwicklung<br />
(EFRE) gefördert.<br />
www.businesslocationcenter.de/<br />
wirtschaftsatlas (PR/ <strong>Berlin</strong> Partner<br />
GmbH)<br />
<br />
Stromverbrauch von<br />
Rechenzentren und<br />
Servern sinkt<br />
Rechenzentren und Server werden<br />
immer energieeffizienter. Die Zahl<br />
der Server ist zwischen 2008 und 2011<br />
um sieben Prozent auf gut 2,3 Millionen<br />
gestiegen – gleichzeitig sank der<br />
gesamte Stromverbrauch in diesem<br />
Zeitraum um vier Prozent auf 9,7<br />
Terawattstunden (TWh).<br />
Das entspricht der Stromproduktion von<br />
vier mittelgroßen Kohlekraftwerken und<br />
einem Anteil von rund 1,8 Prozent am<br />
gesamten Stromverbrauch hierzulande.<br />
Der Anteil ist konstant geblieben, da<br />
insbesondere wegen der Wirtschaftskrise<br />
der Stromverbrauch insgesamt zurückgegangen<br />
ist. Dies ergab eine aktuelle Studie<br />
des Borderstep-Instituts im Auftrag <br />
Screenshot des Wirtschaftsatlas <strong>Berlin</strong><br />
2/12 31
<strong>SPL<strong>IT</strong>TER</strong><br />
Hohe Investitionskosten<br />
Haupthindernis für <strong>IT</strong>-<br />
Mittelstand<br />
des Bitkom. „Anwendern und Anbietern<br />
ist es in den vergangenen Jahren<br />
gelungen, den Trend des steigenden<br />
Stromverbrauchs der Server und Rechenzentren<br />
in Deutschland zu stoppen und<br />
umzukehren“, sagt Bitkom-Vizepräsident<br />
Volker Smid.<br />
Durch die Steigerung der Energieeffizienz<br />
konnten allein im vergangenen Jahr<br />
insgesamt 1,4 TWh eingespart werden.<br />
Zum einen ist die Informationstechnik<br />
selbst effizienter geworden. Insbesondere<br />
konnte der Stromverbrauch von Servern<br />
gesenkt werden, wenn sie nicht voll ausgelastet<br />
sind. Außerdem ist weniger Energie<br />
für die Klimatisierung der Rechenzentren<br />
sowie deren Unterbrechungsfreie<br />
Stromversorgung (USV) nötig. Eine USV<br />
schützt die Rechenzentren beispielsweise<br />
vor Stromausfall und Spannungsschwankungen.<br />
„In einem durchschnittlichen<br />
Rechenzentrum verbrauchen<br />
Klimatisierung und USV ca. 40 Prozent<br />
des gesamten Stroms“, so Smid. Durch<br />
konsequente Nutzung von Green <strong>IT</strong> solle<br />
der Stromverbrauch in Zukunft um rund<br />
ein weiteres Viertel gesenkt werden.<br />
Trotz der verbesserten Energieeffizienz<br />
haben sich die Stromkosten für die Rechenzentren<br />
zwischen 2008 und <strong>2012</strong> um<br />
zwölf Prozent erhöht. Der Grund waren<br />
die stark gestiegenen Strompreise. Laut<br />
Studie werden die Stromkosten bis 2015<br />
um weitere 200 Millionen Euro steigen.<br />
„Stromkosten sind mittlerweile mit Abstand<br />
der größte Kostenblock in Rechenzentren“,<br />
sagt Smid. Entsprechend hoch<br />
ist die Wirkung auf die Wettbewerbsfähigkeit<br />
der Rechenzentrumsbetreiber.<br />
Der Trend geht auch in Deutschland zu<br />
größeren Rechenzentren mit mehr Servern.<br />
So sank die Zahl der – aus wenigen<br />
Serverschränken bestehenden – kleineren<br />
Rechenzentren zwischen 2008 und 2011<br />
um 5 Prozent auf rund 31.500. Die Zahl<br />
der größeren und mittleren Rechenzentren<br />
mit mindestens 500 physikalischen<br />
Servern stieg hingegen um 15 Prozent auf<br />
ca. 500. „Der Trend zu Cloud-Computing<br />
und Outsourcing sorgt auch hierzulande<br />
für die Zusammenlegung kleiner Einheiten<br />
zu größeren Rechenzentren“, so Smid.<br />
Knapp zwei Drittel aller Server waren<br />
2011 in Rechenzentren installiert, der Rest<br />
wurde als Stand-Alone-Rechner betrieben.<br />
Die Kurzstudie kann kostenlos herunterladen<br />
werden unter www.bitkom.org/<br />
de/presse/8477_72267.aspx.<br />
Hinweis zur Methodik: Als Rechenzentren<br />
gelten in der Studie alle abgeschlossenen<br />
räumlichen Einheiten wie Serverschränke,<br />
Serverräume, Gebäudeteile oder<br />
ganze Gebäude, in denen mindestens<br />
drei physikalische Server installiert sind.<br />
Außerdem müssen eine sichere Stromversorgung<br />
vorhanden und eine ausreichende<br />
Kühlung der Server gewährleistet<br />
sein. (PR/ Bitkom e.V.)<br />
<br />
Zu hohe Investitionskosten und der<br />
erschwerte Zugang zu internationalen<br />
Märkten und Kunden sind die<br />
beiden Haupthindernisse für die weitere<br />
Internationalisierung des <strong>IT</strong>-Mittelstandes<br />
in Deutschland. Darauf weist<br />
der Bundesverband <strong>IT</strong>-Mittelstand<br />
e.V. (B<strong>IT</strong>Mi) in einer aktuellen Studie<br />
hin.<br />
Demnach sehen 70,6 Prozent der befragten<br />
120 mittelständischen <strong>IT</strong>-Unternehmen<br />
die Investitionskosten auf internationalem<br />
Parkett als zu hoch an. Über einen<br />
erschwerten Markt- und Kundenzugang<br />
klagen laut B<strong>IT</strong>MI-Präsident Dr. Oliver<br />
Grün sogar 72,6 Prozent. Die Tatsache,<br />
dass das Produkt- und Leistungsportfolio<br />
des <strong>IT</strong>-Mittelstands häufig eher auf<br />
den deutschen Markt zugeschnitten ist,<br />
sehen zudem 69,9 Prozent als problematisch<br />
für die weitere Internationalisierung<br />
an.<br />
Laut B<strong>IT</strong>Mi-Studie sind außerdem 65,3<br />
Prozent der befragten Betriebe der Meinung,<br />
dass eine internationale Präsenz<br />
für mittelständische <strong>IT</strong>-Firmen generell<br />
nur schwer zu realisieren ist. Die Orientierung<br />
an den internationalen Märkten hat<br />
zudem Auswirkungen auf das Produktund<br />
Leistungsportfolio der Unternehmen:<br />
Bei 54,4 Prozent der befragten Betriebe<br />
hat dies bereits zu einer Weiterentwicklung<br />
ihrer Produkte und Services geführt,<br />
bei gut der Hälfte (50,9 Prozent)<br />
sogar schon zur Entwicklung neuer Produkte<br />
und Dienstleistungen.<br />
Gleichzeitig haben aber auch große Teile<br />
des heimischen <strong>IT</strong>-Mittelstandes Bedenken,<br />
ob sie die neuen Anforderungen, die<br />
durch die internationalen Aktivitäten<br />
entstehen, mit den vorhandenen Mitarbeitern<br />
und ihren Qualifikationen<br />
überhaupt bewältigen können: 23 Prozent<br />
der Befragten stufen diesen <br />
2/12 32
Punkt als sehr wichtig, weitere 47,3<br />
Prozent immerhin noch als wichtig ein.<br />
„Der Schlüssel zur Verbesserung der internationalen<br />
Wettbewerbsfähigkeit des<br />
Standorts Deutschland liegt in einem starken<br />
<strong>IT</strong>-Mittelstand“, betont der B<strong>IT</strong>Mi-<br />
Präsident. Aus diesem Grund müsse<br />
Wachstum und Internationalisierung der<br />
mittelständischen <strong>IT</strong>-Wirtschaft weiter<br />
vorangetrieben werden. Laut Grün unterstreicht<br />
die B<strong>IT</strong>Mi-Studie jedoch auch,<br />
„dass trotz der fortschreitenden Internationalisierung<br />
des deutschen <strong>IT</strong>-Mittelstandes<br />
viele Betriebe weiterhin über<br />
Hemmnisse und Risiken klagen.“<br />
Hier ist nach Auffassung des B<strong>IT</strong>Mi-<br />
Präsidenten die Politik gefragt, die kleine<br />
und mittlere Unternehmen auf ihrem<br />
Weg in die Internationalisierung begleiten<br />
solle. Die Unterstützung seitens der<br />
Politik sei, so Grün, eine grundlegende<br />
Bedingung für den Aufbau global agierender<br />
Unternehmen und für besseres<br />
Entrepreneurship am deutschen <strong>IT</strong>-<br />
Standort. „Dies ermöglicht, dass zukünftig<br />
Global Player wie eBay, Google,<br />
Facebook, Twitter und Co. auch wieder<br />
aus Deutschland kommen“, da ist sich<br />
der B<strong>IT</strong>Mi-Präsident sicher.<br />
Laut Grün zeige die B<strong>IT</strong>Mi-Studie außerdem,<br />
dass auf internationalem Parkett<br />
andere Bedingungen vorherrschen als in<br />
Deutschland. Zu den neuen Anforderungen,<br />
auf die sich Softwareentwickler<br />
und <strong>IT</strong>-Dienstleister bei internationalen<br />
Kunden einstellen müssen, zählen in erster<br />
Linie andere rechtliche Rahmenbedingungen,<br />
87,1 Prozent der Befragten<br />
stimmen bei diesem Punkt überein. Aber<br />
auch die Übersetzung von Software,<br />
Dokumentationen und anderen Unterlagen<br />
(79,7 Prozent) sowie die direkte Kommunikation<br />
in der jeweiligen Landessprache<br />
(79,3 Prozent) werden als wichtig bis<br />
sehr wichtig wahrgenommen. Die Beachtung<br />
von Besonderheiten in der jeweiligen<br />
Arbeits- und Wirtschaftskultur (67,3<br />
Prozent) sowie kulturelle Spezifika im<br />
Allgemeinen (55,7 Prozent) folgen auf<br />
den nächsten Plätzen. „Hier ist die Politik<br />
gefordert, die Betriebe mit finanziellen<br />
Mitteln und Sachkenntnis nachhaltig zu<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
unterstützen“, fügt der B<strong>IT</strong>Mi-Präsident<br />
hinzu.<br />
Die Studie „Internationalisierung im <strong>IT</strong>-<br />
Mittelstand“ wurde im Auftrag des<br />
Bundesverbandes <strong>IT</strong>-Mittelstand e.V.<br />
(B<strong>IT</strong>Mi) durchgeführt. Für die Studie<br />
wurden etwa 120 Führungskräfte aus dem<br />
deutschen <strong>IT</strong>-Mittelstand befragt. (PR/<br />
Bundesverband <strong>IT</strong>-Mittelstand e.V.) <br />
FBI schaltet übernommene DNS-<br />
Server am 9. Juli ab<br />
„DNS-Changer“ und<br />
(k)ein Ende<br />
Bereits im November vergangenen<br />
Jahres wurden aufmerksame Leser des<br />
Heise-Newstickers darüber informiert,<br />
dass estnische Strafverfolger in<br />
Zusammenarbeit mit dem amerikanischen<br />
FBI im Rahmen der „Operation<br />
Ghost Click“ sechs Personen<br />
festnahmen und damit das bis dahin<br />
Screenshot der Seite www.dns-ok.de<br />
größte bekannte Botnetz hochnahmen.<br />
Bis zu 4 Millionen Rechner in 100<br />
Ländern sollen mit dem Trojaner<br />
„DNS-Changer“ infiziert gewesen<br />
sein und ermöglichten es den<br />
Cyberkriminellen laut FBI, rund 14<br />
Millionen US-Dollar zu ergaunern.<br />
Die Bande soll mehrere Firmen betrieben<br />
haben, über die Internetwerbung beim<br />
Besuch bekannter Webseiten anstelle der<br />
vom Webseitenbetreiber eingebundenen<br />
Anzeigen auf infizierten Rechnern eingeblendet<br />
wurde sowie betrügerische Aktivitäten<br />
wie die Verbreitung angeblicher<br />
Antivirensoftware, Klickbetrug oder nicht<br />
lizenzierter Medikamentenverkauf stattfanden.<br />
Um Rechner auf falsche Webseiten<br />
umzuleiten, verändert die Malware<br />
die IP-Adresse des eingestellten DNS-<br />
Servers auf einen von den Angreifern<br />
präparierten DNS-Server. Somit bekamen<br />
befallene Rechner bei DNS-Anfragen auf<br />
bekannte Webseiten falsche IP-Adressen<br />
zurückgeliefert und erreichten statt der<br />
gewünschten Homepage eine Seite der<br />
Angreifer. Das DNS (Domain Name System)<br />
ist der Dienst im Internet, der für <br />
2/12 33
die Umsetzung von Namen (URLs) in<br />
IP-Adressen zuständig ist.<br />
Da der Schädling zusätzlich als DHCP-<br />
Server wirkt (DHCP-Server teilen u.a. IP-<br />
Adressen zu), sind auch Rechner oder<br />
Smartphones von der Manipulation betroffen,<br />
die nicht unmittelbar vom Schädling<br />
befallen sind. Außerdem versucht<br />
„DNS-Changer“, im Router eingestellte<br />
DNS-Server zu ändern und probiert dazu,<br />
sich mit Standard-Passworten an den<br />
Weboberflächen der Router anzumelden.<br />
Weiterhin verhindert der Schädling die<br />
Aktualisierung der Virensignaturen von<br />
Antivirenprogrammen und versucht so,<br />
seiner Entdeckung zu entgehen.<br />
Nach Festnahme der Botnetz-Betreiber<br />
nahm das FBI die von den Angreifern<br />
präparierten DNS-Server vom Netz und<br />
ersetzte sie durch eigene DNS-Server, die<br />
korrekte IP-Adressen zurückliefern. Viele<br />
Infektionen privater PCs blieben<br />
dadurch unbemerkt, dass die befallenen<br />
Rechner keine Auffälligkeiten zeigten und<br />
Webseiten-Aufrufe nach der Übernahme<br />
der DNS-Server durch das FBI ganz normal<br />
funktionierten.<br />
Am 11. Januar <strong>2012</strong> informierte das Bürger-CERT<br />
des BSI (Bundesamt für Sicherheit<br />
in der Informationstechnik) erstmalig<br />
per Rundmail über den Schädling<br />
„DNS-Changer“ und empfahl Internet-<br />
Nutzern, die Seite www.dns-ok.de anzusurfen,<br />
um ihren PC auf Befall zu überprüfen.<br />
Die Meldung war an Endanwender<br />
gerichtet und enthielt keine Information<br />
darüber, dass die zur Verfügung<br />
gestellte Test-Webseite bei Aufruf<br />
über einen Proxy nicht korrekt funktionieren<br />
kann. Bis heute gibt es außerdem<br />
keine konkrete Information darüber, wie<br />
der Schädling sich verbreitet. Am 12. Januar<br />
<strong>2012</strong> berichteten Tagespresse und<br />
TV über die BSI-Meldung, ohne jedoch<br />
technisch fundierte Informationen zu verbreiten.<br />
Am Freitagmorgen des 13. Januar<br />
<strong>2012</strong> schließlich veröffentlicht das BSI<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
eine gesonderte Meldung für Behördennetze,<br />
aus der ableitbar war, dass die Lage<br />
für Behörden- und Firmennetze unkritisch<br />
war. Auch diese Meldung enthielt<br />
keine Angaben über den Verbreitungsweg<br />
und die betroffenen Betriebssysteme.<br />
Auf Basis der wenigen verfügbaren Informationen<br />
war es nicht möglich, konkrete<br />
Maßnahmen zur Verhinderung einer<br />
Infektion vorzuschlagen. Erschwerend<br />
kam hinzu, dass der Begriff „DNS-<br />
Changer“ in mehrfacher Hinsicht benutzt<br />
wird. Zum einen wird er als Name für<br />
genau diesen Trojaner benutzt – zum<br />
anderen wird „DNS-Changer“ gleichzeitig<br />
als Gattungsbezeichnung für diese<br />
Art von Malware gebraucht. „DNS-Changer“<br />
ist demnach ein DNS-Changer, und<br />
einer von vielen DNS-Changern heißt<br />
„DNS-Changer“. Auch die Informationsseite<br />
botfrei.de, auf die von der<br />
Testseite www.dns-ok.de verwiesen wird,<br />
enthält keine Informationen darüber, um<br />
welchen Schädling es sich bei „DNS-Changer“<br />
denn nun genau handelt. So riefen<br />
die wenigen verfügbaren Informationen<br />
zum „DNS-Changer“ in Folge auch bei<br />
der <strong>IT</strong>-kundigen Bevölkerung Unsicherheiten<br />
hervor.<br />
„DNS-Changer“ keine Gefahr für<br />
Landesnetz <strong>Berlin</strong><br />
Um Klarheit darüber zu bekommen, ob<br />
eine Infektion mit „DNS-Changer“ unbemerkt<br />
stattfinden kann, wurde nach<br />
der BSI-Meldung am 13. Januar <strong>2012</strong> im<br />
<strong>IT</strong>DZ <strong>Berlin</strong> die Infektion eines Rechners<br />
mit der Malware durch Eintrag einer<br />
entsprechenden DNS-Server-Adresse simuliert.<br />
Aufgrund der Sicherheitsstruktur<br />
der zentralen DNS-Komponenten können<br />
nur bestimmte IP-Adressen DNS-<br />
Anfragen an DNS-Server außerhalb des<br />
Landesnetzes richten. Anfragen anderer<br />
Adressen werden geblockt. Dies führt<br />
dazu, dass ein infizierter Rechner keine<br />
DNS-Auflösung mehr betreiben kann<br />
und damit sofort funktionell beeinträchtigt<br />
ist: weder das Surfen im Internet,<br />
noch der Aufruf von DNS-basierenden<br />
Landesverfahren ist möglich und somit<br />
auch keine unbemerkte Infektion von<br />
durch das <strong>IT</strong>DZ <strong>Berlin</strong> administrierten<br />
Rechnern.<br />
Außerdem wurde geprüft, ob der im<br />
<strong>IT</strong>DZ <strong>Berlin</strong> und für <strong>IT</strong>IS-Kunden verwendete<br />
Virenscanner den Schädling erkennt.<br />
Im Ergebnis stellte sich heraus,<br />
dass der Scanner den Trojaner schon seit<br />
dem 25. Juni 2011 erkannte – es konnte<br />
sich also keineswegs um eine neue Schadsoftware<br />
mit neuer Gefährdungslage handeln.<br />
Für das <strong>IT</strong>DZ <strong>Berlin</strong> und die von<br />
ihm verwaltete Infrastruktur konnten<br />
Infektionen nunmehr mit Sicherheit ausgeschlossen<br />
werden. Parallel dazu stimmten<br />
sich die Senatsinnenverwaltung und<br />
das <strong>IT</strong>DZ <strong>Berlin</strong> laufend über den aktuellen<br />
Stand ab und beschlossen am 13.<br />
Januar <strong>2012</strong>, die Meldung des BSI vorsorglich<br />
an alle Behörden des Landes zu<br />
verteilen.<br />
Am 9. Juli <strong>2012</strong> will das FBI nun die von<br />
ihm betriebenen Ersatz-DNS-Server abschalten,<br />
da dann die richterliche Verfügung<br />
zum Betrieb endet. Dabei nehmen<br />
noch immer rund 20.000 IP-Adressen<br />
aus Deutschland täglich Kontakt mit einem<br />
der Server auf. Mit dem Abschalten<br />
der FBI-Server können mit „DNS-Changer“<br />
infizierte Rechner praktisch nicht<br />
mehr auf das Internet zugreifen. Zu Beginn<br />
der Übernahme der Server waren es<br />
laut BSI täglich noch etwa 35.000. Das<br />
heißt, nach etwa einem halben Jahr haben<br />
die meisten Opfer immer noch nicht bemerkt,<br />
dass „DNS-Changer“ ihre DNS-<br />
Einstellungen verbogen hat. Höchste Zeit<br />
also, private PCs durch Aufruf der Seite<br />
www.dns-ok.de oder Check der DNS-<br />
Serveradresse auf Manipulationen zu prüfen!<br />
KAI OSTERHAGE<br />
<strong>IT</strong>-Sicherheitsbeauftragter<br />
<strong>IT</strong>DZ <strong>Berlin</strong><br />
<br />
2/12 34
Sicherheitsmängel bei<br />
Dropbox, Mozy & Co.<br />
Die Sicherheit von Cloud-Speicherdiensten<br />
ist oft mangelhaft. Das ist das<br />
Ergebnis einer Studie des Fraunhofer-<br />
Instituts für Sichere Informationstechnologie,<br />
das verschiedene Anbieter<br />
getestet hat. Fazit: Keiner der<br />
getesteten Anbieter konnte die<br />
Sicherheitsanforderungen vollständig<br />
erfüllen, teilweise fehlte eine ordentliche<br />
Verschlüsselung.<br />
Die Sicherheit von Cloud-Speicherdiensten<br />
ist oft mangelhaft. Das ist das<br />
Ergebnis einer Studie des Fraunhofer-<br />
Instituts für Sichere Informationstechnologie,<br />
das verschiedene Anbieter<br />
getestet hat. Fazit: Keiner der getesteten<br />
Anbieter konnte die Sicherheitsanforderungen<br />
vollständig erfüllen,<br />
teilweise fehlte eine ordentliche Verschlüsselung.<br />
Neben technischen Mängeln fanden<br />
die Tester auch Schwächen in der<br />
Benutzerführung. Letzteres kann dazu<br />
führen, dass vertrauliche Daten sich mithilfe<br />
von Suchmaschinen finden lassen.<br />
„Für manche private Nutzung mag der<br />
eine oder andere Dienst ausreichen“, sagt<br />
Institutsleiter Michael Waidner. „Bei sensiblen<br />
Unternehmensdaten sollte man<br />
aber lieber genau überlegen, ob die<br />
Sicherheitsvorkehrungen ausreichen.“<br />
Die vollständige Studie kann man kostenlos<br />
unter www.sit.fraunhofer.de herunterladen.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Neben Marktführer Dropbox prüfte<br />
Fraunhofer S<strong>IT</strong> die Sicherheit sechs weiterer<br />
Cloud-Speicherdienste, dazu gehörten<br />
CloudMe, CrashPlan, Mozy,<br />
TeamDrive, Ubuntu One und der<br />
schweizer Anbieter Wuala. Die Tester<br />
konzentrierten sich insbesondere auf die<br />
Verschlüsselung der Daten sowie auf die<br />
Absicherung der Kommunikation. Jeder<br />
Anbieter wies Sicherheitsmängel auf, und<br />
selbst die grundsätzlichen Sicherheitsanforderungen<br />
konnte kein Dienst vollständig<br />
erfüllen: So verwenden manche<br />
Anbieter bei der Absicherung der Datenübertragung<br />
in die Cloud keines der sicheren<br />
Standard-Protokolle. Abwertungen<br />
gab es auch, wenn Daten unverschlüsselt<br />
in die Cloud wanderten. „Dropbox<br />
und andere verschlüsseln die Daten<br />
erst, wenn sie in der Cloud sind“, sagt<br />
Michael Waidner. „Der Anbieter bekommt<br />
die Daten also im Klartext, und<br />
der Nutzer muss dann darauf vertrauen,<br />
dass vertrauliche Daten auch vertraulich<br />
bleiben.“<br />
Bei einigen Diensten glaubten die Nutzer<br />
fälschlicherweise, dass ihre sensiblen Informationen<br />
nur wenigen Personen zugänglich<br />
sind, während sie in Wahrheit<br />
unbemerkt von jedermann eingesehen<br />
werden können. Kritisch ist dieses<br />
Filesharing auch, wenn die Daten verschlüsselt<br />
sind. „Für gruppentaugliche<br />
Verschlüsselung fehlt es noch an überzeugenden<br />
Konzepten, um das Ideal einer<br />
sicheren Speicherung von Daten in<br />
einer Umgebung, die man als unsicher<br />
betrachtet, auch tatsächlich zu erreichen“,<br />
so Michael Waidner. Fraunhofer S<strong>IT</strong> hat<br />
die Anbieter vor Veröffentlichung der<br />
Studie über die Ergebnisse informiert.<br />
(PR/ Fraunhofer S<strong>IT</strong>)<br />
<br />
Zunehmend Trojaner, Viren und<br />
Würmer im Anhang<br />
Wachstum bösartiger<br />
Spam-Attachments<br />
Täglich werden über 264 Milliarden<br />
Spam-Mails verschickt – nur ein Prozent<br />
der Meldungen hat einen Anhang.<br />
Jedoch enthalten rund 300 Millionen<br />
dieser Attachments schädliche<br />
Malware. Das geht aus einer aktuellen<br />
Studie des Security-Spezialisten<br />
Bitdefender hervor. Die Experten fanden<br />
heraus, dass die Gesamtzahl aller<br />
Spams des ersten Quartals <strong>2012</strong> im<br />
Vergleich zum Vorjahr um 16 Prozent<br />
gesunken ist. Trotzdem stieg die Menge<br />
an bösartigen Spam-Attachments<br />
allein im Januar dieses Jahres um vier<br />
Prozent an.<br />
Die Bitdefender-Forscher zeigen, dass es<br />
aktuell weniger Spam-Kampagnen im<br />
Netz gibt. Allerdings steigt die Menge der<br />
Malware-Anhänge bedrohlich an.<br />
Bitdefender hat zur Warnung für PC-<br />
Nutzer ein Ranking der fünf meist verbreiteten<br />
Malware-Attachments erstellt.<br />
Wurm speichert infizierte IP-Adressen<br />
Zu den hartnäckigsten Schädlingen, die<br />
als Anhang versendet werden, gehört seit<br />
2008 MyDoom. Der Wurm verschickt<br />
selbst massenhaft Spam-Mails. Da er<br />
meist in sogenannten Social-Engineering-<br />
Mails (Nachrichten mit vertrauenserweckender<br />
Aufmachung) auftaucht, werden<br />
viele Benutzer dazu verleitet, den<br />
Anhang der Nachricht zu öffnen. Geschieht<br />
dies, sendet sich der Wurm eigenständig<br />
an alle auf dem PC entdeckten E-<br />
Mail-Adressen. Diese findet der Schädling,<br />
indem er das System gezielt nach<br />
Mail-Absendern, -Kopfzeilen oder -Inhalten<br />
durchsucht. Zusätzlich legt<br />
MyDoom eine Backdoor-Komponente<br />
auf dem Rechner des Opfers an. Dadurch<br />
ermöglicht der Wurm Cyberkriminellen<br />
vollen Zugriff auf den PC des Nutzers –<br />
auch aus der Ferne. Obendrein besitzt<br />
MyDoom eine Datenbank mit allen infizierten<br />
IP-Adressen auf einem entfernten<br />
Server. Zu ihr wird jedes kürzlich<br />
verseuchte System hinzugefügt. Der<br />
Wurm ist bekannt dafür, oftmals Teil<br />
von Denial-Of-Service-Attacken<br />
(Überlastungsangriffen) gegenüber großen<br />
Antivirensoftware-Unternehmen zu<br />
sein.<br />
Verseuchtes JavaScript in HTML-Anhang<br />
An zweiter Position steht ein JavaScript-<br />
Downloader. Er tarnt sich als JavaScript<br />
in HTML-Attachments. Sobald der Anwender<br />
die angehängte HTML-Datei öffnet,<br />
führt sich das verschleierte JavaScript<br />
selbstständig aus. Gleichzeitig setzt es <br />
2/12 35
einen iFrame auf der HTML-Seite frei,<br />
auf die sich das Java Script bezieht. Der<br />
iFrame lädt anschließend schädliche Inhalte<br />
von Servern Dritter herunter, die das<br />
System des Nutzers zum Absturz bringen.<br />
Massen-Mailer verführt User<br />
Rang drei belegt Netsky. Ein Massen-<br />
Mailer-Wurm, der ähnlich wie MyDoom<br />
agiert. Er verbreitet sich zusätzlich über<br />
Datenübertragungsformen wie FTP, P2P<br />
oder File Sharing. Die Nachrichteninhalte<br />
seiner E-Mails reichen von Fehlermeldungen<br />
über Liebeserklärungen bis hin<br />
zu Geldtransaktionen. Neben diesen<br />
Social-Engineering-Aspekten werden in<br />
manchen Nachrichten auch die Namen<br />
prominenter Personen missbraucht, um<br />
beim Anwender Interesse für die Mail zu<br />
wecken. Öffnet der User den Anhang,<br />
zeigt der Wurm eine Meldung, die aussieht,<br />
als käme sie von der lokal installierten<br />
Antiviruslösung. Die Meldung besagt,<br />
dass kein Virus auf dem System<br />
entdeckt wurde. Eine weitere Besonderheit<br />
ist, dass sich Netsky nie an E-Mail-<br />
Adressen versendet, die sich auf die<br />
Security- oder Antivirus-Industrie beziehen:<br />
Sobald der Wurm bei der Suche nach<br />
E-Mail-Adressen Keywords wie<br />
beispielsweise Antivirus, FBI oder<br />
Bitdefender wahrnimmt, wird er vorsichtig.<br />
Schädling blockt Websites von AV-<br />
Anbietern<br />
An vierter Stelle liegt Mytob – ein Wurm,<br />
der User davon abhält, auf Websites renommierter<br />
Antiviren-Hersteller zuzugreifen.<br />
Er ermöglicht böswilligen<br />
Cyberkriminellen via Hintertüroption<br />
zusätzlich den freien Zugriff auf den User-<br />
PC.<br />
Malware legt Security-Software lahm<br />
Der Bagle Worm belegt Platz fünf. Als<br />
Teil von Massen-Mails sendet er sich automatisch<br />
an alle E-Mail-Adressen, die<br />
von ihm auf dem kompromittierten System<br />
identifiziert wurden. Um dem Be-<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
nutzer unentdeckt schaden zu können,<br />
beendet er alle Prozesse der installierten<br />
AV-Lösungen. Er lädt nebenbei noch<br />
<strong>IT</strong>DZ <strong>Berlin</strong> blockiert erfolgreich unerwünschte Werbung<br />
Weniger Spam-Mails an Behörden<br />
Die <strong>Berlin</strong>er Behörden erhalten täglich etwa 150.000 Mails. Durchschnittlich 65<br />
Prozent davon wurden <strong>2012</strong> durch das <strong>IT</strong>DZ <strong>Berlin</strong> als Spam geblockt, oder als<br />
Spam markiert, bevor sie im Posteingang der Mitarbeitenden landen. Der Anteil<br />
der Spam-Mails ist damit weiterhin rückläufig. 2011 lag er bei rund 73 Prozent<br />
und 2010 bei 88 Prozent des Mailaufkommens. Der Anteil an mit Viren infizierter<br />
Post stieg bei den an die <strong>Berlin</strong>er Verwaltung adressierten Mails im Verlauf des<br />
letzten halben Jahres leicht an, ist aber mit acht Mails am Tag im Monat April<br />
weiterhin überschaubar. Weltweit liegt der Anteil an Spam-Mails bei etwa 77<br />
Prozent.<br />
Erfolgreicher Virenschutz<br />
Ein Grund für den dauerhaften<br />
Rückgang und die geringe Anzahl an<br />
Mails mit Viren ist der vom <strong>IT</strong>DZ<br />
<strong>Berlin</strong> eingesetzte Spam-Schutz mit<br />
Reject-Modus, der einen Großteil<br />
der Spam-Mails schon vor der Annahme<br />
blockiert. Dafür wird der versendende<br />
Server ausgewertet und<br />
die Existenz des Adressaten geprüft.<br />
Ergänzend setzt man auf das so<br />
genannte Greylisting, bei dem Mails<br />
erst beim zweiten Versuch zugestellt<br />
werden. Spam-Versender unternehmen einen solchen Versuch in der Regel nicht.<br />
Zweiter Filterschritt<br />
Einen zu restriktiven Spam-Filter kann die Verwaltung nicht anwenden, da dann<br />
auch wichtige E-Mails blockiert werden können. Bei E-Mails, die nicht im ersten<br />
Schritt abgewiesen werden, durchsucht ein Programm die Betreffzeilen und<br />
Inhalte der Mails nach in Spams häufig verwendeten Begriffen, wie etwa „Klingelton“.<br />
Diese Mails werden als Warnung für den Empfänger als SPAM markiert<br />
aber trotzdem zugestellt. Denn das <strong>IT</strong>DZ <strong>Berlin</strong> ist als Provider der Behörden<br />
verpflichtet, angenommene E-Mails an den Empfänger weiterzuleiten.<br />
Behörden besonders anfällig für Spam<br />
zahlreiche Dateien von dubiosen Webseiten<br />
herunter und führt diese aus. (PR/<br />
Bitdefender GmbH)<br />
<br />
Behörden sind in besonderem Maße von Spam betroffen, da auf zahlreichen<br />
Webseiten E-Mailadressen angegeben werden, um den Bürgern die Kontaktaufnahme<br />
zu erleichtern. (EB)<br />
2/12 36
Geschäftskunden<br />
vertrauen ihren <strong>IT</strong>K-<br />
Dienstleistern<br />
mehrheitlich bei<br />
Datenschutz und<br />
Sicherheit<br />
Zwei Drittel der deutschen Unternehmen<br />
haben hohes Vertrauen in Datenschutz<br />
und Sicherheit bei ihren Partnern<br />
in der <strong>IT</strong>K-Branche – zum Beispiel<br />
Internet-Provider, Telefongesellschaften<br />
und <strong>IT</strong>-Dienstleister.<br />
Das geht aus einer Studie im Auftrag<br />
des Hightech-Verbandes Bitkom<br />
hervor.<br />
Bei der repräsentativen Erhebung unter<br />
mehr als 800 Unternehmen gaben 69<br />
Prozent der Befragten an, „hohes Vertrauen“<br />
in ihren <strong>IT</strong>K-Anbieter zu haben.<br />
27 Prozent gaben ein „niedriges Vertrauen“<br />
an und 5 Prozent machten keine<br />
Angaben. „Die <strong>IT</strong>K-Anbieter genießen<br />
in der Wirtschaft mehrheitlich den Ruf,<br />
verlässlich zu sein“, erklärte Bitkom-Präsident<br />
Prof. Dieter Kempf. „Es gibt aber<br />
trotzdem noch einiges zu tun, um Kunden<br />
von dem hohen Datenschutz- und<br />
Sicherheitsniveau in der <strong>IT</strong>K-Branche zu<br />
überzeugen.“<br />
76 Prozent der Unternehmen nennen die<br />
Informationssicherheit als wichtiges Kriterium<br />
für Vertrauen im Geschäftsleben,<br />
69 Prozent sagen dies über den Datenschutz.<br />
Bei der Studie wurden <strong>IT</strong>-Leiter,<br />
Datenschutzbeauftragte und Geschäftsführer<br />
von Unternehmen unterschiedlicher<br />
Branchen und Größen befragt. Generell<br />
zeigen große Unternehmen ein<br />
deutlich höheres Vertrauen in Datenschutz<br />
und Sicherheit bei <strong>IT</strong>K-Dienstleistern<br />
als kleine und mittelständische<br />
Unternehmen. „Konzerne haben häufig<br />
klarer formulierte Anforderungen und<br />
bessere Möglichkeiten, die Sicherheitsstandards<br />
zu überprüfen“, kommentiert<br />
Bitkom-Präsident Kempf. „Mittelständische<br />
Kunden müssen offensichtlich<br />
noch besser informiert werden, um sich<br />
ein Bild von den Sicherheitsvorkehrungen<br />
machen zu können.“ (PR/<br />
Bitkom e.V.)<br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Airbag fürs Smartphone<br />
Fraunhofer S<strong>IT</strong> zeigt Sicherheitslösung<br />
für Smartphones - BizzTrust<br />
for Android schützt Unternehmensdaten<br />
und freut Benutzer<br />
Fraunhofer S<strong>IT</strong> und das Center for<br />
Advanced Security Research Darmstadt<br />
(CASED) stellten auf der CeB<strong>IT</strong> <strong>2012</strong><br />
BizzTrust trennt Geschäftliches von Privatem auf<br />
Android-Smartphones<br />
eine neue Version von BizzTrust vor, der<br />
benutzerfreundlichen Sicherheitslösung<br />
für Smartphones. BizzTrust schützt geschäftliche<br />
Daten und Dienste auf<br />
Android-Smartphones, ohne die private<br />
Nutzung der Geräte einzuschränken. Mit<br />
der neuen Version lassen sich private und<br />
geschäftliche Kontakte auch getrennt synchronisieren,<br />
und private Aktivitäten werden<br />
durchgängig farblich hervorgehoben.<br />
Interessierten Unternehmen stellt<br />
Fraunhofer S<strong>IT</strong> eine Testversion zur Verfügung.<br />
Ein Demo-Video zu BizzTrust<br />
findet sich im Internet unter<br />
www.bizztrust.de/en/demo.html.<br />
Mitarbeiter nutzen dienstliche Geräte verstärkt<br />
auch privat – insbesondere<br />
Smartphones, auf denen<br />
Angestellte oft zahlreiche<br />
Apps für den privaten Gebrauch<br />
installieren. Doch<br />
wenn der Nutzer damit unbeabsichtigt<br />
Schad- oder Spionage-Software<br />
ins Firmennetzwerk<br />
holt, droht dem<br />
Unternehmen großer Schaden.<br />
BizzTrust teilt das Gerät<br />
in zwei Teile und trennt<br />
die geschäftlichen Anwendungen<br />
von privaten Daten<br />
und Apps. So können Mitarbeiter<br />
beliebig Apps installieren,<br />
ohne das eigene Unternehmen<br />
zu gefährden.<br />
Selbst wenn Angreifer eine<br />
unsichere App einschleusen,<br />
können sie damit nicht auf<br />
die Firmendaten zugreifen -<br />
die Auswirkungen des Angriffs<br />
bleiben auf die privaten<br />
Daten des Smartphones<br />
begrenzt.<br />
Farben zeigen dem Benutzer<br />
stets an, welchen Teil des<br />
Smartphones er nutzt. Geschäftliche<br />
Anrufe werden<br />
grün markiert, eine SMS von<br />
einem privaten Kontakt hingegen<br />
rot. Basis von<br />
BizzTrust ist ein Android-<br />
Betriebssystem, das mit<br />
Sicherheitsfunktionen erweitert<br />
wurde und alle Daten<br />
aus vertrauenswürdigen Anwendungen<br />
entsprechend markiert. Welche<br />
Enterprise-App vertrauenswürdig ist,<br />
entscheidet das Unternehmen, das auch<br />
eigene Apps für Mitarbeiter bereitstellen<br />
und aktualisieren kann. (PR/ Fraunhofer<br />
S<strong>IT</strong>)<br />
<br />
2/12 37
Datenmüll-Management<br />
als Konsequenz im<br />
Datenmanagement<br />
Konsequentes Datenmanagement umfasst<br />
auch die Löschung von Daten<br />
sowie die Auswahl von Daten, welche<br />
überhaupt erfasst werden sollen. Ansatzpunkt<br />
ist der Geschäftsprozess.<br />
Datenmüll „besteht grundsätzlich aus<br />
nicht mehr benötigten oder<br />
redundenten, aber dennoch gespeicherten<br />
Daten, die für Privatpersonen,<br />
Unternehmen und Institutionen (wirtschaftlich)<br />
nutzlos geworden sind.<br />
Fraglich ist in diesem Zusammenhang,<br />
ob deren endgültiges Löschen<br />
die „ultima ratio“ darstellt“ (Prof. Dr.<br />
Wolfgang Brunner).<br />
Immer mehr Unternehmen und Institutionen<br />
leiden unter einem neuen Abfallproblem:<br />
Datenmüll. Die zunehmende<br />
Nutzung digitaler Kommunikationsmittel<br />
führt zu einer wachsenden Informationsflut<br />
und lässt den Vorrat an gespeicherten<br />
Daten geradezu explodieren.<br />
Jährlich wächst der Datenbestand<br />
mittlerweile um circa 100 Prozent weltweit:<br />
• Ende 2010: ca. 970 Exabytes<br />
• Ende 2011: ca. 1,8 Zettabyte<br />
• Ende 2020: ca. 35 bis 40 Zettabyte<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Das heißt, der weltweite<br />
Datenbestand, bezogen auf<br />
das Jahr 2010, wird sich<br />
bis ins Jahr 2020 mehr<br />
als verfünfunddreißigfachen.<br />
Hinzu<br />
kommt, dass in Unternehmen<br />
weltweit ca. 80<br />
Prozent der Datenbestände<br />
in unstrukturierter Form vorliegen.<br />
Allein für das Handling des<br />
eigenen E-Mail-Systems benötigt jeder<br />
Mitarbeiter durchschnittlich zwei<br />
Tage im Jahr für die Löschung von Spam-<br />
E-Mails. Für alle Arten von Organisationen<br />
ist Datenmüll nicht nur eine Kostenfrage,<br />
sondern auch organisatorisch<br />
eine existenzielle Herausforderung.<br />
Was Datenmüll für eine Organisation ist<br />
und was nicht, muss für die verschiedenen<br />
Anwendungsfelder jeweils individuell<br />
definiert werden. In einem E-Mail-<br />
System hat Datenmüll eine andere Definition<br />
als vergleichsweise für den Projektprozess.<br />
Warum aber nun Datenmüll-Management,<br />
welche Nutzenpotentiale können<br />
realisiert werden?<br />
Mit der Einführung eines professionellen<br />
Datenmüll-Management-Prozesses<br />
können die nachfolgend genannten<br />
Nutzenpotenziale für Unternehmen und<br />
Institutionen erzielt werden:<br />
• Geringere Kostenzuwächse durch<br />
nachhaltig weniger Speicherzukauf pro<br />
Jahr<br />
• Beitrag zur „Green-<strong>IT</strong>“ durch nachhaltig<br />
geringeren Stromanstieg für den<br />
Betrieb von Speichersystemen<br />
• Schnellere Auffindung der richtigen<br />
Informationen und Reduzierung des<br />
Fehlerpotenzials bei der Verwendung<br />
falscher Dateiversionen<br />
• Eindeutige Auffindung von Dateien<br />
durch Vermeidung von unnötiger<br />
Mehrfachspeicherung von Dateien<br />
• Höhere Sicherheit bei der Nutzung<br />
und Rechteverwertung von Dateien<br />
(z.B. Fotos, Filme, wissenschaftliche<br />
Texte)<br />
• Inkremental verbesserte Nutzung der<br />
Arbeitsressourcen durch Verbesserung<br />
der Effektivität (aber dadurch keine<br />
Freisetzung von Mitarbeitern!)<br />
• Komplexitätsreduzierung und bessere<br />
Beherrschbarkeit der gesamten Datensicherungsprozesse.<br />
• Nachhaltige Freilegung stiller Reserven<br />
bei den vorhandenen Speichersystemen<br />
(für eine verbesserte Speichernutzung)<br />
und effizientere Nutzung<br />
existierender <strong>IT</strong>-Ressourcen<br />
• Mittel- bis langfristig: Datenmüll als<br />
„Rohstoff“, denkbar ist ein Verkauf<br />
von weiter verwendbaren Datenbeständen<br />
an andere <strong>IT</strong>-Communities<br />
Welche Lösungsansätze existieren?<br />
Letztendlich zeigt die bisherige Entwicklung,<br />
dass stetig Software- und Technologielösungen<br />
zur Speicherung von Daten<br />
entwickelt und angeboten werden. So<br />
werden die Datenbestände weiter wachsen<br />
und zweifellos auch der Datenmüll.<br />
Was jedoch noch fehlt, ist ein ganzheitlicher<br />
Unternehmensprozess zur Eindämmung<br />
des Datenwachstums. Ein Projektmodell<br />
zur Einführung des Datenmüll-<br />
Management-Prozesses ist das Modell<br />
von Martin G. Bernhard. Es wird ein<br />
Projektmodell für die Einführung des<br />
Datenmüll-Management-Prozesses vorgestellt,<br />
somit ein konkretes Projektmodell<br />
zur Einführung eines Datenmüll-<br />
Management-Prozesses. Es reicht von<br />
der Identifikation der Datenmüllbereiche,<br />
des Datenmülls und der Orte, an denen<br />
er entsteht, bis zum Monitoring der<br />
Datenmüllbereiche. Dieses Projektmodell<br />
kann in der Praxis für die Einführung<br />
eines Datenmüll-Management-Prozesses<br />
in jede Organisation angewendet werden.<br />
Im Rahmen dieses Projektmodells sind<br />
folgende Themen abzuarbeiten:<br />
• der Datenmüll-Management-Prozess<br />
mit seinen Haupt- und Teilprozessen<br />
• die Rolle eines Datenmüll-Managers<br />
• Templates zur Erfassung des Datenmülls<br />
• ein Maßnahmenkatalog mit konkreten<br />
Vorschlägen zur Eindämmung <br />
2/12 38
sowie kurz- bis mittelfristigen Reduzierung<br />
des Datenmülls<br />
• Kennzahlen zur Ermittlung und Steuerung<br />
des Datenmülls<br />
Ganz offensichtlich ist der Druck auf die<br />
Organisationen immer noch nicht groß<br />
genug, da sie selbst relativ großen Kosteneinsparpotenzialen<br />
im Blick auf den eigenen<br />
Datenmüll wenig Beachtung schenken.<br />
Selbst wenn davon ausgegangen<br />
werden muss, dass es den Organisationen<br />
schwer fallen dürfte, relativ trenngenau<br />
zwischen Daten und Datenmüll zu unterscheiden,<br />
muss nunmehr eine intensivere<br />
Auseinandersetzung mit dieser Thematik<br />
herbei geführt werden. Datenmüll<br />
ist der Müll der Zukunft, der bereits heute<br />
vorliegt!<br />
Literaturempfehlung<br />
Unternehmen versinken im Datenmüll -<br />
Hrsg.: Wolfgang L. Brunner, Martin G.<br />
Bernhard, Jürgen Weber – Hardcover –<br />
250 Seiten – ISBN 978-3-939707-63-9 –<br />
1. Auflage 2011– 39 Euro<br />
MARTIN G. BERNHARD<br />
Geschäftsführer<br />
ECG Management Consulting GmbH<br />
<strong>Berlin</strong><br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Urteil des Europäischen<br />
Gerichtshofs<br />
Die Funktionalität eines<br />
Computerprogramms<br />
und die Programmiersprache<br />
sind nicht<br />
urheberrechtlich<br />
geschützt<br />
Der Erwerber einer Programmlizenz<br />
ist grundsätzlich berechtigt, das Funktionieren<br />
des Programms zu beobachten,<br />
zu untersuchen oder zu testen, um<br />
die ihm zugrunde liegenden Ideen und<br />
Grundsätze zu ermitteln<br />
Die SAS Institute Inc. entwickelte das<br />
SAS-System, einen integrierten Satz von<br />
Programmen, der es den Nutzern ermöglicht,<br />
Aufgaben im Bereich der Datenverarbeitung<br />
und -analyse zu verrichten und<br />
insbesondere statistische Analysen durchzuführen.<br />
Der zentrale Bestandteil des<br />
SAS-Systems ist die sogenannte Base SAS.<br />
Sie ermöglicht den Nutzern, Anwendungsprogramme<br />
(auch als „Skripte“<br />
bekannt) zu schreiben und zu verwenden,<br />
die in der SAS-Programmiersprache<br />
geschrieben sind und eine Datenverarbeitung<br />
ermöglichen.<br />
Die World Programming Ltd (WPL) sah<br />
eine potenzielle Marktnachfrage nach alternativer<br />
Software, die in der Lage wäre,<br />
in der SAS-Sprache geschriebene Anwendungsprogramme<br />
auszuführen. Sie<br />
erstellte daher das World Programming<br />
System (WPS). Dieses bildet einen großen<br />
Teil der Funktionalitäten der SAS-<br />
Komponenten in dem Sinne nach, dass<br />
WPL sicherzustellen versuchte, dass derselbe<br />
Input (Dateneingabe in das System)<br />
zu demselben Output (Datenausgabe)<br />
führte. Dies sollte den Nutzern des<br />
SAS-Systems ermöglichen, die für die Verwendung<br />
mit dem SAS-System entwickelten<br />
Skripte unter dem WPS auszuführen.<br />
Für die Erstellung des WPS erwarb WPL<br />
rechtmäßig Kopien der Lernausgabe des<br />
SAS-Systems, die mit einer Lizenz geliefert<br />
wurden, nach der die Rechte des<br />
Lizenznehmers auf nichtproduktive<br />
Zwecke beschränkt waren. WPL benutzte<br />
und untersuchte diese Programme, um<br />
ihr Funktionieren zu verstehen, doch<br />
weist nichts darauf hin, dass sie Zugang<br />
zum Quellcode der SAS-Komponenten<br />
hatte oder diesen vervielfältigt hätte.<br />
SAS Institute erhob Klage beim High<br />
Court of Justice (Vereinigtes Königreich)<br />
auf Feststellung, dass WPL die Handbücher<br />
und Komponenten des SAS-Systems<br />
vervielfältigt und damit die Urheberrechte<br />
von SAS Institute und die<br />
Lizenzbestimmungen der Lernausgabe<br />
verletzt hat. Vor diesem Hintergrund<br />
befragt der High Court den Gerichtshof<br />
zum Umfang des rechtlichen Schutzes,<br />
den das Unionsrecht Computerprogrammen<br />
gewährt, und möchte<br />
insbesondere wissen, ob sich dieser<br />
Schutz auf die Funktionalität und die<br />
Programmiersprache erstreckt.<br />
Der Gerichtshof weist erstens darauf hin,<br />
dass die Richtlinie über den Rechtsschutz<br />
von Computerprogrammen den<br />
urheberrechtlichen Schutz auf alle Ausdrucksformen<br />
der eigenen geistigen<br />
Schöpfung des Urhebers eines<br />
Computerprogramms erstreckt. Dagegen<br />
sind Ideen und Grundsätze, die irgendeinem<br />
Element eines Computerprogramms<br />
zugrunde liegen, einschließlich<br />
der den Schnittstellen zugrundeliegenden<br />
Ideen und Grundsätze, nicht<br />
im Sinne der Richtlinie urheberrechtlich<br />
geschützt.<br />
Somit ist nur die Ausdrucksform dieser<br />
Ideen und Grundsätze urheberrechtlich<br />
zu schützen. Der durch die Richtlinie 91/<br />
250 geschaffene Schutzgegenstand bezieht<br />
sich auf das Computerprogramm in<br />
allen seinen Ausdrucksformen wie Quellcode<br />
und Objektcode, die seine<br />
Vervielfältigung in den verschiedenen<br />
Datenverarbeitungssprachen erlauben.<br />
Auf der Grundlage dieser Erwägungen<br />
entscheidet der Gerichtshof, dass we- <br />
2/12 39
<strong>SPL<strong>IT</strong>TER</strong><br />
Daher kann der Inhaber des Urheberrechts<br />
an einem Computerprogramm<br />
nicht unter Berufung auf den Lizenzvertrag<br />
verhindern, dass der Erwerber der<br />
Lizenz das Funktionieren dieses Programms<br />
beobachtet, untersucht oder testet,<br />
um die einem Programmelement<br />
zugrunde liegenden Ideen und Grundsätze<br />
zu ermitteln, wenn dieser von der<br />
Lizenz umfasste Handlungen sowie<br />
Handlungen zum Laden und Ablaufen<br />
vornimmt, die für die Benutzung des<br />
Programms erforderlich sind, und unter<br />
der Voraussetzung, dass der Erwerber<br />
die Ausschließlichkeitsrechte des Inhabers<br />
des Urheberrechts an diesem Programm<br />
nicht verletzt.<br />
der die Funktionalität eines Computerprogramms<br />
noch die Programmiersprache<br />
oder das Dateiformat, die im Rahmen<br />
eines Computerprogramms verwendet<br />
werden, um bestimmte Funktionen des<br />
Programms zu nutzen, eine Ausdrucksform<br />
darstellen. Daher genießen sie keinen<br />
urheberrechtlichen Schutz.<br />
Ließe man nämlich zu, dass die Funktionalität<br />
eines Computerprogramms urheberrechtlich<br />
geschützt wird, würde man<br />
zum Schaden des technischen Fortschritts<br />
und der industriellen Entwicklung die<br />
Möglichkeit eröffnen, Ideen zu monopolisieren.<br />
In diesem Zusammenhang führt der<br />
Gerichtshof aus, dass, würde sich ein<br />
Dritter den Teil des Quell- oder Objektcodes<br />
beschaffen, der sich auf die Programmiersprache<br />
oder das Dateiformat<br />
bezieht, die im Rahmen eines Computerprogramms<br />
verwendet werden, und<br />
würde er mit Hilfe dieses Codes in seinem<br />
eigenen Computerprogramm ähnliche<br />
Komponenten erstellen, dieses Verhalten<br />
vom Urheber des Programms<br />
möglicherweise verboten werden könnte.<br />
Im vorliegenden Fall ist jedoch den<br />
Ausführungen des vorlegenden Gerichts<br />
zu entnehmen, dass WPL keinen Zugang<br />
zum Quellcode des Programms von SAS<br />
Institute hatte und den Objektcode dieses<br />
Programms nicht dekompiliert hat.<br />
Sie hat das Verhalten des Programms nur<br />
beobachtet, untersucht und getestet und<br />
auf dieser Grundlage seine Funktionalität<br />
vervielfältigt, wobei sie dieselbe Programmiersprache<br />
und dasselbe Dateiformat<br />
verwendet hat.<br />
Zweitens stellt der Gerichtshof zum einen<br />
fest, dass nach der Richtlinie über den<br />
Rechtsschutz von Computerprogrammen<br />
der Erwerber einer Softwarelizenz<br />
berechtigt ist, das Funktionieren eines<br />
Computerprogramms zu beobachten, zu<br />
untersuchen oder zu testen, um die einem<br />
Programmelement zugrunde liegenden<br />
Ideen und Grundsätze zu ermitteln.<br />
Vertragliche Bestimmungen, die im Widerspruch<br />
zu diesem Recht stehen, sind<br />
unwirksam. Zum anderen ist die Ermittlung<br />
dieser Ideen und Grundsätze im<br />
Rahmen der von der Lizenz gestatteten<br />
Handlungen möglich.<br />
Der Gerichtshof stellt außerdem fest, dass<br />
kein Verstoß gegen das Urheberrecht<br />
vorliegt, wenn wie im vorliegenden Fall<br />
der rechtmäßige Erwerber der Lizenz keinen<br />
Zugang zum Quellcode des<br />
Computerprogramms hatte, sondern sich<br />
darauf beschränkt hat, dieses Programm<br />
zu untersuchen, zu beobachten und zu<br />
testen, um seine Funktionalität in einem<br />
zweiten Programm zu vervielfältigen.<br />
Schließlich entscheidet der Gerichtshof,<br />
dass die in einem Computerprogramm<br />
oder in einem Benutzerhandbuch für<br />
dieses Programm erfolgte Vervielfältigung<br />
bestimmter Elemente, die in dem urheberrechtlich<br />
geschützten Benutzerhandbuch<br />
eines anderen Computerprogramms beschrieben<br />
werden, eine Verletzung des<br />
Urheberrechts an dem letztgenannten<br />
Handbuch darstellen kann, sofern diese<br />
Vervielfältigung die eigene geistige Schöpfung<br />
des Urhebers des Benutzerhandbuchs<br />
zum Ausdruck bringt.<br />
Hierzu führt der Gerichtshof aus, dass im<br />
vorliegenden Fall die Schlüsselwörter, die<br />
Syntax, die Befehle und die Kombinationen<br />
von Befehlen, die Optionen, die<br />
Voreinstellungen und die Wiederholungen<br />
aus Wörtern, Zahlen oder mathematischen<br />
Konzepten bestehen, die einzeln<br />
betrachtet keine geistige Schöpfung des<br />
Urhebers des Computerprogramms sind.<br />
Erst mit Hilfe der Auswahl, der Anordnung<br />
und der Kombination dieser Wörter,<br />
Zahlen oder mathematischen Konzepte<br />
bringt der Urheber seinen schöpferischen<br />
Geist in origineller Weise zum<br />
Ausdruck.<br />
Es ist Sache des vorlegenden Gerichts, zu<br />
prüfen, ob die im Ausgangsverfahren<br />
behauptete Vervielfältigung die eigene<br />
geistige Schöpfung des Urhebers des<br />
Benutzerhandbuchs für das Computerprogramm<br />
zum Ausdruck bringt, die<br />
urheberrechtlich geschützt ist.<br />
Urteil vom 2. Mai <strong>2012</strong>, Aktenzeichen C-<br />
406/10<br />
www.curia.europa.eu (PR/ EuGH) <br />
2/12 40
Von Zwickau bis Zweibrücken<br />
Wo „.de“ am stärksten ist<br />
Die Registrierungsstelle für .de-<br />
Domains, DENIC, legt die<br />
Domainstatistik für das<br />
Jahr 2011 vor. Verzeichnet<br />
sind<br />
rund 13,8 Millionen<br />
Domains<br />
in 402 Städten<br />
und Kreisen.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
West-Ost-Gefälle hält an<br />
Unter den Bundesländern liegt der Stadtstaat<br />
Hamburg mit 313 Domains je<br />
1.000 Einwohner weiterhin<br />
deutlich vor <strong>Berlin</strong><br />
(243) und dem Flächenland<br />
Bayern<br />
(209).<br />
Nach wie vor die geringste<br />
Domaindichte<br />
mit 74 Domains<br />
weist Sachsen-<br />
Anhalt auf.<br />
Metropolregionen<br />
unverändert vorn<br />
Bei den absoluten<br />
Domainzahlen ist das Spitzentrio<br />
unverändert. Mit 840.324<br />
Domains dominiert <strong>Berlin</strong><br />
weiterhin klar im Gesamtklassement<br />
vor den Städten<br />
München (609.152) und<br />
Hamburg (556.460). Bezogen auf die Einwohnerzahl<br />
hat unter den kreisfreien Städten<br />
erneut nicht die Bundeshauptstadt<br />
(243), sondern Osnabrück mit 749 .de-<br />
Domains je 1.000 Einwohner die Nase<br />
vorn. Es folgen München (452) und Bonn<br />
(411). Bei den Landkreisen behauptete<br />
erneut Amberg-Sulzbach (882) die Topposition,<br />
während Starnberg (452) und<br />
Freising (422) die Ränge tauschten.<br />
Im Bundesdurchschnitt<br />
betrug das<br />
Domainwachstum<br />
im Jahresvergleich<br />
2010/2011 7,6<br />
Prozent gegenüber<br />
6,4 Prozent<br />
im Zeitraum<br />
2009/2010, was einen Zuwachs<br />
um rund 979.000<br />
(Vorjahr: 775.000) bedeutet. Hinzu kommen<br />
mehr als 870.000 Domains von Inhabern<br />
mit Wohnsitz im Ausland. Dies<br />
entspricht rund 5,9 Prozent des gesamten<br />
Domainbestandes unter .de.<br />
Insgesamt waren per 31.12.2011 bei<br />
DENIC 14.740.474 Domains registriert.<br />
(PR/ DENIC eG)<br />
<br />
2/12 41
<strong>Berlin</strong> unterstützt<br />
Bewerbung für Top-<br />
Level-Domain „.berlin“<br />
Nach dem Willen der internationalen<br />
Internet-Regulierungs-Organisation<br />
ICANN (Internet Corporation for<br />
Assigned Names and Numbers) werden<br />
bald neue Adressräume im<br />
Internet zur Verfügung stehen. Statt<br />
der Endung „.de“ können <strong>Berlin</strong>erinnen<br />
und <strong>Berlin</strong>er und hiesige Unternehmen<br />
dann auch Internetadressen<br />
mit der Endung „.berlin“ registrieren<br />
lassen.<br />
Nach einer europaweitern Bekanntmachung<br />
und einem Auswahlverfahren ist<br />
nun durch die Senatskanzlei entschieden<br />
worden, die Bewerbung der dotBERLIN<br />
GmbH & Co. KG für den Betrieb der<br />
Top Level Domain „.berlin“ mit einem<br />
„Letter of Support“ zu unterstützen.<br />
Dieser Unterstützungsbrief macht den<br />
Weg zur Bewerbung bei der ICANN frei.<br />
Die Bewerbung muss bis zum 12. April<br />
eingereicht werden und wird danach von<br />
der ICANN aufwändig unter anderem<br />
dahin gehend geprüft, ob die Richtlinien<br />
der dotBERLIN GmbH & Co. KG zur<br />
Vergabe der Internetadressen den<br />
Regularien der ICANN entsprechen.<br />
Ab wann die neuen Internet-Endungen<br />
für <strong>Berlin</strong> zur Verfügung stehen, hängt<br />
von diesem Prüfverfahren bei der ICANN<br />
ab. Aus heutiger Sicht ist damit zu rechnen,<br />
dass dies ab 2013 der Fall sein könnte.<br />
Mehrere andere deutsche Städte und<br />
Regionen – darunter Hamburg und Köln,<br />
aber auch NRW und Bayern – haben<br />
parallele Bewerbungsprozesse für<br />
Adressräume wie z.B. „.hamburg“ oder<br />
„.nrw“ durchgeführt. Auch zu diesen<br />
Internetadressen beginnen nun die entsprechenden<br />
Verfahren bei der ICANN.<br />
(LPD)<br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Das „Internet der Dinge“<br />
Europäische Kommission<br />
veranstaltet Konsultation<br />
zu Regeln für vernetzte<br />
intelligente Geräte<br />
Das „Internet der Dinge“ bezeichnet<br />
eine Zukunft, in der Alltagsgegenstände<br />
wie Telefone, Autos,<br />
Haushaltsgeräte, Kleidungsstücke<br />
und sogar Lebensmittel mittels intelligenter<br />
Chips drahtlos mit dem<br />
Internet verbunden sind und Daten<br />
erfassen und austauschen können.<br />
Die Europäische Kommission möchte<br />
erkunden, welcher Rahmen gesetzt werden<br />
muss, damit das wirtschaftliche und<br />
gesellschaftliche Potenzial des Internets<br />
der Dinge ausgeschöpft werden kann,<br />
und wie gleichzeitig ein ausreichendes<br />
Maß an Kontrolle über die Geräte zu<br />
gewährleisten ist, die Informationen erfassen,<br />
verarbeiten und speichern. Zu<br />
diesen Informationen gehören Verhaltensmuster<br />
der Nutzer, ihre Aufenthaltsorte<br />
und Präferenzen. Die Kommission<br />
will sicherstellen, dass die Rechte von<br />
Privatpersonen respektiert werden, und<br />
leitet vor diesem Hintergrund eine öffentliche<br />
Konsultation ein, zu der bis<br />
zum 12. Juli <strong>2012</strong> beigetragen werden<br />
kann.<br />
Heutzutage besitzt der Durchschnittsbürger<br />
zwei Gegenstände, die mit dem<br />
Internet verbunden sind. Bis 2015 dürften<br />
es sieben sein, weltweit werden dann<br />
25 Milliarden Geräte über Drahtlosverbindungen<br />
verfügen. Diese Zahl könnte<br />
sich bis 2020 auf 50 Milliarden verdoppeln.<br />
In Zukunft werden also möglicherweise<br />
viele Alltagsgegenstände mit<br />
dem Internet verbunden sein. Ein Beispiel:<br />
Wenn an der Universität eine Vorlesung<br />
am frühen Morgen wegen Erkrankung<br />
des Dozenten ausfällt, könnten die<br />
Wecker und Kaffeemaschinen der Studierenden<br />
automatisch so gestellt werden,<br />
dass sie eine Stunde länger schlafen können.<br />
Vergisst ein älterer Mensch, eine<br />
wichtige Arznei einzunehmen, könnte<br />
einem anderen Familienmitglied oder einer<br />
lokalen Notrufzentrale eine Warnmeldung<br />
übermittelt werden, so dass<br />
jemand vorbeigeschickt werden kann, der<br />
nach dem Rechten schaut.<br />
Neelie Kroes, die für die Digitale Agenda<br />
zuständige Vizepräsidentin der Kommission,<br />
erklärte hierzu: „Ein Internet<br />
der Dinge, bei dem Alltagsgegenstände<br />
mit intelligenten Funktionen ausgestattet<br />
sind, ist der nächste große Entwicklungsschritt.<br />
Ich möchte ein Internet<br />
der Dinge fördern, das unseren wirtschaftlichen<br />
und gesellschaftlichen Zielen dient,<br />
und bei dem die Sicherheit und der Schutz<br />
der Privatsphäre gewährleistet sind und<br />
ethische Werte beachtet werden.“<br />
Zur Realisierung des enormen wirtschaftlichen<br />
und gesellschaftlichen Potenzials<br />
des Internets der Dinge sind faire<br />
Wettbewerbsverhältnisse nötig, damit<br />
alle Akteure unter gleichen Bedingungen<br />
miteinander konkurrieren können, ohne<br />
dass einzelne den Zugang kontrollieren<br />
oder den Anbieterwechsel von Nutzern<br />
behindern. Voraussetzung für die gesellschaftliche<br />
Akzeptanz ist die Festlegung<br />
eines ethischen und rechtlichen Rahmens<br />
mit Unterstützung durch technische Mittel,<br />
der Eigenbestimmung und Sicherheit<br />
der Nutzer gewährleistet. Im Wege der<br />
Konsultation möchte die Kommission<br />
Meinungsäußerungen zu den Themen<br />
Schutz der Privatsphäre, Sicherheit,<br />
Gefahrenabwehr in kritischen, auf das<br />
Internet der Dinge gestützten Infrastrukturen,<br />
Ethik, Interoperabilität, Leitungsund<br />
Aufsichtsmechanismen und Standards<br />
einholen. Die Ergebnisse der Konsultation<br />
werden in die Empfehlung der<br />
Kommission zum Internet der Din- <br />
2/12 42
ge einfließen, die bis Sommer 2013<br />
vorgelegt wird. Die Förderung des<br />
Internets der Dinge ist ein vorrangiges<br />
Ziel der Digitalen Agenda für Europa<br />
(siehe IP/10/581, MEMO/10/199 und<br />
MEMO/10/200).<br />
Hintergrund<br />
Das heutige Internet bietet Zugang zu<br />
Inhalten und Informationen durch die<br />
Verbindung vielfältiger Endgeräte, wie<br />
PCs, Smartphones oder Fernsehgeräte,<br />
mit Internetseiten. In der nächsten Entwicklungsstufe<br />
werden Informationen<br />
zum physischen Umfeld durch angeschlossene<br />
Gegenstände bereitgestellt<br />
werden können, die mit Sensoren für ihr<br />
Umfeld ausgestattet sind und über Smartchips<br />
mittels RFID-Technik mit oder<br />
ohne menschliches Dazutun kommunizieren.<br />
Für diese Weiterentwicklung vernetzter<br />
Geräte gibt es zahllose Beispiele: Ein Pkw<br />
könnte den Zustand verschiedener<br />
Fahrzeugsysteme mittels eingebetteter<br />
Sensoren zum Zweck der Ferndiagnose<br />
und Wartung melden; unterwegs ließen<br />
sich auf dem Smartphone Informationen<br />
über den Zustand von Haustüren<br />
und Fensterläden oder sogar von Lebensmitteln<br />
im Kühlschrank empfangen, die<br />
von Sensoren daheim übermittelt werden;<br />
Autofahrer könnten von ihrem Fahrzeug<br />
um mögliche Verkehrsstaus herumgelotst<br />
werden; persönliche Geräte<br />
könnten Informationen zum aktuellen<br />
Gesundheitszustand von daheim versorgten<br />
Patienten an eine zentrale Stelle<br />
senden.<br />
Die öffentliche Konsultation wird in eine<br />
neue Empfehlung zum Internet der Dinge<br />
Eingang finden. Diese Empfehlung<br />
stellt eine Folgemaßnahme zur Mitteilung<br />
der Kommission zum Internet der<br />
Dinge aus dem Jahr 2009 dar (siehe IP/<br />
09/952), in der 14 Maßnahmen dargelegt<br />
wurden, mit denen Europa befähigt werden<br />
soll, Technologien und Systeme für<br />
das Internet der Dinge zu entwickeln, die<br />
mit den zentralen Werten Europas, wie<br />
Schutz der Privatsphäre und personenbezogener<br />
Daten, vereinbar sind. (PR/<br />
Europäische Kommission) <br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Verwaltungs- und<br />
Beschaffernetzwerk<br />
Das Verwaltungs- und Beschaffernetzwerk<br />
(VuBN) bietet als exklusives,<br />
professionelles Social Network<br />
Mitarbeitern aus öffentlichen Verwaltungen<br />
die Möglichkeit eines umfassenden<br />
Wissensaustauschs, der den<br />
Einarbeitungsaufwand ebenso wie<br />
Fehler bei verschiedensten Aufgaben<br />
wesentlich reduzieren kann.<br />
Das ursprünglich auf das öffentliche<br />
Auftragswesen fokussierte Netzwerk hat<br />
sich seit seiner Gründung im Jahr 2007<br />
zur zentralen Anlaufstelle für alle Fachbereiche<br />
des öffentlichen Sektors entwickelt<br />
und hat nun vor kurzem die Schallmauer<br />
von 10.000 Nutzern überschritten. Erfolge<br />
wie der Innovationspreis 2011 der<br />
Gesellschaft für Informatik oder zuletzt<br />
beim <strong>IT</strong>-Innovationspreis der Initiative<br />
Mittelstand unterstreichen diese so positive<br />
Entwicklung<br />
Neben den eigenen Profilseiten der Nutzer,<br />
auf denen individuelle Informationen<br />
(z.B. Kontaktmöglichkeiten, Interessen,<br />
Aufgabengebiete) angegeben und<br />
persönliche Dokumente für einen Austausch<br />
hochgeladen werden können, bilden<br />
die weit über 100 themenspezifischen<br />
Fachgruppen und -foren (z.B. Austausch<br />
von Leistungsbeschreibungen, Umweltfreundliche<br />
Beschaffung, Erfahrungsaustausch<br />
kommunaler Betriebsdienste, E-<br />
Government Best Practices) das Herzstück<br />
des Netzwerks. Der hohe Mehrwert<br />
in Verbindung mit der geschlossenen<br />
Nutzergruppe und einem Höchstmaß an<br />
Vertraulichkeit hinsichtlich persönlicher<br />
Daten machen das VuBN einzigartig für<br />
Mitarbeiter des öffentlichen Sektors.<br />
Anbieterunternehmen werden im VuBN<br />
umfangreiche Präsentationsmöglichkeiten<br />
und eigene, abgetrennte Expertengruppen<br />
zur direkten Interaktion mit den<br />
Nutzern des Netzwerks angeboten.<br />
www.vubn.de (PR/ ondux GmbH) <br />
<strong>Berlin</strong> freut sich über<br />
Twitter-Ansiedlung<br />
<strong>Berlin</strong>s Regierender Bürgermeister<br />
Klaus Wowereit, Wirtschaftssenatorin<br />
Sybille von Obernitz und <strong>Berlin</strong> Partner-Geschäftsführerin<br />
Melanie Bähr<br />
freuen sich über die Ansiedlung des<br />
Deutschlandbüros von Twitter in<br />
<strong>Berlin</strong>.<br />
Wowereit: „Die Entscheidung von<br />
Twitter zeigt, welche Anziehungskraft<br />
<strong>Berlin</strong> für Kommunikationsunternehmen<br />
im Umfeld der <strong>IT</strong>-Branche entwickelt<br />
hat. Herzlich willkommen in<br />
<strong>Berlin</strong>! Die Hauptstadt ist der richtige Ort<br />
für kreative, junge Unternehmen mit Perspektive.“<br />
Wirtschaftssenatorin Sybille von Obernitz<br />
sagt: „Das ist ein gutes Signal für den<br />
Wirtschaftsstandort <strong>Berlin</strong>. Es zeigt, dass<br />
Unternehmen wie Twitter in unserer Stadt<br />
attraktive Rahmenbedingungen vorfinden.<br />
Ich freue mich, dass die internationale<br />
Strahlkraft von <strong>Berlin</strong> als Standort der<br />
Digitalen Wirtschaft stetig zunimmt.“<br />
Melanie Bähr, Geschäftsführerin von<br />
<strong>Berlin</strong> Partner: „Die Ansiedlung von<br />
Twitter in <strong>Berlin</strong> ist ein Ritterschlag für die<br />
Hauptstadt. <strong>Berlin</strong> entwickelt sich damit<br />
zum europäischen Hub der digitalen<br />
Wirtschaft und gewinnt mit dieser Verbindung<br />
ins Silicon Valley weiter an Internationalität.“<br />
(LPD)<br />
<br />
Auch das <strong>IT</strong>DZ <strong>Berlin</strong> hat einen<br />
Twitter-Account: @itdzberlin<br />
2/12 43
Die Hälfte der deutschen<br />
Unternehmen setzt<br />
soziale Medien ein<br />
Fast die Hälfte (47 Prozent) aller Unternehmen<br />
in Deutschland setzt soziale<br />
Medien ein. Weitere 15 Prozent<br />
haben bereits konkrete Pläne, damit<br />
in Kürze zu beginnen. Das geht aus<br />
einer Studie hervor, die der Hightech-<br />
Verband Bitkom in <strong>Berlin</strong> vorgestellt<br />
hat. Dabei wurden im Auftrag des<br />
Bitkom 723 Unternehmen aller Branchen<br />
befragt. Die Umfrage ist repräsentativ<br />
für die Gesamtwirtschaft.<br />
„Soziale Medien sind in vielen Unternehmen<br />
fester Bestandteil der internen und<br />
externen Kommunikation geworden“,<br />
sagte Bitkom-Präsident Prof. Dieter<br />
Kempf. „Für den Social-Media-Einsatz<br />
werden zunehmend feste Strukturen mit<br />
spezialisierten Mitarbeitern und eigenen<br />
Budgets geschaffen.“ Als wichtigstes Ziel<br />
nennen 82 Prozent der Unternehmen, die<br />
soziale Medien einsetzen, die Steigerung<br />
ihres Bekanntheitsgrades. Für 72 Prozent<br />
steht die Gewinnung neuer Kunden im<br />
Vordergrund und für 68 Prozent die Pflege<br />
von Kundenbeziehungen. 42 Prozent<br />
der Befragten wollen ihr Image verbessern,<br />
23 Prozent neue Mitarbeiter gewinnen<br />
und 15 Prozent die Produktentwicklung<br />
vorantreiben. Kempf: „Soziale<br />
Medien sind für die Unternehmen<br />
auf dem Weg vom Soll zum Muss.“<br />
Unter sozialen Medien werden Internetanwendungen<br />
verstanden, die es den<br />
Nutzern ermöglichen, sich zu vernetzen,<br />
zu kommunizieren und eigene Inhalte<br />
im Web zu verbreiten. Dazu zählen unter<br />
anderem Blogs, soziale Netzwerke wie<br />
Facebook, Xing oder Google+, Kurznachrichtendienste<br />
wie Twitter sowie<br />
Content-Plattformen zum Austausch<br />
von Videos oder Fotos wie Youtube<br />
oder Flickr. Neben Personen können in<br />
sozialen Medien Unternehmen oder andere<br />
Organisationen mit eigenen Profilen<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
präsent sein. Nach den Ergebnissen der<br />
Studie sind 86 Prozent der Unternehmen,<br />
die Social Media nutzen, in externen<br />
sozialen Netzwerken aktiv. „Soziale Netzwerke<br />
haben sich zu zentralen Anlaufstellen<br />
im Web entwickelt und sind wegen<br />
ihrer hohen Reichweite die mit Abstand<br />
beliebteste Plattform für Unternehmen“,<br />
sagte Kempf. Im Ranking der<br />
meistgenutzten Anwendungen folgen<br />
Blogs mit 36 Prozent und Video-Plattformen<br />
mit 28 Prozent. Ein Viertel der<br />
Unternehmen nutzt Kurznachrichtendienste<br />
wie Twitter.<br />
Unternehmen setzen auf soziale Medien<br />
Ein weiteres Thema der Studie beschäftigte<br />
sich mit den organisatorischen Voraussetzungen<br />
für den Einsatz sozialer<br />
Medien. Dabei zeigen sich große Unterschiede<br />
zwischen größeren und kleineren<br />
Unternehmen. So haben 86 Prozent der<br />
Unternehmen mit mehr als 500 Beschäftigten<br />
eigene Mitarbeiter, die für die Steuerung<br />
der Social-Media-Aktivitäten verantwortlich<br />
sind, aber erst 41 Prozent der<br />
mittelständischen Unternehmen. 63 Prozent<br />
der Großen verfügt über so genannte<br />
Social Media Guidelines, die Mitarbeitern<br />
Richtlinien für die berufliche Nutzung<br />
sozialer Medien geben, während es<br />
bei den Kleinen 19 Prozent sind. Ein<br />
Social Media Monitoring betreiben 48<br />
Prozent der großen, aber nur 10 Prozent<br />
der mittelständischen Unternehmen. Mit<br />
einem Monitoring können die Anwender<br />
beobachten, was im Internet über ihre<br />
Produkte oder Marken gesagt wird.<br />
Kempf: „Der Mittelstand muss die Organisation<br />
seiner Social-Media-Aktivitäten<br />
dringend professionalisieren, wenn er das<br />
Feld nicht den Großen überlassen will.“<br />
Laut Umfrage sind 38 Prozent aller Unternehmen<br />
bislang nicht im Social Web<br />
aktiv. 62 Prozent der Befragten in dieser<br />
Gruppe sagen zur Begründung, dass sie<br />
mit Social Media ihre Zielgruppen nicht<br />
erreichen. „Dieser Grund erscheint<br />
angesichts der weiten Verbreitung sozialer<br />
Medien nicht mehr nachvollziehbar“,<br />
sagte Kempf. Die Hälfte der Skeptiker hat<br />
rechtliche Bedenken, insbesondere hinsichtlich<br />
des Datenschutzes. 45 Prozent<br />
sagen, soziale Medien passen nicht zu<br />
ihrer Unternehmenskultur. Für ein Viertel<br />
ist der personelle Aufwand zu hoch,<br />
für 14 Prozent sprechen generell finanzielle<br />
Gründen dagegen. „Die Umfrage<br />
zeigt, dass der Einsatz von Social Media<br />
nur in den seltensten Fällen am Geld<br />
scheitert“, sagte Kempf. Einige Unternehmen<br />
fürchteten einen Kotrollverlust,<br />
für andere habe dieses Thema im Mo- <br />
2/12 44
ment keine hohe Priorität. „Manche<br />
Bedenken sind verständlich, aber auch<br />
der Verzicht auf den Einsatz sozialer<br />
Medien birgt Risiken“, sagte Kempf. „Diskussionen<br />
über Marken und Produkte<br />
von Unternehmen finden im Social Web<br />
ohnehin statt. Wer sich den sozialen<br />
Medien verschließt, verzichtet bewusst<br />
darauf, Einfluss zu nehmen.“<br />
Mit der weiteren Verbreitung von sozialen<br />
Medien zeichnet sich aus Sicht des<br />
Bitkom ein Kulturwandel hin zu offeneren<br />
Kommunikationsstrukturen ab.<br />
Darüber hinaus entwickelt sich Social<br />
Media zu einem wichtigen Wertschöpfungsfaktor.<br />
So werden Kontakte<br />
in sozialen Netzwerken Teil des alltäglichen<br />
Kundenservice. Projekte können<br />
über die Grenzen von Abteilungen und<br />
Standorte hinweg effizienter realisiert<br />
werden. Zudem kann das Social Web<br />
genutzt werden, um neue Produkte und<br />
Dienste mit Beteiligung der Netzgemeinde<br />
zu entwickeln. Eine Bedingung<br />
dafür ist, dass Unternehmen diese Form<br />
der Kommunikation fest in ihrer Organisation<br />
verankern. „Social Media setzt<br />
voraus, dass sich die Unternehmen öffnen<br />
und in einen Dialog mit ihren Interessengruppen<br />
treten“, sagte Kempf.<br />
Noch nicht alle Unternehmen hätten erkannt,<br />
welches Business-Potenzial die<br />
sozialen Medien haben. Kempf: „Jedes<br />
Unternehmen hat die Aufgabe, den Social-<br />
Media-Einsatz gewissenhaft zu prüfen,<br />
um seine Wettbewerbsposition nicht zu<br />
gefährden.“<br />
Die Bitkom-Studie „Social Media in deutschen<br />
Unternehmen“ finden Sie unter<br />
www.bitkom.org.<br />
Hinweis zur Methodik: Im Auftrag des<br />
Bitkom hat das Marktforschungsunternehmen<br />
techconsult 723 repräsentativ<br />
ausgewählte Unternehmen befragt. (PR/<br />
Bitkom e.V.)<br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Wikidata wird das erste neue<br />
Wikimedia-Projekt seit 2006<br />
Die Zukunft der<br />
Wikipedia<br />
Vom 30. März bis 1. April fand in<br />
<strong>Berlin</strong> die jährliche Wikimedia<br />
Conference mit Teilnehmern aus 40<br />
Ländern statt. Zeitgleich startete<br />
Wikimedia Deutschland mit Wikidata<br />
ein völlig neues Wikimedia-Projekt.<br />
Wikidata wird eine offene Datenbank für<br />
das Wissen der Welt werden, an der jeder<br />
mitarbeiten kann. Das erste Ziel des Projekts<br />
ist es, die mehr als 280 Sprachversionen<br />
von Wikipedia mit einer einzigen<br />
gemeinsamen Datenquelle auszustatten.<br />
Damit können weltweit die Daten<br />
der Artikel in allen Sprachen der freien<br />
Enzyklopädie ergänzt und zentral gepflegt<br />
werden. Aber auch außerhalb von<br />
Wikipedia können die Daten verwendet<br />
werden, zum Beispiel in Blogs oder auf<br />
Webseiten. Das Prinzip einer gemeinsamen<br />
Datenquelle soll die Qualität und<br />
Übereinstimmung von Wikipedia-Artikeln<br />
verbessern. Durch Wikidata werden<br />
mehr Informationen in kleineren Sprachversionen<br />
von Wikipedia verfügbar gemacht.<br />
Gleichzeitig wird es für Zehntausende<br />
freiwillige Wikipedia-Autoren erheblich<br />
einfacher, Daten in der Enzyklopädie<br />
aktuell zu halten.<br />
Der Vorstand von Wikimedia Deutschland,<br />
Pavel Richter, erklärt : „Wir betreten<br />
Neuland. Wikidata ist das größte technische<br />
Projekt, das jemals eine der 40 Länderorganisationen<br />
der Wikimedia-Bewegung<br />
in Angriff genommen hat. Wikimedia<br />
Deutschland widmet sich mit Begeisterung<br />
der Aufgabe, durch Wikidata die<br />
Datenverwaltung der größten Wissenssammlung<br />
der Menschheit deutlich zu<br />
verbessern.“<br />
Neben den Wikimedia-Projekten werden<br />
auch zahlreiche externe Anwendungen<br />
von den Daten profitieren. Mit Wikidata<br />
können Daten vernetzt und annotiert<br />
werden, was beispielsweise für wissenschaftliche<br />
und öffentliche Daten von<br />
großer Bedeutung ist. Die Wikidata-Inhalte<br />
werden unter einer freien Creative<br />
Commons-Lizenz veröffentlicht.<br />
Das Projekt wird mittels einer Großspende<br />
von 1,3 Millionen Euro finanziert,<br />
die zur Hälfte vom Allen Institute<br />
for Artificial Intelligence ([ai]²) stammt.<br />
Das Institut wurde 2010 von Paul G.<br />
Allen, Mitgründer von Microsoft, ins<br />
Leben gerufen und unterstützt langfristige<br />
Forschungsarbeiten, die den Fortschritt<br />
auf dem Gebiet der Künstlichen Intelligenz<br />
beschleunigen sollen.<br />
„Wikidata ist eine einfache wie kluge Idee<br />
und ein bedeutender nächster Schritt in<br />
der Entwicklung von Wikipedia“, sagt<br />
Dr. Mark Greaves, Vizepräsident des Allen<br />
Institute for Artifical Intelligence. „Es<br />
wird die Art und Weise verändern, wie<br />
enzyklopädische Daten veröffentlicht,<br />
zugänglich gemacht und von Menschen<br />
weltweit verwendet werden können.<br />
Wikidata baut auf semantischen<br />
Technologien auf, die wir seit Langem<br />
unterstützen. Das Projekt wird den Takt<br />
wissenschaftlicher Entdeckungen beschleunigen<br />
und der Welt eine außergewöhnliche<br />
neue Datenquelle bereitstellen.“<br />
Ein Viertel der Entwicklungskosten von<br />
Wikidata ist durch eine Spende der Gordon<br />
and Betty Moore Foundation gesichert.<br />
Die Vision der Gordon and Betty<br />
Moore Foundation ist es, messbare, nachhaltige<br />
und weitreichende Erfolge in<br />
Umweltschutz und Wissenschaft zu erzielen.<br />
Datenangebot für Wikipedia<br />
„Wikidata ist für die Forschung bedeutend“,<br />
sagt Chris Mentzel vom wissenschaftlichen<br />
Programm der Gordon and<br />
Betty Moore Foundation. „Das Projekt<br />
wird ein wichtiges Datenangebot für<br />
Wikipedia sein. Zusätzlich können<br />
beispielsweise Wissenschaftler die ein-<br />
2/12 45
fach bedienbare Wikidata-Software herunterladen.<br />
Wikidata ermöglicht ihnen,<br />
ständig wachsende und komplexe wissenschaftliche<br />
Datenmengen zu verwalten<br />
und daraus wertvolle Schlüsse zu<br />
ziehen.“<br />
Google, Inc. stellt ein weiteres Viertel der<br />
Wikidata-Finanzierung bereit. Chris<br />
DiBona, Leiter des Bereichs Open Source,<br />
sagt: „Googles Auftrag ist es, die Informationen<br />
der Welt überall zugänglich<br />
und sinnvoll verwendbar zu machen.<br />
Darum freuen wir uns, am Projekt<br />
Wikidata teilzuhaben. Wir hoffen, dass<br />
damit erhebliche Mengen strukturierter<br />
Daten der Allgemeinheit zur Verfügung<br />
gestellt werden können.“<br />
Entwicklung in drei Phasen<br />
Wikidata wird in drei Phasen entwickelt.<br />
Der Abschluss der ersten Phase erfolgt<br />
voraussichtlich bis August <strong>2012</strong>. Darin<br />
werden Links zwischen verschiedenen<br />
Sprachversionen von Wikipedia zentral<br />
an einer Stelle gesammelt. In der zweiten<br />
Phase können Nutzer Daten verwenden<br />
und neue hinzufügen. Die Ergebnisse<br />
der Auswertung werden hierfür im Dezember<br />
<strong>2012</strong> veröffentlicht. Die dritte<br />
und letzte Phase wird die automatische<br />
Erstellung von Listen und Grafiken erlauben.<br />
Wikimedia Deutschland führt die drei<br />
Phasen aus und übergibt anschließend<br />
den Betrieb und die Wartung von<br />
Wikidata an die Wikimedia Foundation.<br />
Geplanter Übergabetermin ist März 2013.<br />
Das Team von acht Software-Entwicklern<br />
wird von Dr. Denny Vrandecic geleitet.<br />
Er wechselte vom Karlsruher Institut<br />
für Technologie zu Wikimedia Deutschland.<br />
Zusammen mit Dr. Markus<br />
Krötzsch von der University of Oxford<br />
hat er das Semantic-MediaWiki-Projekt<br />
gegründet. Der Projektvorschlag für<br />
Wikidata wurde mit finanzieller Unterstützung<br />
des EU-Projekts RENDER<br />
entwickelt, an dem Wikimedia Deutschland<br />
als einer der Anwendungspartner<br />
ebenfalls beteiligt ist. (PR/ Wikimedia<br />
Deutschland e.V.)<br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Mobile Informationsquelle für<br />
<strong>Berlin</strong>er Politik und Verwaltung<br />
PolitikNews-App<br />
Mehr Durchblick in den Politik-<br />
Dschungel bringt die „PolitikNews-<br />
App“ des <strong>Berlin</strong>er E-Government-<br />
Dienstleisters ]init[ AG. Die kostenlose<br />
App für iOS- und Android-Geräte<br />
ist ein mobiler News-Aggregator für<br />
Politiker, Referenten, Journalisten<br />
Die PolitikNews-App filtert Nachrichten<br />
und Pressemitteilungen<br />
nach folgenden Kategorien:<br />
Thematisch:<br />
• Innenpolitik<br />
• Ausland<br />
• Wirtschaft und Finanzen<br />
• Wissenschaft und Bildung<br />
• Kultur und Medien<br />
• Umwelt und Verkehr<br />
Regional(thematisch eingrenzbar):<br />
• Bundesregierung und -ministerien<br />
• alle 16 Bundesländer<br />
• ausgewählte Städte: Stuttgart,<br />
Frankfurt a.M., Düsseldorf, Dortmund,<br />
Köln, Bielefeld, München,<br />
Nürnberg, Dresden, Leipzig<br />
sowie politikinteressierte Bürger – und<br />
das erste Informationstool dieser Art<br />
überhaupt in Deutschland.<br />
Einmal auf dem Handy oder Tablet installiert,<br />
bündelt die App offizielle und<br />
frei verfügbare Nachrichten und Pressemitteilungen<br />
von Ministerien und Behörden<br />
aus Bund, Ländern und bisher<br />
zehn ausgewählten Städten – ungefiltert<br />
und direkt von der Quelle.<br />
Damit ist die App auch eine wichtige<br />
Informationsquelle für die Abgeordneten<br />
des <strong>Berlin</strong>er Parlaments, die<br />
Mitarbeiterinnen und Mitarbeiter der<br />
<strong>Berlin</strong>er Senatsverwaltung sowie nachgeordneter<br />
Behörden. Als Nutzer kann<br />
man das Newsangebot mit sechs thematischen<br />
und 26 regionalen Filtern gezielt<br />
an seinen persönlichen Informationsbedarf<br />
anpassen. So bleibt man einfach<br />
und schnell auf dem Laufenden, welche<br />
Themen ganz oben auf der politischen<br />
Agenda stehen und welche Informationen<br />
man zu seinem jeweiligen Arbeitsschwerpunkt<br />
kennen sollte.<br />
Die am 14. Februar <strong>2012</strong> gestartete<br />
PolitikNews-App wird mit dem Feedback<br />
der Nutzer weiterentwickelt und um<br />
weitere Regionen ausgebaut. Hervorgegangen<br />
ist die App aus einem internen<br />
Innovations-Wettbewerbs der ]init[ AG.<br />
Die Links zum Apple App Store und<br />
Android Market finden Sie auf<br />
www.init.de/politiknews-app.<br />
ANDREAS STEFFEN<br />
Innovationsmanager<br />
]init[ AG für Digitale Kommunikation <br />
2/12 46
WorkHub ermöglicht<br />
Barrierefreiheit von<br />
öffentlichen Webseiten<br />
mithilfe der Crowd<br />
Barrierefreiheit ist für alle öffentlichen<br />
Einrichtungen ein wichtiges<br />
Thema. Das Ziel, öffentliche Webseiten<br />
unabhängig von einer eventuell<br />
vorhandenen Behinderung des Besuchers<br />
für jedermann uneingeschränkt<br />
zugänglich und nutzbar zu machen,<br />
kann aus Kostengründen oft nur<br />
teilweise erreicht werden. Der Zugang<br />
zu medialen Webseiteninhalten wie<br />
Bildern bleibt beispielsweise Blinden<br />
und sehbehinderten Menschen in vielen<br />
Fällen verschlossen.<br />
Selbst bei den besten Internetauftritten<br />
können sich zudem mit der Zeit Probleme<br />
einschleichen. Wiederkehrende Aufgaben<br />
beim Import neuer Bilder, Audiooder<br />
Videoaufzeichnungen bedürfen<br />
immer wieder der redaktionellen Arbeit.<br />
Ob es nun um das Erstellen alternativer<br />
Textbeschreibungen für Bilder oder um<br />
die Transkription von Audio- oder Videoaufzeichnungen<br />
geht: Diese Aufgaben<br />
verschlingen kostbare Zeit und Ressourcen,<br />
welche der Redaktion anschließend<br />
bei der Wahrnehmung ihrer Hauptaufgaben<br />
fehlen.<br />
Das Gewicht dieses Problems wird aus<br />
den Ergebnissen einer internen Untersuchung<br />
von WorkHub deutlich. Bei über<br />
einem Drittel der untersuchten Stichprobe<br />
von 325 Webauftritten von öffentlichen<br />
Einrichtungen auf Landes- und<br />
Bundesebene waren weniger als 50 Prozent<br />
der vorhandenen Bilder mit alternativen<br />
Bildbeschreibungen versehen. Für<br />
den Fall, dass Beschreibungen vorhanden<br />
waren, wären sie zudem nur in den<br />
seltensten Fällen für tatsächlich für<br />
Sehgeschädigte hilfreich gewesen.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Dieses Problem kann nun mit Hilfe eines<br />
Spin-Off-Projektes der Humboldt-Universität<br />
zu <strong>Berlin</strong> entschärft werden:<br />
WorkHub bietet Nutzern von<br />
internetfähigen Geräten wie Smartphones,<br />
Tablets oder PCs die Möglichkeit,<br />
mit der Erledigung von Kleinaufträgen<br />
in ihrer Freizeit produktiv zu sein<br />
und Geld zu verdienen. Unter die angebotenen<br />
Kleinaufgaben fallen auch das<br />
Erstellen von alternativen Bildbeschreibungen<br />
für Webseiten sowie die<br />
Transkription von Audio- und Videoinhalten.<br />
„Die Idee ist einfach“, erläutert<br />
Anton Skornyakov,<br />
Mitgründer und<br />
Vertriebsleiter bei<br />
WorkHub. „Ein Student<br />
kann auf seinem Weg zur<br />
Universität zehn Minuten<br />
für die Erstellung von<br />
Bildbeschreibungen nutzen<br />
und sich damit ein en<br />
Nebenverdienst ermöglichen.<br />
Weil auf diese<br />
Weise viele Menschen für<br />
die Bearbeitung von Teilaufgaben<br />
innerhalb ihrer<br />
Freizeit herangezogen<br />
werden können, ist die<br />
Erstellung der Bildbeschreibungen<br />
besonders einfach, schnell und preiswert.“<br />
Das junge <strong>Berlin</strong>er Unternehmen garantiert<br />
die Qualität aller gelieferten Ergebnisse<br />
intern mithilfe eines umfangreichen<br />
Qualitätssicherungssystems. So muss ein<br />
Nutzer, der ein Webseitenbild zur Herstellung<br />
der Barrierefreiheit beschreiben<br />
möchte, zunächst im Rahmen einer Qualifikation<br />
beweisen, dass er die Besonderheiten<br />
der Aufgabe auch verstanden hat.<br />
Plagiate und andere Betrugsfälle werden<br />
durch die Algorithmen von WorkHub<br />
erkannt und zurückgewiesen. Schließlich<br />
werden durch redundantes Bearbeiten der<br />
Aufgaben sowie interne Kontrollen durch<br />
vertrauenswürdige Mitglieder der Plattform<br />
qualitativ schlechte Beschreibungen<br />
aussortiert. Am Ende entsteht eine vollautomatisierte<br />
Plattform für die Herstellung<br />
von Barrierefreiheit.<br />
Die Idee von WorkHub entstand aus<br />
dem Bedürfnis der Gründer heraus, während<br />
des Studiums Geld verdienen zu<br />
können, ohne dabei die persönliche Freiheit<br />
aufzugeben. International bekannt<br />
ist dieses Konzept unter dem Begriff<br />
„Crowdsourcing“, da für die Bearbeitung<br />
der Aufgaben eine große Ad-hoc-Gruppe<br />
von Menschen („Crowd“) genutzt<br />
wird, statt die Aufgabe einem Experten<br />
oder einer Agentur zu überlassen. Das<br />
Ob im Wartezimmer oder auf dem Weg zur Universität: Mit<br />
WorkHub lässt sich die Zeit zur Erstellung von<br />
Bildbeschreibungen nutzen<br />
Ziel von WorkHub ist es, die Beauftragung<br />
der Crowd so einfach und risikofrei<br />
wie möglich zu gestalten.<br />
Konkret benötigt es zur Erstellung von<br />
Alternativtexten für Bilder auf einer Webseite<br />
mithilfe von WorkHub nur einer<br />
Liste der URLs (Web-Adressen) der Bilder<br />
selbst sowie der Seiten, auf denen<br />
diese auftauchen, um den Kontext sichtbar<br />
zu machen. Die Liste kann beispielsweise<br />
als CSV-Datei (kommagetrennte<br />
Werte) vorliegen und über ein simples<br />
Webinterface innerhalb von wenigen<br />
Minuten an WorkHub übermittelt werden.<br />
Ergebnisse werden in der Regel innerhalb<br />
von zwei bis sieben Tagen bereitgestellt.<br />
ANTON SKORNYAKOV<br />
WorkHub<br />
<br />
2/12 47
Neue App für Online-<br />
Weltkarte OpenStreetMap<br />
Die kostenlose App „OSMapTuner“<br />
von Salzburg Research ermöglicht ein<br />
einfacheres Bearbeiten der freien<br />
Internet-Weltkarte OpenStreetMap.<br />
Navigationsgeräte, Online-Karten oder<br />
ortsbasierte Dienste - der weltweite Bedarf<br />
an ortsbezogenen Daten steigt dramatisch.<br />
Vorbei sind die Zeiten, in denen<br />
die Erfassung von Straßen,<br />
Geschwindigkeitsbeschränkungen oder<br />
Adressdaten in der Hand von Behörden<br />
oder weniger Unternehmen lag. Die freie<br />
Weltkarte OpenStreetMap - eine Alternative<br />
zu Google Maps - wird überwiegend<br />
durch freiwillige „Internet-Nutzer“ - so<br />
genannte Mapper in mühsamer Kleinarbeit<br />
erstellt. Forscher von Salzburg Research<br />
haben nun „OSMapTuner“, eine<br />
einfache, kostenlose und bislang weltweit<br />
einzigartige App zur Bearbeitung der<br />
OpenStreetMap-Daten für handelsübliche<br />
Android-Smartphones und Tablet<br />
PCs entwickelt. Mit Hilfe der App können<br />
erfahrene Mapper gezielt die Daten ihrer<br />
Umgebung direkt vor Ort kontrollieren<br />
und falls notwendig Ergänzungen oder<br />
Korrekturen durchführen. Aber auch für<br />
OpenStreetMap-Neulinge ist die App<br />
zum Kennenlernen der faszinierenden<br />
Weltkarte geeignet.<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
erweitert wird. Im Unterschied zu kommerziellen<br />
Angeboten wie z.B. Google<br />
Maps stehen die Daten der<br />
OpenStreetMap unter einer freien Lizenz<br />
und können kommerziell sowie nichtkommerziell<br />
genutzt werden. Viele Länder<br />
sind bereits nahezu vollständig abgedeckt<br />
und zahlreiche Organisationen bzw.<br />
Unternehmen nutzen bereits die Daten<br />
für ihre Anwendungen. „Um die Mapper<br />
bei ihrer täglichen Arbeit zu unterstützen,<br />
sind Software-Werkzeuge notwendig<br />
- wie die von uns entwickelte App<br />
OSMapTuner. Mit OSMapTuner wollen<br />
wir die sehr aktive OpenStreetMap-<br />
Community in der Erweiterung und<br />
Verbesserung der Weltkarte unterstützen.<br />
Wird die App von der Community<br />
verwendet, kommt uns das in unseren<br />
Forschungsprojekten, in denen wir<br />
immer häufiger die Daten nutzen, zugute.<br />
Außerdem können wir das Know-how<br />
an unsere Wirtschaftspartner weitergeben“,<br />
so Salzburg Research Geschäftsführer<br />
Univ.-Doz. Dr. Siegfried Reich.<br />
Mobile Editierhilfe für freie Online-<br />
Karte<br />
Mit der mobilen App „OSMapTuner“<br />
für Android-basierte Smartphones und<br />
Tablet PCs entwickelten die Forscher von<br />
Salzburg Research ein neuartiges Werkzeug<br />
zur Datenbearbeitung. „Mit Hilfe<br />
von OSMapTuner sind Mapper in der<br />
Lage, gezielt die Daten in ihrer Umgebung<br />
und direkt vor Ort zu kontrollieren<br />
und falls notwendig Ergänzungen oder<br />
Korrekturen durchzuführen“, so Projektleiter<br />
Mag. Sven Leitinger, Forscher und<br />
Entwickler von Salzburg Research. Die<br />
App wurde für touch-basierte Displays<br />
von Smartphones und Tablet PCs optimiert.<br />
Standardvorgaben für die Eigenschaften<br />
der erfassten Objekte ermöglichen<br />
einfaches Editieren und reduzieren<br />
sowohl die benötigte Zeit als auch die<br />
Fehleranfälligkeit. Darüber hinaus erkennt<br />
OSMapTuner automatisch fehlerhafte<br />
Einträge und markiert diese zur Überarbeitung.<br />
Dadurch können erfahrene<br />
Mapper gezielt zur Verbesserung der<br />
Datenbank beitragen.<br />
Neben dem Bearbeiten von Daten der<br />
OpenStreetMap eignet sich die Technologie<br />
generell für das mobile Bearbeiten von<br />
ortsbezogenen Daten. „Wir sehen im<br />
mobilen Bearbeiten von ortsbezogenen<br />
Inhalten einen Zukunftsmarkt, für den<br />
bisher gute Lösungen fehlen. Daher haben<br />
wir uns aus der angewandten <strong>IT</strong>- <br />
In Zeiten, in denen beinahe jeder Zweite<br />
bzw. jede Zweite stolze Besitzer eines<br />
Smartphones oder Tablet PCs sind und<br />
uneingeschränkte Mobilität und „Online<br />
zu sein“ immer mehr zur Selbstverständlichkeit<br />
wird, sind auch Online-Kartendienste<br />
gefragter denn je. Die Basis jeder<br />
Weltkarte bilden Geodaten, die möglichst<br />
realistisch und detailreich die Welt digital<br />
abbilden sollten. Während Online-Karten<br />
wie beispielsweise Google Maps oder<br />
Microsoft Bing Maps zwar kostenlos zur<br />
Verfügung gestellt werden, sind sie mit<br />
sehr restriktiven Lizenzbedingungen verknüpft.<br />
Eine Alternative ist die freie<br />
Internet-Weltkarte OpenStreetMap, die<br />
von unzähligen Freiwilligen, so genannten<br />
„Mappern“ bearbeitet und ständig<br />
Neue App aus dem Hause Salzburg Research: „OSMap Tuner“, eine einfache, kostenlose<br />
und bislang weltweit einzigartige App zur Verbesserung der OpenStreetMap-<br />
Daten für handelsübliche Android-Smartphones und Tablet PCs. Mit Hilfe der App<br />
können Mapper gezielt die Daten ihrer Umgebung direkt vor Ort kontrollieren und<br />
falls notwendig Ergänzungen oder Korrekturen durchführen<br />
2/12 48
Forschung heraus das Ziel gesetzt,<br />
neuartige Lösungen zu entwickeln und<br />
zu demonstrieren“, sagt Leitinger. „Wir<br />
haben bereits erste Anfragen von Unternehmen,<br />
die diese Technologie auch für<br />
ihre Daten einsetzen bzw. darauf aufbauend<br />
eigene Erfassungsanwendungen entwickeln<br />
wollen“, so Leitinger weiter.<br />
Einfach in der Nutzung – App auch<br />
für OpenStreetMap Einsteiger<br />
Aber auch für OpenStreetMap-Einsteiger/-innen<br />
ist die App geeignet. Auf<br />
einfache Art und Weise lässt sich mit dem<br />
Smartphone oder Tablet PC der aktuelle<br />
Erfassungsgrad der OpenStreetMap in<br />
der direkten Umgebung erkunden. Für<br />
sämtliche erfasste Objekte (z.B. Straßen,<br />
Häuser, Einrichtungen) können die zugewiesenen<br />
Eigenschaften abgerufen<br />
werden. Links zur jeweiligen Wiki-Seite<br />
ermöglichen auch ungeübten Mappern<br />
die Prinzipien dieses faszinierenden Projekts<br />
kennen zu lernen. Längerfristig sollen<br />
neue Mapper - vor allem weibliche -<br />
gewonnen werden, um einen Beitrag zur<br />
OpenStreetMap zu leisten. „Bisher liegt<br />
der Anteil an weiblichen Mappern bei nur<br />
3%. Vielleicht können Anwendungen wie<br />
OSMapTuner dazu beitragen, diesen<br />
Anteil nachhaltig zu steigern“, hofft Leitinger.<br />
Die Idee zu OSMapTuner ist in der<br />
Forschungslinie Mobile und Web-basierte<br />
Informationssysteme in Forschungsprojekten<br />
entstanden. Die Umsetzung<br />
dieser weltweit einzigartigen Anwendung<br />
wurde durch das umfassende Know-how<br />
der Forschungslinie im Bereich der<br />
Geoinformationstechnologien und mobilen<br />
Anwendungen ermöglicht. Die technologische<br />
Basis von OSMapTuner wurde<br />
im Rahmen der Initiative GI<br />
Technology Lab Salzburg entwickelt, die<br />
vom österreichischen Bundesministerium<br />
für Verkehr, Innovation und<br />
Technologie (bm:vit) gefördert wird.<br />
Weitere Infos zur App und Download:<br />
osmaptuner.salzburgresearch.at,<br />
OpenStreetMap: openstreetmap.de (PR/<br />
Salzburg Research Foschungsgesellschaft<br />
mbH)<br />
<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Wettkampf der<br />
Smartphone-Plattformen<br />
Android ist aktuell die am stärksten<br />
verbreitete Smartphone-Plattform in<br />
Deutschland. 40 Prozent aller derzeit<br />
genutzten Smartphones laufen mit<br />
dem Betriebssystem Android von<br />
Google. Vor einem Jahr waren es erst<br />
17 Prozent. Das berichtet der Hightech-Verband<br />
Bitkom. Grundlage der<br />
Daten ist eine Erhebung des Marktforschungsunternehmens<br />
comScore<br />
für den Bitkom.<br />
Betrachtet wurde der Smartphone-Bestand<br />
im ersten Quartal <strong>2012</strong> im Vergleich<br />
zum Vorjahresquartal. Auf dem<br />
zweiten Platz liegt das Betriebssystem<br />
Symbian von Nokia mit einem Anteil<br />
von 24 Prozent. Vor einem Jahr hatte<br />
Symbian den Markt mit 42 Prozent noch<br />
beherrscht. Das iPhone-Betriebssystem<br />
iOS von Apple konnte seine Position mit<br />
einem Anstieg um einen Prozentpunkt<br />
auf jetzt 22 Prozent festigen. Die Plattformen<br />
Windows Phone und Windows<br />
Mobile von Microsoft erreichen 7 Prozent<br />
Marktanteil. Zurzeit sind in Deutschland<br />
23,6 Millionen Smartphones als Erstgerät<br />
im Einsatz. Das sind 8,1 Millionen<br />
oder 52 Prozent mehr als vor einem Jahr.<br />
Laut comScore besitzen somit 41 Prozent<br />
aller Handynutzer ab 15 Jahren in Deutschland<br />
ein Smartphone.<br />
Das Betriebssystem steuert die Grundfunktionen<br />
eines Smartphones und entscheidet<br />
darüber, wie das Gerät zu bedienen<br />
ist und welche Anwendungen möglich<br />
sind. Für jede Plattform sind zahlreiche<br />
Zusatzprogramme (Apps) vorhanden,<br />
die der Nutzer auf seinem Gerät<br />
installieren kann. Aktuell gibt es weltweit<br />
rund 1,3 Millionen Apps für die unterschiedlichen<br />
Systeme. Darüber hinaus<br />
spielen beim Betriebssystem technische<br />
Fragen eine Rolle, zum Beispiel wie Datensicherungen<br />
(Backups) vorgenommen<br />
werden oder wie Aktualisierungen der<br />
Software erfolgen. Einen großen technologischen<br />
Sprung machten die Betriebssysteme<br />
vor einigen Jahren, als die Geräte<br />
von einer Steuerung per Tastatur auf eine<br />
Bedienung mit den Fingern über<br />
berührungsempfindliche Bildschirme<br />
umgestellt wurden.<br />
Methodik: Basis der Angaben ist<br />
comScore MobiLens, eine monatliche<br />
Online-Umfrage von mehr als 5.000<br />
Handy-Besitzern in Deutschland. (PR/<br />
Bitkom e.V.)<br />
<br />
2/12 49
22. bis 24. Oktober, Montreal<br />
Weltkongress für<br />
Informationstechnologie<br />
wird in Montreal<br />
stattfinden<br />
Der World Congress on Information<br />
Technology (WC<strong>IT</strong>, Weltkongress für<br />
Informationstechnologie) wird vom<br />
22. bis zum 24. Oktober im Palais des<br />
Congrès de Montréal in Montreal stattfinden.<br />
Der WC<strong>IT</strong> wird alle zwei Jahre<br />
unter der Schirmherrschaft der World<br />
Information Technology and Services<br />
Alliance (W<strong>IT</strong>SA) in einem anderen<br />
Land ausgerichtet und hat sich zum<br />
weltweit wichtigsten Treffen für<br />
Informationstechnologie entwickelt,<br />
an dem prominente Redner,<br />
massgebliche Vordenker und<br />
Führungskräfte aus aller Welt als geladene<br />
Gäste teilnehmen.<br />
Dieses Jahr wird der WC<strong>IT</strong> der Welt<br />
etwas Neues und wohl noch nie<br />
Dagewesenes bieten: Im Vorfeld des<br />
WC<strong>IT</strong> <strong>2012</strong> fand vom 5. bis 7. Juni ein<br />
„World Tech Jam“ mit 20.000 Online-<br />
Teilnehmern statt, welche ihre Ideen, Leidenschaften<br />
und Einsichten mitteilten<br />
und gemeinsam im großen Rahmen in<br />
die Entwicklung eines Aktionsplans für<br />
eine weltweite digitale Gesellschaft<br />
einfliessen ließen – eine wahre Bewegung<br />
von der Basis her. „Im Vergleich mit<br />
herkömmlichen Einbindungstechniken<br />
bieten „Jamming“ oder digitales Brainstorming<br />
etliche Vorteile“, erklärte<br />
Anthony Williams, Programmleiter des<br />
WC<strong>IT</strong> <strong>2012</strong>. „Und erstmals werden <strong>IT</strong>-<br />
Anwender von überall auf der Welt das<br />
Gespräch leiten. Dieses Ereignis wird den<br />
Anwendern eine Stimme geben - ein gewaltiger<br />
Schritt für die <strong>IT</strong>-Welt und eine<br />
absolute Neuheit.“<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Eines der Ergebnisse des Jams soll die<br />
„Digitale Agenda“ sein, welche Einfluss<br />
auf das Programm des WC<strong>IT</strong> <strong>2012</strong> haben<br />
wird. Man stelle sich diese als Aktionsplan<br />
für Chancen zur digitalen Innovation<br />
vor, der Entscheidungsträger aus verschiedenen<br />
Bereichen - von öffentlicher<br />
Verwaltung und Gesundheitswesen bis<br />
hin zu Ausbildung und Wissenschaft -<br />
informieren, inspirieren und anleiten<br />
kann. Die Digitale Agenda wird den<br />
Kongressteilnehmern, Stakeholdern der<br />
Informations- und Kommunikationstechnologie<br />
(IKT) sowie Führungspersönlichkeiten<br />
aus Regierung, Wissenschaft<br />
und Gesellschaft während der<br />
Abschlussveranstaltung des WC<strong>IT</strong> 2011<br />
vorgestellt und anschliessend der W<strong>IT</strong>SA<br />
als Werkzeug für politische Entwicklung,<br />
Bildungsinstrumente und Corporate-<br />
Citizenship-Programme vorgelegt werden.<br />
Der WC<strong>IT</strong> <strong>2012</strong> unter dem Motto<br />
„EINE Vision für eine weltweite digitale<br />
Gesellschaft“, wird eine intensive<br />
dreitägige Konferenz mit mehr als einhundert<br />
hochkarätigen Vortragenden sein<br />
und bis zu 3.000 Delegierte und 300<br />
Medienvertreter aus über 80 Ländern anlocken.<br />
Ziel der Konferenz ist es, wirtschaftliche<br />
und soziale Entwicklungen<br />
durch den Austausch von politischen<br />
Strategien, Praktiken, Trends und Ideen<br />
zur IKT zu beeinflussen. Sie wird Themen<br />
ansprechen, die die Rolle der IKT in<br />
Wirtschaft, Umwelt, Regierung,<br />
Gesundheitsbranche, Ausbildung und<br />
Mobilität zum Inhalt haben.<br />
„Der WC<strong>IT</strong> <strong>2012</strong> wird erstklassige Hauptredner<br />
mit Führungspersönlichkeiten aus<br />
Regierung, Industrie, Wissenschaft und<br />
Gesellschaft zu breit gefächerten Diskussionen<br />
zusammenbringen, in denen es<br />
darum geht, wie Informations- und<br />
Kommunikationstechnologien die heutige<br />
digitale Gesellschaft prägen und unterstützen,<br />
wobei der Anwender in den<br />
Mittelpunkt der Veranstaltung gerückt<br />
wird“, sagte Francois Morin, CEO des<br />
WC<strong>IT</strong> <strong>2012</strong>. „Er wird einem weltweiten<br />
Publikum kanadische Technik-Neuheiten<br />
vorstellen, Geschäftschancen für kanadische<br />
Unternehmer bieten und Investitionen<br />
aus dem Ausland anlocken.“<br />
Der World Congress on <strong>IT</strong> (WC<strong>IT</strong>) ist<br />
eine zweijährig stattfindende Veranstaltung,<br />
bei der Politiker, CEOs und Wissenschaftler<br />
Chancen und Möglichkeiten<br />
von <strong>IT</strong>-Anwendungen erörtern. Der<br />
Weltkongress ist eine einzigartige Zusammenarbeit<br />
zwischen der internationalen<br />
IKT-Branche, Anwendern und<br />
Regierungen. Der WC<strong>IT</strong> findet unter der<br />
Schirmherrschaft der W<strong>IT</strong>SA (World<br />
Information Technology and Services<br />
Alliance) statt. Als erstklassiger weltweiter<br />
IKT-Kongress bringt der WC<strong>IT</strong> mehr<br />
als 3.000 weltweite Führungskräfte aus<br />
Business, Regierung und Wissenschaft<br />
aus über 80 Ländern zusammen und<br />
beeinflusst so durch den Austausch von<br />
politischen Strategien, Praktiken, Trends<br />
und Ideen zur IKT die wirtschaftliche<br />
und soziale Entwicklung. Seit seiner Einführung<br />
im Jahr 1978 hat sich der WC<strong>IT</strong><br />
zum wichtigsten Treffen im Bereich der<br />
Informationstechnologie weltweit entwickelt,<br />
mit berühmten Rednern aus aller<br />
Welt. Zu den Vortragenden der Konferenz<br />
gehörten in der Vergangenheit unter<br />
anderem Bill Gates, Michael Dell, Bill<br />
Clinton, Colin Powell und Michail<br />
Gorbatschow, um nur einige zu nennen.<br />
www.wcit<strong>2012</strong>.org (PR/ WC<strong>IT</strong>)<br />
<br />
Der WC<strong>IT</strong> <strong>2012</strong> findet im Palais des Congrès de Montréal statt<br />
2/12 50
Fachbuch zu <strong>IT</strong>-<br />
Projektmanagement<br />
erschienen<br />
Anfang März ist im Düsseldorfer Verlag<br />
Symposion Publishing das Fachbuch<br />
„<strong>IT</strong>-Projektmanagement Methoden:<br />
Best Practices von Scrum bis<br />
PRINCE“ erschienen. Mit Dr. Jürgen<br />
Schmied und Dr. Karlheinz Morgenroth<br />
zählen zwei Method Park Consultants<br />
zu den Co-Autoren dieses Buches.<br />
Ihr Know-how und ihre praktischen<br />
Erfahrungen aus zahlreichen<br />
Kundenprojekten flossen in den Text<br />
ein.<br />
Der zweite Band der Fachbuchreihe „<strong>IT</strong>-<br />
Projektmanagement“ befasst sich mit den<br />
Methoden des Managements von <strong>IT</strong>-<br />
Projekten. Die Autoren erläutern bewährte<br />
und neue Ansätze verständlich und<br />
praxisnah. Neben den Basics des Projektmanagements<br />
zeigen sie den Einsatz klassischer<br />
Methoden wie PRINCE, agiler<br />
Herangehensweisen wie Scrum und<br />
qualitätsorientierter Verfahren wie Lean<br />
Six Sigma auf. Der Leser erhält Hilfestellung,<br />
wie er diese Managementmethoden<br />
zu einer individuellen Sammlung weiterentwickelt,<br />
damit sie den spezifischen<br />
Belangen seines Unternehmens gerecht<br />
wird. Den Themen „Messen, Schätzen<br />
und Bewerten“ sowie dem Gebrauch<br />
geeigneter Tools widmet das Buch jeweils<br />
eigene Abschnitte.<br />
Damit gibt dieses Fachbuch dem <strong>IT</strong>-<br />
Projektmanager ein methodisches Vorgehen<br />
an die Hand, mit dem er die Komplexität<br />
seiner Aufgaben strukturieren und<br />
seine Projekte zum Erfolg führen kann.<br />
Method Park Mitarbeiter haben in der<br />
Vergangenheit wiederholt an Fachbüchern<br />
zu unterschiedlichen Aspekten des Software<br />
und Systems Engineering mitgeschrieben<br />
oder selbst veröffentlicht.<br />
Hinzu kommen unzählige Beiträge in<br />
Fachzeitschriften. Die Autoren bei<br />
Method Park orientieren sich dabei an der<br />
unternehmerischen Praxis und an einer<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
realitätsnahen Umsetzbarkeit der dargestellten<br />
Ansätze. Über die reine Knowhow-Vermittlung<br />
hinaus wollen sie den<br />
Leser bei der Anwendung seines Wissens<br />
und dem Abgleich mit seinen Erfahrungen<br />
unterstützen. (PR/ Method Park<br />
Software AG)<br />
<br />
Bitkom mit neuen<br />
Leitfäden zu Enterprise<br />
Content Management<br />
Ein effizientes und papierloses Dokumenten-Management<br />
gewinnt für Unternehmen<br />
und öffentliche Verwaltung<br />
zunehmend an Bedeutung. Immer<br />
mehr Unternehmen entscheiden sich<br />
für Lösungen zum so genannten<br />
Enterprise Content Management<br />
(ECM). Der Umsatz mit ECM steigt<br />
nach Angaben des Hightech-Verbands<br />
Bitkom in diesem Jahr voraussichtlich<br />
um acht Prozent auf über 1,5 Milliarden<br />
Euro.<br />
Doch was steht hinter Begriffen wie DMS,<br />
Information Life Cycle Management oder<br />
elektronische Akte? Der Bitkom hat einen<br />
neuen Leitfaden zum Themenbereich<br />
ECM erstellt, der grundlegende<br />
Begriffe für <strong>IT</strong>-Anwender in den Unternehmen<br />
erklärt. In einem weiteren neuen<br />
Leitfaden geht es um den Trend zu „ECM<br />
in der Cloud“, der sich auf der weltgrößten<br />
Computermesse CeB<strong>IT</strong> im März<br />
deutlich abgezeichnet hat. „Unsere beiden<br />
ECM-Leitfäden erklären anschaulich,<br />
welche praktischen Anwendungsfälle sich<br />
hinter den Fachbegriffen verbergen“, sagt<br />
Andreas Nowottka, Vorsitzender des<br />
Kompetenzbereichs<br />
ECM<br />
im Bitkom.<br />
ECM-Technologien<br />
ermöglichen<br />
Unternehmen,<br />
die wachsende<br />
Menge an<br />
elektronischen<br />
und Papierdokumenten<br />
effizient zu managen,<br />
rechtssicher zu verarbeiten und zu speichern.<br />
Der Leitfaden „Enterprise Content Management<br />
– Überblick und Begriffserläuterungen“<br />
bereitet die Fachbegriffe auf<br />
32 Seiten verständlich für Führungskräfte<br />
und <strong>IT</strong>-Experten auf. Bei einer elektronischen<br />
Akte etwa handelt es sich um eine<br />
abteilungs- und standortübergreifende<br />
Zusammenfassung von Informationen<br />
zu einem Vorgang an einem zentralen<br />
Ort. Mitarbeiter greifen von verschiedenen<br />
Standorten auf eine solche elektronische<br />
Mappe zu, auch mit dem<br />
Smartphone. „Die komplexen technischen<br />
Vorgänge lassen sich durchaus in<br />
verständlichen Worten erklären“, sagt<br />
Nowottka. Dass es Bedarf für einen solchen<br />
Leitfaden gibt, zeigt eine Umfrage<br />
des Unternehmens Trovarit: Demnach<br />
können unter <strong>IT</strong>-Anwendern bislang nur<br />
etwa 60 Prozent den Begriff „ECM“ verständlich<br />
erklären.<br />
In dem zweiten Bitkom-Leitfaden, „ECM<br />
in der Cloud“, werden die technischen<br />
Vorgänge mit Blick auf die „Datenwolke“<br />
vorgestellt. Verantwortliche für Cloud<br />
Computing und weitere <strong>IT</strong>-Anwender<br />
sollen so einen Einblick ins Thema ECM<br />
bekommen: So wird der Frage nachgegangen,<br />
warum es sinnvoll ist, das Dokumenten-Management<br />
in die Cloud zu<br />
verlagern. „Mit dem Leitfaden können<br />
Unternehmen abwägen, ob sich ECM-<br />
Dienste in der Cloud für sie lohnen“, so<br />
Nowottka.<br />
Der Leitfaden „ Enterprise Content Management<br />
– Überblick und Begriffserläuterungen“<br />
steht unter<br />
www.bitkom.org/de/publikationen<br />
zum kostenlosen<br />
Download<br />
bereit. Den Leitfaden<br />
„ECM in<br />
der Cloud“ gibt<br />
es ebenfalls kostenfrei<br />
unter<br />
dieser Adresse.<br />
(PR/ Bitkom<br />
e.V.) <br />
2/12 51
Wenn sich Ihre Anschrift ändert,<br />
wenden Sie sich bitte an<br />
die Redaktion des <strong>SPL<strong>IT</strong>TER</strong>,<br />
Telefon 030 / 90 222-3248<br />
Nr. 2 / <strong>2012</strong><br />
Die nächste Ausgabe hat das<br />
Schwerpunktthema „Cloud<br />
Computing“ und erscheint im August.<br />
Der Redaktionsschluss ist der<br />
13. Juli <strong>2012</strong>.<br />
Wir freuen uns immer über Gastbeiträge,<br />
vor allem, wenn sie direkt<br />
aus der Verwaltung kommen und<br />
Anwendungsbeispiele beschreiben.<br />
Mailen Sie uns einfach Ihre Texte,<br />
faxen Sie sie oder rufen Sie uns an:<br />
E-Mail: Splitter@itdz-berlin.de<br />
Telefon: 030 / 90 222-3248<br />
Fax: 030 / 90 222-3112<br />
Ihre <strong>SPL<strong>IT</strong>TER</strong>-Redaktion<br />
<strong>SPL<strong>IT</strong>TER</strong><br />
Vor 20 Jahren im <strong>SPL<strong>IT</strong>TER</strong><br />
Telefax – tolle Technik mit<br />
Gefahren!<br />
„(...) Telefaxgeräte haben sich in den letzten drei<br />
Jahren in der <strong>Berlin</strong>er Verwaltung durchgesetzt und<br />
in weiten Bereichen faktisch den Fernschreiber verdrängt.<br />
Waren Mitte 1989 nur ca. 100 Telefaxgeräte<br />
im Einsatz, so stieg die Anzahl auf derzeit weit über<br />
500 Geräte.<br />
(...)<br />
Die Integration von Telefax in Datenendgeräte -<br />
sowohl PC-Fax als auch BK-Fax - werden derzeit in<br />
den Laborbereichen des L<strong>IT</strong> erprobt.<br />
(...)<br />
Bei aller Euphorie über die Vorteile von Telefax sollten die Gefahren nicht vergessen<br />
werden. Telefaxgeräte stehen regelmäßig in allgemein zugänglichen Räumen, die<br />
eigentlichen Empfänger sitzen teilweise in anderen Stockwerken. So geschieht es immer<br />
wieder, daß Telefaxe einfach in einen Eingangskorb gelegt werden und von jedem<br />
gelesen werden können.<br />
Bei besonders wichtigen Faxen ruft deshalb der Absender den Empfänger vorab an, »Ich<br />
schicke Ihnen jetzt ein Telefax«, damit der Empfänger am Faxgerät auf die Ausgabe<br />
wartet (und sich die Langeweile damit vertreibt, die anderen bereits rumliegenden, nicht<br />
für ihn bestimmten Telefaxe zu lesen). (...)“ (EB)<br />
<br />
I M P R E S S U M<br />
Herausgeber:<br />
<strong>IT</strong>-<strong>Dienstleistungszentrum</strong> <strong>Berlin</strong>, <strong>Berlin</strong>er Straße 112-115, 1O713 <strong>Berlin</strong><br />
Telefon: +49 3O 9O222-O, Fax: +49 3O 9O222-5864, V.i.S.d.P.: Konrad Kandziora<br />
Internet: www.itdz-berlin.de und im Intranet: www.itdz.verwalt-berlin.de<br />
Redaktion:<br />
Daniel Kämpfe: Tel: O3O / 9O 222-3248, E-Mail: Daniel.Kaempfe@itdz-berlin.de<br />
Pressestelle: Tel: O3O / 9O 222-6111, E-Mail: Presse@itdz-berlin.de<br />
Druck: <strong>IT</strong>-<strong>Dienstleistungszentrum</strong> <strong>Berlin</strong>, Xerox DocuColor 26O Laserdrucker, Auflage: 2.75O<br />
Gastautoren:<br />
Dr. Wolfgang Both (Senatsverwaltung für Wirtschaft, Technologie und Forschung), Prof. Dr.-Ing. Ina Schieferdecker, Florian Marienfeld, Jens<br />
Klessmann (alle Fraunhofer-Institut FOKUS), Doris Stärk (Statistisches Bundesamt), Dietmar Mothes (DLZ-<strong>IT</strong> BMVBS, Ilmenau), Henning Bredel,<br />
Simon Jirka (beide 52°North Initiative for Geospatial Open Source Software GmbH, Münster), Dipl.-Inf. Karin Patenge, Dr. Rita Engemaier (beide<br />
Oracle Deutschland B.V. & Co. KG), Dr. Lutz Rittershaus (Bundesanstalt für Straßenwesen), Lorenz Matzat (datenjournalist.de), Projektteam<br />
DiDaKat der Senatsverwaltung für Gesundheit und Soziales, icomedias GmbH, Norbert Ahrend (Humboldt-Universität zu <strong>Berlin</strong>), Martin G. Bernhard<br />
(ECG Management Consulting GmbH <strong>Berlin</strong>), Andreas Steffen (]init[ AG für Digitale Kommunikation), Anton Skornyakov (WorkHub)<br />
Fotonachweis:<br />
(EB) kennzeichnet Berichte des <strong>IT</strong>DZ <strong>Berlin</strong>, (LPD) Mitteilungen des Landespressedienstes <strong>Berlin</strong>, (PR) sonstige Pressemitteilungen<br />
Titel: Fotolia/ Mopic, S. 4: Pixelio/ Thomas Hugel, S. 5,6: Autor, S. 7: daten.berlin.de, S. 9: USAF (Public Domain), S. 1O: Fraunhofer FOKUS,<br />
S. 11: daten.berlin.de, S. 12: Pixelio/ Oliver Haja, S. 13: www.service-bw.de, S. 14: BMI, S. 15: Pixelio/ K. Brockmann, S. 16/17: Pegel Online/<br />
Autor, S. 18: Sensor-GDI/ Autoren, S. 19-21: Oracle/ Autoren, S. 22: Wikimedia Commons/ Babakathy (Public Domain), S. 24: frankfurt-gestal<br />
ten.de (cc-by-3.O), S. 25: DiDaKat/ Autoren, S. 27: NPB/ Autor, S. 29: Fotolia/ PeJo, Pixelio/ Rainer Sturm, S. 31: www.businesslocationcenter<br />
.de/wirtschaftsatlas, S. 32: Fotolia/ Andres Rodriguez, S. 33: www.dns-ok.de, S. 35: Pixelio/ Gisela Peter, S. 36: Pixelio/ Kunstart.net,S. 37:<br />
obs/Fraunhofer-Institut für Sichere Informationstechnologie S<strong>IT</strong>, S. 38: Fotolia/ Stephen VanHorn, S. 39: ECG Management Consulting GmbH/<br />
Autor, S. 4O: Fotolia/ Fineas, S. 42: Pixelio/ Schmuttel, S. 43: twitter.com, S. 44: Bitkom e.V., S. 46: ]init[ AG/ Autor, S. 47: Pixelio/ Rainer Sturm,<br />
S. 48: Salzburg Research/ Wild & Team, S. 49: Bitkom e.V., S. 5O: Wikimedia Commons/ Maurice Haddad (cc-by-sa-3.O), S. 51: Bitkom e.V.<br />
2/12 52