09.03.2014 Aufrufe

SPLITTER 2012-II - IT-Dienstleistungszentrum Berlin

SPLITTER 2012-II - IT-Dienstleistungszentrum Berlin

SPLITTER 2012-II - IT-Dienstleistungszentrum Berlin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>SPL<strong>IT</strong>TER</strong><br />

<strong>SPL<strong>IT</strong>TER</strong><br />

<strong>IT</strong>-Nachrichten für die <strong>Berlin</strong>er Verwaltung Nr. 2/<strong>2012</strong> - 22. Jahrgang<br />

Schwerpunkt: Open Data<br />

2/12 1


<strong>SPL<strong>IT</strong>TER</strong><br />

Editorial<br />

Liebe Leserinnen und Leser,<br />

<strong>Berlin</strong> nimmt eine Vorreiterrolle in der Entwicklung einer<br />

modernen, serviceorientierten Verwaltung ein. Das zeigte<br />

sich erst jüngst wieder in der Verabschiedung des<br />

Modernisierungsprogramms „ServiceStadt <strong>Berlin</strong> 2016“<br />

durch den Staatssekretärsausschuss zur Verwaltungsmodernisierung.<br />

Erneuerungsbestrebungen in der <strong>Berlin</strong>er Verwaltung gehen<br />

einher mit dem Begehren der Bürgerinnen und Bürger<br />

nach einem offenen und transparenten Regierungs- und<br />

Verwaltungshandeln. Das hat das Land <strong>Berlin</strong> frühzeitig<br />

erkannt und sich daher intensiv Gedanken gemacht, wie<br />

zum Beispiel auch die Datenbestände der öffentlichen<br />

Hand der Bevölkerung zur Verfügung gestellt werden können.<br />

„Open Data“ heißt die Devise – das Öffnen und Bereitstellen von nicht personenbezogenen<br />

Daten in einem maschinenlesbaren Format. Das Institut Fraunhofer<br />

FOKUS, die Senatsverwaltung für Wirtschaft, Technologie und Forschung, die Senatsverwaltung<br />

für Inneres und Sport, das Amt für Statistik <strong>Berlin</strong>-Brandenburg und die<br />

<strong>Berlin</strong>Online Stadtportal GmbH haben gemeinsam eine wegweisende Strategie zum<br />

Umgang mit Open Data vorgestellt. Seit letztem Jahr ist das <strong>Berlin</strong>er Open-Data-Portal<br />

freigeschaltet und wird immer stärker genutzt.<br />

Die Open-Data-Initiative des Landes ist ein wichtiger Baustein für eine fortschrittliche<br />

Netzpolitik. Das <strong>IT</strong>DZ <strong>Berlin</strong> unterstützt als <strong>IT</strong>-Dienstleister der <strong>Berlin</strong>er Verwaltung<br />

diese Position in jeder Hinsicht. In dieser <strong>SPL<strong>IT</strong>TER</strong>-Ausgabe wird der Stand von<br />

Open Data in <strong>Berlin</strong> beschrieben (ab Seite 3). Daneben finden sich viele weitere Beispiele<br />

der Open-Data-Entwicklung aus anderen Bundesländern und der Bundesebene.<br />

Das <strong>IT</strong>DZ <strong>Berlin</strong> betreibt bereits seit 2002 ein eigenes SAP ERP-System (Enterprise-<br />

Resource-Planning), das auch das Rückgrat für die Vertriebs- und Abrechnungsprozesse<br />

bildet. Das <strong>IT</strong>DZ <strong>Berlin</strong> führt das Projekt „UPA“ (Umsatzforecast, Produktstruktur,<br />

Auftragssteuerung) durch, um die internen Abläufe mit dem Ziel zu optimieren,<br />

den Service für die Kunden des Landes weiter zu verbessern und die Effizienz der<br />

Leistungserbringung zu steigern (Seite 30). Zu den zentralen strategischen Zielen des<br />

<strong>IT</strong>DZ <strong>Berlin</strong> zählt die stetige Optimierung des Kundenservice.<br />

Ich wünsche Ihnen eine anregende Lektüre<br />

Konrad Kandziora<br />

Vorstand<br />

2/12 2


<strong>SPL<strong>IT</strong>TER</strong><br />

Editorial 2<br />

Impressum 52<br />

Schwerpunktthema<br />

<strong>Berlin</strong> Open Data 4<br />

Offene Regierungs- und Verwaltungsdaten in <strong>Berlin</strong> 9<br />

Einfache Bereitstellung von Open Data<br />

1O<br />

Open Data in Hamburg 11<br />

Verbundkatalog B3Kat als Linked Open Data freigegeben 13<br />

Prototyp des Open Data-Portals Baden-Württemberg vorgestellt 13<br />

Offene Daten sind das Öl des 21. Jahrhundert 14<br />

Bundesinnenminister beantwortete Fragen zu Open Data 14<br />

Geoportal.DE freigeschaltet 16<br />

PEGELONLINE 16<br />

Sensor-GDI 18<br />

Management von 3D-Geodaten mit Oracle Spatial 19<br />

Open-Government-Lösung für straßenverkehrsrelevante Online-Daten 21<br />

EU: Nutzung öffentlicher Daten als Goldmine 22<br />

Hyperlokal 23<br />

E-Government und Verwaltung<br />

Digitale Daten im Katastrophenschutz (DiDaKat) 25<br />

Zwei Jahre Nationale Prozessbibliothek – Status und Ausblick 26<br />

Mobile Government nimmt Fahrt auf 28<br />

E-Government für Unternehmen ist in Deutschland ausbaufähig 28<br />

58 Prozent der Internetnutzer gehen online ins Amt 29<br />

Alle ELENA-Daten sind gelöscht 29<br />

Berichte und Infos<br />

Optimierung der internen Abläufe im zentralen SAP-System des <strong>IT</strong>DZ <strong>Berlin</strong> 3O<br />

Wirtschaftsatlas und 3D-Stadtmodell zu neuer Anwendung verknüpft 3O<br />

Stromverbrauch von Rechenzentren und Servern sinkt 31<br />

Hohe Investitionskosten Haupthindernis für <strong>IT</strong>-Mittelstand 32<br />

„DNS-Changer“und (k)ein Ende 33<br />

Zunehmend Trojaner, Viren und Würmer im Anhang 35<br />

Wachstum bösartiger Spam-Attachments 35<br />

Weniger Spam-Mails an Behörden 36<br />

Geschäftskunden vertrauen ihren <strong>IT</strong>K-Dienstleistern mehrheitlich bei<br />

Datenschutz und Sicherheit 37<br />

Airbag fürs Smartphone 37<br />

Datenmüll-Management als Konsequenz im Datenmanagement 38<br />

Die Funktionalität eines Computerprogramms und die Programmiersprache<br />

sind nicht urheberrechtlich geschützt 39<br />

Online<br />

Wo „.de“ am stärksten ist 41<br />

<strong>Berlin</strong> unterstützt Bewerbung für Top-Level-Domain „.berlin“ 42<br />

Europäische Kommission veranstaltet Konsultation zu Regeln<br />

für vernetzte intelligente Geräte 42<br />

Verwaltungs- und Beschaffernetzwerk 43<br />

<strong>Berlin</strong> freut sich über Twitter-Ansiedlung 43<br />

Die Hälfte der deutschen Unternehmen setzt soziale Medien ein 44<br />

Die Zukunft der Wikipedia 45<br />

PolitikNews-App 46<br />

WorkHub ermöglicht Barrierefreiheit von öffentlichen Webseiten<br />

mithilfe der Crowd 47<br />

Neue App für Online-Weltkarte OpenStreetMap 48<br />

Wettkampf der Smartphone-Plattformen 49<br />

Veranstaltungen<br />

Weltkongress für Informationstechnologie wird in Montreal stattfinden 5O<br />

Literatur<br />

Fachbuch zu <strong>IT</strong>-Projektmanagement erschienen 51<br />

Bitkom mit neuen Leitfäden zu Enterprise Content Management 51<br />

Dies und Das<br />

Vor 2O Jahren im <strong>SPL<strong>IT</strong>TER</strong>: Telefax – tolle Technik mit Gefahren! 52<br />

2/12 3


Projektgruppe legt<br />

Abschlussbericht vor<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

<strong>Berlin</strong> Open Data<br />

In einem umfassenden Projektbericht<br />

legt die Stadt <strong>Berlin</strong> 39 Handlungsempfehlungen<br />

für die stufenweise Öffnung<br />

der Datenbestände vor. Nach<br />

einer Analyse der rechtlichen und technischen<br />

Situation werden Vorschläge<br />

sowie ein Stufenplan zur Umsetzung<br />

des Open-Data-Gedankens in der öffentlichen<br />

Verwaltung gemacht.<br />

Die Projektgruppe des ServiceStadt <strong>Berlin</strong>-<br />

Vorhabens „Von der öffentlichen zur<br />

offenen Verwaltung“ hat zum Ende des<br />

Jahres 2011 planmäßig ihren Abschlussbericht<br />

vorgelegt. Durch den Wirtschaftsstaatssekretär<br />

Nicolas Zimmer wurde der<br />

Bericht gemeinsam mit dem Fraunhofer-<br />

Institut für offene Kommunikationssysteme<br />

(FOKUS) am 16. Februar <strong>2012</strong> in<br />

einer gut besuchten Pressekonferenz der<br />

Öffentlichkeit vorgestellt.<br />

Der Staatssekretärsausschuss für die<br />

Verwaltungsmodernisierung hatte das<br />

Projekt im Februar 2011 in Auftrag gegeben,<br />

um Gegenstand und Potenziale rund<br />

um das neue Schlagwort „Open Data“<br />

erkunden zu lassen.<br />

Worum geht es bei Open Data?<br />

Nach mehr als zehn Jahren E-Government-Entwicklung<br />

tauchte in der letzten<br />

Zeit ein neuer Begriff auf: Open<br />

Government. Dies meint „offenes und<br />

transparentes Regierungshandeln“. Im<br />

Unterschied zu E-Government ist dies<br />

weniger ein technisch-organisatorisches<br />

Thema als vielmehr eine Weiterentwicklung<br />

unseres demokratischen Staatswesens.<br />

Mit den Schlagworten „Open<br />

Government and Transparency“ bestückte<br />

Barack Obama seine erste Regierungshandlung<br />

im Januar 2009. Das geht über<br />

die virtuellen Rathäuser und die elektronischen<br />

Serviceangebote der Verwaltung<br />

im klassischen E-Government-Prozess<br />

hinaus. Es ist nicht mehr und nicht weniger<br />

als eine Umkehr von Teilen des bisherigen<br />

Regierungs- und Verwaltungshandels:<br />

statt Vertraulichkeit und Geheimhaltung<br />

nun Offenheit und Transparenz,<br />

Angebote zu Partizipation und<br />

zur Zusammenarbeit mit der Zivilgesellschaft,<br />

den Medien, den Unternehmen.<br />

Die im E-Government entwickelte<br />

Beziehung Government-to-Citizen (g2c)<br />

wandelt sich in eine Government-for-<br />

Citizen-Relation (g4c).<br />

Technisch baut Open Government auf<br />

E-Government auf. Ohne die informationstechnische<br />

Infrastruktur bis in<br />

die Anwendungen und Datenbanken<br />

hinein wäre Open Data nicht realisierbar.<br />

Im Ergebnis erfolgt eine selbstständige<br />

und aktive Bereitstellung von Daten und<br />

Informationen aus den Behörden, die<br />

bisher scheinbar verschlossen waren. Dies<br />

geschieht nicht als Antwort auf Einzelanfragen<br />

nach dem Informationsfreiheitsgesetz<br />

sondern in einem breiten Datenstrom<br />

aus vielen Quellen. Mittelfristig<br />

kann ein Angebot als Data-as-a-Service<br />

(DaaS) entstehen.<br />

Inzwischen gibt es mit der Open<br />

Government Partnership ein globales<br />

staatliches Bündnis, das die vielen zivilgesellschaftlichen<br />

Aktivitäten ergänzt.<br />

Die Weiterentwicklung unseres demokratischen<br />

Gemeinwesens ist einer der<br />

Ansätze, Politikverdrossenheit zu begegnen,<br />

Teilhabe zu ermöglichen und zur<br />

Stärkung des gesellschaftlichen Systems<br />

beizutragen. Offenheit kann hierfür ein<br />

Schlüssel sein.<br />

Die öffentliche Hand erhebt – entweder<br />

im gesetzlichen Auftrag oder zu Planungs-<br />

und Prognosezwecken – eine<br />

Vielzahl von Daten, erstellt Karten und<br />

Statistiken und gibt sie z.T. an Nutzer in<br />

Industrie und Medien weiter. In einigen<br />

Bereichen (Bauvorhaben, Haushalt) werden<br />

Bürgerinnen und Bürger bereits heute<br />

direkt in Entscheidungsprozesse einbezogen.<br />

Mit der Öffnung und Bereitstellung<br />

frei verfügbarer Datenbestände<br />

der öffentlichen Hand (Open Data) soll<br />

nun eine Online-Veröffentlichung in offenen<br />

Formaten unter Aufhebung bisheriger<br />

Beschränkungen erfolgen. Damit<br />

wird zukünftig eine unmittelbare maschinelle<br />

Weiterverarbeitung der gelieferten<br />

Daten möglich. Denken wir an aktuelle<br />

Verkehrs- oder Wetterinformationen,<br />

die mittels mobiler Anwendungen<br />

(Apps) direkt und in Echtzeit an den<br />

Nutzer gelangen.<br />

Dies wird in der Europäischen Union<br />

schon seit längerem verfolgt: Mit der Richtlinie<br />

zur Weiterverwendung von Informationen<br />

aus dem öffentlichen Sektor<br />

(PSI-Directive) wurde bereits 2003 eine<br />

entsprechende gesetzliche Grundlage geschaffen,<br />

die 2009 mit der Malmö-Deklaration<br />

noch einmal bestätigt wurde.<br />

<br />

2/12 4


Open Data, die Öffnung der Datenbestände,<br />

ist somit kein rein technischer<br />

Prozess. Er beinhaltet viele rechtliche und<br />

organisatorische Belange, trifft auf unterschiedliche<br />

Verwaltungskulturen und<br />

wird sich erst in einem längeren Prozess<br />

durchsetzen. Fragen wie Datenschutz,<br />

Urheberrecht und Lizenzregeln sind global<br />

abzustimmen. Der anglo-amerikanische<br />

Rechtsraum ist hier führend.<br />

Mit der geplanten Novellierung der PSI-<br />

Richtlinie wird Europa eigene Marken<br />

setzen.<br />

<strong>Berlin</strong> hat sich frühzeitig diesen Herausforderungen<br />

gestellt und mit dem Projekt<br />

Vorarbeit für notwendige Entscheidungen<br />

geleistet. Im Koalitionsvertrag<br />

von 2011 heißt es entsprechend:<br />

„Das Open Government wird zur Förderung<br />

von Transparenz, Partizipation und Zusammenarbeit<br />

ausgebaut. … Die Koalition wird die<br />

Open-Data-Initiative des Landes fortsetzen<br />

und ausbauen. Dazu setzt sie sich für eine<br />

Prüfung der weitergehenden Offenlegung von<br />

öffentlichen Daten (z.B. Geoinformationsdaten)<br />

unter Wahrung des persönlichen Datenschutzes<br />

ein.“<br />

Der <strong>Berlin</strong>er Innenstaatssekretär Andreas<br />

Statzkowski stellte hierzu Anfang <strong>2012</strong><br />

fest:<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

„Die Diskussion um Bürgerbeteiligung und<br />

Transparenz von Politik und Verwaltung hat<br />

aktuell mit Open Government eine neue Dimension<br />

und Qualität erreicht. Der inzwischen<br />

nahezu überall und jederzeit verfügbare<br />

Internetzugang, neue Möglichkeiten für schnelle<br />

Informationsweitergabe und Mitbestimmung<br />

unterstützen diesen gesellschaftlichen Wandel,<br />

sie machen neue Formen der Zusammenarbeit<br />

und der Arbeitsteilung in allen Politikfeldern<br />

möglich. … Dabei würde eine transparente,<br />

partizipative und kollaborative Regierungs-<br />

und Verwaltungsarbeit den staatlichen<br />

Akteuren die Handlungsfreiheit zurückgeben,<br />

die ihnen in einer repräsentativen Demokratie<br />

auch zusteht. Zudem haben Erfahrungen<br />

in den Vereinigten Staaten und Großbritannien<br />

gezeigt, dass die Modernisierung der<br />

Verwaltung mit Hilfe von elektronischen<br />

Medien, die Bereitstellung von offenen Daten<br />

und die neue Dialog-Kultur neue Effizienzpotentiale<br />

generierten. In diesem Sinne können<br />

moderne Kommunikationsmodelle zu einem<br />

integralen Bestandteil modernen Verwaltungshandelns<br />

werden.“<br />

Das Motto für <strong>Berlin</strong> lautet also: Transparenz,<br />

Partizipation und Effizienz.<br />

Vorarbeiten<br />

Anfang 2010 startete das Fraunhofer Institut<br />

FOKUS mit einer Vorstudie zu<br />

Open Data, die der Senatsverwaltung im<br />

Herbst 2010 vorgelegt wurde. Neben einem<br />

Vorschlag für eine „City Data Cloud“<br />

enthielt sie drei Empfehlungen:<br />

• Entwicklung und Beschluss eines<br />

ressortübergreifenden Konzepts zur<br />

Öffnung der Datenbestände<br />

• Technische Umsetzung in einer Daten-Cloud<br />

• Vorbereitung durch kleine Erprobungsprojekte<br />

Parallel zu dieser Voruntersuchung führte<br />

die Senatsverwaltung für Wirtschaft<br />

gemeinsam mit <strong>Berlin</strong>.de im Herbst 2010<br />

eine Onlinebefragung durch, an der sich<br />

mehr als 1.300 <strong>Berlin</strong>erinnen und <strong>Berlin</strong>er<br />

beteiligten. Zur Auswahl standen 20<br />

Datenkategorien von Abfall über Gesundheit<br />

bis hin zu Verkehr, von denen drei<br />

ausgewählt werden konnten. Das mehrheitliche<br />

Interesse galt den städtebaulichen<br />

Informationen, Angaben zur Verwaltung<br />

sowie den Umweltdaten (siehe<br />

Abbildung 1).<br />

Damit gab es eine Vorklärung hinsichtlich<br />

Vorgehen und Inhalten, die nun in<br />

einem größeren Projekt vertieft bearbeitet<br />

werden sollte. <br />

Abbildung 1: Favoriten bei der Auswahl von Datenkategorien<br />

Abbildung 2: Gesamtergebnis des Online-Votings<br />

2/12 5


<strong>SPL<strong>IT</strong>TER</strong><br />

• Plattformkonzept, Technik und Standards<br />

• Handlungsempfehlungen, Leitfaden<br />

Der zuständige Staatssekretärsausschuss<br />

für die Verwaltungsmodernisierung genehmigte<br />

erst einmal ein Teilprojekt.<br />

Abbildung 3: Motivation für Open Data-Initiativen in europäischen Großstädten<br />

Die Konzeptstudie wurde daraufhin ausgeschrieben,<br />

das Fraunhofer-Institut<br />

FOKUS erhielt den Zuschlag. Die Vorschläge<br />

aus der FOKUS-Vorstudie wurden<br />

in der Leistungsbeschreibung für das<br />

Projekt aufgegriffen, weiter vertieft und<br />

zum Gegenstand der Projektarbeit gemacht.<br />

In der Projektphase I wurden die Analysearbeit<br />

sowie die Ausformung des<br />

Plattformkonzepts in Angriff genommen.<br />

Neben dem Auftragnehmer bestand<br />

die Projektgruppe unter Federführung<br />

der Wirtschaftsverwaltung aus Mitarbeitern<br />

der Innenbehörde, des Amtes<br />

für Statistik und der Senatskanzlei.<br />

Abbildung 4: Bereitgestellte Datenkategorien<br />

Gleichzeitig gelang der Sprung auf die<br />

europäische Ebene. Ende 2010 startete<br />

ein EU-Projekt von fünf Partnerstädten,<br />

das auch ein Arbeitspaket Open Data<br />

beinhaltet. Die Federführung des Projekts<br />

„Open Cities“ liegt in Barcelona, das<br />

Arbeitspaket gestaltet <strong>Berlin</strong>. Weitere<br />

Partnerstädte sind Helsinki, Amsterdam<br />

und Paris. Anfang 2011 nahm eine neue<br />

Arbeitsgruppe im Städtenetzwerk<br />

EuroCities die Arbeit zu Open Data auf.<br />

Hier haben sich 22 Städte zusammengefunden,<br />

um länderübergreifend über<br />

Erfahrungsaustausch und Abstimmung<br />

zu einer Harmonisierung in technischen<br />

und rechtlichen Fragen zu finden. Auch<br />

hier hat <strong>Berlin</strong> die Leitung der Arbeitsgruppe<br />

übernommen.<br />

In einer ersten Umfrage wurden Motivation<br />

und Datenlage in den Städten ermittelt<br />

(siehe Abbildung 3).<br />

Das Projekt<br />

<strong>Berlin</strong> betrat mit diesem Vorhaben Neuland.<br />

Keine andere deutsche Stadt hatte<br />

bisher ein Konzept zu Open Government<br />

oder Open Data vorgelegt. Daher wurde<br />

ein eigenes Projekt entwickelt. Das Vorhaben<br />

gliederte sich in sechs Themenblöcke:<br />

• Bedarfs- und Potenzialanalyse<br />

• Organisationsanalyse<br />

• rechtliche Rahmenbedingungen<br />

• Geschäftsmodelle<br />

Der erste <strong>Berlin</strong> Open Data Day (BODDy)<br />

im Mai 2011 zeigte mit mehr als 130<br />

Besuchern das große Interesse sowohl in<br />

der Verwaltung als auch in der Öffentlichkeit<br />

an diesem Thema. Die Veranstaltung<br />

wurde gemeinsam vom Aktionsbündnis<br />

„Open Data <strong>Berlin</strong>“, einem informellen<br />

Zusammenschluss von Netzaktivisten,<br />

Vertretern aus der Verwaltung, Forschern<br />

sowie Mitarbeitern von Firmen vorbereitet<br />

und gestaltet. Die Projektgruppe konnte<br />

hier bereits erste Ergebnisse vorstellen.<br />

Eine weitere Erkenntnis aus der Veranstaltung<br />

war, dass die technische Entwicklung<br />

zur Sammlung und Bereitstellung<br />

von Daten durch Vorarbeiten des<br />

<strong>IT</strong>DZ <strong>Berlin</strong> sowie der <strong>Berlin</strong>Online Stadtportal<br />

GmbH weiter vorangeschritten<br />

war, als bisher angenommen. Daher wurde<br />

mit dem Projektantrag für die Phase <strong>II</strong> ein<br />

Ausbau über das eigentlich vorgesehene<br />

Plattformkonzept hinaus in die pilothafte<br />

Realisierung eines Datenportals eingereicht.<br />

Mit neuen Partnern und politischem<br />

Rückenwind ging es über den Som- <br />

2/12 6


mer an die Gestaltung des ersten Datenportals<br />

in Deutschland.<br />

Datenportal<br />

Mit dem Aufbau und dem Internetangebot<br />

eines Datenportals wurde ein zentraler<br />

Zugang zu den bisher verteilt vorliegenden<br />

Datenbeständen der Landesverwaltung<br />

geschaffen. Prinzip ist dabei,<br />

dass die Originaldaten bei den Bearbeitern<br />

verbleiben, sie dort weiterhin gepflegt<br />

und aktualisiert werden. Damit<br />

bietet das Datenportal eine gut strukturierte<br />

Vermittlung zwischen Datennutzer<br />

und Datenquelle.<br />

Um dies einheitlich zu gestalten, die Daten<br />

gleichermaßen zu beschreiben und<br />

eine Vergleichbarkeit zu ermöglichen,<br />

wurde im Projekt viel Aufwand in den<br />

Entwurf eines Metadatenschemas gesteckt.<br />

Die Metadaten beschreiben ein einzelnes<br />

Datum, einen Datensatz, hinsichtlich<br />

Titel, Quelle und Format, enthalten<br />

des Weiteren Angaben zur räumlichen<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

und zeitlichen Abdeckung, dem Bearbeiter<br />

oder zu den Nutzungsbedingungen.<br />

Das Metadatenschema entstand in gründlicher<br />

Auswertung bestehender Angebote,<br />

z.B. der Datenportale von London<br />

oder Wien. Es baut auf dem Dublin-Core<br />

auf, einer Sammlung von Konventionen<br />

zur Beschreibung von Objekten und Dokumenten<br />

im Netz. Dadurch werden<br />

Objekte leichter auffindbar, vergleichbar<br />

und verknüpfbar.<br />

Die Ablage der Metadaten (nicht des<br />

Datums selber) erfolgt in einem Datenregister.<br />

Dies stellt das Backend des Datenportals<br />

dar. Im Rahmen der Vorbereitungen<br />

für das <strong>Berlin</strong>er Datenportal haben<br />

wir uns für das Comprehensive<br />

Knowledge Archive Network (CKAN)<br />

der Open Knowledge Foundation, einem<br />

Open Source-Paket, entschieden.<br />

Zum einen erlaubte dies eine schnelle<br />

Realisierung, zum anderen wurde CKAN<br />

bereits in anderen Städten eingesetzt. Ein<br />

Leistungsmerkmal von CKAN ist die<br />

Föderation, dass heißt, die Möglichkeit<br />

der Verknüpfung unter- oder übergeordneter<br />

Aggregationsebenen von Datenbeständen.<br />

Somit können <strong>Berlin</strong>er Inhalte<br />

direkt auch in übergeordneten Ebenen,<br />

wie Bund oder Europa, bereitgestellt<br />

werden. Die in der Pilotphase gewonnenen<br />

Erfahrungen flossen in das Arbeitspaket<br />

des OpenCities-Projekts ein.<br />

Das Schaufenster nach außen ist das<br />

Datenportal daten.berlin.de. Die Oberfläche<br />

ist schnell und übersichtlich mit<br />

einem Drupal Content Management System<br />

gestaltet worden. Hier geht es weniger<br />

um aufwändige Gestaltung und Navigation.<br />

Denn die Datenbestände sind<br />

vorwiegend maschinenlesbar gestaltet.<br />

Vielmehr muss eine Suche schnell zum<br />

Ergebnis führen und es Maschinen ermöglichen,<br />

sich einfach durch den Datenbestand<br />

zu arbeiten. Daher ist als ein<br />

weiteres Merkmal in den Metadaten eine<br />

Datenkategorie vorgegeben. Diese Zuweisung<br />

beschleunigt die gezielte Suche.<br />

Gleichzeitig hilft sie dem menschlichen<br />

Besucher der Seite bei der Navigation<br />

durch das Angebot.<br />

Registrierte Datenbearbeiter können<br />

selbstständig neue Datensätze einstellen<br />

bzw. bestehende aktualisieren. Zum einen<br />

ist ein manueller Eintrag in das Datenregister<br />

möglich (hierfür liegt ein Leitfaden<br />

vor). Zum anderen bietet das CMS-<br />

Imperia-Werkzeug „SimpleSearch“ eine<br />

Exportfunktion in das Register, mit der<br />

alle Merkmale zu den Metadaten gleich<br />

erfasst und übertragen werden (siehe<br />

Artikel Seite 10). Bei Schulungen wird<br />

zukünftig stärker auf diese Funktionalität<br />

hingewiesen.<br />

<strong>Berlin</strong>s Portal für offene Daten: <strong>Berlin</strong> Open Data (daten.berlin.de)<br />

Mit diesem Konzept ist es gelungen,<br />

bereits am 14. September 2011 das erste<br />

Datenportal einer deutschen Stadt freizuschalten.<br />

Ummittelbar nach der <strong>Berlin</strong>-<br />

Wahl standen bereits die Wahlergebnisse<br />

maschinenlesbar als neuer Datensatz im<br />

Portal, bereitgestellt vom Amt für Statistik<br />

<strong>Berlin</strong>-Brandenburg. Nur eine Woche<br />

später stand die „Wahl-App“ bereit, die<br />

Wahlergebnisse und Bevölkerungsdaten<br />

miteinander verknüpfte. <br />

2/12 7


Obwohl das Angebot von der<br />

Denkmalliste über die Konjunkturdaten<br />

bis hin zu Wanderwegen im Wesentlichen<br />

aus maschinenlesbaren Rohdaten<br />

besteht, verzeichnen wir einen stetigen<br />

Besucherstrom auf unser Datenportal.<br />

Nach dem ersten Hype im September hat<br />

sich die Nutzerzahl auf werktäglich ca.<br />

1.000 Besucher eingependelt. Der Tagesrhythmus<br />

folgt dem Sonnenstand, mittags<br />

sind also die meisten Besucher auf der<br />

Plattform. Vorrangig besucht werden die<br />

Datensätze. Da die Klickrate auf die Datensätze<br />

inzwischen höher ist als auf die<br />

Startseite, werden die Datensätze offenbar<br />

mehr und mehr von Suchmaschinen<br />

direkt gefunden. Angeregt durch den<br />

bundesweiten Wettbewerb „Apps4-<br />

Deutschland“ sind neue Anwendungen<br />

mit <strong>Berlin</strong>er Datensätzen entstanden. Von<br />

den über 170 Einsendungen nutzten 20<br />

unmittelbar den <strong>Berlin</strong>er Bestand. Mehrere<br />

Beiträge aus <strong>Berlin</strong> wurden auf der<br />

CeB<strong>IT</strong> <strong>2012</strong> ausgezeichnet. Dazu gehörte<br />

u.a. die „Weihnachtsmarkt-App“ und das<br />

Angebot des deutschen Bibliotheksverbundes<br />

unter Beteiligung des KOBV<br />

(siehe Artikel Seite 13).<br />

Ergebnisse und Umsetzung<br />

In der Zwischenzeit sind weitere Anwendungen,<br />

aufbauend auf <strong>Berlin</strong>er Datensätzen,<br />

entstanden und auch über das<br />

Datenportal verfügbar. Der Datenbestand<br />

ist kontinuierlich gewachsen, aus Landesund<br />

Bezirksverwaltungen kommen stetig<br />

neue Beiträge.<br />

Erste Erfahrungen aus dem Portalbetrieb<br />

sind in den Abschlussbericht eingeflossen.<br />

Er liefert auf 180 Seiten detaillierte<br />

Betrachtungen zu den o.g. Themenblöcken<br />

und schließt mit einem Stufenplan<br />

und 39 Handlungsempfehlungen<br />

zum Umsetzung des Open Data-Konzepts<br />

in <strong>Berlin</strong> ab.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

So wurde festgestellt, dass das rechtliche<br />

Umfeld durch viele Fachgesetze recht unübersichtlich<br />

und nicht harmonisch gestaltet<br />

ist. Daher ist in <strong>Berlin</strong> geplant, den<br />

Punkt der Datenbereitstellung in einem<br />

übergreifenden E-Government- und<br />

Organisationsgesetz mit zu regeln. Auch<br />

der Bund arbeitet an einem entsprechenden<br />

Gesetz.<br />

Einer weiteren Klärung bedürfen die Lizenz-<br />

und Nutzungsbedingungen. Wir<br />

haben uns erst einmal an der Creative<br />

Commons Licence, die auch in Wikipedia<br />

für dort eingestellte Inhalte angewendet<br />

wird, orientiert. Diese Lizenzform ist im<br />

Internet weitgehend bekannt und akzeptiert,<br />

andererseits nicht speziell für Daten<br />

ausgelegt. Hier wird zukünftig eine Weiterentwicklung<br />

und globale Harmonisierung<br />

erforderlich sein. Unsere europäischen<br />

Netzwerke sollen uns hierbei<br />

helfen.<br />

Die Handlungsempfehlungen in der Studie<br />

sind nach einem kurz-, mittel- und<br />

langfristigen Zeithorizont gegliedert. Des<br />

Weiteren sind die Bereiche Politik, Verwaltung,<br />

Recht und Technik angesprochen.<br />

Kurzfristig sind einige Punkte auf der<br />

politischen Ebene zu klären: Wie sollen<br />

– gemäß der zitierten Erklärung aus der<br />

Koalitionsvereinbarung – Fortsetzung<br />

und Ausbau der Open-Data-Initiative<br />

konkret erfolgen? Wird es einen Open-<br />

Data-Beauftragten geben? Wie kann der<br />

Übergang vom Labor- und den Regelbetrieb<br />

gestaltet werden? Wo wird er<br />

angesiedelt? Mittelfristige Themenstellungen<br />

sind u.a. technischer Art: Auf<br />

welche Datenformate verständigt man<br />

sich? Sind diese aus den vorhandenen<br />

Datenbeständen ableitbar? Sind Konverter<br />

zu entwickeln? Welche Weiterbildungsmaßnahmen<br />

müssen gestaltet<br />

und angeboten werden. Die Klärung<br />

offener Rechtsfragen hat sicher Langfristcharakter.<br />

Hier ist ein <strong>Berlin</strong>er Alleingang<br />

nicht Ziel führend. Vielmehr muss es zu<br />

einer bundesweiten und europäischen<br />

Abstimmung und Harmonisierung<br />

kommen. Hierzu gibt es im Moment<br />

zwei Ansätze: Zum einen hat die europäische<br />

Kommission Ende 2011 den Entwurf<br />

für eine Novellierung der PSI-Richtlinie<br />

von 2003 vorgelegt, der nun in den<br />

Mitgliedsstaaten beraten wird. Zum<br />

anderen hat sich eine Bund-Länder-<br />

Arbeitsgruppe unter Federführung des<br />

Bundesinnenministeriums gebildet, die<br />

dem <strong>IT</strong>-Planungsrat zu den Themen<br />

Open Government und Open Data zuarbeitet.<br />

Damit bestehen Strukturen, die<br />

genannten Herausforderungen bis auf die<br />

europäische Ebene zu tragen.<br />

Auf dem <strong>Berlin</strong> Open Data Day<br />

(BODDy12) am 6. Juni <strong>2012</strong> im <strong>Berlin</strong>er<br />

Rathaus haben die Senatsverwaltungen<br />

die nächsten Schritte zur Umsetzung der<br />

Open Data-Initiative vorgestellt. Schwerpunkt<br />

des Treffens war die Sicherung der<br />

Nachhaltigkeit aus der Projektphase<br />

heraus. Dazu werden in den gegenwärtigen<br />

Haushaltberatungen Mittel für die<br />

Sicherung des Regelbetriebes eingestellt.<br />

Danach stehen organisatorische Entscheidungen<br />

an. Weiter gepflegt wird die Zusammenarbeit<br />

mit anderen Städten, wie<br />

Hamburg, Wien und Bremen.<br />

Der Abschlussbericht steht übrigens unter<br />

http://bln.io/bEw5i3q zum kostenlosen<br />

Download bereit.<br />

Effizienz durch Transparenz?<br />

In der nächsten Zeit wird es auch darum<br />

gehen, den Effizienzgewinn für die Verwaltung<br />

durch die Öffnung und Bereitstellung<br />

bisher interner Datenbestände<br />

deutlich zu machen. Zweifellos ist ein<br />

Gewinn an Legitimität durch die Öffnung<br />

für das Regierungs- und Verwaltungshandeln<br />

zu erzielen. Die Nachvollziehbarkeit<br />

und Überprüfbarkeit von<br />

Regierungshandeln ohne die Einzelanfrage<br />

nach Informationsfreiheitsgesetz<br />

trägt zu einer Stärkung unseres demokratischen<br />

Gemeinwesens bei. Gleichzeitig<br />

bietet die Öffnung eine Grundlage für<br />

eine qualifizierte Partizipation über ein<br />

„Bauchgefühl“ hinaus. Vorschläge werden<br />

in ihrer Konsequenz verständlich und<br />

nachvollziehbar, Alternativen sachkundig<br />

abwägbar. Neben dem Zuwachs an Legitimität<br />

zeigt sich hier bereits ein Effizienzpotenzial<br />

von Offenheit, da alle Beteiligten<br />

auf einer gleichen Informationsbasis<br />

und -ebene agieren können. Missverständnisse<br />

und Reibungsverluste werden so<br />

reduziert.<br />

Beispiele aus anderen Ländern zeigen,<br />

dass durch die Bereitstellung von <br />

2/12 8


Die Freigabe der GPS-Daten durch das US-Militär<br />

ermöglichte eine Milliardenindustrie auf Basis dieser<br />

offenen Daten (im Bild: Navstar 2 GPS-Satellit)<br />

Daten auch unmittelbar die öffentlichen<br />

Kassen entlastet werden. Eine Abschätzung<br />

in Manchester ergab, dass es<br />

wesentlich kostengünstiger ist, Informationen<br />

für die Bürger aktiv bereitzustellen<br />

statt sie auf Einzelanfrage gemäß Informationsfreiheitsgesetz<br />

herauszusuchen<br />

und zur Verfügung zu stellen. Die Suche<br />

nach angefragten Dokumenten kostet die<br />

Stadtverwaltung jährlich mehr als acht Millionen<br />

britische Pfund. Diesen Betrag<br />

möchte man durch eine aktive Bereitstellung<br />

von Dokumenten aus dem Rathaus<br />

deutlich reduzieren.<br />

Die Veröffentlichung von Subventionsempfängern<br />

aus der europäischen Agrarbeihilfe<br />

hatte zur Folge, dass ein Zuckerkartell<br />

aufgedeckt werden konnte. Mittels<br />

gefälschter Exportbescheinigungen hatte<br />

eine kriminelle Gruppe über drei Millionen<br />

Euro ergaunert. Erst die Offenlegung<br />

der Subventionsliste machte der Prüfbehörde<br />

OLAF einen Abgleich möglich.<br />

Im Ergebnis konnte nicht nur Betrügern<br />

das Handwerk gelegt werden, auch der<br />

Steuerzahler wird entlastet.<br />

Offenheit trägt auch zum Gemeinwohl<br />

bei. Nach mehreren Todesfällen in englischen<br />

Krankenhäusern wurde die Überlebensrate<br />

nach Herzoperationen in den<br />

einzelnen Häusern untersucht und veröffentlicht.<br />

In der Folge sank die Todesrate<br />

um 21 Prozent. Die Patienten schauten<br />

genauer hin, aber auch die Ärzte arbeiteten<br />

akkurater. Letztlich verbesserte sich nicht<br />

nur die Qualität der Arbeit, mit der Reduzierung<br />

von Komplikationen nahm auch<br />

die Lebensqualität der Patienten zu.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

In den USA war der Effekt<br />

einer vergleichbaren Aktion<br />

ebenso dramatisch: So zeigte<br />

die Veröffentlichung von<br />

Hygienekontrollen in den<br />

Restaurants von Los Angeles<br />

deutliche Wirkung: Während<br />

sich im Folgejahr der allgemeine<br />

Gesundheitszustand<br />

der Bevölkerung um 2,9 Prozentpunkte<br />

leicht verschlechterte,<br />

nahm die Zahl von Erkrankungen<br />

des Magen-<br />

Darm-Trakts um 13,3 Prozent<br />

deutlich ab. Gleichzeitig<br />

erhöhte sich der Umsatz in<br />

den mit „gut“ bewerteten Restaurants.<br />

Der letzte Fall zeigt das ökonomische<br />

Potenzial von Offenheit und Transparenz.<br />

Bekanntestes Beispiel ist die Freigabe<br />

der GPS-Daten durch das US-Militär.<br />

Seit dem ist eine Milliardenindustrie auf<br />

der Basis dieser Daten entstanden, von<br />

GPS-Chips über GPS-Geräte bis hin zu<br />

Services für Navigation, Flottenmanagement<br />

und Vermessungswesen.<br />

Dies Beispiel illustriert, welche großes,<br />

auch wirtschaftliches Potenzial in den<br />

Datenbeständen der öffentlichen Hand<br />

steckt. Hier entstehen ganz neue<br />

Geschäftsideen und Wertschöpfungsketten.<br />

Die Europäische Kommission<br />

schätzt das Marktvolumen der öffentlichen<br />

Daten auf 40 Milliarden Euro, bei<br />

Veredelung und kommerzieller Verwertung<br />

auf bis zu 140 Milliarden Euro. Um<br />

dieses Potenzial schöpfen zu können,<br />

bedarf es einer weitgehenden Harmonisierung<br />

und Liberalisierung von Bereitstellung<br />

und Zugang.<br />

Hierin steckt die Chance, die weitgehend<br />

kostenfreie Datenbereitstellung durch<br />

Mehreinnahmen zu kompensieren, wie<br />

es die Dänische Behörde für Unternehmen<br />

und Gebäude (DECA) oder das<br />

Österreichische Bundesamt für Eich- und<br />

Vermessungswesen (BEV) durch eine<br />

neue Gebührenpolitik schon unter Beweis<br />

gestellt haben.<br />

So könnten am Ende Transparenz und<br />

Effizienz vielleicht ein anderes Ergebnis<br />

haben als eingangs angenommen.<br />

DR. WOLFGANG BOTH<br />

Senatsverwaltung für Wirtschaft, Technologie<br />

und Forschung <br />

Open Government Data im<br />

Fokus<br />

Offene Regierungs- und<br />

Verwaltungsdaten in<br />

<strong>Berlin</strong><br />

Seit einigen Jahren wird im In- und<br />

Ausland unter dem Losungswort<br />

„Open Government“ die weitere<br />

Offenlegung von Regierungs- und<br />

Verwaltungshandeln zur Stärkung<br />

von Transparenz, Partizipation und<br />

Kooperation verfolgt. Mehr Transparenz<br />

im öffentlichen Sektor soll dabei<br />

u.a. durch die vermehrte Bereitstellung<br />

von Daten und Informationen<br />

öffentlicher Stellen in maschinenlesbaren<br />

Formaten und unter Lizenzen,<br />

welche eine einfache Weiterverwendung<br />

durch jedermann erlauben,<br />

erreicht werden.<br />

Ende letzten Jahres veröffentlichte die<br />

Europäische Kommission einen Vorschlag<br />

für eine Strategie zu offenen Regierungs-<br />

und Verwaltungsdaten. Die<br />

Kommissionsstrategie sieht u.a. eine<br />

Fortentwicklung der Richtlinie zur<br />

Informationsweiterverwendung vor. In<br />

Deutschland wird die Öffnung von Daten<br />

und Informationen öffentlicher Stellen<br />

auf Bundesebene mit dem<br />

Regierungsprogramm „Vernetzte und<br />

transparente Verwaltung“ sowie dem<br />

Steuerungsprojekt Open Government<br />

des <strong>IT</strong>-Planungsrates verfolgt. Das<br />

Bundesministerium des Innern hat<br />

jüngst eine Studie zu Open Government<br />

Data für Deutschland beim <strong>Berlin</strong>er<br />

Fraunhofer-Institut FOKUS beauftragt.<br />

Aber auch auf Länderebene manifestieren<br />

sich die Bestrebungen zur Öffnung<br />

von Verwaltungsdaten. Gerade <strong>Berlin</strong><br />

nimmt eine Vorreiterstellung im Hinblick<br />

auf offene Daten ein. Im Auftrag<br />

der <strong>Berlin</strong>er Senatsverwaltung für Wirtschaft,<br />

Technologie und Forschung hat<br />

das Fraunhofer-Institut FOKUS im Jahr<br />

2011 die Bereitstellung von Daten <br />

2/12 9


durch öffentliche Stellen aus strategischer,<br />

betrieblich-organisatorischer, rechtlicher<br />

und technischer Hinsicht untersucht.<br />

Gleichzeitig entwickelte FOKUS gemeinsam<br />

mit der <strong>Berlin</strong>Online Stadtportal<br />

GmbH & Co. KG das <strong>Berlin</strong>er Datenportal<br />

daten.berlin.de, welches im Herbst<br />

2011 als erstes offizielles Open-Data-<br />

Portal in Deutschland gestartet wurde.<br />

Ziel der <strong>Berlin</strong>er Untersuchung war es,<br />

aufbauend auf dem Ist-Zustand der Bereitstellung<br />

von Daten und Informationen<br />

durch öffentliche Stellen im Land<br />

<strong>Berlin</strong>, Handlungsschritte hin zu offeneren<br />

Regierungs- und Verwaltungsdaten<br />

zu identifizieren und bezüglich ihrer<br />

Umsetzbarkeit in verschiedene Zeithorizonte<br />

einzuteilen. Als Ergebnis dieser<br />

Analyse hat FOKUS unter anderem<br />

folgende kurz- bis mittelfristige Schritte<br />

und Handlungsempfehlungen zur erfolgreichen<br />

weiteren Umsetzung offener<br />

Verwaltungsdaten in <strong>Berlin</strong> ausgemacht:<br />

• Abgabe eines klaren politischen Bekenntnisses<br />

zu offenen Daten in und<br />

aus <strong>Berlin</strong><br />

• Benennung von Verantwortlichen für<br />

offene Verwaltungsdaten<br />

• Finanzierung des Betriebs des <strong>Berlin</strong>er<br />

Datenportals und damit verbundener<br />

Prozesse<br />

• Ausbau der Bereitstellung von Datensätzen<br />

unter Creative Commons Lizenz<br />

mit Namensnennung<br />

• Koordination offener Verwaltungsdaten<br />

mit existierenden Vorhaben<br />

• Fortentwicklung von Schulungen für<br />

Datenbereitsteller<br />

Mittel- bis langfristig ergeben sich weitere<br />

Handlungsbedarfe wie:<br />

• Entwicklung einer generellen<br />

Informationsstrategie für die <strong>Berlin</strong>er<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Verwaltung, in die der Umgang mit<br />

offenen Verwaltungsdaten eingebettet<br />

ist<br />

• Anpassung gesetzlicher Grundlagen<br />

und Verwaltungsvorschriften in <strong>Berlin</strong><br />

zur Fortentwicklung der Bereitstellung<br />

offener Daten<br />

• Ausbau des <strong>Berlin</strong>er Open-Data-Portals<br />

um Dienste und Werkzeuge für<br />

die Aggregation, Auswertung und<br />

Visualisierung von Basisdaten sowie<br />

daraus abgeleiteter Daten und Informationen<br />

Nur mit der kontinuierlichen Pflege und<br />

Fortentwicklung der Daten- und<br />

Informationsangebote kann es <strong>Berlin</strong><br />

gelingen, die gelegten Grundlagen nachhaltig<br />

in der öffentlichen Verwaltung zu<br />

verankern und einen langfristigen<br />

Paradigmenwechsel hin zu einer offeneren<br />

Administration aktiv zu gestalten.<br />

Dazu gab es aus Anlass der Veröffentlichung<br />

der <strong>Berlin</strong>er Open Data Strategie<br />

am 16. Februar <strong>2012</strong> ein klares politisches<br />

Bekenntnis vom Staatssekretär für Wirtschaft<br />

und Forschung Nicolas Zimmer.<br />

Beim 2. <strong>Berlin</strong> Open Data Day (BODDy<br />

<strong>2012</strong>) am 6. Juni <strong>2012</strong> wurden aktuelle<br />

Ergebnisse und nächste Schritte der Umsetzung<br />

besprochen.<br />

Die <strong>Berlin</strong>er Open Data Studie kann unter<br />

folgendem Link heruntergeladen werden:<br />

www.berlin.de/projektzukunft/<br />

fileadmin/user_upload/pdf/sonstiges/<strong>Berlin</strong>er_Open_Data-Strategie.pdf<br />

Das Programm von BODDy <strong>2012</strong> ist<br />

unter: berlin.opendataday.de/berlineropen-data-day/boddy-<strong>2012</strong>/<br />

verfügbar.<br />

PROF. DR.-ING. INA SCHIEFERDECKER<br />

Abteilungsleiterin<br />

Fraunhofer-Institut FOKUS<br />

FLORIAN MARIENFELD<br />

Wissenschaftlicher Mitarbeiter<br />

Fraunhofer-Institut FOKUS<br />

JENS KLESSMANN<br />

Wissenschaftlicher Mitarbeiter<br />

Fraunhofer-Institut FOKUS, Doktorand<br />

der DHV Speyer <br />

Einfache Bereitstellung<br />

von Open Data<br />

Bereits heute werden eine Vielzahl an<br />

strukturierten und unstrukturierten<br />

Daten online im <strong>Berlin</strong>er Intranet und<br />

dem Stadtinformationssystem <strong>Berlin</strong><br />

.de zur Verfügung gestellt.<br />

Mehr als 1.000 Online-Redakteure/innen<br />

der <strong>Berlin</strong>er Verwaltung sorgen tagtäglich<br />

für die Datenpflege und -aktualisierung.<br />

Damit diese veröffentlichten Daten tatsächlich<br />

im Sinne von „Open Data“ genutzt<br />

werden können, müssen sie aufbereitet<br />

werden, dass sie das wichtige Kriterium<br />

der Maschinenlesbarkeit erfüllen.<br />

Für die <strong>Berlin</strong>er Online-Redakteure/<br />

innen wurde dafür ein einfacher Weg für<br />

die Generierung von Open Data geschaffen,<br />

der den existierenden Datenpflege-<br />

Workflow mit dem eingesetzten Content<br />

Management Systems (CMS) „Imperia“<br />

sinnvoll erweitert.<br />

Hierzu wurde in das CMS der von der<br />

<strong>Berlin</strong>Online GmbH und dem <strong>IT</strong>DZ<br />

<strong>Berlin</strong> entwickelte „SimpleSearch-Baukasten“<br />

integriert:<br />

Die SimpleSearch greift auf eine Datenbank<br />

zu, die sich aus strukturierten Daten<br />

speist. Diese strukturierten Daten (bspw.<br />

CSV-Dateien) werden entweder aus vorhandenen<br />

Informationssystemen oder<br />

aus Programmen (bspw. für Tabellenkalkulationen)<br />

exportiert, durch das Hochladen<br />

im CMS hinterlegt und in unterschiedlichen<br />

Abständen vom Redakteur<br />

aktualisiert - oder aber eine solche Datei<br />

wird von einem anderen Verfahren automatisch<br />

bereitgestellt und die Quelle wird<br />

in der SimpleSearch referenziert. <br />

2/12 10


Für die Online-Redakteure von<br />

berlin.de wurden einfache Wege für die<br />

Erzeugung offener Daten gefunden<br />

Der Nutzerzugang erfolgt durch eine<br />

mit dem Redaktionssystem Imperia einmalig<br />

erstellte und anforderungsgemäß<br />

konfigurierte Ausgabeseite.<br />

Neben der optischen Anzeige der Daten<br />

in der Ausgabeseite transformiert die<br />

SimpleSearch die Daten in maschinenlesbare<br />

Formate (XML, RSS, JSON, ...) und<br />

stellt einen parametrisierten Zugriff zur<br />

Verfügung. Sie kann daher für vorhandene<br />

Datenquellen, die nicht über weitere<br />

Eigenschaften verfügen, als Transformationswerkzeug<br />

sowie als REST-<br />

Schnittstelle eingesetzt werden. Im<br />

Internet ist zudem nach Festlegung der<br />

Lizenz die unmittelbare Übergabe der<br />

Daten in das Open Data-Portal des Landes<br />

möglich.<br />

Somit lässt sich zusammenfassend sagen:<br />

Die Bereitstellung von (im technischen<br />

Sinne „echter“) Open Data wird in <strong>Berlin</strong><br />

bereits an der Quelle (CMS) unterstützt.<br />

Hierfür notwendige Arbeitsmittel sind<br />

bereits in die vorhandene Arbeitsumgebung<br />

der Online-Redakteure/innen<br />

integriert und sorgen für einen einfachen<br />

Zugang.<br />

Weitere Informationen:<br />

support.berlin.de/wiki/index.php/<br />

SimpleSearch-Baukasten<br />

DAVID LIPPERT, TINO EILENBERGER<br />

Produktmanagement<br />

<strong>IT</strong>DZ <strong>Berlin</strong><br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Open Data in Hamburg<br />

Schriftliche Kleine Anfrage des Abgeordneten<br />

Hansjörg Schmidt (SPD)<br />

vom 5. August 2011 und Antwort des<br />

Hamburger Senats.<br />

Bewusst oder unbewusst hantieren wir<br />

täglich mit einer Unmenge an nicht<br />

personenbezogenen Informationen,<br />

zum Beispiel Fahrpläne, Geo- oder Umweltdaten,<br />

Statistiken oder Gesetzestexte.<br />

Grundlage dieser Informationen sind<br />

häufig aus Steuergeldern finanzierte Daten,<br />

die isoliert in Datenbankengespeichert<br />

und der Öffentlichkeit nicht oder nur sehr<br />

eingeschränkt zugänglich sind.<br />

Das Prinzip von Open Data sieht vor,<br />

dass Daten strukturiert und maschinenlesbar<br />

zur Verfügung gestellt werden,<br />

sodass sie sich filtern, durchsuchen und<br />

von anderen Anwendungen weiterverarbeiten<br />

lassen können. Dies kann viele<br />

positive Entwicklungen befördern,<br />

zum Beispiel im Bereich der Wissenschaft,<br />

der politischen Bildung, der Partizipation<br />

an demokratischen Prozessen und in<br />

der Wirtschaft. So will beispielsweise die<br />

Handelskammer Hamburg mit Open<br />

Data zur Hochburg mobiler Applikationen<br />

entwickeln. Ebenfalls kann der elektronische<br />

Zugang zu Verwaltungsinformationen<br />

Bürokratiekosten vermindern.<br />

Fragen an den Hamburger Senat<br />

Der Senat weist darauf hin, dass es bislang<br />

in Deutschland keine allgemeingültige<br />

Definition von Open Data gibt. In Anlehnung<br />

an die von der Sunlight<br />

Foundation herausgegebenen Prinzipien<br />

zu offenen Regierungsinformationen<br />

(Sunlight Foundation: Ten Principles for<br />

Opening Up Government Information,<br />

Sunlight Foundation, Washington DC<br />

2010. Online: sunlightfoundation.com/<br />

policy/documents/ten-opendataprinciples/<br />

wird üblicherweise unter dem<br />

Begriff „Open Data“ die Öffnung von<br />

Datenbeständen der öffentlichen Hand –<br />

in der Regel in Form von strukturierten,<br />

maschinenlesbaren Rohdaten – zur kostenlosen<br />

und lizenzfreien Weiterverwendung<br />

und Weiterverbreitung für<br />

die Allgemeinheit bezeichnet. Charakteristisch<br />

für Open Data ist, dass es keine<br />

rechtlichen, technischen oder sonstigen<br />

Hindernisse gibt, die den Zugang, die<br />

Weiterverwendung und die Weiterverbreitung<br />

der Daten einschränken.<br />

Ausgenommen von Open Data sind<br />

personenbezogene Daten sowie Daten,<br />

die anderweitig schutzwürdig sind (zum<br />

Beispiel sicherheitsrelevante Daten, Betriebs-<br />

und Geschäftsgeheimnisse).<br />

Die Hamburger Behörden und Ämter<br />

stellen übers Internet zahlreiche und vielfältige<br />

Informationen für die Allgemeinheit<br />

zur Verfügung. Die meisten dieser<br />

Informationsangebote entsprechen aber<br />

nicht dem vorgenannten Verständnis von<br />

Open Data, da es sich nicht um Rohdaten<br />

und/oder nicht um maschinenlesbare<br />

Daten und/oder um kostenlos zur Verfügung<br />

stehende Daten handelt. Sie sind<br />

deshalb in der Antwort nicht aufgeführt.<br />

Eine gegebenenfalls notwendige vorherige<br />

kostenlose Registrierung der Nutzer<br />

wird nicht als „sonstiges Hindernis“ im<br />

Sinne des Open-Data-Verständnisses<br />

interpretiert. Entsprechende Angebote<br />

werden in der Antwort aufgeführt.<br />

1. Welche Angebote im Sinne des Open<br />

Data-Prinzips gibt es vonseiten der<br />

Freien und Hansestadt Hamburg<br />

bereits?<br />

2. In welcher Form werden diese Daten<br />

zur Verfügung gestellt?<br />

Das Statistikamt Nord hält ein breit gefächertes<br />

Angebot an Daten aus der Amtlichen<br />

Statistik bereit. Es finden sich statistische<br />

Berichte, Tabellen sowie Datenbanken<br />

zu einer Vielzahl von gesellschaftlich<br />

interessanten Themen. Die meisten<br />

Angebote sind maschinenlesbar und stehen<br />

unter www.statistik-nord.de/daten<br />

zum kostenlosen Download bereit.<br />

Die Behörde für Schule und Berufsbildung<br />

stellt diverse Daten rund um die<br />

Hamburger Schullandschaft der Öf- <br />

2/12 11


fentlichkeit zur Verfügung; Angebote<br />

der Hamburger Schulstatistik sind unter<br />

www.hamburg.de/schulstatistiken/ abrufbar.<br />

Das Hamburgische Krebsregister dokumentiert<br />

die Zahlen und Raten der Krebserkrankungen<br />

als öffentlich zugängliche<br />

Daten unter www.krebsregisterhamburg.de.<br />

Die Daten werden in<br />

aggregierter, das heißt nicht personenbezogener<br />

Form dargestellt.<br />

Die Messdaten zur Gewässergüte aus dem<br />

Hamburger Wassergütemessnetz<br />

(WGMN) sind über das Hamburg-<br />

Gateway unter gateway. hamburg.de verfügbar.<br />

Aufgrund der großen Datenmenge<br />

und der Komplexität des Datenmodells<br />

ist kein direkter Datenbankzugriff<br />

möglich. Eine Beschreibung des<br />

WGMN ist unter www.wgmn.<br />

hamburg.de einsehbar.<br />

Daten des Hamburger Luftmessnetzes<br />

werden stündlich aktuell über das Internet<br />

unter www.hamburger-luft.de publiziert.<br />

Es werden auch monatliche und jährliche<br />

Daten der Schadstoffe sowie die Metadaten<br />

der Stationen et cetera veröffentlicht.<br />

3. Wie sehen die Zugriffszahlen auf diese<br />

Angebote aus?<br />

Das Statistikamt Nord verzeichnete auf<br />

der Seite www.statistik-nord.de (ohne<br />

Wahlen) im Monatsdurchschnitt des Jahres<br />

2009 rund 22.300 Internetbesuche. In<br />

2009 wurden dort insgesamt rund 31.200<br />

Downloads von Excel-Tabellen gezählt.<br />

Die Zugriffe auf die Informationen der<br />

Hamburger Schulstatistik der Behörde<br />

für Schule und Berufsbildung werden<br />

nicht gesondert erfasst. Für das Hamburgische<br />

Krebsregister wurden seit August<br />

2010 2.810 Zugriffe ermittelt. Für<br />

das WGNM gab es seit Beginn 2011 über<br />

das HamburgGateway bis heute über<br />

2.200 Zugriffe. Es wird bis zum Ende<br />

des Jahres mit über 3.500 Zugriffen gerechnet.<br />

Die Daten für das Hamburger<br />

Luftmessnetz werden statistisch nicht<br />

erfasst.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

4. Sind weitere Angebote geplant?<br />

Die Behörde für Gesundheit und Verbraucherschutz<br />

plant eine Geovisualisierung<br />

von Trinkwasseruntersuchungen.<br />

Geodaten zu verschiedenen Fachthemen<br />

wie zum Beispiel den Oberflächengewässern<br />

sollen im Rahmen der Umsetzung<br />

der INSPIRE-Richtlinie über den<br />

Landesbetrieb Geoinformation und Vermessung<br />

der Öffentlichkeit als standardisierte<br />

Services zur Verfügung gestellt<br />

werden. In Planung befinden sich folgende<br />

Themen: Stadtteilinformationskarte<br />

mit thematischen Karten Polizei-/<br />

Feuerwehrdienststellen, Kundenzentren,<br />

Schulen, Kindergärten, Grün, Sportanlagen<br />

und weitere, Arten- und Biotopschutzprogramm<br />

APRO, Freiraumverbundsystem,<br />

Spielplätze, Radtouren<br />

(überregional).<br />

Im Übrigen siehe Antwort zu 5. bis 7.<br />

5. Die Handelskammer Hamburg fordert<br />

im Standpunktepapier „Hamburg<br />

2030“, Hamburg mit Open Data zur<br />

Hochburg mobiler Applikationen zu<br />

entwickeln. Unterstützt der Senat dieses<br />

Anliegen und wenn ja, in welcher<br />

Form?<br />

6. Sieht der Senat durch den elektronischen<br />

Zugriff auf Verwaltungsinformationen<br />

im Sinne von Open<br />

Data Einsparungspotenzial und<br />

Synergieeffekte durch Crowd-Sourcing<br />

und wenn ja, in welcher Form?<br />

7. Gibt es eine Open Data-Strategie vergleichbar<br />

mit der <strong>Berlin</strong>er Open Data<br />

Agenda oder ist Vergleichbares geplant?<br />

Bei Bund, Ländern und Kommunen<br />

gewinnt das Thema Open Data – als<br />

Bestandteil von Open Government –<br />

zunehmend an Bedeutung. Eine vom<br />

Bund über die Mitglieder des <strong>IT</strong>-<br />

Planungsrats ins Leben gerufene Bund-<br />

Länder-Arbeitsgruppe ist derzeit dabei,<br />

ein Eckpunktepapier zu erarbeiten, das<br />

als einen Schwerpunkt gemeinsame<br />

Empfehlungen und gegebenenfalls erste<br />

Maßnahmen für die Förderung von Open<br />

Data enthalten soll. Ferner hat die Arbeitsgruppe<br />

den Auftrag, grundsätzliche Fragen<br />

im Zusammenhang mit technischen<br />

Standards (zum Beispiel Schnittstellen,<br />

Formate, Plattform) wie auch mit rechtlichen<br />

Inhalten (zum Beispiel Kosten, Lizenzen,<br />

Datenschutz) zu prüfen.<br />

Hamburg ist über die zuständige Behörde<br />

in dieser Arbeitsgruppe vertreten und<br />

wird im Zuge der zu erwartenden Ergebnisse<br />

prüfen, welche Handlungsoptionen<br />

sich daraus für die Hamburgische Verwaltung<br />

ergeben. Dabei wird es auch um<br />

die Frage der jeweils am besten geeigneten<br />

Form von Open Data-Angeboten (Anwendung<br />

oder mobile Applikation) sowie<br />

die Entwicklung einer eigenen Hamburger<br />

Open Data-Strategie an sich gehen.<br />

Im Zuge dieses Prozesses werden<br />

bereits vorhandene Überlegungen der<br />

Behörden ebenso wie die weiterer Akteure,<br />

wie zum Beispiel auch der Handelskammer<br />

Hamburg, mit einbezogen werden.<br />

Im Übrigen hat sich der Senat damit<br />

bislang noch nicht befasst.<br />

8. Wo sieht der Senat die Grenzen von<br />

Open Data durch den Datenschutz?<br />

Das Recht auf informationelle Selbstbestimmung<br />

kann dem Open Data-Prinzip<br />

entgegenstehen, sodass Veröffentlichungen<br />

unterbleiben oder zuvor geeignete<br />

Schutzmaßnahmen getroffen werden<br />

müssen; die erforderlichen Maßnahmen<br />

und die sich daraus ergebenden Grenzen<br />

von Open Data richten sich nach den<br />

Erfordernissen des jeweiligen Sachverhalts.<br />

Im Übrigen siehe Vorbemerkung<br />

und Antwort zu 5. bis 7.<br />

(Drucksache 20/1202)<br />

<br />

2/12 12


Verbundkatalog B3Kat<br />

als Linked Open Data<br />

freigegeben<br />

Die Bayerische Staatsbibliothek, der<br />

Bibliotheksverbund Bayern und der<br />

Kooperative Bibliotheksverbund<br />

<strong>Berlin</strong>-Brandenburg haben ihren Katalog<br />

„B3Kat“ als OpenData im Format<br />

MARC-XML www.bib-bvb.de/<br />

open-data.html und als LinkedOpen-<br />

Data im Format RDF/XML unter<br />

lod.b3kat.de/download veröffentlicht.<br />

Enthalten sind die Beschreibungen zu<br />

über 23 Millionen Medien aus 180 wissenschaftlichen<br />

Bibliotheken in Bayern,<br />

<strong>Berlin</strong> und Brandenburg. Die Daten werden<br />

im Internet zur allgemeinen Nutzung<br />

unter der Lizenz „Creative<br />

Commons Zero“ bereitgestellt.<br />

Dies ist das umfangreichste Datenpaket,<br />

das bisher von deutschen Bibliotheken<br />

und Bibliotheksverbünden als Linked<br />

Open Data zugänglich gemacht wurde.<br />

Zusammen mit den Datenfreistellungen<br />

des Hochschulbibliothekszentrums des<br />

Landes Nordrhein-Westfalen und mehrerer<br />

Bibliotheken weiterer Bundesländer<br />

steht damit nun ein erheblicher Teil der<br />

bibliografischen Titel- bzw. Mediennachweise<br />

wissenschaftlicher Bibliotheken in<br />

Deutschland unter einer freien Lizenz zur<br />

Verfügung.<br />

Das Angebot ist u.a. über das Open Data-<br />

Portal des Freistaats Bayern erreichbar:<br />

opendata.bayern.de<br />

„Die Wissenschaft erhält mit diesen Daten<br />

ein mächtiges Instrument zur eigenen<br />

Nutzung und uneingeschränkten<br />

Weiterverwendung”, so der Generaldirektor<br />

der Bayerischen Staatsbibliothek,<br />

Dr. Rolf Griebel.<br />

Es ist nun möglich, wissenschaftliche<br />

Publikationen im Web zu verlinken und<br />

Auswertungen der Daten nach eigenen<br />

Fragestellungen vorzunehmen. Um dies<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

zu unterstützen, wurden möglichst viele<br />

Links zu anderen Datenangeboten gesetzt.<br />

Diese Dienstleistung wird nach der<br />

Erstveröffentlichung kontinuierlich weiterentwickelt<br />

werden.<br />

Alle Zugänge zu den bereitgestellten<br />

Daten im RDF-Format finden Sie unter<br />

der Adresse lod.b3kat.de . Dort erreichen<br />

Sie unter anderem eine Beispiel-Buchbeschreibung,<br />

eine API für maschinelle<br />

Abfragen (SPARQL-Endpoint) und die<br />

technische Dokumentation des Angebots.<br />

(PR/ idw)<br />

<br />

Prototyp des Open Data-<br />

Portals Baden-<br />

Württemberg vorgestellt<br />

Gisela Erler, Staatsrätin für Zivilgesellschaft<br />

und Bürgerbeteiligung,<br />

und Dr. Herbert O. Zinell, Amtschef<br />

des Innenministeriums Baden-<br />

Württemberg, haben am 7. März <strong>2012</strong><br />

den Prototyp eines Open Data Portals<br />

Baden-Württemberg freigeschaltet.<br />

„Das Portal ist ein wichtiger Baustein auf<br />

dem Weg des Landes zu einer Bürgergesellschaft“,<br />

sagte Gisela Erler. „Wenn<br />

Regierung und Verwaltung ihr Handeln<br />

transparenter gestalten wollen, müssen<br />

sie den Zugang zu ihren Daten und Informationen<br />

öffnen“, betonte Dr.<br />

Herbert O. Zinell. Das sei der zentrale<br />

Faktor für mehr Teilhabe und Mitwirkung<br />

der Zivilgesellschaft, ergänzte Erler.<br />

Mit der Stadt Ulm habe das Land einen<br />

leistungsfähigen kommunalen Partner<br />

gewonnen. So werde mit dem Prototyp<br />

der Zugang zu Daten mehrerer Verwaltungsebenen<br />

anschaulich, setzte Zinell<br />

fort. Der baden-württembergische Prototyp<br />

unterscheide sich von anderen Open<br />

Data Portalen außerdem darin, dass er<br />

nicht nur Daten bereitstelle. Er erschließe<br />

auch Dienste und Anwendungen, Register<br />

und Verzeichnisse von Behörden in<br />

Baden-Württemberg, die staatliche und<br />

kommunale Daten und Dokumente<br />

nutzen.<br />

„Wir wollen diesen Prototyp zu einem<br />

funktional und inhaltlich hochwertigen<br />

Open Data Portal Baden-Württemberg<br />

weiterentwickeln“, sagte Zinell. „Helfen<br />

Sie uns dabei und nutzen Sie für Ihr<br />

Feedback die Dialogfunktionen des Portals“,<br />

schloss Erler.<br />

Der Prototyp zeigt die Grundstruktur<br />

und -funktionen eines Open Data-Portals<br />

Baden-Württemberg. Der Prototyp<br />

ist eine Komponente des Serviceportals<br />

des Landes www.service-bw.de. Er stellt<br />

exemplarisch Datensätze in einem von<br />

Maschinen lesbaren und interpretierbaren<br />

Format zur Verfügung. So können interessierte<br />

Nutzer die Haushaltsplandaten<br />

des Landes Baden-Württemberg von 2007<br />

bis 2011 und die Haushaltsplandaten der<br />

Stadt Ulm für die Jahre 2011 und <strong>2012</strong><br />

herunterladen und praktisch ohne Einschränkung<br />

weiter nutzen. Ähnliches gilt<br />

für Datensätze des Statistischen Landesamts.<br />

Darüber hinaus erschließt der Prototyp<br />

exemplarisch weitere, aktuell noch nicht<br />

von Maschinen les- und interpretierbare<br />

Datensätze, auf Daten beruhende Berichte<br />

sowie Dokumente. Außerdem lassen<br />

sich über den Prototyp leicht Dienste und<br />

Anwendungen staatlicher Behörden finden,<br />

beispielsweise Kartendienste im<br />

Umweltportal Baden-Württemberg, das<br />

Landesinformationssystem des Statistischen<br />

Landesamts, das Geoportal Raumordnung,<br />

diverse Online-Register, den<br />

Landeserdbebendienst, die Landtagsdrucksachen<br />

oder das Landesrecht Baden-Württemberg.<br />

(PR/ Innenministerium<br />

Baden-Württemberg) <br />

2/12 13


Offene Daten sind das Öl<br />

des 21. Jahrhundert<br />

Das Statistische Bundesamt hat den<br />

Auftrag, statistische Informationen<br />

über Wirtschaft und Gesellschaft in<br />

Deutschland bereitzustellen und zu<br />

verbreiten. Diese Informationen sind<br />

objektiv, unabhängig erstellt und qualitativ<br />

hochwertig und stehen allen zur<br />

Verfügung: Politik, Regierung, Verwaltung,<br />

Wirtschaft und Bürgern. Das<br />

Internet ist der Hauptverbreitungskanal<br />

für das breite Informationsangebot<br />

des Statistischen Bundesamtes<br />

(Destatis).<br />

Als eine der ersten Bundesbehörden hat<br />

Destatis seine Verbreitungspolitik Zug<br />

um Zug an die Ziele der E-Government<br />

Pläne der Bundesregierung angepasst und<br />

Zugangsbarrieren weiter abgebaut.<br />

Bereits 2005 hat das Statistische Bundesamt<br />

seine bis dahin kostenpflichtigen<br />

Informationsangebote im Internet<br />

kostenfrei zugänglich gemacht. Gestützt<br />

auf das 2006 in Kraft getretene<br />

Informationsweiterverwendungsgesetz<br />

(IWG) hat das Statistische Bundesamt<br />

seine Lizenzbestimmungen soweit geöffnet,<br />

dass eine Weiterverwendung der<br />

Daten – auch für kommerzielle Zwecke –<br />

kosten- und vertragsfrei zulässig ist.<br />

Praktisch entsprechen diese Lizenzregelungen<br />

einer sehr offenen/freizügigen<br />

CC-Lizenz. Damit sind u.a. für Wirtschaft<br />

und Wissenschaft Anreize geschaffen,<br />

Daten des öffentlichen Sektors für<br />

eigene Zwecke zu nutzen und damit einen<br />

Mehrwert zu schaffen. Denn: der<br />

Zugang zu qualitativ hochwertigen Daten<br />

ist im 21. Jahrhundert so wertvoll wie<br />

einst der Zugang zu Öl. Unsere<br />

Informationsgesellschaft lebt vom Austausch<br />

aktueller Daten.<br />

Derzeit unterstützt Destatis in einem<br />

dritten Schritt die gemeinsame Open-<br />

Government-Initiative von Bund und<br />

Ländern im Rahmen des Regierungsprogramms<br />

„Vernetzte und transparente<br />

Verwaltung“ der Bundesregierung. Im<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Zentrum steht hierbei das Datenangebot<br />

in der Online-Datenbank GENESIS, das<br />

mit einem Angebot an Webservices eine<br />

standardisierte Schnittstelle zu vollständig<br />

automatisierter Nutzung der Datenbank<br />

ermöglicht. Hierüber können bedarfsgerecht<br />

alle Daten in den unterstützten<br />

Exportformaten extrahiert und in<br />

Verarbeitungsprozesse des Nutzers integriert<br />

werden.<br />

Das Potential des vielfältigen Datenangebots<br />

in GENESIS-Online wurde bereits<br />

frühzeitig von der Netzgemeinschaft erkannt<br />

und in unabhängige Datenkataloge<br />

integriert. Im Datenkatalog „OffeneDaten“<br />

(www.offenedaten.de) der Open<br />

Knowledge Foundation Deutschland,<br />

der im Übrigen auch Grundlage für den<br />

ersten nationalen Programmierwettbewerb<br />

„Apps für Deutschland“ war,<br />

stellt der Datenbestand von GENESIS-<br />

Online den größten Anteil verfügbarer<br />

Daten dar.<br />

www.destatis.de<br />

DORIS STÄRK<br />

Statistisches Bundesamt<br />

Bundesinnenminister<br />

beantwortete Fragen zu<br />

Open Data<br />

Die Verwaltung verfügt über einen<br />

Schatz an Daten: Geodaten, Wetterund<br />

Umweltdaten, aber auch Planungs-<br />

und Infrastrukturdaten, Haushalts-<br />

und statistische Daten und vieles<br />

mehr. Es gibt zunehmend Interesse<br />

an diesen Daten.<br />

Ende 2011 hatte Bundesinnenminister<br />

Dr. Hans-Peter Friedrich (CSU) alle Bürger<br />

aufgefordert, ihm Fragen rund um<br />

das Thema „Alle Daten offenlegen!“ zu<br />

schicken. Drei wurden zur Beantwortung<br />

durch die Behörde ausgewählt:<br />

1. Es haben sich 46 Staaten zur Open<br />

Government Partnership für mehr<br />

Transparenz in Verwaltungen und von<br />

Regierungshandeln zusammen getan.<br />

Warum hat sich Deutschland bislang<br />

nicht zur Mitgliedschaft entschlossen?<br />

Friedrich: Ich glaube, bevor man international<br />

auftritt, ist es gut, wenn man<br />

zunächst die Hausaufgaben im eigenen<br />

Haus macht. Wir haben 2010 im Bundeskabinett<br />

ein Projekt Open Government<br />

beschlossen und jetzt ging es darum mit<br />

den Ländern gemeinsam eine Plattform,<br />

auch eine Verhandlungsmöglichkeit zu<br />

suchen. Seit Oktober gibt es nun eine<br />

Einigung zwischen Bund und Ländern,<br />

dass wir gemeinsame Standards entwickeln<br />

wollen. Das wird jetzt angepackt<br />

und vorangetrieben. Danach werden wir<br />

uns der internationalen Ebene zuwenden.<br />

2. Warum liegen die Exklusiv-Rechte für<br />

die digitale Distribution von öffentlichen<br />

Handelsregister-Daten beim pri<br />

vaten Dumont-Verlag? Wann werden<br />

die Handelsregister-Rohdaten, wie<br />

z.B. in Großbritannien bereits verfüg<br />

bar, über eine freie Schnittstelle bereitgestellt?<br />

Friedrich: Diese Frage muss man an die<br />

Länder stellen, denn die Handelsregisterdaten<br />

werden bei den Ländern geführt.<br />

Es ist ein Missverständnis zu glauben,<br />

dass der Bund sie hat. Der Bund hat nur<br />

den Bundesanzeigerverlag beauftragt, das<br />

Unternehmensregister zu führen, das<br />

zum Teil auch Daten aus dem Handelsregister<br />

verwendet. Dieses Unternehmensregister<br />

wird beim Verlag geführt<br />

– der ist damit beauftragt. Dass der<br />

Verlag der Familie Dumont gehört, <br />

2/12 14


ist nicht von Bedeutung in diesem<br />

Zusammenhang, glaube ich.<br />

3. Warum müssen Kommunen, Zweckverbände<br />

und Private noch einmal<br />

Nutzungsgebühren zahlen, wenn sie<br />

mit Steuergeldern erhobene Geobasisdaten,<br />

z.B. ATKIS oder Digitale<br />

Höhenmodelle, des Bundes oder der<br />

Bundesländer anfordern?<br />

Friedrich: Die Datenerhebung ist sehr<br />

kostspielig und sie wurde in der Vergangenheit<br />

nur zum Teil aus Steuermitteln<br />

bezahlt, zum Teil aber über Nutzungsgebühren<br />

finanziert. Wenn man jetzt die<br />

Diskussion führt – und sie wird geführt<br />

– dass zukünftig keine Nutzungsgebühren<br />

mehr anfallen sollen, dann muss<br />

der Steuerzahler alles allein bezahlen. Ob<br />

das gerechtfertigt ist, darüber kann man<br />

streiten. Ich denke, zumindest für die<br />

kommerziell genutzten Daten ist es angebracht,<br />

dass man auch eine Gebühr<br />

verlangt.<br />

(Abbdruck mit freundlicher Genehmigung des<br />

BMI)<br />

<br />

Geodaten besser nutzen<br />

Wo steht ein Windrad gut? Wie wirkt<br />

sich der Umzug des <strong>Berlin</strong>er Flughafens<br />

aus? Ein Gutachten zur Georeferenzierung<br />

wurde an das Bundesministerium<br />

für Bildung und Forschung<br />

(BMBF) und das Bundesministerium<br />

des Innern (BMI) übergeben.<br />

Wer Standorte für Windräder plant oder<br />

die Versorgung mit Breitbandanschlüssen<br />

und den Ausbau von Kindertagesstätten,<br />

oder wer kontrollieren will,<br />

wie sich Umweltbelastungen verringern,<br />

ist darauf angewiesen, Daten mit Ortsbezug<br />

zu nutzen. Diese sogenannten<br />

Geodaten enthalten einerseits Informationen<br />

über natürliche, bauliche und soziale<br />

Merkmale wie zum Beispiel durchschnittliche<br />

Windstärke, Helligkeit bei<br />

Nacht, Sozialstruktur, und andererseits<br />

exakte geografische Koordinaten oder<br />

andere räumliche Angaben wie<br />

Postleitzahlbezirke. So werden sich<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

beispielsweise die Auswirkungen der<br />

Verlagerung des <strong>Berlin</strong>er Flugverkehrs von<br />

Tegel nach Schönefeld mit Hilfe<br />

georeferenzierter Daten wissenschaftlich<br />

exzellent analysieren lassen. Denn: Viele<br />

Statistiken, so etwa der Mikrozensus, das<br />

Sozioökonomische Panel oder die <strong>Berlin</strong>er<br />

Altersstudie (BASE <strong>II</strong>) erheben Daten<br />

zum Gesundheitszustand und der<br />

Lebensqualität der Menschen in Deutschland<br />

und in <strong>Berlin</strong>. Wenn diese Erhebungsdaten<br />

georeferenziert werden,<br />

kann analysiert werden, welchen Einfluss<br />

der wegfallende Fluglärm für Tegel und<br />

der neue Fluglärm für Schönefeld haben<br />

werden.<br />

Solche Geodaten gibt es für Deutschland<br />

in Hülle und Fülle, allerdings mangelt es<br />

an einer Harmonisierung und an der<br />

Transparenz des Zugangs: sie werden<br />

von den unterschiedlichsten öffentlichen<br />

und privaten Stellen erhoben und nicht<br />

zentral und in einheitlichem Format gesammelt.<br />

Nun hat der Rat für Sozial- und Wirtschaftsdaten<br />

eine Bestandsaufnahme zur<br />

Georeferenzierung von Daten in Deutschland<br />

vorgenommen und Empfehlungen<br />

erarbeitet, wie Defizite und Schwachstellen<br />

georeferenzierter Daten beseitigt werden<br />

und wie Wissenschaft, Politik und<br />

Verwaltung dieses Wissenspotenzial besser<br />

ausschöpfen können. Den Abschlussbericht<br />

übergaben der Vorsitzende Gert<br />

G. Wagner und Johann Hahlen als Leiter<br />

der interdisziplinären Arbeitsgruppe an<br />

die Staatssekretärin im Bundesforschungsministerium,<br />

Cornelia Quennet-<br />

Thielen, und an die Staatssekretärin im<br />

Bundesinnenministerium, Cornelia<br />

Rogall-Grothe.<br />

„Der Rat für Sozial- und Wirtschaftsdaten<br />

hat sich intensiv mit den Potentialen<br />

und Verbesserungsmöglichkeiten der<br />

Georeferenzierung befasst. Damit bieten<br />

sich neue Chancen, die Daten mit Ortsbezug<br />

für die Wissenschaft und für die<br />

Gestaltung der Zukunft zu nutzen“, so<br />

Quennet-Thielen. „Gleichzeitg stellen wir<br />

sicher, dass der gebotene Datenschutz<br />

gewährleistet wird.“<br />

Frau Staatssekretärin Rogall- Grothe erklärt<br />

hierzu: „Der Abschlussbericht bestätigt<br />

die Auffassung der Bundesregierung,<br />

dass Geodaten für viele Entscheidungen<br />

in Verwaltung, Wirtschaft und<br />

Wissenschaft eine unverzichtbare Grundlage<br />

sind. Qualität und Nutzungsbedingungen<br />

werden deshalb durch die<br />

Bundesregierung weiter verbessert. Das<br />

neue Bundesgeoreferenzdatengesetz oder<br />

das in diesem Monat freigeschaltete<br />

Geoportal.de sind wichtige Meilensteine<br />

auf diesem Weg.“<br />

Der vom BMBF geförderte Rat für Sozialund<br />

Wirtschaftsdaten ( RatSWD ) arbeitet<br />

seit gut einem Jahrzehnt erfolgreich<br />

am Auf- und Ausbau einer informationellen<br />

Infrastruktur insbesondere<br />

für die empirische Wirtschafts-, Sozialund<br />

Verhaltensforschung in Deutschland.<br />

In seinem Auftrag wurde die vorliegende<br />

Bestandsaufnahme im Jahr 2011<br />

von einer interdisziplinären Arbeitsgruppe<br />

von 26 Experten aus Geographie,<br />

Geodäsie, Geoinstituten, Vermessungsverwaltung,<br />

Datenschutz, amtlicher Statistik<br />

und von kommerziellen Anbietern<br />

sowie Nutzern von Geodaten vorgenommen.<br />

Auf dieser Basis empfiehlt der Rat unter<br />

anderem, den Datenschutz bei der<br />

Georeferenzierung von Daten klarer zu<br />

regeln. Für ausschließlich private und<br />

wissenschaftliche Nutzung sollten öffentlich<br />

finanzierte Geodaten kostenlos oder<br />

nur zu den Bereitstellungskosten zur<br />

Verfügung gestellt werden. Es sind einfache<br />

standardisierte Lizenzbedingungen<br />

nötig. Zu dem ständig wachsenden und<br />

nicht mehr übersehbaren Bestand an<br />

Geodaten muss Transparenz geschaffen<br />

werden, damit private Nutzer, Behörden<br />

und Wissenschaftler sehen, wo welche<br />

Geodaten wie verfügbar sind.<br />

Der Bericht ist unter www.ratswd.de/<br />

Geodaten verfügbar. (PR/ BMBF) <br />

2/12 15


Geoportal.DE<br />

freigeschaltet<br />

Auf der CeB<strong>IT</strong><strong>2012</strong> haben Bundesinnenminister<br />

Dr. Hans-Peter<br />

Friedrich und der Staatssekretär im<br />

Hessischen Ministerium für Wirtschaft,<br />

Verkehr und Landesentwicklung<br />

Steffen Saebisch das<br />

Geoportal.DE am Messestand des Beauftragten<br />

der Bundesregierung für<br />

Informationstechnik (Bf<strong>IT</strong>) freigeschaltet.<br />

Die Freischaltung fand im Beisein der für<br />

die Maßnahmen der digitalen Agenda<br />

Europas verantwortlichen Vizepräsidentin<br />

der EU-Kommission, Frau<br />

Neelie Kroes, statt. Das Geoportal.DE<br />

ist eine im Internet frei verfügbare Webseite,<br />

um Geodaten der öffentlichen Hand<br />

zu suchen, sie zu visualisieren oder sie<br />

direkt bei den Datenanbietern zu bestellen.<br />

Die Realisierung des Geoportal.DE<br />

ist ein wichtiger Meilenstein bei der Kooperation<br />

von Bund, Ländern und Kommunen<br />

zum Aufbau der Geodateninfrastruktur<br />

Deutschland (GDI-<br />

DE).<br />

Das Geoportal.DE (www.geoportal.de)<br />

wurde von Bund und Ländern durch das<br />

Bundesamt für Kartographie und Geodäsie<br />

(BKG) als die gemeinsame Informations-<br />

und Kommunikationsplattform<br />

der GDI-DE im Internet aufgebaut.<br />

Bundesminister Dr. Friedrich<br />

betonte: „Geoinformationen sind zu einem<br />

Garanten und Motor unserer<br />

Wissensgesellschaft geworden, kaum einsende<br />

Suche nach Geoinformationen von<br />

Bund, Ländern und Kommunen.“<br />

Die GDI-DE ist ein gemeinsames Vorhaben<br />

von Bund, Ländern und Kommunen<br />

mit dem Ziel, Geodaten der öffentlichen<br />

Verwaltung unabhängig von<br />

technischen Systemen und Formaten mit<br />

geltenden Standards über das Internet<br />

nutzbar zu machen. Als strategisches<br />

Entscheidungsgremium wurde das<br />

Lenkungsgremium der GDI-DE eingerichtet.<br />

Es setzt sich aus Vertretern des<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Bundes, der Länder und der kommunalen<br />

Spitzenverbände zusammen. In den<br />

Jahren 2011 und <strong>2012</strong> wird der Vorsitz<br />

des Lenkungsgremiums vom Land<br />

<strong>Berlin</strong>, vertreten durch Herrn Thomas<br />

Luckhardt, Senatsverwaltung für Stadtentwicklung<br />

und Umwelt, wahrgenommen.<br />

Ein in das Portal integrierter „Kartenviewer“<br />

ermöglicht die Präsentation digitaler<br />

Karten, die beliebig miteinander<br />

verbunden und kombiniert werden können.<br />

Die Geodaten werden nicht im Portal<br />

gespeichert, sondern in der Regel über<br />

Standards und Schnittstellen direkt bei<br />

den Datenanbietern abgefragt. Um als<br />

Datenhalter Geodaten und – dienste im<br />

Geoportal nutzbar zu machen, müssen<br />

die in der GDI-DE geltenden technischen<br />

Empfehlungen eingehalten werden.<br />

Diese beruhen grundsätzlich auf<br />

international anerkannten und geltenden<br />

Standards.<br />

Die nun realisierte länder- und verwaltungsübergreifende<br />

Vernetzung von<br />

Geodaten wird den verstärkten Einsatz<br />

von amtlichen Geoinformationen für<br />

Entscheidungsprozesse in vielen Bereichen<br />

von Wirtschaft, Verwaltung und<br />

Politik verbessern oder sogar erst ermöglichen.<br />

„Die Freischaltung des Portals ist<br />

aber nur der Anfang einer Entwicklung.<br />

Das Geoportal wird im Rahmen seiner<br />

Vernetzung wachsen und mit jedem Jahr<br />

eine Vielzahl weiterer Informationen anbieten.“,<br />

so Herr Minister Friedrich.<br />

Das Bundesamt für Kartographie und<br />

Geodäsie ist eine Behörde im Geschäftsbereich<br />

des Bundesministeriums des<br />

Innern. Es stellt ein einheitliches räumliches<br />

Bezugssystem (Koordinatensystem)<br />

für das gesamte Bundesgebiet sowie vielfältige<br />

Geobasisdaten für Bundeseinrichtungen,<br />

öffentliche Verwaltung, Wirtschaft,<br />

Wissenschaft und Bürger bereit.<br />

Hierfür unterhält es ein GeoDatenZentrum<br />

und geodätische Observatorien, auf<br />

denen mit verschiedenen Techniken die<br />

Bewegungen der Erdsatelliten beobachtet<br />

werden. Die Koordinierungsstelle der<br />

GDI-DE ist im Bundesamt für Kartographie<br />

und Geodäsie angesiedelt.<br />

www. geoportal.de (LPD/ GDI-DE,<br />

Bundesamt für Kartographie und Geodäsie<br />

und Senatsverwaltung für Stadtentwicklung<br />

und Umwelt) <br />

Ausgezeichnet beim<br />

Apps4Deutschland-Wettbewerb<br />

PEGELONLINE<br />

PEGELONLINE ist eine Webanwendung<br />

im Internet zur Veröffentlichung<br />

und Lieferung gewässerkundlicher<br />

Daten der Wasser- und<br />

Schifffahrtsverwaltung (WSV) an externe<br />

Dritte. Derzeit umfasst<br />

PEGELONLINE circa 550 Pegel an<br />

den Bundeswasserstraßen. Unter anderen<br />

kommt die WSV mit<br />

PEGELONLINE ihrer gesetzlichen<br />

Verpflichtung nach, aktuelle<br />

gewässerkundliche Daten den Ländern,<br />

Katastrophenstäben, Kommunen<br />

und allgemein der Öffentlich- <br />

Mini-Pegelkarte von PEGELONLINE.<br />

Am 15. Januar 2011 um 7:28 Uhr war<br />

erstmalig an 70 WSV-Pegeln gleichzeitig<br />

der höchste Schifffahrtswasserstand<br />

(HSW) erreicht oder überschritten.<br />

2/12 16


keit unentgeltlich und einfach bereit<br />

zu stellen.<br />

Die WSV hat die Dienste von<br />

PEGELONLINE bereits im Jahr 2006<br />

zur freien Nutzung gegeben. Alle Daten<br />

können unabhängig von der Art der<br />

Nutzung kostenfrei bezogen werden.<br />

Dies umfasst auch kommerzielle Anwendungen.<br />

Bedingung ist die Nennung der<br />

Datenquelle. Im Zuge des ersten Open<br />

Data-Wettbewerb Deutschlands wurde<br />

PEGELONLINE mit der Lizenz CC-<br />

BY3.0 versehen. (offenedaten.de/<br />

dataset/pegelonline)<br />

Damit war der Weg frei für eines der<br />

besten Open Data Projekte Deutschlands,<br />

wie die Verleihung des 1. Preises in der<br />

Kategorie „Daten“ beim ersten Open<br />

Data-Wettbewerb Deutschlands gezeigt<br />

hat.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Die Nutzer brauchen vielfältige und einfache<br />

aber sogleich auch moderne Datenschnittstellen.<br />

PEGELONLINE bietet<br />

klassische Datenformate und Techniken<br />

(ascii und https) neben komplexen und<br />

modernen Webdiensten an. Die Dokumentationen<br />

und herunterladbare Beispiel-Implementationen<br />

sind online verfügbar<br />

und bilden weitere wesentliche<br />

Grundlagen für die Nutzung durch Dritte.<br />

Doch Freude bei der Nutzung kommt<br />

erst dann, wenn die Daten aktuell und<br />

zuverlässlich bereit stehen. PEGEL-<br />

ONLINE erhält aktuell von den<br />

Messstellen circa zwei Messwerte pro Sekunde.<br />

Die Daten werden automatisch<br />

sofort veröffentlicht. Somit können<br />

derzeit vor allem im Küstenbereich Wasserstände<br />

veröffentlicht werden, die nur<br />

wenige Minuten alt sind.<br />

Derzeit bietet PEGELONLINE für öffentliche<br />

Messstationen folgende<br />

Informationsdienste/Schnittstellen an:<br />

• HTTP-Download von Tagesdateien<br />

(ascii) mit aktuellen Messdaten<br />

• Abonnement mit Versand der gewünschten<br />

Daten via E-Mail oder<br />

HTTPS<br />

• OGC-konformen WebMapService<br />

(WMS 1.1)<br />

• OGC-konformen WebFeatureService<br />

(WFS 1.1)<br />

• OGC-konformer SensorObservation-<br />

Service (SOS 1.0)<br />

• W3C-konformer Webservice für<br />

Messdaten und Stammdaten (SOAP)<br />

• Statische Onlinevisualisierung der<br />

Ganglinien (via URL beziehbar, REST)<br />

• Interaktive Onlinevisualisierung der<br />

Ganglinien (via URL beziehbar, REST)<br />

Aktuell werden die REST-Webservices<br />

erweitert, mit denen vor allem APPs für<br />

mobile Endgeräte optimal unterstützt<br />

werden können.<br />

Ziel ist es, die Daten schnell und einfach<br />

in die Welt der Kunden zu bringen. Dies<br />

sind Excel-Tabellen, Webseiten und<br />

APPs, hydrologische Modelle, eine Vielzahl<br />

von Fachapplikationen und weiteren<br />

Datennetzen wie GDI-DE und sensorgdi.de.<br />

PEGELONLINE liefert das Vorprodukt<br />

„gewässerkundliche Daten“.<br />

Zum Endprodukt werden die<br />

PEGELONLINE-Daten dann in den<br />

Systemen und Webseiten der Nutzer.<br />

PEGELONLINE unterstützt Alarmmodelle<br />

von Katastrophenstäben, liefert<br />

Daten an Kraftwerksbetreiber und Kanuvereine,<br />

ist Informationsquelle für eine<br />

Vielzahl von Medienunternehmen, Bundes-<br />

und Landesverwaltungen sowie der<br />

Forschung.<br />

Der Erfolg von PEGELONLINE ist<br />

greifbar – millionenfache Zugriffe zeigen<br />

dies.<br />

Der interne Nutzen ist ebenfalls offensichtlich.<br />

Unter anderen hat verwaltungsintern<br />

die telefonische Nachfrage zu Wasserständen<br />

um ca. 80 Prozent abgenommen.<br />

Zeitgewinn für hydrologische Arbeit<br />

der gewässerkundlichen Kollegen in<br />

der WSV.<br />

www.pegelonline.wsv.de<br />

Interaktive Onlinevisualisierung von Wasserständen. Solche Grafiken können via<br />

REST-Webservice über eine konfigurierbare URL bezogen werden<br />

DIETMAR MOTHES<br />

Themenleiter Gewässerkunde<br />

DLZ-<strong>IT</strong> BMVBS, Ilmenau<br />

<br />

2/12 17


Integration von Sensordaten in<br />

eine Geodateninfrastruktur<br />

Sensor-GDI<br />

Die Freischaltung des Geoportal.DE<br />

auf der CeB<strong>IT</strong> <strong>2012</strong> in Hannover machte<br />

deutlich, welche Fortschritte die<br />

Geodateninfrastruktur Deutschland<br />

(GDI-DE) bisher gemacht hat. Neben<br />

der Bereitstellung und Vernetzung von<br />

Geodaten aus ganz Deutschland bietet<br />

das Portal einen einheitlichen Zugriffpunkt<br />

zur Erkundung, Anwendung<br />

und Integration der aus unterschiedlichen<br />

Quellen stammenden Geodaten.<br />

Während jedoch über GDIs heutzutage<br />

eher konventionelle Geodaten (z.B. Karten<br />

und Geometriedaten) zur Verfügung<br />

gestellt werden, zeigen Anwendungsbereiche<br />

vom Umwelt-Monitoring bis<br />

hin zum Krisenmanagement und Katastrophenschutz<br />

einen kritischen Bedarf<br />

an Nah-Echtzeitdaten auf.<br />

Die notwendige Integration von Sensoren<br />

als Bestandteil einer GDI erfordert<br />

eine Erweiterung des GDI-Begriffs durch<br />

Konzepte aus dem sogenannten Sensor<br />

Abbildung 1: Ohne Interoperabilität findet<br />

ein unkontrollierter Datenfluss mit<br />

unterschiedlichen Datenformaten statt<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Abbildung 2: Sensor-GDI als Kopplung zwischen einer klassischen<br />

GDI (z.B. GDI-DE) und dem Sensor Web<br />

Web. Der Begriff „Sensor Web“ wurde<br />

durch das Open Geospatial Consortium<br />

(OGC) geprägt. Durch die Sensor Web<br />

Enablement Initiative des OGC wurde<br />

eine standardisierte Architektur geschaffen,<br />

welche bestehende GDI-Konzepte<br />

um Komponenten zur Bereitstellung von<br />

Sensordaten erweitert.<br />

Das Sensor Web stellt somit eine Abstraktionsschicht<br />

zur heterogenen Sensorwelt<br />

dar, und bietet mit seinen wohldefinierten<br />

Schnittstellen und Datenformaten<br />

nunmehr die Integrationsgrundlage<br />

von Nah-Echtzeit Sensordaten<br />

in eine GDI (siehe Abbildung 2). Werkzeuge<br />

und Dienste des Sensor Webs sind<br />

bereits heute im produktiven Einsatz.<br />

Die erfolgreiche Integration in die GDI-<br />

DE konnte zudem auf der diesjährigen<br />

CeB<strong>IT</strong> erfolgreich gezeigt werden.<br />

Kernbestandteil der gezeigten<br />

Entwicklungen ist ein Web<br />

basierter Client (siehe Abbildung<br />

3), zur Anzeige von Sensordaten<br />

aus verschiedenen Quellen.<br />

Im konkreten Beispiel<br />

werden Sensordaten<br />

aus<br />

PEGELONLINE (siehe<br />

vorheriger Artikel) sowie<br />

Daten des Wupperverbands<br />

über standardisierte<br />

Webdienste<br />

(SOS) zugreifbar gemacht.<br />

Diese Daten befinden<br />

sich dabei auf den<br />

Servern der jeweiligen<br />

Datenanbieter. Anhand<br />

der interoperablen<br />

Standards<br />

des Sensor<br />

Webs kann über<br />

einheitliche Schnittstellen<br />

auf diese<br />

Daten zugegriffen<br />

werden.<br />

Die gesamte Software,<br />

d.h. die Webserver<br />

(SOS) und<br />

der Client sind frei<br />

als Open Source<br />

Software verfügbar.<br />

Somit werden weitere interessierte<br />

Institutionen, welche beliebige Arten von<br />

Messdaten erheben, in die Lage versetzt<br />

sich in die Sensor Web-Infrastruktur einzubinden.<br />

Somit stellt die Sensor Web-<br />

Technologie einen wichtigen Schritt dar,<br />

um den interoperablen Austausch von<br />

Sensordaten zwischen verschiedenen Stellen<br />

über geographische und administrative<br />

Grenzen hinweg zu ermöglichen.<br />

www.sensor-gdi.de<br />

www.52north.org<br />

HENNING BREDEL, SIMON JIRKA<br />

52°North Initiative for Geospatial Open<br />

Source Software GmbH, Münster <br />

Abbildung 3: Das Hinzuladen von Daten aus unterschiedlichen<br />

Quellen bleibt dem Nutzer weitestgehend verborgen<br />

2/12 18


Management von 3D-<br />

Geodaten mit Oracle<br />

Spatial<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Georeferenzierte Daten sind ein vieldiskutiertes<br />

Thema. Erst Anfang März<br />

hat der Bundestag in <strong>Berlin</strong> den<br />

Regierungsentwurf für ein Bundesgeoreferenzdatengesetz<br />

(BGeoRG)<br />

angenommen.<br />

Hierdurch wurde ein weiterer wichtiger<br />

Schritt unternommen, die Haltung und<br />

Austauschfähigkeit von Geodaten auf<br />

nationaler Ebene, aber auch im Hinblick<br />

auf europäische Richtlinien wie INSPIRE,<br />

zu standardisieren und damit zu vereinfachen.<br />

In den öffentlichen Einrichtungen<br />

der Länder und Kommunen wird ein<br />

sehr großer Teil dieser georeferenzierten<br />

Daten erhoben, gepflegt und anderen<br />

Behörden, Unternehmen der freien Wirtschaft,<br />

aber auch den Bürgerinnen und<br />

Bürgern zugänglich gemacht.<br />

In der Produktion und Bereitstellung<br />

von Geodaten gewinnen insbesondere<br />

3D-Geobasis- und Geofachdaten zunehmend<br />

an Bedeutung. Werden doch<br />

insbesondere diese für aktuelle Fragestellungen<br />

und Fachanwendungen benötigt,<br />

z.B. für:<br />

• die Planung von Infrastrukturprojekten<br />

(Transport und Telekommunikation)<br />

• die Planung und Förderung<br />

erneuerbarer Energien (Solaratlas,<br />

Windparks)<br />

• die Analyse, Überwachung und Sicherung<br />

von Schutzgütern (Lärmkartierung)<br />

• die Überwachung der öffentlichen Sicherheit<br />

und Koordination von Sicherheitsmaßnahmen,<br />

• die Berechnung von Energiebedarfen<br />

oder Wärmeverlusten<br />

• die Verwaltung und Abbildung überirdischer<br />

(3D-Stadtmodelle) oder auch<br />

unterirdischer Infrastrukturen (Geologische<br />

Daten, Leitungsnetze)<br />

Abbildung 1: Von Oracle Spatial unterstützte 3D-Datentypen<br />

Standardkonforme 3D-Geodaten<br />

Raumbezogene Daten können in Datenbanken<br />

standardbasiert abgelegt werden.<br />

Hierzu gibt es eine Spezifikation des Open<br />

Geospatial Consortium (OGC), die die<br />

Speicherung sog. Simple Features definiert<br />

und die durch die entsprechenden<br />

ISO Gremien auch in den de jure Standard<br />

übernommen wurde. Diese Simple<br />

Features können beispielsweise in Oracle<br />

Datenbanken abgelegt (Datentyp<br />

SDO_GEOMETRY/ST_GEOME-<br />

TRY) und mit den zugehörigen Methoden<br />

(räumliche Funktionen und Operatoren)<br />

abgefragt oder bearbeitet werden.<br />

Standardkonformität ist eine zentrale<br />

Anforderung und Voraussetzung für den<br />

Aufbau von Geodateninfrastrukturen auf<br />

allen behördlichen Verwaltungsebenen.<br />

Oracle ist Principal Member im OGC und<br />

wesentlich an der Erstellung und Weiterentwicklung<br />

der OGC Standards für<br />

Geodaten und -dienste beteiligt. Die rasche<br />

Umsetzung und Verfügbarkeit dieser<br />

Standards in den eigenen Softwareprodukten,<br />

zusammengefaßt unter dem<br />

Begriff Oracle Spatial Technologies, ist<br />

ein ganz zentrales Anliegen und wird<br />

unternehmensweit mitgetragen.<br />

Simple Features sind Geometrien, welche<br />

die Grundelemente Punkt, Linie oder<br />

Fläche bzw. Zusammensetzungen davon<br />

abbilden. Geometrien in der Ebene sind<br />

dabei 2 dimensional (2D); im Raum 3<br />

dimensional (3D). Ergänzt um die Lagebezugsinformation<br />

stellen sie Geodaten<br />

dar.<br />

Geodaten setzen Standard-<strong>IT</strong>-Infrastrukturkomponenten<br />

wie Datenbanken<br />

und Application Server zusätzlich in Wert.<br />

Integriert in die zentralen oder auch dezentral<br />

gehaltenen Datenbestände von<br />

Behörden und Unternehmen erfordern<br />

sie keine separate Hard- und Software,<br />

Personal, Wartung oder Maßnahmen für<br />

die Gewährleistung der Datensicherheit.<br />

Datenbankseitige Vorteile wie hohe Leistung<br />

und Verfügbarkeit lassen sich somit<br />

auch optimal auf vorgehaltene Geodatenbestände<br />

anwenden; Daten stehen der<br />

gesamten Behörde und mit ihr kooperierenden<br />

Einrichtungen zur Verfügung.<br />

Forderungen nach einer wohlgeordneten<br />

Geodateninfrastruktur können ohne<br />

zusätzliche Aufwände umgesetzt werden,<br />

was die vielfältige wie effiziente<br />

Nutzung von Geoinformationen über<br />

verschiedene Verwaltungsebenen hinweg<br />

ermöglicht. Auch die Open Data Idee, der<br />

Ruf nach öffentlich und frei zugänglichen<br />

(Geo-)Daten, findet mit einem Oracle<br />

Spatial-basierten Ansatz ein optimales<br />

Fundament.<br />

Typen von 3D-Geodaten<br />

Luftbilder, Laserscandaten oder auch Digitale<br />

Geländemodelle sind Grundlage<br />

für 3D-Geodaten. <br />

2/12 19


<strong>SPL<strong>IT</strong>TER</strong><br />

Abbildung 2: SDO_GEOMETRY (3D) Export nach CityGML. (Datenquelle: British<br />

Ordnance Survey)<br />

3D Stadtmodelle, wie von der Firma<br />

virtualcitySYSTEMS für <strong>Berlin</strong> entwickelt<br />

und von <strong>Berlin</strong> Partner bereitgestellt oder<br />

das Projekt 3DCityDB der Technischen<br />

Universität <strong>Berlin</strong> setzen dabei stark auf<br />

die Oracle Datenbank. Denn mit Oracle<br />

Spatial lassen sich unter Nutzung von<br />

Vektordaten, Punktwolken, TINs, Rasterdaten<br />

und Bildinformationen (Texturen),<br />

3D Stadtmodelle in den unterschiedlichen<br />

LoD-Stufen (Level of Detail) erzeugen.<br />

Texturen (siehe Abbildung 4) ergänzen<br />

dabei die räumlichen bzw. geometrischen<br />

Informationen für eine realistische Darstellung<br />

von Gebäuden und Szenerien.<br />

Die Oracle Datenbank mit der Option<br />

Spatial unterstützt 3D Geodaten ab Version<br />

11gR1. Neben den 3D Vektordaten<br />

lassen sich zusätzlich Punktwolken (z.B.<br />

Laserscandaten) und Digitale Geländemodelle<br />

über die SDO_PC und<br />

SDO_TIN direkt in der Datenbank verwalten.<br />

Für das Prozessieren dieser Daten stehen<br />

neben der Unterstützung von 3D-Koordinatensystemen,<br />

einem räumlichen Index,<br />

welcher die 3. Dimension berücksichtigt,<br />

auch wichtige räumliche Funktionen<br />

zur Verfügung. Hierdurch ist es<br />

möglich, u.a.:<br />

• die topologischen Beziehungen zwischen<br />

Objekten zu bestimmen<br />

• Länge, Fläche und Volumen zu berechnen<br />

• geometrische Umrechnungen (z.B.<br />

Rotation, Skalierung, Translation)<br />

oder<br />

• den Import von bzw. Export nach<br />

CityGML oder KML (Keyhole Markup<br />

Language) vorzunehmen.<br />

Am einfachsten sind Daten und Funktionen<br />

mittels SQL zu nutzen, der<br />

Standardabfragesprache für Relationale<br />

Datenbanksysteme. So ist das Exportieren<br />

von Daten nach CityGML oder KML<br />

eine „Angelegenheit von Datenbank-<br />

Bordmitteln“ und im Blogeintrag<br />

„Gebäudekonstruktion mit Oracle Spatial<br />

– Teil 1: LOD1“ beschrieben. Für die<br />

Entwicklung von Fachanwendungen auf<br />

Basis von Oracle Spatial stehen darüberhinaus<br />

eine PL/SQL sowie eine Java<br />

Programmierschnittstelle zur Verfügung.<br />

Weitere standardbasierte Schnittstelle (wie<br />

XML, SOAP) sind nutzbar u.a. für die<br />

Bereitstellung von Geodiensten wie Web<br />

Feature Services (WFS).<br />

Abbildung 2 zeigt aus Gebäudeumrissen<br />

und Höhenangaben erzeugte 3D<br />

Geodaten. Diese wurden in der Datenbank<br />

nach CityGML transformiertund<br />

anschließend mit dem Landexplorer GML<br />

Viewer zur Anzeige gebracht.<br />

3D-Stadtmodelle mit Oracle Spatial<br />

in unterschiedlichen Detailtiefen<br />

Für Kommunen und Landesvermessungen<br />

ist die Bereitstellung von 3D<br />

Daten ein sehr aktuelles Thema. Ziel ist<br />

es, diese Daten für Fachanwendungen<br />

wie eingangs beschrieben verfügbar zu<br />

machen.<br />

Abbildung 4: Textur für Gebäudefassade<br />

Wie ein LoD4-Stadtmodell aus der Oracle<br />

Datenbank aussehen kann, verdeutlicht<br />

Abbildung 5. Datenquelle hier sind<br />

Vektordaten sowie Texturen für Gebäude<br />

sowie Grundfläche vom Oracle Partner<br />

TeleAtlas.<br />

Lösungen auf Basis von Oracle Spatial<br />

und 3D<br />

Geodaten in der Oracle Datenbank in<br />

Wert zu setzen, egal ob nun bei Behörden<br />

oder Unternehmen der freien Wirtschaft,<br />

dafür kommt vielfältig die Expertise von<br />

spezialisierten Oracle Partnern zum Einsatz.<br />

So arbeitet Oracle innerhalb des Oracle<br />

Partner Network sehr eng mit GIS- und<br />

Geofachanwendungsherstellern, mit<br />

Systemintegratoren oder auch<br />

Geodatenlieferanten zusammen. Einige<br />

dieser setzen dabei in besonderer Weise<br />

auf die 3D Funktionalität von Oracle<br />

Spatial, wie z.B. ABACO, Agency9,<br />

Autodesk, Bentley oder STAR-APIC. Ihre<br />

Lösungen und Werkzeuge lassen sich<br />

über die Suchbegriffe 3D Oracle Spatial<br />

leicht im Internet recherchieren. Eine Zusammenstellung<br />

von Partnern findet sich<br />

auch im Oracle Technology Network:<br />

www.oracle.com/technetwork/database<br />

/options/spatial/overview/partners/<br />

index.html<br />

Zusammenfassung<br />

Abbildung 3: Unterschiedliche Detaillierungsgrade, sogenannte Level of Details<br />

Behörden und öffentliche Einrichtungen<br />

der Länder und Kommunen unterliegen<br />

in Bezug auf die Erfassung, Haltung und<br />

Bereitstellung von Geodaten viel- <br />

2/12 20


fältigen Regelungen und Anforderungen.<br />

Neben der Erfüllung nationaler und<br />

europäischer Richtlinien zur Standardisierung<br />

und Harmonisierung von<br />

Geodaten (INSPIRE), der Verbesserung<br />

der Datenqualität und –verfügbarkeit<br />

(BGeoRG), stellt insbesondere die Integration<br />

neuer Datentypen (3D Punktwolken,<br />

3D Stadtmodelle) in bestehende<br />

Geodateninfrastrukturen eine aktuelle<br />

Herausforderung dar. Der Einsatz von<br />

Oracle Spatial ermöglicht vorhandene <strong>IT</strong><br />

Ressourcen optimal und performant für<br />

die Speicherung und Prozessierung von<br />

2D und 3D Geodaten zu nutzen. So<br />

entstehen interoperable und plattformunabhängige<br />

Geodateninfrastrukturen<br />

und Geofachanwendungen auf der Basis<br />

von Standard-<strong>IT</strong>-Infrastrukturkomponenten<br />

wie Datenbanken und<br />

Applikationsservern.<br />

oracle-spatial.blogspot.com<br />

oracle-maps.blogspot.com<br />

DIPL.-INF. KARIN PATENGE, DR. R<strong>IT</strong>A<br />

ENGEMAIER<br />

Systemberaterinnen<br />

Oracle Deutschland B.V. & Co. KG <br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Open-Government-<br />

Lösung für straßenverkehrsrelevante<br />

Online-Daten<br />

Die Bundesanstalt für Straßenwesen<br />

(BASt) realisiert zurzeit einen virtuellen<br />

Marktplatz für Verkehrsinformationen:<br />

den „Mobilitäts Daten<br />

Marktplatz“ (MDM). Ziel des<br />

Internet-Portals ist es, möglichst viele<br />

Anbieter und Nutzer von Verkehrsinformationen<br />

effizient zu vernetzen<br />

und so eine Plattform zu schaffen, auf<br />

der sie ihre Daten austauschen können.<br />

Der MDM unterstützt damit maßgeblich<br />

die Einführung intelligenter<br />

Verkehrssysteme.<br />

Daten über Verkehrsströme, Staus, Baustellen,<br />

Parkmöglichkeiten und Ähnliches<br />

werden in der Regel von Bund, Ländern<br />

und Kommunen erhoben. Diese Informationen<br />

sind allerdings bislang kaum<br />

miteinander vernetzt und für eine Nutzung<br />

nur teilweise unter komplizierten<br />

Voraussetzungen zugänglich. Dies wird<br />

sich mit dem Mobilitäts Daten Marktplatz<br />

ändern: In Zukunft sollen alle Daten<br />

von deren Erzeugern auf der MDM-<br />

Internet-Plattform angeboten werden –<br />

übersichtlich, zu transparenten Konditionen<br />

und klaren rechtlichen Bedingungen.<br />

Um einen echten Mehrwert zu schaffen,<br />

bringt der MDM drei Gruppen zusammen:<br />

die Anbieter, Veredler und Abnehmer<br />

von für den Straßenverkehr relevanten<br />

Daten. Anbieter sind bisher hauptsächlich<br />

Behörden, zunehmend aber auch<br />

private Firmen. Zu den Datenveredlern<br />

gehören vor allem Unternehmen, die<br />

vorhandene Daten zusammenbringen,<br />

in standardisierte Formate wandeln oder<br />

die Datenqualität bewerten. Die Datenabnehmer<br />

sind zum Beispiel Anbieter<br />

von Navigationsdiensten und Logistikfirmen.<br />

Zudem wird der Mobilitäts Daten<br />

Marktplatz die Möglichkeit schaffen,<br />

neue Ideen umzusetzen: Durch eine<br />

Kombination aktueller Informationen<br />

zu Staus und Umleitungen mit denen<br />

über öffentliche Verkehrsmittel, freie Parkplätze<br />

und Carsharing-Angebote, könnte<br />

ein Kunde innerhalb kürzester Zeit<br />

Alternativvorschläge für seine Route erhalten.<br />

Um zu erreichen, dass alle verfügbaren<br />

Informationen transparent aufbereitet<br />

und weitergegeben werden, hat die Europäische<br />

Union mit der Richtlinie 2010/40<br />

EU den Rahmen für die Einführung<br />

intelligenter Verkehrssysteme geschaffen.<br />

Zu ihrer Umsetzung gehört maßgeblich<br />

die optimale Nutzung von Straßen-,<br />

Verkehrs- und Reisedaten, wie sie auf<br />

dem Mobilitäts Daten Marktplatz ausgetauscht<br />

werden sollen.<br />

Abbildung 5: LoD4 Stadtmodell Ausschnitt <strong>Berlin</strong>. Darstellung mit Oracle Java 3D-<br />

Viewer (Datenquelle:TeleAtlas)<br />

Der MDM wurde im Rahmen des Projektes<br />

„Metadatenplattform für Verkehrsinformationen<br />

des Individualverkehrs“<br />

initiiert. Der Nutzerbeirat, der den MDM<br />

betreut, setzt sich aus Akteuren aus Wirtschaft,<br />

Verwaltung und Forschungseinrichtungen<br />

zusammen. Im Laufe des Jahres<br />

<strong>2012</strong> wird das System mit ersten <br />

2/12 21


Vorteile des Mobilitäts<br />

Daten Marktplatzes (MDM)<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

EU: Nutzung öffentlicher<br />

Daten als Goldmine<br />

• Austausch von Verkehrsdaten<br />

zwischen Dienstanbietern, der<br />

öffentlichen Hand und anderen<br />

Nutzern über standardisierte<br />

Schnittstellen und Kommunikationsverfahren<br />

erheblich ver<br />

einfacht<br />

• Schaffung von Transparenz<br />

über die Marktteilnehmer<br />

• Vereinfachung der Geschäftsprozesse<br />

der Marktteilnehmer<br />

• Reduzierung des technischen<br />

und organisatorischen Aufwands<br />

von Datenanbietern und<br />

Datenabnehmern<br />

Pilotdiensten getestet, für 2014 ist die<br />

Einführung des Regelbetriebs vorgesehen.<br />

Damit ist Deutschland auf einem<br />

guten Weg und setzt einen Meilenstein<br />

bei der Umsetzung des Europäischen<br />

Aktionsplans für Intelligenten Verkehr.<br />

Die Entwicklung der Plattform übernahm<br />

der <strong>IT</strong>-Dienstleister Materna<br />

GmbH. Darüber hinaus leistet das Unternehmen<br />

den Pilotbetrieb im eigenen<br />

Rechenzentrum. Kernstück der Lösung<br />

ist die Plattform MACS (Multimedia<br />

Application & Content Server), eine Service<br />

Delivery Middleware, die unter anderem<br />

Komponenten zur Aggregation,<br />

Verteilung und Vermarktung digitaler<br />

Inhalte bereitstellt, wie sie auch in diesem<br />

Projekt zum Einsatz kommen werden.<br />

Darüber hinaus ergänzte Materna projektspezifische<br />

Komponenten, beispielsweise<br />

zur Verwaltung der Datenstrukturen des<br />

MDM.<br />

www.mdm-portal.de<br />

DR. LUTZ R<strong>IT</strong>TERSHAUS<br />

Bundesanstalt für Straßenwesen<br />

<br />

Die Europäische Kommission hat im<br />

Dezember 2011 eine Strategie für offene<br />

Daten in Europa vorgestellt, die der<br />

EU-Wirtschaft einen erwarteten 40-<br />

Milliarden-Euro-Wachstumsschub<br />

pro Jahr bescheren soll. Europäische<br />

öffentliche Verwaltungen sitzen auf<br />

einer Goldmine, die ein bislang unerschlossenes<br />

wirtschaftliches Potenzial<br />

birgt: nämlich auf großen Mengen<br />

von Informationen, die von zahlreichen<br />

Behörden und Dienststellen angehäuft<br />

werden. In einigen Mitgliedstaaten<br />

wie dem Vereinigten Königreich<br />

und Frankreich wird bereits deutlich,<br />

welche Werte hier noch schlummern.<br />

Die Strategie zu ihrer EU-weiten Erschließung<br />

besteht aus drei Teilen: Erstens<br />

wird die Kommission mit gutem Beispiel<br />

vorangehen und der Öffentlichkeit<br />

ihre Informationsschätze kostenlos über<br />

ein neues Datenportal zugänglich machen.<br />

Zweitens werden überall in der EU<br />

gleiche Wettbewerbsbedingungen in Bezug<br />

auf offene Daten geschaffen. Drittens<br />

werden für diese neuen Maßnahmen 100<br />

Millionen Euro bereitgestellt, die im<br />

Zeitraum 2011 bis 2013 für Forschungsarbeiten<br />

über bessere Technologien für<br />

den Umgang mit diesen Daten ausgegeben<br />

werden sollen.<br />

Mit diesen Maßnahmen positioniert sich<br />

die EU als weltweiter Akteur auf dem<br />

Gebiet der Weiterverwendung von Informationen<br />

des öffentlichen Sektors. Ziel<br />

ist die Förderung einer dynamischen Branche,<br />

die Rohdaten in Material verwandelt,<br />

das Hunderte Millionen IKT-Nutzer<br />

dringend benötigen, beispielsweise in<br />

Smartphone-Apps für Landkarten, Echtzeit-Verkehrs-<br />

und Wetterinformationen,<br />

Preisvergleichen und vielen andere Anwendungen.<br />

Andere wichtige Nutznießer<br />

werden Journalisten und Wissenschaftler<br />

sein.<br />

Die Bestände an Daten in den europäischen<br />

öffentlichen Verwaltungen<br />

gleichen einer Goldmine<br />

Die Vizepräsidentin der Kommission,<br />

Neelie Kroes, sagte hierzu: „Wir senden<br />

heute ein deutliches Signal an alle öffentlichen<br />

Verwaltungen. Ihre Daten sind viel<br />

mehr wert, wenn Sie sie weggeben. Geben<br />

Sie Ihre Daten jetzt frei. Nutzen Sie diesen<br />

Rahmen, um zu den intelligenten Vorreitern<br />

aufzuschließen, die bereits von den<br />

Vorteilen offener Daten profitieren. Für<br />

diese Informationen haben die Steuerzahler<br />

ohnehin schon bezahlt. Nun sollten<br />

wir sie wenigstens all jenen zurückgeben,<br />

die sie auf neue Art verwenden wollen,<br />

um den Menschen zu helfen und um<br />

Arbeitsplätze und Wachstum zu schaffen.“<br />

Die Kommission schlägt vor, die Richtlinie<br />

von 2003 über die Weiterverwendung<br />

von Informationen des öffentlichen<br />

Sektors wie folgt zu ändern:<br />

• Grundsätzlich sollen alle Dokumente,<br />

die von öffentlichen Stellen zugänglich<br />

gemacht werden, auch zu beliebigen<br />

– gewerblichen wie nicht-gewerblichen<br />

– Zwecken weiterverwendet<br />

werden können, soweit sie nicht durch<br />

Urheberrechte Dritter geschützt sind.<br />

• Festlegung des Grundsatzes, dass öffentliche<br />

Stellen dafür keine Gebühren<br />

verlangen dürfen, die über den durch<br />

die jeweilige Einzelanforderung verursachten<br />

Mehrkosten („Zusatzkosten“)<br />

liegen; in der Praxis bedeutet<br />

dies, dass die meisten Daten kostenlos<br />

oder so gut wie kostenlos bereitgestellt<br />

werden, soweit die Erhebung <br />

2/12 22


von Gebühren nicht ordnungsgemäß<br />

begründet wird.<br />

• Einführung einer Verpflichtung zur<br />

Bereitstellung der Daten in üblichen,<br />

maschinenlesbaren Formaten, damit<br />

die Daten effektiv weiterverwendet<br />

werden können.<br />

• Schaffung einer behördlichen Aufsicht<br />

zur Durchsetzung dieser Grundsätze.<br />

• Massive Ausdehnung des Anwendungsbereichs<br />

der Richtlinie, nämlich<br />

zum ersten Mal auch auf Bibliotheken,<br />

Museen und Archive; die bestehenden<br />

Vorschriften von 2003 werden dann<br />

auch für Daten aus solchen Einrichtungen<br />

gelten.<br />

Darüber hinaus wird die Kommission<br />

ihre eigenen Daten über ein neues „Datenportal“<br />

öffentlich zugänglich machen.<br />

Hierfür hat sie bereits einen Vertrag geschlossen.<br />

Dieses Portal befindet sich<br />

gegenwärtig noch in der „Beta-Version“<br />

(Entwicklungs- und Testphase) und soll<br />

im Frühjahr <strong>2012</strong> an den Start gehen.<br />

Damit wird es rechtzeitig als einheitlicher<br />

Zugangspunkt für weiterverwendbare<br />

Daten aus allen Organen, Einrichtungen,<br />

Ämtern und Agenturen der EU und aus<br />

nationalen Behörden dienen.<br />

Hintergrund<br />

Offene Daten sind allgemeine Informationen,<br />

die frei verwendet, weiterverwendet<br />

und weiterverbreitet werden dürfen, entweder<br />

kostenlos oder nur zu den anfallenden<br />

Zusatzkosten.<br />

Der heutige Kommissionsvorschlag steht<br />

in vollem Einklang mit den Vorschriften<br />

für die Verarbeitung personenbezogener<br />

Daten.<br />

Wie im Auftrag der Europäischen Kommission<br />

durchgeführte Studien belegen,<br />

bereitet das Auffinden und Weiterverwenden<br />

von Informationen des öffentlichen<br />

Sektors den Unternehmen und<br />

Bürgern noch immer Schwierigkeiten. Das<br />

bedeutet, dass bei offenen Daten in<br />

Europa ein großer Entwicklungsrückstand<br />

besteht.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Bei Umfragen der Kommission zu dem<br />

wichtigen Gebiet der geografischen Informationen<br />

gaben fast 80 Prozent der<br />

Befragten an, dass sie Informationen im<br />

Besitz öffentlicher Stellen nicht voll für<br />

sich nutzen könnten. Gründe dafür sind<br />

hohe Gebühren, undurchsichtige Weiterverwendungsvorschriften<br />

und praktiken,<br />

mangelnde Transparenz in Bezug darauf,<br />

wer welche Daten besitzt, wie auch exklusive<br />

Lizenzvereinbarungen, die den Wettbewerb<br />

untergraben.<br />

In ihrer Digitalen Agenda für Europa<br />

nannte die Kommission die Weiterverwendung<br />

von Informationen des öffentlichen<br />

Sektors neben dem schnellen<br />

und ultraschnellen Internetzugang als<br />

Schlüsselvoraussetzungen für die Schaffung<br />

eines digitalen Binnenmarkts.<br />

Mit der Richtlinie 2003/98/EG über die<br />

Weiterverwendung von Informationen<br />

des öffentlichen Sektors wurde eine Reihe<br />

erster Maßnahmen eingeführt, um Unternehmen<br />

den Zugang zu behördlichen<br />

Informationen und die Erlangung entsprechender<br />

Genehmigungen zu ihrer<br />

Weiterverwendung zu erleichtern. Außerdem<br />

setzte die Richtlinie einen Prozess<br />

in Gang, in dessen Verlauf viele<br />

öffentliche Stellen die Gebühren für die<br />

Abfrage solcher Informationen gesenkt<br />

haben. Der heutige Vorschlag soll den<br />

Zugang weiter verbessern und den Anwendungsbereich<br />

der Richtlinie ausweiten.<br />

(PR/ Europäische Kommission)<br />

Nutzung von Open Data im<br />

Journalismus<br />

Hyperlokal<br />

Das Medium Internet befindet sich im<br />

ständigen Wandel und verändert<br />

weiterhin den Journalismus: Sowohl<br />

das Handwerk, den Beruf des Journalisten,<br />

aber auch Form und Art, wie<br />

Nachrichten konsumiert werden.<br />

Auch Open Data spielt dabei eine<br />

Rolle, das aus seinen Datenbanken<br />

punktgenau Informationen liefern<br />

wird. Das kann nicht nur den<br />

Lokaljournalismus verändern, sondern<br />

auch die Lokalpolitik.<br />

Immer „schlauere“ Mobiltelefone stecken<br />

in immer mehr Taschen. Und wenn die<br />

Zeichen nicht trügen, werden berührungsgesteuerte<br />

Tablet-PCs wie das iPad und<br />

Androidgeräte sich als wichtige Plattform<br />

durchsetzen - vor allem für den Konsum<br />

von Inhalten nebenbei und unterwegs<br />

(weniger für die produktive Arbeit). Gemein<br />

ist diesen Geräten, dass sie „wissen“<br />

können, wo man sich aufhält. Per<br />

Standorte der Mobilfunkmasten sowie<br />

WLAN-Routern und/oder per Satellitennavigation<br />

GPS.<br />

Der klassische Lokaljournalismus lebt<br />

davon, dass Leser immer das sehr interessiert,<br />

was sie unmittelbar umgibt, was<br />

ihren Alltag und ihr soziales Umfeld -<br />

Familie, Freunde, Bekannte, Kollegen -<br />

berührt: Der Verein um die Ecke, das Fest<br />

im nahen Kindergarten, die Baustelle<br />

vorne an der Kreuzung, der Einbruch<br />

beim Nachbarn gegenüber und das Angebot<br />

vom Laden die Straße herunter.<br />

Das Internet als Medium erlaubt es nun,<br />

das Nachrichten kleinteiliger und spezifischer<br />

werden. Und zwar dynamisch: Nachrichten<br />

werden an den Standort des Nutzers,<br />

der vielleicht automatisch erfasst<br />

wurde, angepasst. Hyperlokaljournalismus<br />

konzentriert sich also auf diese unmittelbare<br />

Umgebung. Neben dem Begriff<br />

„hyperlokal“ wird auch „mikrolokal“<br />

benutzt.<br />

Recht weit verbreitet und fast schon klassisch<br />

zu nennen, sind hyperlokale Blogs.<br />

Die berichten vielleicht über einen Ortsteil,<br />

ein Quartier, Viertel oder Kiez. Das<br />

kann einerseits als „Bürgerjournalismus“(Citizen<br />

journalism) geschehen, also<br />

mit keinem oder kaum kommerziellen<br />

Interesse. Verwandt damit sind<br />

Stadtwikis, die von eine offenen Gemeinschaft<br />

gepflegt werden und alle möglichen<br />

Informationen über ein Stadt sammeln<br />

und strukturieren. Ein gutes Beispiel<br />

dafür ist das Wiki zur Stadt Karlsruhe. <br />

2/12 23


Digitale Anzeigenblätter<br />

Hyperlokale Angebote können aber auch<br />

professionell und mit explizit kommerziellen<br />

Interesse betrieben werden. In den<br />

USA ist derzeit die Internetfirma AOL<br />

mit ihrem Angebot „Patch“recht erfolgreich.<br />

In eine Reihe von Bundesstaaten<br />

werden Nachrichtenportale für Orte oder<br />

Ortsteile angeboten, die von freien Mitarbeitern<br />

vor Ort bestückt werden.<br />

Das Geschäftsmodell ist schlicht: Es geht<br />

um Werbung. Der Werbemarkt im<br />

Internet wächst kontinuierlich und hat<br />

mittlerweile den Printbereich überholt.<br />

Von mobiler und standortabhängiger<br />

Werbung wird sich dabei viel erhofft.<br />

Exemplarisch für einen Hoffnungsträger<br />

kann der Dienst FourSquare gelten. Er<br />

erlaubt es Nutzern, sich an Orten per<br />

Mobiltelefon anzumelden, „einzuchecken“.<br />

Diese Standortfinformationen lassen<br />

sich mit Freunden per Web teilen und<br />

es lässt sich in einen Wettbewerb treten<br />

(„Gamification“), wer am meisten einen<br />

Ort besucht hat.<br />

Hier kommt die Werbung ins Spiel, die je<br />

nach Standort spezielle Werbung einblendet<br />

und Preisnachlässe anbietet. Four-<br />

Square kooperiert dafür beispielsweise mit<br />

Unternehmen wie Groupon, die sich eben<br />

auf regionale Rabattangebote spezialisiert<br />

haben. In diesem Zusammenhang bleibt<br />

abzuwarten, ob sich gedruckte lokale Anzeigenblätter,<br />

die in Deutschland 2010<br />

einen Umsatz von zwei Milliarden Euro<br />

erwirtschaftet, auf Dauer halten können.<br />

Diese Wochenzeitungen dienen als<br />

(Deck-)Mantel für zahlreiche Prospekte<br />

lokaler Geschäfte: Super-, Bau- und<br />

Elektromärkte. Doch Internetangebote<br />

wie MeinProspekt.de erfreuen sich wachsender<br />

Beliebtheit und lassen sich seitens<br />

der Werbetreibenden mit hyperlokalen<br />

und mobilen punktgenau an den Mann<br />

bringen.<br />

Hyperlokales Open Data<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Welche Rolle wird nun Open Data in<br />

diesem Bereich? Das demonstriert der<br />

Vorreiter hyperlokaler Angebote am Besten:<br />

2007 startete das US-<br />

Projekt Everyblock. Es ist<br />

mittlerweile für 16 große<br />

US-Städte verfügbar. Das<br />

ehemals stiftungsfinanzierte<br />

Projekt wurde<br />

vom Medienkonzern<br />

MSBNC im Sommer 2009<br />

gekauft.<br />

Everyblock generiert<br />

vornehmlich keine eigenen<br />

Inhalte sondern<br />

aggregiert sie, sammelt sie<br />

ein. Man versteht sich als<br />

„geographischer Filter“.<br />

Dabei geht es nicht um statischen Daten<br />

für eine Gegend, etwa Adressen von Schulen.<br />

Sondern um Nachrichten im weitesten<br />

Sinne, die sich auf einen Standort<br />

beziehen und ein Datum haben.<br />

Diese Informationen werden nicht auf<br />

Stadtteile (boroughs) sondern auf<br />

Nachbarschaften (neighborhoods) heruntergebrochen<br />

– was hierzulande „Viertel“<br />

oder „Kiez“ genannt. Die Palette der<br />

Informationen reichen von Ankündigungen,<br />

Erwähnung in den Medien und<br />

politischen Neuigkeiten über Immobilienangebote,<br />

Graffitientfernung,<br />

Ausschanklizenzen, Schulbesprechungen,<br />

Baugenehmigungen bis hin zum<br />

Polizeiticker. Neben den üblichen Listendarstellungen<br />

und Suchmöglichkeiten<br />

lassen sich die Informationen auch per<br />

Karte erschließen. Die Quellen insgesamt<br />

sind mannigfaltig: Fotos von Flickr, aus<br />

Anzeigenportalen, aus diversen Blogs und<br />

Zeitungsseiten und eben öffentlichen<br />

Informationen, die entweder als Open<br />

Data vorliegen oder andersweitig von<br />

Behörden zur Verfügung gestellt werden.<br />

Letztlich ist Everyblock nur ein Vorgeschmack<br />

darauf, was mit Open Data<br />

möglich sein wird. Denn Städte stecken<br />

voll Informationen, von denen immer<br />

mehr digital per Sensoren in Echtzeit<br />

erfasst werden. Und wenn der Trend zu<br />

Open Data anhält, werden Städte diese<br />

Informationen auch in offenen Formaten<br />

anbieten. Seien es Informationen zur<br />

Neue Formen der lokalen Partizipation – Screenshot der<br />

Seite frankfurt-gestalten.de<br />

Luftgüte, zur Dichte der Fahrzeuge auf<br />

der Stadtautobahn oder die aktuelle Position<br />

eines Busses, einer U- oder Straßenbahn.<br />

Apps für Mobiltelefone, die Abfahrtszeiten<br />

des Öffentlichen Personennahverkehrs<br />

je nach Standort anzeigen,<br />

demonstrieren schon heute, welchen praktischen<br />

Mehrwert Datensätze liefern können.<br />

Datengetriebene Lokalpolitik<br />

Doch weist das Beispiel von OpenlyLocal<br />

auf die politische Dimension von hyperlokalen<br />

Daten hin. Das britische Projekt<br />

bereitet die Gemeinderatsinformationen<br />

in Großbritannien als Open Data auf.<br />

Somit ist es Bürgern einfach möglich,<br />

politische Vorgänge und Strukturen auf<br />

lokaler Ebene zu verfolgen. Ein verwandtes<br />

Vorhaben aus Deutschland, Frankfurt-gestalten.de,<br />

kombiniert solche Informationen<br />

auf einer Karte für die Stadt<br />

am Main (siehe Abbildung).<br />

So zeichnet sich ab, dass nicht nur Lokalnachrichten<br />

und der Werbemarkt sich<br />

durch mobile und hyperlokale Anwendungen<br />

verändern werden. Sondern auch<br />

Lokalpolitik durch datengetriebene Informationen<br />

in neuen Formaten stattfinden<br />

kann.<br />

LORENZ MATZAT<br />

datenjournalist.de<br />

Dieser Text steht unter einer Creative Commons<br />

Namensnennung 3.0 Deutschland Lizenz<br />

2/12 24


Bewältigung von Krisen und<br />

Katstrophen im Zeitalter von<br />

Web 2.0<br />

Digitale Daten im<br />

Katastrophenschutz<br />

(DiDaKat)<br />

Krisen und Katastrophen wie<br />

beispielsweise die weltweite Verbreitung<br />

der Neuen Grippe A/H1N1 (im<br />

Volksmund bekannt als Schweinegrippe)<br />

im Jahr 2009, das Seebeben in<br />

Südostasien (2004) oder das Zugunglück<br />

von Eschede (1998) sind immer<br />

noch in unser aller Erinnerung. Alle<br />

diese Ereignisse führten im Land<br />

<strong>Berlin</strong> dazu, dass die für das Gesundheitswesen<br />

zuständige Senatsverwaltung<br />

ihren, genau für diese Situationen<br />

stetig einsatzbereiten, Krisenstab<br />

einberief. Gerade Ereignisse,<br />

die einen hohen Koordinierungs- und<br />

Entscheidungsbedarf und die Zusammenarbeit<br />

mit anderen Behörden und<br />

Einrichtungen erfordern, bedürfen ein<br />

Arbeiten in anderen organisatorischen<br />

Strukturen.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Zuletzt hat der Krisenstab seine Arbeit<br />

2009 aufgenommen, um die Auswirkungen<br />

der Neuen Grippe zu bewältigen. Die<br />

Aufgaben des Krisenstabes waren dabei<br />

vielfältig und reichten von der regelmäßigen<br />

Pressearbeit über Verhandlungen mit<br />

der Kassenärztlichen Vereinigung, in denen<br />

die Ärzte bestimmt wurden, die die<br />

Impfungen durchführen sollten, der<br />

Organisation der Impfungen mit der<br />

notwendigen Information der Bevölkerung<br />

bis hin zur Beschaffung, Verteilung<br />

und Einlagerung des Impfstoffes.<br />

Um in solchen Situationen handlungsfähig<br />

zu sein, wird seit dem Jahr 1995 in der<br />

Arbeitsgruppe Gesundheitlicher<br />

Bevölkerungsschutz ein Notfallhandbuch<br />

geführt. Dafür wurden in einer<br />

Access 2.0-Datenbank alle Ansprechpartner<br />

des Landes <strong>Berlin</strong> gepflegt, die in<br />

einer möglichen Katastrophensituation<br />

benötigt werden. Die Daten wurden als<br />

Lose-Blatt-Sammlung in Handbüchern<br />

zusammengeführt und standen ausgewählten<br />

Mitarbeitern zur Verfügung. In<br />

der <strong>Berlin</strong>er Verwaltung gab es 150 Handbücher.<br />

„Im Zeitalter der zunehmenden Digitalisierung<br />

und Vernetzung mit den neuen Medien werden<br />

auch in der Verwaltung Lösungen bevorzugt,<br />

die von überall abrufbar und erreichbar sind.“<br />

(Projektleiter Detlef Cwojdzinski über die<br />

Zielsetzung des Projektes)<br />

Die Vorplanungen für das Projekt<br />

DiDaKat (Digitale Datensammlung im<br />

Katastrophenschutz) wurden im Jahr<br />

2008 begonnen. Ziel des Projektes war<br />

die Umstellung auf ein neues Softwaresystem,<br />

um Automatisierungspotentiale<br />

auszuschöpfen. Das Verfahren der manuellen<br />

Datensammlung und Datendistribution<br />

sollte vereinfacht werden.<br />

Das Projekt wurde im Januar 2010 neu<br />

aufgenommen und<br />

u.a. mit Mitteln des Modernisierungsprogramms<br />

vom <strong>Berlin</strong>er Senat „ServiceStadt<br />

<strong>Berlin</strong>“ gefördert. Dort war es<br />

dem Handlungsfeld „Verwaltungseffizienz<br />

und Personalmanagement“<br />

zugeordnet.<br />

Ausgeschrieben wurde eine Lösung, die<br />

das bisher geführte Notfallhandbuch ersetzt,<br />

jedoch dessen Anforderungen gänzlich<br />

erfüllen und erweitern sollte. Die<br />

Ausschreibung hat die österreichische<br />

Firma icomedias gewonnen. Routiniert<br />

in der Realisierung von Portalen und<br />

Online-Lösungen, konnte die Firma vor<br />

allem mit ihrer Erfahrung im Katastrophenschutz<br />

überzeugen. In der Steiermark<br />

und in Salzburg implementierte<br />

icomedias ein Katastrophenschutzportal<br />

mit einer Suchsystematik und Geo-Unterstützung,<br />

das für den Krisenfall und<br />

die Nutzung über mobile Endgeräte<br />

optimiert wurde.<br />

„DiDaKat ist einfache dezentrale Online-<br />

Datenpflege und übergreifende gemeinsame<br />

Nutzung im Krisenfall. Online immer aktuell,<br />

mobil und auch offline – und das alles bei einem<br />

bestätigten sehr hohen Maß an barrierefreier<br />

Zugänglichkeit und Ergonomie.“ (Managing<br />

Director icomedias DI Christian Ekhart<br />

über das Projekt DiDaKat)<br />

DiDaKat ist eine webbasierte Datenbank,<br />

zu der ein ausgewählter Nutzerkreis Zugang<br />

erhält. Daneben gibt es eine Mobilversion,<br />

in der ausgesuchte Inhalte über<br />

ein Smartphone, oder BlackBerry abrufbar<br />

sind. Die Datenübertragung erfolgt<br />

verschlüsselt über das HTTPS-Protokoll<br />

(SSL) und bietet dadurch im Gegensatz<br />

zur Papier-Version eine optimierte Zugriffssteuerung<br />

auf die personenbezogenen<br />

Daten. Das System wird über<br />

ein komplexes Rollen- und Rechtesystem<br />

gesteuert, mit dem jedem einzelnen Nutzer<br />

eindeutig die ihm zustehenden Rechte<br />

zugeteilt werden. Durch die Weblösung<br />

können neben den Daten der<br />

Ansprechpartner detailliertere Inhalte wie<br />

Einsatzpläne, Handlungsanweisungen,<br />

Rechtsgrundlagen und Meldeschemata<br />

zur Verfügung gestellt werden. Mit XML,<br />

XSLT und HTML5 werden aktuelle und<br />

zukunftssichere Standards eingesetzt. <br />

2/12 25


DiDaKat-Technik<br />

Das Portal DiDaKat wird als hochverfügbarer<br />

virtueller Linux/<br />

CentOS-Server mit performantem<br />

PostgreSQL-Server und Apache-<br />

Webserver in einem ISO-27000-<br />

zertifizierten Rechenzentrum betrieben.<br />

Als Kern wird das<br />

Enterprise Content Management<br />

icomedias Enterprise CMS in der<br />

Civil Protecrion Portal Suite eingesetzt.<br />

Alle Daten werden hoch strukturiert<br />

im XML-Format verarbeitet<br />

und für die Online-Nutzung<br />

am Browser mit XSLT-Rendering<br />

in das benötigte Ausgabeformat<br />

HTML, Text oder PDF konvertiert.<br />

Das Server-Backend mit XML<br />

und Datenbank sowie der<br />

Berechtingungsverwaltung, der<br />

Zugriff für Bearbeiter und das Portal<br />

für Nutzer sind sicher getrennt.<br />

Alle Datenverbindungen sind mit<br />

SSL und Zertifikaten abgesichert,<br />

Backup-Daten sind verschlüsselt<br />

und die Administration ist nur aus<br />

dem sicheren Verwaltungsnetz<br />

<strong>Berlin</strong> möglich. Für das Monitoring<br />

und Reporting der garantierten<br />

Verfügbarkeit wird das Nagios-<br />

System eingesetzt.<br />

Alle Daten sind damit hoch strukturiert<br />

und können im Portal dynamisch in<br />

alle Darstellungen integriert werden. Alle<br />

Kontakte und Telefonnummern sind für<br />

mobile und integrierte Telefonie (Lync,<br />

Skype, CTI, VoIP) verlinkt und können<br />

so per Klick sofort angerufen werden.<br />

„Wichtig war uns immer, das Projekt<br />

langsam aber stetig wachsen zu lassen<br />

und erst in einer späteren Projektphase in<br />

die Breite zu streuen und somit neue<br />

Nutzer zu akquirieren.“ (Projektleiter<br />

Detlef Cwojdzinski über die<br />

Umsetzungsstrategie des Projektes)<br />

Im August 2010 gab es die ersten Schulungen<br />

für die Mitarbeitenden der Arbeitsgruppe.<br />

Inzwischen wurde DiDaKat<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

anhand der täglichen Arbeit mit dem<br />

Portal weiterentwickelt, sodass neben der<br />

mobilen und der Online-Version, nun<br />

auch als Rückfallebene eine Offline-Version<br />

der wichtigsten Teilbereiche zur Verfügung<br />

steht.<br />

Zusätzlich wurden weitere Bereiche der<br />

<strong>Berlin</strong>er Verwaltung in das Projekt miteinbezogen.<br />

Das Landesamt für Gesundheit<br />

und Soziales, sowie die beiden Pilotbezirke<br />

Lichtenberg und Steglitz-<br />

Zehlendorf können als Projektmitwirkende<br />

genannt werden. Inzwischen<br />

setzen neun Bezirke das System ein. Durch<br />

die Vernetzung mit anderen Verwaltungen<br />

und Einrichtungen, die am Katastrophenschutz<br />

mitwirken, können die Daten<br />

lokal gepflegt werden. Einheitlichen<br />

Strukturen des Web-Portals sichern das<br />

gleichartige Vorgehen aller Beteiligten.<br />

Die Beteiligungsphase des Projekts wurde<br />

erfolgreich abgeschlossen, seit Mai <strong>2012</strong><br />

läuft der Echtbetrieb.<br />

„Wir überlegen jetzt schon, wie die Anwendung<br />

weiterentwickelt und ergänzt werden kann.<br />

Reizvoll sind für uns technische Ergänzungen<br />

für die Stabsunterstützung, z.B. in Form eines<br />

Einsatztagebuches.“ (Projektleiter Detlef<br />

Cwojdzinski über die Weiterentwicklung<br />

der webbasierten Anwendung)<br />

Das Arbeiten mit DiDaKat hat schon in<br />

der Projektphase gezeigt, dass die erhofften<br />

Vorzüge der Weblösung voll und<br />

ganz zum Tragen kommen. Informationen<br />

sind jetzt viel schneller verfügbar.<br />

Zudem zeigt sich, dass die Pflege<br />

insbesondere der Kontaktdaten qualitativ<br />

hochwertiger und effizienter ist, weil<br />

die Daten aktueller und valider sind und<br />

eine systemseitige Benachrichtigung zum<br />

Überprüfen der Daten eingerichtet ist.<br />

Das System soll zukünftig verstärkt für<br />

die Erstellung von Einsatzplänen eingesetzt<br />

werden. Durch die berlinweite Nutzung<br />

von DiDaKat werden sich hier für<br />

die Senatsverwaltungen und die Bezirke<br />

positive Synergieeffekte ergeben.<br />

PROJEKTTEAM DIDAKAT DER SENATS-<br />

VERWALTUNG FÜR GESUNDHE<strong>IT</strong> UND<br />

SOZIALES, ICOMEDIAS GMBH<br />

<br />

Zwei Jahre Nationale<br />

Prozessbibliothek –<br />

Status und Ausblick<br />

Der Aufbau von E-Government-Lösungen<br />

und -Strukturen ist in den<br />

vergangenen fünf Jahren gut vorangekommen.<br />

Unterschiedliche Projekte<br />

und Initiativen auf Bundes-, Landesund<br />

Kommunalebene, z.B. die (technische!)<br />

Umsetzung der EU-DLR, die<br />

Einführung von D115, der Aufbau einer<br />

Ebenen übergreifenden Geodaten-<br />

Infrastruktur oder von Prozessregistern<br />

auf Landes-und Kommunalebene<br />

sind einige prominente Beispiele.<br />

Im Rahmen (nicht nur) dieser Projekte<br />

wurden auf den unterschiedlichen<br />

Verwaltungsebenen auch relevante Geschäfts-<br />

bzw. Verwaltungsprozesse aufgenommen<br />

und dokumentiert. Dennoch<br />

ist es derzeit ausgesprochen schwierig bis<br />

unmöglich, einen umfassenden Überblick<br />

über diese Prozesse und deren <strong>IT</strong>-<br />

Unterlegung zu erhalten (in einer Kommune<br />

wird die Zahl der Geschäftsprozesse<br />

auf 3.000 bis 4.000 geschätzt). Ein übergreifendes<br />

Portal im Sinne einer<br />

Kollaborationsplattform zur Zusammenführung<br />

von Prozessmodellen<br />

ist bisher nicht verfügbar und auch im<br />

internationalen Kontext nicht bekannt.<br />

Mit der „Nationalen Prozessbibliothek“<br />

(NPB) soll diese Lücke geschlossen werden.<br />

Die Wissenschaftler der Humboldt-Universität<br />

zu <strong>Berlin</strong> und des Hasso-Plattner-<br />

Instituts in Potsdam entwickeln seit 2010<br />

im Forschungsprojekt NPB Konzept und<br />

Lösung für eine derartige Plattform. Diese<br />

wird zum einen ein Repository für<br />

Verwaltungsprozesse beinhalten und<br />

somit perspektivisch einen umfassenden<br />

Überblick geben bzw. die weitere Nutzung<br />

des vorhandenen Prozesswissens<br />

über Verwaltungsgrenzen und -ebenen<br />

hinweg unterstützen. Zum anderen kann<br />

über (Sub)Communities in der NPB die<br />

notwendige Kollaboration innerhalb <br />

2/12 26


<strong>SPL<strong>IT</strong>TER</strong><br />

Nationale Prozessbibliothek: Gesamtmodell und Ziele<br />

der Verwaltungen aber auch verwaltungsebenen-<br />

bzw. institutionenübergreifend<br />

ausgebaut werden.<br />

Die NPB verfolgt dabei bewusst einen<br />

offenen Ansatz im Hinblick auf<br />

Modellierungssprachen und die jeweils<br />

genutzten Werkzeuge. Aufgenommen<br />

werden Prozesse aus allen Verwaltungsebenen<br />

und unterschiedlichen Perspektiven<br />

(Sichten auf Prozesse).<br />

Um den o.g. offenen Ansatz zu wahren<br />

und die Unterstützung verschiedener<br />

Prozesssichten zu gewährleisten, wurde<br />

ein gemeinsames Metadatenmodell bzw.<br />

ein Ebenen übergreifender Ordnungsrahmen<br />

entwickelt. Dieser stellt das theoretische<br />

Grundgerüst der NPB dar. Sämtliche<br />

Informationen, die in der Bibliothek<br />

hinterlegt werden, sind in dieser<br />

Systematik verankert. Im Rahmen der<br />

empirischen Untersuchungen wird dieser<br />

Ordnungsrahmen im Jahr <strong>2012</strong> weiter<br />

verfeinert.<br />

Strukturell besteht die NPB aus einem<br />

Prozess-Modul und einem Community-<br />

Modul. Im Community-Modul werden<br />

etablierte Funktionen, wie<br />

Foren, Wikis oder Tutorien<br />

eingebunden.<br />

Im Prozessmodul sind die Prozessmodelle<br />

abgelegt, die u.a. auch über den<br />

XÖV Standard XProzess aus anderen<br />

Bibliotheken (z.B. der KGSt-Prozessbibliothek)<br />

oder aus kommerziellen<br />

Werkzeugen übernommen werden können.<br />

Neben funktionalen Optimierungen steht<br />

im Jahr <strong>2012</strong> die Aufnahme von sogenannten<br />

Leuchtturmprojekten in die NPB<br />

im Vordergrund.<br />

NORBERT AHREND<br />

Projektleiter Nationale Prozessbibliothek<br />

Humboldt-Universität zu <strong>Berlin</strong> <br />

Grobarchitektur der Nationalen Prozessbibliothek<br />

2/12 27


Mobile Government<br />

nimmt Fahrt auf<br />

Die öffentlichen Verwaltungen in<br />

Deutschland investieren verstärkt in<br />

Mobile Government. 42 Prozent haben<br />

bereits Vorhaben für die Entwicklung<br />

von Smartphone-Anwendungen<br />

angestoßen. Das Entwickeln von Apps<br />

und mobiler Dienste für Bürger und<br />

Unternehmen geht dabei über die reine<br />

Imagewirkung hinaus. Hauptziele<br />

der M-Government-Vorhaben sind<br />

eine Steigerung der Servicequalität<br />

und mehr Effizienz im Verwaltungsbetrieb.<br />

Das sind die Ergebnisse der<br />

Studie „Branchenkompass <strong>2012</strong> Public<br />

Services von Steria Mummert<br />

Consulting in Zusammenarbeit mit<br />

dem F.A.Z.-Institut.<br />

Die Nutzung von Verwaltungsleistungen<br />

sowie der Abruf von Informationen von<br />

unterwegs aus soll künftig Standard sein.<br />

Bislang reicht die Bandbreite der Anwendungen<br />

von aktuellen Statusmeldungen<br />

per SMS, über das Fotografieren und<br />

Melden von Straßenschäden per<br />

Smartphone bis zur mobilen Krisenkommunikation,<br />

bei der Behörden<br />

beispielsweise per Handy vor drohendem<br />

Hochwasser oder Lebensmittelrisiken<br />

warnen. „Die Erfahrungen in den<br />

Verwaltungen sprechen sich rum. Gleichzeitig<br />

fordern Bürger von ihren Kommunen<br />

verstärkt solche Werkzeuge“, sagt<br />

Christian Mohser, Experte für E-<br />

Government von Steria Mummert<br />

Consulting. Die Zahl mobiler Apps und<br />

Services wird deshalb in den kommenden<br />

drei Jahren weiter steigen. Jede vierte<br />

Verwaltungseinrichtung plant bis 2014,<br />

erstmals in M-Government zu investieren<br />

– vor allem auf Bundesebene und in<br />

Kleinstädten.<br />

Die Entscheider in der Verwaltung versprechen<br />

sich von den mobilen Anwendungen<br />

zudem weitere Impulse für eine<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

noch einfachere Nutzung des neuen Personalausweises<br />

in der Verwaltung. „Das<br />

Mobiltelefon kann zukünftig<br />

beispielsweise das Kartenlesegerät ersetzen,<br />

was noch einmal einen deutlichen<br />

Komfortsprung für die Nutzer bedeutet“,<br />

so Christian Mohser von Steria<br />

Mummert Consulting. Die von einigen<br />

Smartphones bereits unterstützte Near<br />

Field Communication-Technologie<br />

(NFC) ermöglicht die Nutzung der<br />

Online-Ausweisfunktion und somit die<br />

sichere Identifikation eines Bürgers für<br />

mobile Online-Services, zeigen<br />

Entwicklungsstudien.<br />

Denkbar ist darüber hinaus ein zentraler<br />

App Store in Deutschland, in dem alle<br />

von und für öffentliche Organisationen<br />

entwickelten Anwendungen und zertifizierten<br />

Dienste auf einer Plattform gebündelt<br />

werden. Vorreiter sind hier die<br />

USA. Auf der Seite apps.usa.gov erhalten<br />

Nutzer mobiler Dienste einen schnellen<br />

Überblick, welche Online-Services der<br />

öffentlichen Verwaltung als App für<br />

mobile Plattformen zur Verfügung stehen.<br />

In Deutschland fehlt bislang eine<br />

solche zentrale Plattform. (PR/ Steria<br />

Mummert Consulting)<br />

<br />

E-Government für<br />

Unternehmen ist in<br />

Deutschland ausbaufähig<br />

Deutsche Unternehmen haben bei der<br />

Nutzung von E-Government-Angeboten<br />

weiterhin Nachholbedarf. Nur<br />

zwei Drittel (67 Prozent) aller Firmen<br />

haben 2010 per Internet Daten und<br />

Informationen mit staatlichen Stellen<br />

ausgetauscht, ein Jahr zuvor waren es<br />

63 Prozent. Damit liegt Deutschland<br />

im EU-Vergleich im hinteren Mittelfeld.<br />

Im europäischen Schnitt nutzen drei Viertel<br />

(77 Prozent) aller Unternehmen E-<br />

Government-Angebote. Spitzenreiter<br />

sind Litauen und die Niederlande mit je<br />

95 Prozent der Unternehmen. Dies gab<br />

der Hightechverband Bitkom im Februar<br />

bekannt. Basis sind neue Zahlen von<br />

Eurostat. „Die zurückhaltende Nutzung<br />

von E-Government kostet Wirtschaft<br />

und Staat Milliarden“, sagte Bitkom-Präsident<br />

Prof. Dieter Kempf. „Damit deutsche<br />

Unternehmen bei der E-<br />

Government-Nutzung weiter aufholen,<br />

sind Angebote notwendig, die den Unternehmen<br />

echte Entlastungen bringen.“<br />

Ein wichtiger Schritt in die richtige Richtung<br />

sei ein neues Angebot der öffentlichen<br />

Verwaltung, der so genannte<br />

Prozessdatenbeschleuniger (P23R). Dieser<br />

wurde auf dem <strong>IT</strong>-Gipfel vorgestellt.<br />

Mit Hilfe von P23R kann der Datenaustausch<br />

zwischen Wirtschaft und Verwaltung<br />

der heute viele unterschiedliche Programme<br />

je nach der Form der Meldung<br />

erfordert, einfacher, sicherer und transparenter<br />

gestalten. P23R stellt eine technische<br />

Basis für alle Arten der Datenübermittlung<br />

zwischen Unternehmen<br />

und Behörden sowie Sozialversicherungsträgern<br />

bereit. Unternehmen können<br />

hiermit ihre gesetzlichen Informationsund<br />

Meldepflichten in einer abgesicherten<br />

Umgebung weitgehend automatisiert<br />

erfüllen wobei die Datenhoheit beim<br />

Unternehmen bleibt. Kempf: „Derzeit<br />

müssen in Deutschland insgesamt rund<br />

13.000 Informationen an den Staat gemeldet<br />

werden, oft zu rein statistischen<br />

Zwecken. Eine sichere Übermittlung, die<br />

die Datenhoheit bei den Unternehmen<br />

belässt und auf zentrale Datenbestände<br />

verzichtet, wird den Datenaustausch zwischen<br />

Wirtschaft und Staat spürbar erleichtern.“<br />

Zur Methodik: Die Statistikbehörde der<br />

EU, Eurostat, befragte Unternehmen aus<br />

allen Branchen außer dem Bankensektor.<br />

Die Unternehmen haben mindestens 10<br />

Mitarbeiter. (PR/ Bitkom e.V.) <br />

2/12 28


58 Prozent der<br />

Internetnutzer gehen<br />

online ins Amt<br />

58 Prozent der Internetnutzerinnen<br />

und -nutzer in Deutschland hatten 2011<br />

über das Internet Kontakt zu Behörden<br />

oder öffentlichen Einrichtungen.<br />

Nach Angaben des Statistischen Bundesamtes<br />

(Destatis) waren dies 33,6<br />

Millionen Menschen.<br />

Am häufigsten wurden Webseiten von<br />

Behörden oder öffentlichen Einrichtungen<br />

für die Informationssuche genutzt<br />

(57 Prozent). Ein Drittel (33 Prozent) der<br />

Internetnutzer hatten amtliche Formulare<br />

von den Webseiten heruntergeladen.<br />

Die elektronische Rücksendung ausgefüllter<br />

Formulare nutzten mit einem<br />

Anteil von 17 Prozent noch vergleichbar<br />

wenige Internetnutzer.<br />

Vertrauen und Sicherheit sind für die<br />

Internetnutzer bei Online-Angeboten der<br />

öffentlichen Verwaltung von hoher Bedeutung:<br />

Als Hinderungsgrund, warum<br />

keine Formulare über das Internet an<br />

Behörden zurück gesendet wurden, nannten<br />

die Internetnutzer am häufigsten<br />

Bedenken hinsichtlich des Schutzes und<br />

der Sicherheit persönlicher Daten (42 Prozent).<br />

25 Prozent der Internetnutzer hatten<br />

keine ausreichenden Kenntnisse für<br />

die Onlineversendung von Formularen.<br />

Weitere 20 Prozent bemängelten, dass<br />

eine Onlineversendung von Formularen<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Der Bundesbeauftragte<br />

für den Datenschutz<br />

und die Informationsfreiheit,<br />

Peter<br />

Schaar, hat sich nach<br />

dem Stopp des<br />

ELENA-Verfahrens<br />

davon überzeugt, dass<br />

sämtliche personenbezogene<br />

Daten genicht<br />

angeboten wurde. Nur<br />

sieben Prozent der<br />

Internetnutzer gaben technische<br />

Probleme beim Ausfüllen<br />

oder Versenden des<br />

Formulars als Hinderungsgrund<br />

an.<br />

Innerhalb der Europäischen<br />

Union (EU) liegen Daten<br />

für die Gruppe der 16- bis<br />

74-jährigen Internetnutzerinnen<br />

und -nutzer vor. Demnach lag im<br />

Jahr 2011 nach Angaben der europäischen<br />

Statistik-Behörde (Eurostat)<br />

Deutschland (60 Prozent) bei Online-<br />

Kontakten mit der öffentlichen Verwaltung<br />

leicht über dem Durchschnitt der<br />

EU 27 (56 Prozent).<br />

Das hohe Niveau insbesondere der skandinavischen<br />

Länder wurde jedoch nicht<br />

erreicht. Dänemark erzielte mit 89 Prozent<br />

den höchsten Anteil. Auch in Schweden<br />

(78 Prozent) und Finnland (76 Prozent)<br />

nutzten relativ viele Internetnutzer<br />

die Online-Angebote von Ämtern und<br />

Behörden. Die Nachbarländer Frankreich<br />

(71 Prozent), Niederlande (68 Prozent)<br />

und Österreich (64 Prozent) konnten<br />

ebenfalls höhere Nutzungsanteile als<br />

Deutschland erreichen. (PR/ Destatis) <br />

Alle ELENA-Daten sind<br />

gelöscht<br />

löscht sind, die im Rahmen dieses Verfahrens<br />

bei der früheren Zentralen<br />

Speicherstelle und der Registratur<br />

Fachverfahren gespeichert waren.<br />

Nach dem Inkrafttreten des Gesetzes über<br />

die Aufhebung des ELENA-Verfahrensgesetzes<br />

Anfang Dezember 2011 wurden<br />

bereits wenige Tage später sämtliche<br />

Schlüssel für die ELENA-Daten durch<br />

den Bundesbeauftragten für den Datenschutz<br />

und die Informationsfreiheit vernichtet,<br />

der den Datenbankhauptschlüssel<br />

verwaltet hatte. Damit galten zwar die<br />

ELENA-Daten juristisch bereits als gelöscht<br />

– gleichwohl hatten sich alle am<br />

ELENA-Verfahren Beteiligten darauf<br />

verständigt, die Daten auch physikalisch<br />

zu löschen, auch wenn keine Möglichkeit<br />

der Entschlüsselung mehr bestand. Zu<br />

diesem Zweck wurden Verfahren entwickelt,<br />

die den Sicherheitsstandards für die<br />

Löschung staatlicher Geheimnisse entsprechen,<br />

um die Daten sowohl bei der<br />

Zentralen Speicherstelle als auch bei der<br />

Registratur Fachverfahren sicher zu löschen.<br />

Der Bundesbeauftragte für den Datenschutz<br />

und die Informationsfreiheit konnte<br />

sich davon überzeugen, dass die<br />

Löschung der ELENA-Daten erfolgreich<br />

durchgeführt wurde und diese auch physikalisch<br />

nicht mehr vorhanden sind. (PR/<br />

Bundesbeauftragter für den Datenschutz<br />

und die Informationsfreiheit) <br />

2/12 29


Umsatzforecast, Produktstruktur,<br />

Auftragssteuerung (UPA)<br />

Optimierung der internen<br />

Abläufe im zentralen<br />

SAP-System des <strong>IT</strong>DZ<br />

<strong>Berlin</strong><br />

Neben zahlreichen Kundenprojekten<br />

unternimmt das <strong>IT</strong>-<strong>Dienstleistungszentrum</strong><br />

<strong>Berlin</strong> (<strong>IT</strong>DZ <strong>Berlin</strong>) mit<br />

dem Projekt UPA (Umsatzforecast,<br />

Produktstruktur, Auftragssteuerung)<br />

auch ein ehrgeiziges Vorhaben zur<br />

Optimierung der internen Abläufe mit<br />

dem Ziel, den Kundenservice weiter<br />

zu verbessern und die Effizienz der<br />

Leistungserbringung und damit des<br />

Unternehmens zu steigern. Im Mittelpunkt<br />

dieser Arbeiten stehen umfassende<br />

Optimierungen am zentralen<br />

SAP ERP-System (Enterprise-<br />

Resource-Planning) des <strong>IT</strong>DZ <strong>Berlin</strong><br />

sowie die Anbindung des Dokumentenmanagementsystems<br />

VISkompakt<br />

an SAP.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Das <strong>IT</strong>DZ <strong>Berlin</strong> betreibt bereits seit<br />

2002 ein eigenes SAP ERP-System, das<br />

u.a. auch das Rückgrat für die Vertriebsund<br />

Abrechnungsprozesse bildet. Das<br />

Projekt UPA strebt die Verbesserung dieser<br />

Prozessbereiche und darüber hinaus<br />

auch eine stärkere Integration mit den<br />

sogenannten Produktionsbereichen an,<br />

die die Leistungen für die <strong>IT</strong>DZ <strong>Berlin</strong>-<br />

Kunden auf der Basis der in SAP erfassten<br />

Verträge erbringen. Mit der Auftragssteuerung<br />

gelingt es heute, einen weitgehend<br />

durchgehenden Prozess von der<br />

Beauftragung des Kunden bis zur Abrechnung<br />

der Leistung im SAP ERP abzubilden<br />

und zu steuern. Nach der Erfassung<br />

des Vertrags im ERP geben<br />

Mitarbeiterinnen und Mitarbeiter des<br />

Vertriebes die mit dem Kunden vereinbarten<br />

Leistungen frei. Mit dieser Freigabe<br />

erstellt das SAP-System automatisch<br />

interne Aufträge, die dann unmittelbar<br />

im Arbeitseingang des zuständigen Disponenten<br />

erscheinen. Die internen Aufträge<br />

enthalten die für die Leistungserbringung<br />

notwendigen Verrichtungen,<br />

die durch den Disponent auf die<br />

leistenden Mitarbeiter verteilt werden. In<br />

der Vergangenheit erfolgte die Beauftragung<br />

durch den Vertriebsmitarbeiter<br />

papier- oder mailbasiert, wodurch<br />

oftmals eine Vielzahl an Dokumenten<br />

gedruckt bzw. gescannt werden<br />

musste, die dann per Hauspost oder Mail<br />

an die leistenden Produktionsbereiche<br />

geschickt wurden. Die neue Vorgehensweise<br />

beschleunigt die internen Abläufe<br />

deutlich und treibt die Vernetzung der<br />

Abteilungen innerhalb des <strong>IT</strong>DZ <strong>Berlin</strong><br />

voran.<br />

Die Key User des <strong>IT</strong>DZ <strong>Berlin</strong>, die das<br />

UPA-Projekt maßgeblich begleiten, haben<br />

früh den Eindruck gewonnen, dass<br />

durch die Einführung der Auftragssteuerung<br />

sehr viel mehr Klarheit über<br />

die vertraglich vereinbarten Leistungen<br />

besteht. Dies liegt auch an der deutlich<br />

verbesserten Kommunikation, da Vertrieb<br />

und Produktion durch die Auftragssteuerung<br />

näher aneinander gerückt<br />

sind. Auch Konrad Kandziora, Vorstand<br />

des <strong>IT</strong>DZ <strong>Berlin</strong>, sieht die Vorteile: „Zu<br />

unseren zentralen strategischen Zielen<br />

zählt eine stetige Optimierung des<br />

Kundenservice. Mit dem Ausbau des<br />

SAP-Systems durch das Projekt UPA vereinfachen<br />

wir interne Abläufe und verbessern<br />

damit im Ergebnis auch unseren<br />

Service für die <strong>Berlin</strong>er Verwaltung.“<br />

Zurzeit führt das <strong>IT</strong>DZ <strong>Berlin</strong> als Erweiterung<br />

der vorhandenen Dokumentenmanagementlösung<br />

VISkompakt, die<br />

auch bereits bei verschiedenen Kunden<br />

des <strong>IT</strong>DZ <strong>Berlin</strong> erfolgreich eingesetzt<br />

wird, die „Vertriebsakte“ ein. VISkompakt<br />

ist eine DOMEA-zertifizierte Lösung<br />

für Dokumentenmanagement und<br />

zur elektronischen Vorgangsbearbeitung.<br />

Im Rahmen des UPA-Projektes wird<br />

VISkompakt mittels einer Schnittstelle<br />

an das SAP-System angebunden, damit<br />

die leistungserbringenden Mitarbeiter des<br />

<strong>IT</strong>DZ <strong>Berlin</strong> direkt auf alle relevanten<br />

Informationen zugreifen können, die<br />

durch den Vertrieb und das Produktmanagement<br />

abgelegt wurden. Mit dieser<br />

Schnittstelle wird ein wesentlicher<br />

Schwachpunkt der bisherigen Vorgehensweise<br />

abgestellt und ein durchgängiger<br />

Prozess von der Beauftragung bis zur<br />

Abrechnung geschaffen. (EB) <br />

Wirtschaftsatlas und 3D-<br />

Stadtmodell zu neuer<br />

Anwendung verknüpft<br />

Umfassende Information hat einen Ort:<br />

das <strong>Berlin</strong> Business Location Center<br />

(BLC). Ab sofort verknüpft das BLC<br />

auf einzigartige Weise Standortinformationen<br />

und Standorte miteinander.<br />

Der neue Wirtschaftsatlas<br />

ermöglicht Nutzern online den Zugriff<br />

auf alle wichtigen Wirtschaftsund<br />

Strukturdaten der deutschen<br />

Hauptstadt. Er verbindet zweidimensionale<br />

Karten, das virtuelle dreidimensionale<br />

Stadtmodell <strong>Berlin</strong>s mit<br />

über 550.000 Gebäuden und Google<br />

Street View mit den Standortinformationen<br />

des <strong>Berlin</strong> Business<br />

Location Centers in einer Anwendung.<br />

Wo finde ich Unternehmen meiner Branche,<br />

Kunden und Lieferanten? Steht das<br />

Gebäude, das ich kaufen will, unter Denkmalschutz?<br />

Eignet sich mein Dach für die<br />

Nutzung von Sonnenenergie? Welcher<br />

U-Bahnhof ist in der Nähe? Wie weit ist<br />

es zur nächsten Universität oder zum<br />

nächsten Restaurant, wo ist die nächste<br />

attraktive Wohnlage, finde ich Kinderbetreuung<br />

in der Nähe? Bevor in einem<br />

Unternehmen die Entscheidung über einen<br />

neuen Standort fällt, bevor ein<br />

Immobilienentwickler sein nächstes Projekt<br />

startet, sind die unterschiedlichsten<br />

Fragen zu beantworten. Meist geht dem<br />

aufwändige Recherchearbeit voraus.<br />

Nicht so in <strong>Berlin</strong>. Denn der Wirtschaftsatlas<br />

des BLC verbindet nun Bebauungsund<br />

Entwicklungspläne, Denkmalkarten,<br />

Umwelt- und Soziostrukturdaten, sowie<br />

Informationen zum Öffentlichen Nahverkehr<br />

mit Brancheninformationen <br />

2/12 30


über verschiedene Wirtschaftszweige.<br />

Dazu kommen die Standorte von Wissenschaft<br />

und Forschung in <strong>Berlin</strong>, Behörden,<br />

Schulen, Freizeit- und Kultureinrichtungen,<br />

Hotels und Gaststätten<br />

sowie wichtige Orte für Familien und<br />

Kinder. All diese Informationen können<br />

in eine zweidimensionale Karte eingeblendet<br />

oder im dreidimensionalen virtuellen<br />

Stadtmodell visualisiert werden.<br />

Ist der Standort der Wahl mit allen benötigten<br />

Informationen analysiert und bewertet,<br />

kann man sich auch noch ein aktuelles<br />

Panoramafoto ansehen, denn Google<br />

Street View ist ebenfalls in die Anwendung<br />

integriert.<br />

<strong>Berlin</strong>s Staatssekretär für Wirtschaft, Technologie<br />

und Forschung, Christoph von<br />

Knobelsdorff: „Der neue Wirtschaftsatlas<br />

ist das Werkzeug, das wir für eine<br />

intelligent argumentierende und emotional<br />

packende Investorenansprache brauchen.“<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Melanie Bähr, Geschäftsführerin von<br />

<strong>Berlin</strong> Partner erklärt: „Als Wirtschaftsförderer<br />

überzeugen wir mit Fakten<br />

und unserer Leidenschaft für <strong>Berlin</strong>.<br />

Beides transportiert der neue Wirtschaftsatlas,<br />

mit dem das <strong>Berlin</strong> Business<br />

Location Center (BLC) seine Technologieführerschaft<br />

auf dem Feld der Standortinformation<br />

beweist.“<br />

Der Wirtschaftsatlas des <strong>Berlin</strong> Business<br />

Location Centers wird unterstützt von<br />

den Senatsverwaltungen für Wirtschaft,<br />

Technologie und Forschung, sowie Stadtentwicklung<br />

und Umwelt, von der IHK<br />

<strong>Berlin</strong>, den Gelben Seiten und dem <strong>IT</strong>-<br />

<strong>Dienstleistungszentrum</strong> <strong>Berlin</strong> (<strong>IT</strong>DZ<br />

<strong>Berlin</strong>). Das Projekt wird aus dem Europäischen<br />

Fonds für Regionale Entwicklung<br />

(EFRE) gefördert.<br />

www.businesslocationcenter.de/<br />

wirtschaftsatlas (PR/ <strong>Berlin</strong> Partner<br />

GmbH)<br />

<br />

Stromverbrauch von<br />

Rechenzentren und<br />

Servern sinkt<br />

Rechenzentren und Server werden<br />

immer energieeffizienter. Die Zahl<br />

der Server ist zwischen 2008 und 2011<br />

um sieben Prozent auf gut 2,3 Millionen<br />

gestiegen – gleichzeitig sank der<br />

gesamte Stromverbrauch in diesem<br />

Zeitraum um vier Prozent auf 9,7<br />

Terawattstunden (TWh).<br />

Das entspricht der Stromproduktion von<br />

vier mittelgroßen Kohlekraftwerken und<br />

einem Anteil von rund 1,8 Prozent am<br />

gesamten Stromverbrauch hierzulande.<br />

Der Anteil ist konstant geblieben, da<br />

insbesondere wegen der Wirtschaftskrise<br />

der Stromverbrauch insgesamt zurückgegangen<br />

ist. Dies ergab eine aktuelle Studie<br />

des Borderstep-Instituts im Auftrag <br />

Screenshot des Wirtschaftsatlas <strong>Berlin</strong><br />

2/12 31


<strong>SPL<strong>IT</strong>TER</strong><br />

Hohe Investitionskosten<br />

Haupthindernis für <strong>IT</strong>-<br />

Mittelstand<br />

des Bitkom. „Anwendern und Anbietern<br />

ist es in den vergangenen Jahren<br />

gelungen, den Trend des steigenden<br />

Stromverbrauchs der Server und Rechenzentren<br />

in Deutschland zu stoppen und<br />

umzukehren“, sagt Bitkom-Vizepräsident<br />

Volker Smid.<br />

Durch die Steigerung der Energieeffizienz<br />

konnten allein im vergangenen Jahr<br />

insgesamt 1,4 TWh eingespart werden.<br />

Zum einen ist die Informationstechnik<br />

selbst effizienter geworden. Insbesondere<br />

konnte der Stromverbrauch von Servern<br />

gesenkt werden, wenn sie nicht voll ausgelastet<br />

sind. Außerdem ist weniger Energie<br />

für die Klimatisierung der Rechenzentren<br />

sowie deren Unterbrechungsfreie<br />

Stromversorgung (USV) nötig. Eine USV<br />

schützt die Rechenzentren beispielsweise<br />

vor Stromausfall und Spannungsschwankungen.<br />

„In einem durchschnittlichen<br />

Rechenzentrum verbrauchen<br />

Klimatisierung und USV ca. 40 Prozent<br />

des gesamten Stroms“, so Smid. Durch<br />

konsequente Nutzung von Green <strong>IT</strong> solle<br />

der Stromverbrauch in Zukunft um rund<br />

ein weiteres Viertel gesenkt werden.<br />

Trotz der verbesserten Energieeffizienz<br />

haben sich die Stromkosten für die Rechenzentren<br />

zwischen 2008 und <strong>2012</strong> um<br />

zwölf Prozent erhöht. Der Grund waren<br />

die stark gestiegenen Strompreise. Laut<br />

Studie werden die Stromkosten bis 2015<br />

um weitere 200 Millionen Euro steigen.<br />

„Stromkosten sind mittlerweile mit Abstand<br />

der größte Kostenblock in Rechenzentren“,<br />

sagt Smid. Entsprechend hoch<br />

ist die Wirkung auf die Wettbewerbsfähigkeit<br />

der Rechenzentrumsbetreiber.<br />

Der Trend geht auch in Deutschland zu<br />

größeren Rechenzentren mit mehr Servern.<br />

So sank die Zahl der – aus wenigen<br />

Serverschränken bestehenden – kleineren<br />

Rechenzentren zwischen 2008 und 2011<br />

um 5 Prozent auf rund 31.500. Die Zahl<br />

der größeren und mittleren Rechenzentren<br />

mit mindestens 500 physikalischen<br />

Servern stieg hingegen um 15 Prozent auf<br />

ca. 500. „Der Trend zu Cloud-Computing<br />

und Outsourcing sorgt auch hierzulande<br />

für die Zusammenlegung kleiner Einheiten<br />

zu größeren Rechenzentren“, so Smid.<br />

Knapp zwei Drittel aller Server waren<br />

2011 in Rechenzentren installiert, der Rest<br />

wurde als Stand-Alone-Rechner betrieben.<br />

Die Kurzstudie kann kostenlos herunterladen<br />

werden unter www.bitkom.org/<br />

de/presse/8477_72267.aspx.<br />

Hinweis zur Methodik: Als Rechenzentren<br />

gelten in der Studie alle abgeschlossenen<br />

räumlichen Einheiten wie Serverschränke,<br />

Serverräume, Gebäudeteile oder<br />

ganze Gebäude, in denen mindestens<br />

drei physikalische Server installiert sind.<br />

Außerdem müssen eine sichere Stromversorgung<br />

vorhanden und eine ausreichende<br />

Kühlung der Server gewährleistet<br />

sein. (PR/ Bitkom e.V.)<br />

<br />

Zu hohe Investitionskosten und der<br />

erschwerte Zugang zu internationalen<br />

Märkten und Kunden sind die<br />

beiden Haupthindernisse für die weitere<br />

Internationalisierung des <strong>IT</strong>-Mittelstandes<br />

in Deutschland. Darauf weist<br />

der Bundesverband <strong>IT</strong>-Mittelstand<br />

e.V. (B<strong>IT</strong>Mi) in einer aktuellen Studie<br />

hin.<br />

Demnach sehen 70,6 Prozent der befragten<br />

120 mittelständischen <strong>IT</strong>-Unternehmen<br />

die Investitionskosten auf internationalem<br />

Parkett als zu hoch an. Über einen<br />

erschwerten Markt- und Kundenzugang<br />

klagen laut B<strong>IT</strong>MI-Präsident Dr. Oliver<br />

Grün sogar 72,6 Prozent. Die Tatsache,<br />

dass das Produkt- und Leistungsportfolio<br />

des <strong>IT</strong>-Mittelstands häufig eher auf<br />

den deutschen Markt zugeschnitten ist,<br />

sehen zudem 69,9 Prozent als problematisch<br />

für die weitere Internationalisierung<br />

an.<br />

Laut B<strong>IT</strong>Mi-Studie sind außerdem 65,3<br />

Prozent der befragten Betriebe der Meinung,<br />

dass eine internationale Präsenz<br />

für mittelständische <strong>IT</strong>-Firmen generell<br />

nur schwer zu realisieren ist. Die Orientierung<br />

an den internationalen Märkten hat<br />

zudem Auswirkungen auf das Produktund<br />

Leistungsportfolio der Unternehmen:<br />

Bei 54,4 Prozent der befragten Betriebe<br />

hat dies bereits zu einer Weiterentwicklung<br />

ihrer Produkte und Services geführt,<br />

bei gut der Hälfte (50,9 Prozent)<br />

sogar schon zur Entwicklung neuer Produkte<br />

und Dienstleistungen.<br />

Gleichzeitig haben aber auch große Teile<br />

des heimischen <strong>IT</strong>-Mittelstandes Bedenken,<br />

ob sie die neuen Anforderungen, die<br />

durch die internationalen Aktivitäten<br />

entstehen, mit den vorhandenen Mitarbeitern<br />

und ihren Qualifikationen<br />

überhaupt bewältigen können: 23 Prozent<br />

der Befragten stufen diesen <br />

2/12 32


Punkt als sehr wichtig, weitere 47,3<br />

Prozent immerhin noch als wichtig ein.<br />

„Der Schlüssel zur Verbesserung der internationalen<br />

Wettbewerbsfähigkeit des<br />

Standorts Deutschland liegt in einem starken<br />

<strong>IT</strong>-Mittelstand“, betont der B<strong>IT</strong>Mi-<br />

Präsident. Aus diesem Grund müsse<br />

Wachstum und Internationalisierung der<br />

mittelständischen <strong>IT</strong>-Wirtschaft weiter<br />

vorangetrieben werden. Laut Grün unterstreicht<br />

die B<strong>IT</strong>Mi-Studie jedoch auch,<br />

„dass trotz der fortschreitenden Internationalisierung<br />

des deutschen <strong>IT</strong>-Mittelstandes<br />

viele Betriebe weiterhin über<br />

Hemmnisse und Risiken klagen.“<br />

Hier ist nach Auffassung des B<strong>IT</strong>Mi-<br />

Präsidenten die Politik gefragt, die kleine<br />

und mittlere Unternehmen auf ihrem<br />

Weg in die Internationalisierung begleiten<br />

solle. Die Unterstützung seitens der<br />

Politik sei, so Grün, eine grundlegende<br />

Bedingung für den Aufbau global agierender<br />

Unternehmen und für besseres<br />

Entrepreneurship am deutschen <strong>IT</strong>-<br />

Standort. „Dies ermöglicht, dass zukünftig<br />

Global Player wie eBay, Google,<br />

Facebook, Twitter und Co. auch wieder<br />

aus Deutschland kommen“, da ist sich<br />

der B<strong>IT</strong>Mi-Präsident sicher.<br />

Laut Grün zeige die B<strong>IT</strong>Mi-Studie außerdem,<br />

dass auf internationalem Parkett<br />

andere Bedingungen vorherrschen als in<br />

Deutschland. Zu den neuen Anforderungen,<br />

auf die sich Softwareentwickler<br />

und <strong>IT</strong>-Dienstleister bei internationalen<br />

Kunden einstellen müssen, zählen in erster<br />

Linie andere rechtliche Rahmenbedingungen,<br />

87,1 Prozent der Befragten<br />

stimmen bei diesem Punkt überein. Aber<br />

auch die Übersetzung von Software,<br />

Dokumentationen und anderen Unterlagen<br />

(79,7 Prozent) sowie die direkte Kommunikation<br />

in der jeweiligen Landessprache<br />

(79,3 Prozent) werden als wichtig bis<br />

sehr wichtig wahrgenommen. Die Beachtung<br />

von Besonderheiten in der jeweiligen<br />

Arbeits- und Wirtschaftskultur (67,3<br />

Prozent) sowie kulturelle Spezifika im<br />

Allgemeinen (55,7 Prozent) folgen auf<br />

den nächsten Plätzen. „Hier ist die Politik<br />

gefordert, die Betriebe mit finanziellen<br />

Mitteln und Sachkenntnis nachhaltig zu<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

unterstützen“, fügt der B<strong>IT</strong>Mi-Präsident<br />

hinzu.<br />

Die Studie „Internationalisierung im <strong>IT</strong>-<br />

Mittelstand“ wurde im Auftrag des<br />

Bundesverbandes <strong>IT</strong>-Mittelstand e.V.<br />

(B<strong>IT</strong>Mi) durchgeführt. Für die Studie<br />

wurden etwa 120 Führungskräfte aus dem<br />

deutschen <strong>IT</strong>-Mittelstand befragt. (PR/<br />

Bundesverband <strong>IT</strong>-Mittelstand e.V.) <br />

FBI schaltet übernommene DNS-<br />

Server am 9. Juli ab<br />

„DNS-Changer“ und<br />

(k)ein Ende<br />

Bereits im November vergangenen<br />

Jahres wurden aufmerksame Leser des<br />

Heise-Newstickers darüber informiert,<br />

dass estnische Strafverfolger in<br />

Zusammenarbeit mit dem amerikanischen<br />

FBI im Rahmen der „Operation<br />

Ghost Click“ sechs Personen<br />

festnahmen und damit das bis dahin<br />

Screenshot der Seite www.dns-ok.de<br />

größte bekannte Botnetz hochnahmen.<br />

Bis zu 4 Millionen Rechner in 100<br />

Ländern sollen mit dem Trojaner<br />

„DNS-Changer“ infiziert gewesen<br />

sein und ermöglichten es den<br />

Cyberkriminellen laut FBI, rund 14<br />

Millionen US-Dollar zu ergaunern.<br />

Die Bande soll mehrere Firmen betrieben<br />

haben, über die Internetwerbung beim<br />

Besuch bekannter Webseiten anstelle der<br />

vom Webseitenbetreiber eingebundenen<br />

Anzeigen auf infizierten Rechnern eingeblendet<br />

wurde sowie betrügerische Aktivitäten<br />

wie die Verbreitung angeblicher<br />

Antivirensoftware, Klickbetrug oder nicht<br />

lizenzierter Medikamentenverkauf stattfanden.<br />

Um Rechner auf falsche Webseiten<br />

umzuleiten, verändert die Malware<br />

die IP-Adresse des eingestellten DNS-<br />

Servers auf einen von den Angreifern<br />

präparierten DNS-Server. Somit bekamen<br />

befallene Rechner bei DNS-Anfragen auf<br />

bekannte Webseiten falsche IP-Adressen<br />

zurückgeliefert und erreichten statt der<br />

gewünschten Homepage eine Seite der<br />

Angreifer. Das DNS (Domain Name System)<br />

ist der Dienst im Internet, der für <br />

2/12 33


die Umsetzung von Namen (URLs) in<br />

IP-Adressen zuständig ist.<br />

Da der Schädling zusätzlich als DHCP-<br />

Server wirkt (DHCP-Server teilen u.a. IP-<br />

Adressen zu), sind auch Rechner oder<br />

Smartphones von der Manipulation betroffen,<br />

die nicht unmittelbar vom Schädling<br />

befallen sind. Außerdem versucht<br />

„DNS-Changer“, im Router eingestellte<br />

DNS-Server zu ändern und probiert dazu,<br />

sich mit Standard-Passworten an den<br />

Weboberflächen der Router anzumelden.<br />

Weiterhin verhindert der Schädling die<br />

Aktualisierung der Virensignaturen von<br />

Antivirenprogrammen und versucht so,<br />

seiner Entdeckung zu entgehen.<br />

Nach Festnahme der Botnetz-Betreiber<br />

nahm das FBI die von den Angreifern<br />

präparierten DNS-Server vom Netz und<br />

ersetzte sie durch eigene DNS-Server, die<br />

korrekte IP-Adressen zurückliefern. Viele<br />

Infektionen privater PCs blieben<br />

dadurch unbemerkt, dass die befallenen<br />

Rechner keine Auffälligkeiten zeigten und<br />

Webseiten-Aufrufe nach der Übernahme<br />

der DNS-Server durch das FBI ganz normal<br />

funktionierten.<br />

Am 11. Januar <strong>2012</strong> informierte das Bürger-CERT<br />

des BSI (Bundesamt für Sicherheit<br />

in der Informationstechnik) erstmalig<br />

per Rundmail über den Schädling<br />

„DNS-Changer“ und empfahl Internet-<br />

Nutzern, die Seite www.dns-ok.de anzusurfen,<br />

um ihren PC auf Befall zu überprüfen.<br />

Die Meldung war an Endanwender<br />

gerichtet und enthielt keine Information<br />

darüber, dass die zur Verfügung<br />

gestellte Test-Webseite bei Aufruf<br />

über einen Proxy nicht korrekt funktionieren<br />

kann. Bis heute gibt es außerdem<br />

keine konkrete Information darüber, wie<br />

der Schädling sich verbreitet. Am 12. Januar<br />

<strong>2012</strong> berichteten Tagespresse und<br />

TV über die BSI-Meldung, ohne jedoch<br />

technisch fundierte Informationen zu verbreiten.<br />

Am Freitagmorgen des 13. Januar<br />

<strong>2012</strong> schließlich veröffentlicht das BSI<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

eine gesonderte Meldung für Behördennetze,<br />

aus der ableitbar war, dass die Lage<br />

für Behörden- und Firmennetze unkritisch<br />

war. Auch diese Meldung enthielt<br />

keine Angaben über den Verbreitungsweg<br />

und die betroffenen Betriebssysteme.<br />

Auf Basis der wenigen verfügbaren Informationen<br />

war es nicht möglich, konkrete<br />

Maßnahmen zur Verhinderung einer<br />

Infektion vorzuschlagen. Erschwerend<br />

kam hinzu, dass der Begriff „DNS-<br />

Changer“ in mehrfacher Hinsicht benutzt<br />

wird. Zum einen wird er als Name für<br />

genau diesen Trojaner benutzt – zum<br />

anderen wird „DNS-Changer“ gleichzeitig<br />

als Gattungsbezeichnung für diese<br />

Art von Malware gebraucht. „DNS-Changer“<br />

ist demnach ein DNS-Changer, und<br />

einer von vielen DNS-Changern heißt<br />

„DNS-Changer“. Auch die Informationsseite<br />

botfrei.de, auf die von der<br />

Testseite www.dns-ok.de verwiesen wird,<br />

enthält keine Informationen darüber, um<br />

welchen Schädling es sich bei „DNS-Changer“<br />

denn nun genau handelt. So riefen<br />

die wenigen verfügbaren Informationen<br />

zum „DNS-Changer“ in Folge auch bei<br />

der <strong>IT</strong>-kundigen Bevölkerung Unsicherheiten<br />

hervor.<br />

„DNS-Changer“ keine Gefahr für<br />

Landesnetz <strong>Berlin</strong><br />

Um Klarheit darüber zu bekommen, ob<br />

eine Infektion mit „DNS-Changer“ unbemerkt<br />

stattfinden kann, wurde nach<br />

der BSI-Meldung am 13. Januar <strong>2012</strong> im<br />

<strong>IT</strong>DZ <strong>Berlin</strong> die Infektion eines Rechners<br />

mit der Malware durch Eintrag einer<br />

entsprechenden DNS-Server-Adresse simuliert.<br />

Aufgrund der Sicherheitsstruktur<br />

der zentralen DNS-Komponenten können<br />

nur bestimmte IP-Adressen DNS-<br />

Anfragen an DNS-Server außerhalb des<br />

Landesnetzes richten. Anfragen anderer<br />

Adressen werden geblockt. Dies führt<br />

dazu, dass ein infizierter Rechner keine<br />

DNS-Auflösung mehr betreiben kann<br />

und damit sofort funktionell beeinträchtigt<br />

ist: weder das Surfen im Internet,<br />

noch der Aufruf von DNS-basierenden<br />

Landesverfahren ist möglich und somit<br />

auch keine unbemerkte Infektion von<br />

durch das <strong>IT</strong>DZ <strong>Berlin</strong> administrierten<br />

Rechnern.<br />

Außerdem wurde geprüft, ob der im<br />

<strong>IT</strong>DZ <strong>Berlin</strong> und für <strong>IT</strong>IS-Kunden verwendete<br />

Virenscanner den Schädling erkennt.<br />

Im Ergebnis stellte sich heraus,<br />

dass der Scanner den Trojaner schon seit<br />

dem 25. Juni 2011 erkannte – es konnte<br />

sich also keineswegs um eine neue Schadsoftware<br />

mit neuer Gefährdungslage handeln.<br />

Für das <strong>IT</strong>DZ <strong>Berlin</strong> und die von<br />

ihm verwaltete Infrastruktur konnten<br />

Infektionen nunmehr mit Sicherheit ausgeschlossen<br />

werden. Parallel dazu stimmten<br />

sich die Senatsinnenverwaltung und<br />

das <strong>IT</strong>DZ <strong>Berlin</strong> laufend über den aktuellen<br />

Stand ab und beschlossen am 13.<br />

Januar <strong>2012</strong>, die Meldung des BSI vorsorglich<br />

an alle Behörden des Landes zu<br />

verteilen.<br />

Am 9. Juli <strong>2012</strong> will das FBI nun die von<br />

ihm betriebenen Ersatz-DNS-Server abschalten,<br />

da dann die richterliche Verfügung<br />

zum Betrieb endet. Dabei nehmen<br />

noch immer rund 20.000 IP-Adressen<br />

aus Deutschland täglich Kontakt mit einem<br />

der Server auf. Mit dem Abschalten<br />

der FBI-Server können mit „DNS-Changer“<br />

infizierte Rechner praktisch nicht<br />

mehr auf das Internet zugreifen. Zu Beginn<br />

der Übernahme der Server waren es<br />

laut BSI täglich noch etwa 35.000. Das<br />

heißt, nach etwa einem halben Jahr haben<br />

die meisten Opfer immer noch nicht bemerkt,<br />

dass „DNS-Changer“ ihre DNS-<br />

Einstellungen verbogen hat. Höchste Zeit<br />

also, private PCs durch Aufruf der Seite<br />

www.dns-ok.de oder Check der DNS-<br />

Serveradresse auf Manipulationen zu prüfen!<br />

KAI OSTERHAGE<br />

<strong>IT</strong>-Sicherheitsbeauftragter<br />

<strong>IT</strong>DZ <strong>Berlin</strong><br />

<br />

2/12 34


Sicherheitsmängel bei<br />

Dropbox, Mozy & Co.<br />

Die Sicherheit von Cloud-Speicherdiensten<br />

ist oft mangelhaft. Das ist das<br />

Ergebnis einer Studie des Fraunhofer-<br />

Instituts für Sichere Informationstechnologie,<br />

das verschiedene Anbieter<br />

getestet hat. Fazit: Keiner der<br />

getesteten Anbieter konnte die<br />

Sicherheitsanforderungen vollständig<br />

erfüllen, teilweise fehlte eine ordentliche<br />

Verschlüsselung.<br />

Die Sicherheit von Cloud-Speicherdiensten<br />

ist oft mangelhaft. Das ist das<br />

Ergebnis einer Studie des Fraunhofer-<br />

Instituts für Sichere Informationstechnologie,<br />

das verschiedene Anbieter<br />

getestet hat. Fazit: Keiner der getesteten<br />

Anbieter konnte die Sicherheitsanforderungen<br />

vollständig erfüllen,<br />

teilweise fehlte eine ordentliche Verschlüsselung.<br />

Neben technischen Mängeln fanden<br />

die Tester auch Schwächen in der<br />

Benutzerführung. Letzteres kann dazu<br />

führen, dass vertrauliche Daten sich mithilfe<br />

von Suchmaschinen finden lassen.<br />

„Für manche private Nutzung mag der<br />

eine oder andere Dienst ausreichen“, sagt<br />

Institutsleiter Michael Waidner. „Bei sensiblen<br />

Unternehmensdaten sollte man<br />

aber lieber genau überlegen, ob die<br />

Sicherheitsvorkehrungen ausreichen.“<br />

Die vollständige Studie kann man kostenlos<br />

unter www.sit.fraunhofer.de herunterladen.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Neben Marktführer Dropbox prüfte<br />

Fraunhofer S<strong>IT</strong> die Sicherheit sechs weiterer<br />

Cloud-Speicherdienste, dazu gehörten<br />

CloudMe, CrashPlan, Mozy,<br />

TeamDrive, Ubuntu One und der<br />

schweizer Anbieter Wuala. Die Tester<br />

konzentrierten sich insbesondere auf die<br />

Verschlüsselung der Daten sowie auf die<br />

Absicherung der Kommunikation. Jeder<br />

Anbieter wies Sicherheitsmängel auf, und<br />

selbst die grundsätzlichen Sicherheitsanforderungen<br />

konnte kein Dienst vollständig<br />

erfüllen: So verwenden manche<br />

Anbieter bei der Absicherung der Datenübertragung<br />

in die Cloud keines der sicheren<br />

Standard-Protokolle. Abwertungen<br />

gab es auch, wenn Daten unverschlüsselt<br />

in die Cloud wanderten. „Dropbox<br />

und andere verschlüsseln die Daten<br />

erst, wenn sie in der Cloud sind“, sagt<br />

Michael Waidner. „Der Anbieter bekommt<br />

die Daten also im Klartext, und<br />

der Nutzer muss dann darauf vertrauen,<br />

dass vertrauliche Daten auch vertraulich<br />

bleiben.“<br />

Bei einigen Diensten glaubten die Nutzer<br />

fälschlicherweise, dass ihre sensiblen Informationen<br />

nur wenigen Personen zugänglich<br />

sind, während sie in Wahrheit<br />

unbemerkt von jedermann eingesehen<br />

werden können. Kritisch ist dieses<br />

Filesharing auch, wenn die Daten verschlüsselt<br />

sind. „Für gruppentaugliche<br />

Verschlüsselung fehlt es noch an überzeugenden<br />

Konzepten, um das Ideal einer<br />

sicheren Speicherung von Daten in<br />

einer Umgebung, die man als unsicher<br />

betrachtet, auch tatsächlich zu erreichen“,<br />

so Michael Waidner. Fraunhofer S<strong>IT</strong> hat<br />

die Anbieter vor Veröffentlichung der<br />

Studie über die Ergebnisse informiert.<br />

(PR/ Fraunhofer S<strong>IT</strong>)<br />

<br />

Zunehmend Trojaner, Viren und<br />

Würmer im Anhang<br />

Wachstum bösartiger<br />

Spam-Attachments<br />

Täglich werden über 264 Milliarden<br />

Spam-Mails verschickt – nur ein Prozent<br />

der Meldungen hat einen Anhang.<br />

Jedoch enthalten rund 300 Millionen<br />

dieser Attachments schädliche<br />

Malware. Das geht aus einer aktuellen<br />

Studie des Security-Spezialisten<br />

Bitdefender hervor. Die Experten fanden<br />

heraus, dass die Gesamtzahl aller<br />

Spams des ersten Quartals <strong>2012</strong> im<br />

Vergleich zum Vorjahr um 16 Prozent<br />

gesunken ist. Trotzdem stieg die Menge<br />

an bösartigen Spam-Attachments<br />

allein im Januar dieses Jahres um vier<br />

Prozent an.<br />

Die Bitdefender-Forscher zeigen, dass es<br />

aktuell weniger Spam-Kampagnen im<br />

Netz gibt. Allerdings steigt die Menge der<br />

Malware-Anhänge bedrohlich an.<br />

Bitdefender hat zur Warnung für PC-<br />

Nutzer ein Ranking der fünf meist verbreiteten<br />

Malware-Attachments erstellt.<br />

Wurm speichert infizierte IP-Adressen<br />

Zu den hartnäckigsten Schädlingen, die<br />

als Anhang versendet werden, gehört seit<br />

2008 MyDoom. Der Wurm verschickt<br />

selbst massenhaft Spam-Mails. Da er<br />

meist in sogenannten Social-Engineering-<br />

Mails (Nachrichten mit vertrauenserweckender<br />

Aufmachung) auftaucht, werden<br />

viele Benutzer dazu verleitet, den<br />

Anhang der Nachricht zu öffnen. Geschieht<br />

dies, sendet sich der Wurm eigenständig<br />

an alle auf dem PC entdeckten E-<br />

Mail-Adressen. Diese findet der Schädling,<br />

indem er das System gezielt nach<br />

Mail-Absendern, -Kopfzeilen oder -Inhalten<br />

durchsucht. Zusätzlich legt<br />

MyDoom eine Backdoor-Komponente<br />

auf dem Rechner des Opfers an. Dadurch<br />

ermöglicht der Wurm Cyberkriminellen<br />

vollen Zugriff auf den PC des Nutzers –<br />

auch aus der Ferne. Obendrein besitzt<br />

MyDoom eine Datenbank mit allen infizierten<br />

IP-Adressen auf einem entfernten<br />

Server. Zu ihr wird jedes kürzlich<br />

verseuchte System hinzugefügt. Der<br />

Wurm ist bekannt dafür, oftmals Teil<br />

von Denial-Of-Service-Attacken<br />

(Überlastungsangriffen) gegenüber großen<br />

Antivirensoftware-Unternehmen zu<br />

sein.<br />

Verseuchtes JavaScript in HTML-Anhang<br />

An zweiter Position steht ein JavaScript-<br />

Downloader. Er tarnt sich als JavaScript<br />

in HTML-Attachments. Sobald der Anwender<br />

die angehängte HTML-Datei öffnet,<br />

führt sich das verschleierte JavaScript<br />

selbstständig aus. Gleichzeitig setzt es <br />

2/12 35


einen iFrame auf der HTML-Seite frei,<br />

auf die sich das Java Script bezieht. Der<br />

iFrame lädt anschließend schädliche Inhalte<br />

von Servern Dritter herunter, die das<br />

System des Nutzers zum Absturz bringen.<br />

Massen-Mailer verführt User<br />

Rang drei belegt Netsky. Ein Massen-<br />

Mailer-Wurm, der ähnlich wie MyDoom<br />

agiert. Er verbreitet sich zusätzlich über<br />

Datenübertragungsformen wie FTP, P2P<br />

oder File Sharing. Die Nachrichteninhalte<br />

seiner E-Mails reichen von Fehlermeldungen<br />

über Liebeserklärungen bis hin<br />

zu Geldtransaktionen. Neben diesen<br />

Social-Engineering-Aspekten werden in<br />

manchen Nachrichten auch die Namen<br />

prominenter Personen missbraucht, um<br />

beim Anwender Interesse für die Mail zu<br />

wecken. Öffnet der User den Anhang,<br />

zeigt der Wurm eine Meldung, die aussieht,<br />

als käme sie von der lokal installierten<br />

Antiviruslösung. Die Meldung besagt,<br />

dass kein Virus auf dem System<br />

entdeckt wurde. Eine weitere Besonderheit<br />

ist, dass sich Netsky nie an E-Mail-<br />

Adressen versendet, die sich auf die<br />

Security- oder Antivirus-Industrie beziehen:<br />

Sobald der Wurm bei der Suche nach<br />

E-Mail-Adressen Keywords wie<br />

beispielsweise Antivirus, FBI oder<br />

Bitdefender wahrnimmt, wird er vorsichtig.<br />

Schädling blockt Websites von AV-<br />

Anbietern<br />

An vierter Stelle liegt Mytob – ein Wurm,<br />

der User davon abhält, auf Websites renommierter<br />

Antiviren-Hersteller zuzugreifen.<br />

Er ermöglicht böswilligen<br />

Cyberkriminellen via Hintertüroption<br />

zusätzlich den freien Zugriff auf den User-<br />

PC.<br />

Malware legt Security-Software lahm<br />

Der Bagle Worm belegt Platz fünf. Als<br />

Teil von Massen-Mails sendet er sich automatisch<br />

an alle E-Mail-Adressen, die<br />

von ihm auf dem kompromittierten System<br />

identifiziert wurden. Um dem Be-<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

nutzer unentdeckt schaden zu können,<br />

beendet er alle Prozesse der installierten<br />

AV-Lösungen. Er lädt nebenbei noch<br />

<strong>IT</strong>DZ <strong>Berlin</strong> blockiert erfolgreich unerwünschte Werbung<br />

Weniger Spam-Mails an Behörden<br />

Die <strong>Berlin</strong>er Behörden erhalten täglich etwa 150.000 Mails. Durchschnittlich 65<br />

Prozent davon wurden <strong>2012</strong> durch das <strong>IT</strong>DZ <strong>Berlin</strong> als Spam geblockt, oder als<br />

Spam markiert, bevor sie im Posteingang der Mitarbeitenden landen. Der Anteil<br />

der Spam-Mails ist damit weiterhin rückläufig. 2011 lag er bei rund 73 Prozent<br />

und 2010 bei 88 Prozent des Mailaufkommens. Der Anteil an mit Viren infizierter<br />

Post stieg bei den an die <strong>Berlin</strong>er Verwaltung adressierten Mails im Verlauf des<br />

letzten halben Jahres leicht an, ist aber mit acht Mails am Tag im Monat April<br />

weiterhin überschaubar. Weltweit liegt der Anteil an Spam-Mails bei etwa 77<br />

Prozent.<br />

Erfolgreicher Virenschutz<br />

Ein Grund für den dauerhaften<br />

Rückgang und die geringe Anzahl an<br />

Mails mit Viren ist der vom <strong>IT</strong>DZ<br />

<strong>Berlin</strong> eingesetzte Spam-Schutz mit<br />

Reject-Modus, der einen Großteil<br />

der Spam-Mails schon vor der Annahme<br />

blockiert. Dafür wird der versendende<br />

Server ausgewertet und<br />

die Existenz des Adressaten geprüft.<br />

Ergänzend setzt man auf das so<br />

genannte Greylisting, bei dem Mails<br />

erst beim zweiten Versuch zugestellt<br />

werden. Spam-Versender unternehmen einen solchen Versuch in der Regel nicht.<br />

Zweiter Filterschritt<br />

Einen zu restriktiven Spam-Filter kann die Verwaltung nicht anwenden, da dann<br />

auch wichtige E-Mails blockiert werden können. Bei E-Mails, die nicht im ersten<br />

Schritt abgewiesen werden, durchsucht ein Programm die Betreffzeilen und<br />

Inhalte der Mails nach in Spams häufig verwendeten Begriffen, wie etwa „Klingelton“.<br />

Diese Mails werden als Warnung für den Empfänger als SPAM markiert<br />

aber trotzdem zugestellt. Denn das <strong>IT</strong>DZ <strong>Berlin</strong> ist als Provider der Behörden<br />

verpflichtet, angenommene E-Mails an den Empfänger weiterzuleiten.<br />

Behörden besonders anfällig für Spam<br />

zahlreiche Dateien von dubiosen Webseiten<br />

herunter und führt diese aus. (PR/<br />

Bitdefender GmbH)<br />

<br />

Behörden sind in besonderem Maße von Spam betroffen, da auf zahlreichen<br />

Webseiten E-Mailadressen angegeben werden, um den Bürgern die Kontaktaufnahme<br />

zu erleichtern. (EB)<br />

2/12 36


Geschäftskunden<br />

vertrauen ihren <strong>IT</strong>K-<br />

Dienstleistern<br />

mehrheitlich bei<br />

Datenschutz und<br />

Sicherheit<br />

Zwei Drittel der deutschen Unternehmen<br />

haben hohes Vertrauen in Datenschutz<br />

und Sicherheit bei ihren Partnern<br />

in der <strong>IT</strong>K-Branche – zum Beispiel<br />

Internet-Provider, Telefongesellschaften<br />

und <strong>IT</strong>-Dienstleister.<br />

Das geht aus einer Studie im Auftrag<br />

des Hightech-Verbandes Bitkom<br />

hervor.<br />

Bei der repräsentativen Erhebung unter<br />

mehr als 800 Unternehmen gaben 69<br />

Prozent der Befragten an, „hohes Vertrauen“<br />

in ihren <strong>IT</strong>K-Anbieter zu haben.<br />

27 Prozent gaben ein „niedriges Vertrauen“<br />

an und 5 Prozent machten keine<br />

Angaben. „Die <strong>IT</strong>K-Anbieter genießen<br />

in der Wirtschaft mehrheitlich den Ruf,<br />

verlässlich zu sein“, erklärte Bitkom-Präsident<br />

Prof. Dieter Kempf. „Es gibt aber<br />

trotzdem noch einiges zu tun, um Kunden<br />

von dem hohen Datenschutz- und<br />

Sicherheitsniveau in der <strong>IT</strong>K-Branche zu<br />

überzeugen.“<br />

76 Prozent der Unternehmen nennen die<br />

Informationssicherheit als wichtiges Kriterium<br />

für Vertrauen im Geschäftsleben,<br />

69 Prozent sagen dies über den Datenschutz.<br />

Bei der Studie wurden <strong>IT</strong>-Leiter,<br />

Datenschutzbeauftragte und Geschäftsführer<br />

von Unternehmen unterschiedlicher<br />

Branchen und Größen befragt. Generell<br />

zeigen große Unternehmen ein<br />

deutlich höheres Vertrauen in Datenschutz<br />

und Sicherheit bei <strong>IT</strong>K-Dienstleistern<br />

als kleine und mittelständische<br />

Unternehmen. „Konzerne haben häufig<br />

klarer formulierte Anforderungen und<br />

bessere Möglichkeiten, die Sicherheitsstandards<br />

zu überprüfen“, kommentiert<br />

Bitkom-Präsident Kempf. „Mittelständische<br />

Kunden müssen offensichtlich<br />

noch besser informiert werden, um sich<br />

ein Bild von den Sicherheitsvorkehrungen<br />

machen zu können.“ (PR/<br />

Bitkom e.V.)<br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Airbag fürs Smartphone<br />

Fraunhofer S<strong>IT</strong> zeigt Sicherheitslösung<br />

für Smartphones - BizzTrust<br />

for Android schützt Unternehmensdaten<br />

und freut Benutzer<br />

Fraunhofer S<strong>IT</strong> und das Center for<br />

Advanced Security Research Darmstadt<br />

(CASED) stellten auf der CeB<strong>IT</strong> <strong>2012</strong><br />

BizzTrust trennt Geschäftliches von Privatem auf<br />

Android-Smartphones<br />

eine neue Version von BizzTrust vor, der<br />

benutzerfreundlichen Sicherheitslösung<br />

für Smartphones. BizzTrust schützt geschäftliche<br />

Daten und Dienste auf<br />

Android-Smartphones, ohne die private<br />

Nutzung der Geräte einzuschränken. Mit<br />

der neuen Version lassen sich private und<br />

geschäftliche Kontakte auch getrennt synchronisieren,<br />

und private Aktivitäten werden<br />

durchgängig farblich hervorgehoben.<br />

Interessierten Unternehmen stellt<br />

Fraunhofer S<strong>IT</strong> eine Testversion zur Verfügung.<br />

Ein Demo-Video zu BizzTrust<br />

findet sich im Internet unter<br />

www.bizztrust.de/en/demo.html.<br />

Mitarbeiter nutzen dienstliche Geräte verstärkt<br />

auch privat – insbesondere<br />

Smartphones, auf denen<br />

Angestellte oft zahlreiche<br />

Apps für den privaten Gebrauch<br />

installieren. Doch<br />

wenn der Nutzer damit unbeabsichtigt<br />

Schad- oder Spionage-Software<br />

ins Firmennetzwerk<br />

holt, droht dem<br />

Unternehmen großer Schaden.<br />

BizzTrust teilt das Gerät<br />

in zwei Teile und trennt<br />

die geschäftlichen Anwendungen<br />

von privaten Daten<br />

und Apps. So können Mitarbeiter<br />

beliebig Apps installieren,<br />

ohne das eigene Unternehmen<br />

zu gefährden.<br />

Selbst wenn Angreifer eine<br />

unsichere App einschleusen,<br />

können sie damit nicht auf<br />

die Firmendaten zugreifen -<br />

die Auswirkungen des Angriffs<br />

bleiben auf die privaten<br />

Daten des Smartphones<br />

begrenzt.<br />

Farben zeigen dem Benutzer<br />

stets an, welchen Teil des<br />

Smartphones er nutzt. Geschäftliche<br />

Anrufe werden<br />

grün markiert, eine SMS von<br />

einem privaten Kontakt hingegen<br />

rot. Basis von<br />

BizzTrust ist ein Android-<br />

Betriebssystem, das mit<br />

Sicherheitsfunktionen erweitert<br />

wurde und alle Daten<br />

aus vertrauenswürdigen Anwendungen<br />

entsprechend markiert. Welche<br />

Enterprise-App vertrauenswürdig ist,<br />

entscheidet das Unternehmen, das auch<br />

eigene Apps für Mitarbeiter bereitstellen<br />

und aktualisieren kann. (PR/ Fraunhofer<br />

S<strong>IT</strong>)<br />

<br />

2/12 37


Datenmüll-Management<br />

als Konsequenz im<br />

Datenmanagement<br />

Konsequentes Datenmanagement umfasst<br />

auch die Löschung von Daten<br />

sowie die Auswahl von Daten, welche<br />

überhaupt erfasst werden sollen. Ansatzpunkt<br />

ist der Geschäftsprozess.<br />

Datenmüll „besteht grundsätzlich aus<br />

nicht mehr benötigten oder<br />

redundenten, aber dennoch gespeicherten<br />

Daten, die für Privatpersonen,<br />

Unternehmen und Institutionen (wirtschaftlich)<br />

nutzlos geworden sind.<br />

Fraglich ist in diesem Zusammenhang,<br />

ob deren endgültiges Löschen<br />

die „ultima ratio“ darstellt“ (Prof. Dr.<br />

Wolfgang Brunner).<br />

Immer mehr Unternehmen und Institutionen<br />

leiden unter einem neuen Abfallproblem:<br />

Datenmüll. Die zunehmende<br />

Nutzung digitaler Kommunikationsmittel<br />

führt zu einer wachsenden Informationsflut<br />

und lässt den Vorrat an gespeicherten<br />

Daten geradezu explodieren.<br />

Jährlich wächst der Datenbestand<br />

mittlerweile um circa 100 Prozent weltweit:<br />

• Ende 2010: ca. 970 Exabytes<br />

• Ende 2011: ca. 1,8 Zettabyte<br />

• Ende 2020: ca. 35 bis 40 Zettabyte<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Das heißt, der weltweite<br />

Datenbestand, bezogen auf<br />

das Jahr 2010, wird sich<br />

bis ins Jahr 2020 mehr<br />

als verfünfunddreißigfachen.<br />

Hinzu<br />

kommt, dass in Unternehmen<br />

weltweit ca. 80<br />

Prozent der Datenbestände<br />

in unstrukturierter Form vorliegen.<br />

Allein für das Handling des<br />

eigenen E-Mail-Systems benötigt jeder<br />

Mitarbeiter durchschnittlich zwei<br />

Tage im Jahr für die Löschung von Spam-<br />

E-Mails. Für alle Arten von Organisationen<br />

ist Datenmüll nicht nur eine Kostenfrage,<br />

sondern auch organisatorisch<br />

eine existenzielle Herausforderung.<br />

Was Datenmüll für eine Organisation ist<br />

und was nicht, muss für die verschiedenen<br />

Anwendungsfelder jeweils individuell<br />

definiert werden. In einem E-Mail-<br />

System hat Datenmüll eine andere Definition<br />

als vergleichsweise für den Projektprozess.<br />

Warum aber nun Datenmüll-Management,<br />

welche Nutzenpotentiale können<br />

realisiert werden?<br />

Mit der Einführung eines professionellen<br />

Datenmüll-Management-Prozesses<br />

können die nachfolgend genannten<br />

Nutzenpotenziale für Unternehmen und<br />

Institutionen erzielt werden:<br />

• Geringere Kostenzuwächse durch<br />

nachhaltig weniger Speicherzukauf pro<br />

Jahr<br />

• Beitrag zur „Green-<strong>IT</strong>“ durch nachhaltig<br />

geringeren Stromanstieg für den<br />

Betrieb von Speichersystemen<br />

• Schnellere Auffindung der richtigen<br />

Informationen und Reduzierung des<br />

Fehlerpotenzials bei der Verwendung<br />

falscher Dateiversionen<br />

• Eindeutige Auffindung von Dateien<br />

durch Vermeidung von unnötiger<br />

Mehrfachspeicherung von Dateien<br />

• Höhere Sicherheit bei der Nutzung<br />

und Rechteverwertung von Dateien<br />

(z.B. Fotos, Filme, wissenschaftliche<br />

Texte)<br />

• Inkremental verbesserte Nutzung der<br />

Arbeitsressourcen durch Verbesserung<br />

der Effektivität (aber dadurch keine<br />

Freisetzung von Mitarbeitern!)<br />

• Komplexitätsreduzierung und bessere<br />

Beherrschbarkeit der gesamten Datensicherungsprozesse.<br />

• Nachhaltige Freilegung stiller Reserven<br />

bei den vorhandenen Speichersystemen<br />

(für eine verbesserte Speichernutzung)<br />

und effizientere Nutzung<br />

existierender <strong>IT</strong>-Ressourcen<br />

• Mittel- bis langfristig: Datenmüll als<br />

„Rohstoff“, denkbar ist ein Verkauf<br />

von weiter verwendbaren Datenbeständen<br />

an andere <strong>IT</strong>-Communities<br />

Welche Lösungsansätze existieren?<br />

Letztendlich zeigt die bisherige Entwicklung,<br />

dass stetig Software- und Technologielösungen<br />

zur Speicherung von Daten<br />

entwickelt und angeboten werden. So<br />

werden die Datenbestände weiter wachsen<br />

und zweifellos auch der Datenmüll.<br />

Was jedoch noch fehlt, ist ein ganzheitlicher<br />

Unternehmensprozess zur Eindämmung<br />

des Datenwachstums. Ein Projektmodell<br />

zur Einführung des Datenmüll-<br />

Management-Prozesses ist das Modell<br />

von Martin G. Bernhard. Es wird ein<br />

Projektmodell für die Einführung des<br />

Datenmüll-Management-Prozesses vorgestellt,<br />

somit ein konkretes Projektmodell<br />

zur Einführung eines Datenmüll-<br />

Management-Prozesses. Es reicht von<br />

der Identifikation der Datenmüllbereiche,<br />

des Datenmülls und der Orte, an denen<br />

er entsteht, bis zum Monitoring der<br />

Datenmüllbereiche. Dieses Projektmodell<br />

kann in der Praxis für die Einführung<br />

eines Datenmüll-Management-Prozesses<br />

in jede Organisation angewendet werden.<br />

Im Rahmen dieses Projektmodells sind<br />

folgende Themen abzuarbeiten:<br />

• der Datenmüll-Management-Prozess<br />

mit seinen Haupt- und Teilprozessen<br />

• die Rolle eines Datenmüll-Managers<br />

• Templates zur Erfassung des Datenmülls<br />

• ein Maßnahmenkatalog mit konkreten<br />

Vorschlägen zur Eindämmung <br />

2/12 38


sowie kurz- bis mittelfristigen Reduzierung<br />

des Datenmülls<br />

• Kennzahlen zur Ermittlung und Steuerung<br />

des Datenmülls<br />

Ganz offensichtlich ist der Druck auf die<br />

Organisationen immer noch nicht groß<br />

genug, da sie selbst relativ großen Kosteneinsparpotenzialen<br />

im Blick auf den eigenen<br />

Datenmüll wenig Beachtung schenken.<br />

Selbst wenn davon ausgegangen<br />

werden muss, dass es den Organisationen<br />

schwer fallen dürfte, relativ trenngenau<br />

zwischen Daten und Datenmüll zu unterscheiden,<br />

muss nunmehr eine intensivere<br />

Auseinandersetzung mit dieser Thematik<br />

herbei geführt werden. Datenmüll<br />

ist der Müll der Zukunft, der bereits heute<br />

vorliegt!<br />

Literaturempfehlung<br />

Unternehmen versinken im Datenmüll -<br />

Hrsg.: Wolfgang L. Brunner, Martin G.<br />

Bernhard, Jürgen Weber – Hardcover –<br />

250 Seiten – ISBN 978-3-939707-63-9 –<br />

1. Auflage 2011– 39 Euro<br />

MARTIN G. BERNHARD<br />

Geschäftsführer<br />

ECG Management Consulting GmbH<br />

<strong>Berlin</strong><br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Urteil des Europäischen<br />

Gerichtshofs<br />

Die Funktionalität eines<br />

Computerprogramms<br />

und die Programmiersprache<br />

sind nicht<br />

urheberrechtlich<br />

geschützt<br />

Der Erwerber einer Programmlizenz<br />

ist grundsätzlich berechtigt, das Funktionieren<br />

des Programms zu beobachten,<br />

zu untersuchen oder zu testen, um<br />

die ihm zugrunde liegenden Ideen und<br />

Grundsätze zu ermitteln<br />

Die SAS Institute Inc. entwickelte das<br />

SAS-System, einen integrierten Satz von<br />

Programmen, der es den Nutzern ermöglicht,<br />

Aufgaben im Bereich der Datenverarbeitung<br />

und -analyse zu verrichten und<br />

insbesondere statistische Analysen durchzuführen.<br />

Der zentrale Bestandteil des<br />

SAS-Systems ist die sogenannte Base SAS.<br />

Sie ermöglicht den Nutzern, Anwendungsprogramme<br />

(auch als „Skripte“<br />

bekannt) zu schreiben und zu verwenden,<br />

die in der SAS-Programmiersprache<br />

geschrieben sind und eine Datenverarbeitung<br />

ermöglichen.<br />

Die World Programming Ltd (WPL) sah<br />

eine potenzielle Marktnachfrage nach alternativer<br />

Software, die in der Lage wäre,<br />

in der SAS-Sprache geschriebene Anwendungsprogramme<br />

auszuführen. Sie<br />

erstellte daher das World Programming<br />

System (WPS). Dieses bildet einen großen<br />

Teil der Funktionalitäten der SAS-<br />

Komponenten in dem Sinne nach, dass<br />

WPL sicherzustellen versuchte, dass derselbe<br />

Input (Dateneingabe in das System)<br />

zu demselben Output (Datenausgabe)<br />

führte. Dies sollte den Nutzern des<br />

SAS-Systems ermöglichen, die für die Verwendung<br />

mit dem SAS-System entwickelten<br />

Skripte unter dem WPS auszuführen.<br />

Für die Erstellung des WPS erwarb WPL<br />

rechtmäßig Kopien der Lernausgabe des<br />

SAS-Systems, die mit einer Lizenz geliefert<br />

wurden, nach der die Rechte des<br />

Lizenznehmers auf nichtproduktive<br />

Zwecke beschränkt waren. WPL benutzte<br />

und untersuchte diese Programme, um<br />

ihr Funktionieren zu verstehen, doch<br />

weist nichts darauf hin, dass sie Zugang<br />

zum Quellcode der SAS-Komponenten<br />

hatte oder diesen vervielfältigt hätte.<br />

SAS Institute erhob Klage beim High<br />

Court of Justice (Vereinigtes Königreich)<br />

auf Feststellung, dass WPL die Handbücher<br />

und Komponenten des SAS-Systems<br />

vervielfältigt und damit die Urheberrechte<br />

von SAS Institute und die<br />

Lizenzbestimmungen der Lernausgabe<br />

verletzt hat. Vor diesem Hintergrund<br />

befragt der High Court den Gerichtshof<br />

zum Umfang des rechtlichen Schutzes,<br />

den das Unionsrecht Computerprogrammen<br />

gewährt, und möchte<br />

insbesondere wissen, ob sich dieser<br />

Schutz auf die Funktionalität und die<br />

Programmiersprache erstreckt.<br />

Der Gerichtshof weist erstens darauf hin,<br />

dass die Richtlinie über den Rechtsschutz<br />

von Computerprogrammen den<br />

urheberrechtlichen Schutz auf alle Ausdrucksformen<br />

der eigenen geistigen<br />

Schöpfung des Urhebers eines<br />

Computerprogramms erstreckt. Dagegen<br />

sind Ideen und Grundsätze, die irgendeinem<br />

Element eines Computerprogramms<br />

zugrunde liegen, einschließlich<br />

der den Schnittstellen zugrundeliegenden<br />

Ideen und Grundsätze, nicht<br />

im Sinne der Richtlinie urheberrechtlich<br />

geschützt.<br />

Somit ist nur die Ausdrucksform dieser<br />

Ideen und Grundsätze urheberrechtlich<br />

zu schützen. Der durch die Richtlinie 91/<br />

250 geschaffene Schutzgegenstand bezieht<br />

sich auf das Computerprogramm in<br />

allen seinen Ausdrucksformen wie Quellcode<br />

und Objektcode, die seine<br />

Vervielfältigung in den verschiedenen<br />

Datenverarbeitungssprachen erlauben.<br />

Auf der Grundlage dieser Erwägungen<br />

entscheidet der Gerichtshof, dass we- <br />

2/12 39


<strong>SPL<strong>IT</strong>TER</strong><br />

Daher kann der Inhaber des Urheberrechts<br />

an einem Computerprogramm<br />

nicht unter Berufung auf den Lizenzvertrag<br />

verhindern, dass der Erwerber der<br />

Lizenz das Funktionieren dieses Programms<br />

beobachtet, untersucht oder testet,<br />

um die einem Programmelement<br />

zugrunde liegenden Ideen und Grundsätze<br />

zu ermitteln, wenn dieser von der<br />

Lizenz umfasste Handlungen sowie<br />

Handlungen zum Laden und Ablaufen<br />

vornimmt, die für die Benutzung des<br />

Programms erforderlich sind, und unter<br />

der Voraussetzung, dass der Erwerber<br />

die Ausschließlichkeitsrechte des Inhabers<br />

des Urheberrechts an diesem Programm<br />

nicht verletzt.<br />

der die Funktionalität eines Computerprogramms<br />

noch die Programmiersprache<br />

oder das Dateiformat, die im Rahmen<br />

eines Computerprogramms verwendet<br />

werden, um bestimmte Funktionen des<br />

Programms zu nutzen, eine Ausdrucksform<br />

darstellen. Daher genießen sie keinen<br />

urheberrechtlichen Schutz.<br />

Ließe man nämlich zu, dass die Funktionalität<br />

eines Computerprogramms urheberrechtlich<br />

geschützt wird, würde man<br />

zum Schaden des technischen Fortschritts<br />

und der industriellen Entwicklung die<br />

Möglichkeit eröffnen, Ideen zu monopolisieren.<br />

In diesem Zusammenhang führt der<br />

Gerichtshof aus, dass, würde sich ein<br />

Dritter den Teil des Quell- oder Objektcodes<br />

beschaffen, der sich auf die Programmiersprache<br />

oder das Dateiformat<br />

bezieht, die im Rahmen eines Computerprogramms<br />

verwendet werden, und<br />

würde er mit Hilfe dieses Codes in seinem<br />

eigenen Computerprogramm ähnliche<br />

Komponenten erstellen, dieses Verhalten<br />

vom Urheber des Programms<br />

möglicherweise verboten werden könnte.<br />

Im vorliegenden Fall ist jedoch den<br />

Ausführungen des vorlegenden Gerichts<br />

zu entnehmen, dass WPL keinen Zugang<br />

zum Quellcode des Programms von SAS<br />

Institute hatte und den Objektcode dieses<br />

Programms nicht dekompiliert hat.<br />

Sie hat das Verhalten des Programms nur<br />

beobachtet, untersucht und getestet und<br />

auf dieser Grundlage seine Funktionalität<br />

vervielfältigt, wobei sie dieselbe Programmiersprache<br />

und dasselbe Dateiformat<br />

verwendet hat.<br />

Zweitens stellt der Gerichtshof zum einen<br />

fest, dass nach der Richtlinie über den<br />

Rechtsschutz von Computerprogrammen<br />

der Erwerber einer Softwarelizenz<br />

berechtigt ist, das Funktionieren eines<br />

Computerprogramms zu beobachten, zu<br />

untersuchen oder zu testen, um die einem<br />

Programmelement zugrunde liegenden<br />

Ideen und Grundsätze zu ermitteln.<br />

Vertragliche Bestimmungen, die im Widerspruch<br />

zu diesem Recht stehen, sind<br />

unwirksam. Zum anderen ist die Ermittlung<br />

dieser Ideen und Grundsätze im<br />

Rahmen der von der Lizenz gestatteten<br />

Handlungen möglich.<br />

Der Gerichtshof stellt außerdem fest, dass<br />

kein Verstoß gegen das Urheberrecht<br />

vorliegt, wenn wie im vorliegenden Fall<br />

der rechtmäßige Erwerber der Lizenz keinen<br />

Zugang zum Quellcode des<br />

Computerprogramms hatte, sondern sich<br />

darauf beschränkt hat, dieses Programm<br />

zu untersuchen, zu beobachten und zu<br />

testen, um seine Funktionalität in einem<br />

zweiten Programm zu vervielfältigen.<br />

Schließlich entscheidet der Gerichtshof,<br />

dass die in einem Computerprogramm<br />

oder in einem Benutzerhandbuch für<br />

dieses Programm erfolgte Vervielfältigung<br />

bestimmter Elemente, die in dem urheberrechtlich<br />

geschützten Benutzerhandbuch<br />

eines anderen Computerprogramms beschrieben<br />

werden, eine Verletzung des<br />

Urheberrechts an dem letztgenannten<br />

Handbuch darstellen kann, sofern diese<br />

Vervielfältigung die eigene geistige Schöpfung<br />

des Urhebers des Benutzerhandbuchs<br />

zum Ausdruck bringt.<br />

Hierzu führt der Gerichtshof aus, dass im<br />

vorliegenden Fall die Schlüsselwörter, die<br />

Syntax, die Befehle und die Kombinationen<br />

von Befehlen, die Optionen, die<br />

Voreinstellungen und die Wiederholungen<br />

aus Wörtern, Zahlen oder mathematischen<br />

Konzepten bestehen, die einzeln<br />

betrachtet keine geistige Schöpfung des<br />

Urhebers des Computerprogramms sind.<br />

Erst mit Hilfe der Auswahl, der Anordnung<br />

und der Kombination dieser Wörter,<br />

Zahlen oder mathematischen Konzepte<br />

bringt der Urheber seinen schöpferischen<br />

Geist in origineller Weise zum<br />

Ausdruck.<br />

Es ist Sache des vorlegenden Gerichts, zu<br />

prüfen, ob die im Ausgangsverfahren<br />

behauptete Vervielfältigung die eigene<br />

geistige Schöpfung des Urhebers des<br />

Benutzerhandbuchs für das Computerprogramm<br />

zum Ausdruck bringt, die<br />

urheberrechtlich geschützt ist.<br />

Urteil vom 2. Mai <strong>2012</strong>, Aktenzeichen C-<br />

406/10<br />

www.curia.europa.eu (PR/ EuGH) <br />

2/12 40


Von Zwickau bis Zweibrücken<br />

Wo „.de“ am stärksten ist<br />

Die Registrierungsstelle für .de-<br />

Domains, DENIC, legt die<br />

Domainstatistik für das<br />

Jahr 2011 vor. Verzeichnet<br />

sind<br />

rund 13,8 Millionen<br />

Domains<br />

in 402 Städten<br />

und Kreisen.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

West-Ost-Gefälle hält an<br />

Unter den Bundesländern liegt der Stadtstaat<br />

Hamburg mit 313 Domains je<br />

1.000 Einwohner weiterhin<br />

deutlich vor <strong>Berlin</strong><br />

(243) und dem Flächenland<br />

Bayern<br />

(209).<br />

Nach wie vor die geringste<br />

Domaindichte<br />

mit 74 Domains<br />

weist Sachsen-<br />

Anhalt auf.<br />

Metropolregionen<br />

unverändert vorn<br />

Bei den absoluten<br />

Domainzahlen ist das Spitzentrio<br />

unverändert. Mit 840.324<br />

Domains dominiert <strong>Berlin</strong><br />

weiterhin klar im Gesamtklassement<br />

vor den Städten<br />

München (609.152) und<br />

Hamburg (556.460). Bezogen auf die Einwohnerzahl<br />

hat unter den kreisfreien Städten<br />

erneut nicht die Bundeshauptstadt<br />

(243), sondern Osnabrück mit 749 .de-<br />

Domains je 1.000 Einwohner die Nase<br />

vorn. Es folgen München (452) und Bonn<br />

(411). Bei den Landkreisen behauptete<br />

erneut Amberg-Sulzbach (882) die Topposition,<br />

während Starnberg (452) und<br />

Freising (422) die Ränge tauschten.<br />

Im Bundesdurchschnitt<br />

betrug das<br />

Domainwachstum<br />

im Jahresvergleich<br />

2010/2011 7,6<br />

Prozent gegenüber<br />

6,4 Prozent<br />

im Zeitraum<br />

2009/2010, was einen Zuwachs<br />

um rund 979.000<br />

(Vorjahr: 775.000) bedeutet. Hinzu kommen<br />

mehr als 870.000 Domains von Inhabern<br />

mit Wohnsitz im Ausland. Dies<br />

entspricht rund 5,9 Prozent des gesamten<br />

Domainbestandes unter .de.<br />

Insgesamt waren per 31.12.2011 bei<br />

DENIC 14.740.474 Domains registriert.<br />

(PR/ DENIC eG)<br />

<br />

2/12 41


<strong>Berlin</strong> unterstützt<br />

Bewerbung für Top-<br />

Level-Domain „.berlin“<br />

Nach dem Willen der internationalen<br />

Internet-Regulierungs-Organisation<br />

ICANN (Internet Corporation for<br />

Assigned Names and Numbers) werden<br />

bald neue Adressräume im<br />

Internet zur Verfügung stehen. Statt<br />

der Endung „.de“ können <strong>Berlin</strong>erinnen<br />

und <strong>Berlin</strong>er und hiesige Unternehmen<br />

dann auch Internetadressen<br />

mit der Endung „.berlin“ registrieren<br />

lassen.<br />

Nach einer europaweitern Bekanntmachung<br />

und einem Auswahlverfahren ist<br />

nun durch die Senatskanzlei entschieden<br />

worden, die Bewerbung der dotBERLIN<br />

GmbH & Co. KG für den Betrieb der<br />

Top Level Domain „.berlin“ mit einem<br />

„Letter of Support“ zu unterstützen.<br />

Dieser Unterstützungsbrief macht den<br />

Weg zur Bewerbung bei der ICANN frei.<br />

Die Bewerbung muss bis zum 12. April<br />

eingereicht werden und wird danach von<br />

der ICANN aufwändig unter anderem<br />

dahin gehend geprüft, ob die Richtlinien<br />

der dotBERLIN GmbH & Co. KG zur<br />

Vergabe der Internetadressen den<br />

Regularien der ICANN entsprechen.<br />

Ab wann die neuen Internet-Endungen<br />

für <strong>Berlin</strong> zur Verfügung stehen, hängt<br />

von diesem Prüfverfahren bei der ICANN<br />

ab. Aus heutiger Sicht ist damit zu rechnen,<br />

dass dies ab 2013 der Fall sein könnte.<br />

Mehrere andere deutsche Städte und<br />

Regionen – darunter Hamburg und Köln,<br />

aber auch NRW und Bayern – haben<br />

parallele Bewerbungsprozesse für<br />

Adressräume wie z.B. „.hamburg“ oder<br />

„.nrw“ durchgeführt. Auch zu diesen<br />

Internetadressen beginnen nun die entsprechenden<br />

Verfahren bei der ICANN.<br />

(LPD)<br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Das „Internet der Dinge“<br />

Europäische Kommission<br />

veranstaltet Konsultation<br />

zu Regeln für vernetzte<br />

intelligente Geräte<br />

Das „Internet der Dinge“ bezeichnet<br />

eine Zukunft, in der Alltagsgegenstände<br />

wie Telefone, Autos,<br />

Haushaltsgeräte, Kleidungsstücke<br />

und sogar Lebensmittel mittels intelligenter<br />

Chips drahtlos mit dem<br />

Internet verbunden sind und Daten<br />

erfassen und austauschen können.<br />

Die Europäische Kommission möchte<br />

erkunden, welcher Rahmen gesetzt werden<br />

muss, damit das wirtschaftliche und<br />

gesellschaftliche Potenzial des Internets<br />

der Dinge ausgeschöpft werden kann,<br />

und wie gleichzeitig ein ausreichendes<br />

Maß an Kontrolle über die Geräte zu<br />

gewährleisten ist, die Informationen erfassen,<br />

verarbeiten und speichern. Zu<br />

diesen Informationen gehören Verhaltensmuster<br />

der Nutzer, ihre Aufenthaltsorte<br />

und Präferenzen. Die Kommission<br />

will sicherstellen, dass die Rechte von<br />

Privatpersonen respektiert werden, und<br />

leitet vor diesem Hintergrund eine öffentliche<br />

Konsultation ein, zu der bis<br />

zum 12. Juli <strong>2012</strong> beigetragen werden<br />

kann.<br />

Heutzutage besitzt der Durchschnittsbürger<br />

zwei Gegenstände, die mit dem<br />

Internet verbunden sind. Bis 2015 dürften<br />

es sieben sein, weltweit werden dann<br />

25 Milliarden Geräte über Drahtlosverbindungen<br />

verfügen. Diese Zahl könnte<br />

sich bis 2020 auf 50 Milliarden verdoppeln.<br />

In Zukunft werden also möglicherweise<br />

viele Alltagsgegenstände mit<br />

dem Internet verbunden sein. Ein Beispiel:<br />

Wenn an der Universität eine Vorlesung<br />

am frühen Morgen wegen Erkrankung<br />

des Dozenten ausfällt, könnten die<br />

Wecker und Kaffeemaschinen der Studierenden<br />

automatisch so gestellt werden,<br />

dass sie eine Stunde länger schlafen können.<br />

Vergisst ein älterer Mensch, eine<br />

wichtige Arznei einzunehmen, könnte<br />

einem anderen Familienmitglied oder einer<br />

lokalen Notrufzentrale eine Warnmeldung<br />

übermittelt werden, so dass<br />

jemand vorbeigeschickt werden kann, der<br />

nach dem Rechten schaut.<br />

Neelie Kroes, die für die Digitale Agenda<br />

zuständige Vizepräsidentin der Kommission,<br />

erklärte hierzu: „Ein Internet<br />

der Dinge, bei dem Alltagsgegenstände<br />

mit intelligenten Funktionen ausgestattet<br />

sind, ist der nächste große Entwicklungsschritt.<br />

Ich möchte ein Internet<br />

der Dinge fördern, das unseren wirtschaftlichen<br />

und gesellschaftlichen Zielen dient,<br />

und bei dem die Sicherheit und der Schutz<br />

der Privatsphäre gewährleistet sind und<br />

ethische Werte beachtet werden.“<br />

Zur Realisierung des enormen wirtschaftlichen<br />

und gesellschaftlichen Potenzials<br />

des Internets der Dinge sind faire<br />

Wettbewerbsverhältnisse nötig, damit<br />

alle Akteure unter gleichen Bedingungen<br />

miteinander konkurrieren können, ohne<br />

dass einzelne den Zugang kontrollieren<br />

oder den Anbieterwechsel von Nutzern<br />

behindern. Voraussetzung für die gesellschaftliche<br />

Akzeptanz ist die Festlegung<br />

eines ethischen und rechtlichen Rahmens<br />

mit Unterstützung durch technische Mittel,<br />

der Eigenbestimmung und Sicherheit<br />

der Nutzer gewährleistet. Im Wege der<br />

Konsultation möchte die Kommission<br />

Meinungsäußerungen zu den Themen<br />

Schutz der Privatsphäre, Sicherheit,<br />

Gefahrenabwehr in kritischen, auf das<br />

Internet der Dinge gestützten Infrastrukturen,<br />

Ethik, Interoperabilität, Leitungsund<br />

Aufsichtsmechanismen und Standards<br />

einholen. Die Ergebnisse der Konsultation<br />

werden in die Empfehlung der<br />

Kommission zum Internet der Din- <br />

2/12 42


ge einfließen, die bis Sommer 2013<br />

vorgelegt wird. Die Förderung des<br />

Internets der Dinge ist ein vorrangiges<br />

Ziel der Digitalen Agenda für Europa<br />

(siehe IP/10/581, MEMO/10/199 und<br />

MEMO/10/200).<br />

Hintergrund<br />

Das heutige Internet bietet Zugang zu<br />

Inhalten und Informationen durch die<br />

Verbindung vielfältiger Endgeräte, wie<br />

PCs, Smartphones oder Fernsehgeräte,<br />

mit Internetseiten. In der nächsten Entwicklungsstufe<br />

werden Informationen<br />

zum physischen Umfeld durch angeschlossene<br />

Gegenstände bereitgestellt<br />

werden können, die mit Sensoren für ihr<br />

Umfeld ausgestattet sind und über Smartchips<br />

mittels RFID-Technik mit oder<br />

ohne menschliches Dazutun kommunizieren.<br />

Für diese Weiterentwicklung vernetzter<br />

Geräte gibt es zahllose Beispiele: Ein Pkw<br />

könnte den Zustand verschiedener<br />

Fahrzeugsysteme mittels eingebetteter<br />

Sensoren zum Zweck der Ferndiagnose<br />

und Wartung melden; unterwegs ließen<br />

sich auf dem Smartphone Informationen<br />

über den Zustand von Haustüren<br />

und Fensterläden oder sogar von Lebensmitteln<br />

im Kühlschrank empfangen, die<br />

von Sensoren daheim übermittelt werden;<br />

Autofahrer könnten von ihrem Fahrzeug<br />

um mögliche Verkehrsstaus herumgelotst<br />

werden; persönliche Geräte<br />

könnten Informationen zum aktuellen<br />

Gesundheitszustand von daheim versorgten<br />

Patienten an eine zentrale Stelle<br />

senden.<br />

Die öffentliche Konsultation wird in eine<br />

neue Empfehlung zum Internet der Dinge<br />

Eingang finden. Diese Empfehlung<br />

stellt eine Folgemaßnahme zur Mitteilung<br />

der Kommission zum Internet der<br />

Dinge aus dem Jahr 2009 dar (siehe IP/<br />

09/952), in der 14 Maßnahmen dargelegt<br />

wurden, mit denen Europa befähigt werden<br />

soll, Technologien und Systeme für<br />

das Internet der Dinge zu entwickeln, die<br />

mit den zentralen Werten Europas, wie<br />

Schutz der Privatsphäre und personenbezogener<br />

Daten, vereinbar sind. (PR/<br />

Europäische Kommission) <br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Verwaltungs- und<br />

Beschaffernetzwerk<br />

Das Verwaltungs- und Beschaffernetzwerk<br />

(VuBN) bietet als exklusives,<br />

professionelles Social Network<br />

Mitarbeitern aus öffentlichen Verwaltungen<br />

die Möglichkeit eines umfassenden<br />

Wissensaustauschs, der den<br />

Einarbeitungsaufwand ebenso wie<br />

Fehler bei verschiedensten Aufgaben<br />

wesentlich reduzieren kann.<br />

Das ursprünglich auf das öffentliche<br />

Auftragswesen fokussierte Netzwerk hat<br />

sich seit seiner Gründung im Jahr 2007<br />

zur zentralen Anlaufstelle für alle Fachbereiche<br />

des öffentlichen Sektors entwickelt<br />

und hat nun vor kurzem die Schallmauer<br />

von 10.000 Nutzern überschritten. Erfolge<br />

wie der Innovationspreis 2011 der<br />

Gesellschaft für Informatik oder zuletzt<br />

beim <strong>IT</strong>-Innovationspreis der Initiative<br />

Mittelstand unterstreichen diese so positive<br />

Entwicklung<br />

Neben den eigenen Profilseiten der Nutzer,<br />

auf denen individuelle Informationen<br />

(z.B. Kontaktmöglichkeiten, Interessen,<br />

Aufgabengebiete) angegeben und<br />

persönliche Dokumente für einen Austausch<br />

hochgeladen werden können, bilden<br />

die weit über 100 themenspezifischen<br />

Fachgruppen und -foren (z.B. Austausch<br />

von Leistungsbeschreibungen, Umweltfreundliche<br />

Beschaffung, Erfahrungsaustausch<br />

kommunaler Betriebsdienste, E-<br />

Government Best Practices) das Herzstück<br />

des Netzwerks. Der hohe Mehrwert<br />

in Verbindung mit der geschlossenen<br />

Nutzergruppe und einem Höchstmaß an<br />

Vertraulichkeit hinsichtlich persönlicher<br />

Daten machen das VuBN einzigartig für<br />

Mitarbeiter des öffentlichen Sektors.<br />

Anbieterunternehmen werden im VuBN<br />

umfangreiche Präsentationsmöglichkeiten<br />

und eigene, abgetrennte Expertengruppen<br />

zur direkten Interaktion mit den<br />

Nutzern des Netzwerks angeboten.<br />

www.vubn.de (PR/ ondux GmbH) <br />

<strong>Berlin</strong> freut sich über<br />

Twitter-Ansiedlung<br />

<strong>Berlin</strong>s Regierender Bürgermeister<br />

Klaus Wowereit, Wirtschaftssenatorin<br />

Sybille von Obernitz und <strong>Berlin</strong> Partner-Geschäftsführerin<br />

Melanie Bähr<br />

freuen sich über die Ansiedlung des<br />

Deutschlandbüros von Twitter in<br />

<strong>Berlin</strong>.<br />

Wowereit: „Die Entscheidung von<br />

Twitter zeigt, welche Anziehungskraft<br />

<strong>Berlin</strong> für Kommunikationsunternehmen<br />

im Umfeld der <strong>IT</strong>-Branche entwickelt<br />

hat. Herzlich willkommen in<br />

<strong>Berlin</strong>! Die Hauptstadt ist der richtige Ort<br />

für kreative, junge Unternehmen mit Perspektive.“<br />

Wirtschaftssenatorin Sybille von Obernitz<br />

sagt: „Das ist ein gutes Signal für den<br />

Wirtschaftsstandort <strong>Berlin</strong>. Es zeigt, dass<br />

Unternehmen wie Twitter in unserer Stadt<br />

attraktive Rahmenbedingungen vorfinden.<br />

Ich freue mich, dass die internationale<br />

Strahlkraft von <strong>Berlin</strong> als Standort der<br />

Digitalen Wirtschaft stetig zunimmt.“<br />

Melanie Bähr, Geschäftsführerin von<br />

<strong>Berlin</strong> Partner: „Die Ansiedlung von<br />

Twitter in <strong>Berlin</strong> ist ein Ritterschlag für die<br />

Hauptstadt. <strong>Berlin</strong> entwickelt sich damit<br />

zum europäischen Hub der digitalen<br />

Wirtschaft und gewinnt mit dieser Verbindung<br />

ins Silicon Valley weiter an Internationalität.“<br />

(LPD)<br />

<br />

Auch das <strong>IT</strong>DZ <strong>Berlin</strong> hat einen<br />

Twitter-Account: @itdzberlin<br />

2/12 43


Die Hälfte der deutschen<br />

Unternehmen setzt<br />

soziale Medien ein<br />

Fast die Hälfte (47 Prozent) aller Unternehmen<br />

in Deutschland setzt soziale<br />

Medien ein. Weitere 15 Prozent<br />

haben bereits konkrete Pläne, damit<br />

in Kürze zu beginnen. Das geht aus<br />

einer Studie hervor, die der Hightech-<br />

Verband Bitkom in <strong>Berlin</strong> vorgestellt<br />

hat. Dabei wurden im Auftrag des<br />

Bitkom 723 Unternehmen aller Branchen<br />

befragt. Die Umfrage ist repräsentativ<br />

für die Gesamtwirtschaft.<br />

„Soziale Medien sind in vielen Unternehmen<br />

fester Bestandteil der internen und<br />

externen Kommunikation geworden“,<br />

sagte Bitkom-Präsident Prof. Dieter<br />

Kempf. „Für den Social-Media-Einsatz<br />

werden zunehmend feste Strukturen mit<br />

spezialisierten Mitarbeitern und eigenen<br />

Budgets geschaffen.“ Als wichtigstes Ziel<br />

nennen 82 Prozent der Unternehmen, die<br />

soziale Medien einsetzen, die Steigerung<br />

ihres Bekanntheitsgrades. Für 72 Prozent<br />

steht die Gewinnung neuer Kunden im<br />

Vordergrund und für 68 Prozent die Pflege<br />

von Kundenbeziehungen. 42 Prozent<br />

der Befragten wollen ihr Image verbessern,<br />

23 Prozent neue Mitarbeiter gewinnen<br />

und 15 Prozent die Produktentwicklung<br />

vorantreiben. Kempf: „Soziale<br />

Medien sind für die Unternehmen<br />

auf dem Weg vom Soll zum Muss.“<br />

Unter sozialen Medien werden Internetanwendungen<br />

verstanden, die es den<br />

Nutzern ermöglichen, sich zu vernetzen,<br />

zu kommunizieren und eigene Inhalte<br />

im Web zu verbreiten. Dazu zählen unter<br />

anderem Blogs, soziale Netzwerke wie<br />

Facebook, Xing oder Google+, Kurznachrichtendienste<br />

wie Twitter sowie<br />

Content-Plattformen zum Austausch<br />

von Videos oder Fotos wie Youtube<br />

oder Flickr. Neben Personen können in<br />

sozialen Medien Unternehmen oder andere<br />

Organisationen mit eigenen Profilen<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

präsent sein. Nach den Ergebnissen der<br />

Studie sind 86 Prozent der Unternehmen,<br />

die Social Media nutzen, in externen<br />

sozialen Netzwerken aktiv. „Soziale Netzwerke<br />

haben sich zu zentralen Anlaufstellen<br />

im Web entwickelt und sind wegen<br />

ihrer hohen Reichweite die mit Abstand<br />

beliebteste Plattform für Unternehmen“,<br />

sagte Kempf. Im Ranking der<br />

meistgenutzten Anwendungen folgen<br />

Blogs mit 36 Prozent und Video-Plattformen<br />

mit 28 Prozent. Ein Viertel der<br />

Unternehmen nutzt Kurznachrichtendienste<br />

wie Twitter.<br />

Unternehmen setzen auf soziale Medien<br />

Ein weiteres Thema der Studie beschäftigte<br />

sich mit den organisatorischen Voraussetzungen<br />

für den Einsatz sozialer<br />

Medien. Dabei zeigen sich große Unterschiede<br />

zwischen größeren und kleineren<br />

Unternehmen. So haben 86 Prozent der<br />

Unternehmen mit mehr als 500 Beschäftigten<br />

eigene Mitarbeiter, die für die Steuerung<br />

der Social-Media-Aktivitäten verantwortlich<br />

sind, aber erst 41 Prozent der<br />

mittelständischen Unternehmen. 63 Prozent<br />

der Großen verfügt über so genannte<br />

Social Media Guidelines, die Mitarbeitern<br />

Richtlinien für die berufliche Nutzung<br />

sozialer Medien geben, während es<br />

bei den Kleinen 19 Prozent sind. Ein<br />

Social Media Monitoring betreiben 48<br />

Prozent der großen, aber nur 10 Prozent<br />

der mittelständischen Unternehmen. Mit<br />

einem Monitoring können die Anwender<br />

beobachten, was im Internet über ihre<br />

Produkte oder Marken gesagt wird.<br />

Kempf: „Der Mittelstand muss die Organisation<br />

seiner Social-Media-Aktivitäten<br />

dringend professionalisieren, wenn er das<br />

Feld nicht den Großen überlassen will.“<br />

Laut Umfrage sind 38 Prozent aller Unternehmen<br />

bislang nicht im Social Web<br />

aktiv. 62 Prozent der Befragten in dieser<br />

Gruppe sagen zur Begründung, dass sie<br />

mit Social Media ihre Zielgruppen nicht<br />

erreichen. „Dieser Grund erscheint<br />

angesichts der weiten Verbreitung sozialer<br />

Medien nicht mehr nachvollziehbar“,<br />

sagte Kempf. Die Hälfte der Skeptiker hat<br />

rechtliche Bedenken, insbesondere hinsichtlich<br />

des Datenschutzes. 45 Prozent<br />

sagen, soziale Medien passen nicht zu<br />

ihrer Unternehmenskultur. Für ein Viertel<br />

ist der personelle Aufwand zu hoch,<br />

für 14 Prozent sprechen generell finanzielle<br />

Gründen dagegen. „Die Umfrage<br />

zeigt, dass der Einsatz von Social Media<br />

nur in den seltensten Fällen am Geld<br />

scheitert“, sagte Kempf. Einige Unternehmen<br />

fürchteten einen Kotrollverlust,<br />

für andere habe dieses Thema im Mo- <br />

2/12 44


ment keine hohe Priorität. „Manche<br />

Bedenken sind verständlich, aber auch<br />

der Verzicht auf den Einsatz sozialer<br />

Medien birgt Risiken“, sagte Kempf. „Diskussionen<br />

über Marken und Produkte<br />

von Unternehmen finden im Social Web<br />

ohnehin statt. Wer sich den sozialen<br />

Medien verschließt, verzichtet bewusst<br />

darauf, Einfluss zu nehmen.“<br />

Mit der weiteren Verbreitung von sozialen<br />

Medien zeichnet sich aus Sicht des<br />

Bitkom ein Kulturwandel hin zu offeneren<br />

Kommunikationsstrukturen ab.<br />

Darüber hinaus entwickelt sich Social<br />

Media zu einem wichtigen Wertschöpfungsfaktor.<br />

So werden Kontakte<br />

in sozialen Netzwerken Teil des alltäglichen<br />

Kundenservice. Projekte können<br />

über die Grenzen von Abteilungen und<br />

Standorte hinweg effizienter realisiert<br />

werden. Zudem kann das Social Web<br />

genutzt werden, um neue Produkte und<br />

Dienste mit Beteiligung der Netzgemeinde<br />

zu entwickeln. Eine Bedingung<br />

dafür ist, dass Unternehmen diese Form<br />

der Kommunikation fest in ihrer Organisation<br />

verankern. „Social Media setzt<br />

voraus, dass sich die Unternehmen öffnen<br />

und in einen Dialog mit ihren Interessengruppen<br />

treten“, sagte Kempf.<br />

Noch nicht alle Unternehmen hätten erkannt,<br />

welches Business-Potenzial die<br />

sozialen Medien haben. Kempf: „Jedes<br />

Unternehmen hat die Aufgabe, den Social-<br />

Media-Einsatz gewissenhaft zu prüfen,<br />

um seine Wettbewerbsposition nicht zu<br />

gefährden.“<br />

Die Bitkom-Studie „Social Media in deutschen<br />

Unternehmen“ finden Sie unter<br />

www.bitkom.org.<br />

Hinweis zur Methodik: Im Auftrag des<br />

Bitkom hat das Marktforschungsunternehmen<br />

techconsult 723 repräsentativ<br />

ausgewählte Unternehmen befragt. (PR/<br />

Bitkom e.V.)<br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Wikidata wird das erste neue<br />

Wikimedia-Projekt seit 2006<br />

Die Zukunft der<br />

Wikipedia<br />

Vom 30. März bis 1. April fand in<br />

<strong>Berlin</strong> die jährliche Wikimedia<br />

Conference mit Teilnehmern aus 40<br />

Ländern statt. Zeitgleich startete<br />

Wikimedia Deutschland mit Wikidata<br />

ein völlig neues Wikimedia-Projekt.<br />

Wikidata wird eine offene Datenbank für<br />

das Wissen der Welt werden, an der jeder<br />

mitarbeiten kann. Das erste Ziel des Projekts<br />

ist es, die mehr als 280 Sprachversionen<br />

von Wikipedia mit einer einzigen<br />

gemeinsamen Datenquelle auszustatten.<br />

Damit können weltweit die Daten<br />

der Artikel in allen Sprachen der freien<br />

Enzyklopädie ergänzt und zentral gepflegt<br />

werden. Aber auch außerhalb von<br />

Wikipedia können die Daten verwendet<br />

werden, zum Beispiel in Blogs oder auf<br />

Webseiten. Das Prinzip einer gemeinsamen<br />

Datenquelle soll die Qualität und<br />

Übereinstimmung von Wikipedia-Artikeln<br />

verbessern. Durch Wikidata werden<br />

mehr Informationen in kleineren Sprachversionen<br />

von Wikipedia verfügbar gemacht.<br />

Gleichzeitig wird es für Zehntausende<br />

freiwillige Wikipedia-Autoren erheblich<br />

einfacher, Daten in der Enzyklopädie<br />

aktuell zu halten.<br />

Der Vorstand von Wikimedia Deutschland,<br />

Pavel Richter, erklärt : „Wir betreten<br />

Neuland. Wikidata ist das größte technische<br />

Projekt, das jemals eine der 40 Länderorganisationen<br />

der Wikimedia-Bewegung<br />

in Angriff genommen hat. Wikimedia<br />

Deutschland widmet sich mit Begeisterung<br />

der Aufgabe, durch Wikidata die<br />

Datenverwaltung der größten Wissenssammlung<br />

der Menschheit deutlich zu<br />

verbessern.“<br />

Neben den Wikimedia-Projekten werden<br />

auch zahlreiche externe Anwendungen<br />

von den Daten profitieren. Mit Wikidata<br />

können Daten vernetzt und annotiert<br />

werden, was beispielsweise für wissenschaftliche<br />

und öffentliche Daten von<br />

großer Bedeutung ist. Die Wikidata-Inhalte<br />

werden unter einer freien Creative<br />

Commons-Lizenz veröffentlicht.<br />

Das Projekt wird mittels einer Großspende<br />

von 1,3 Millionen Euro finanziert,<br />

die zur Hälfte vom Allen Institute<br />

for Artificial Intelligence ([ai]²) stammt.<br />

Das Institut wurde 2010 von Paul G.<br />

Allen, Mitgründer von Microsoft, ins<br />

Leben gerufen und unterstützt langfristige<br />

Forschungsarbeiten, die den Fortschritt<br />

auf dem Gebiet der Künstlichen Intelligenz<br />

beschleunigen sollen.<br />

„Wikidata ist eine einfache wie kluge Idee<br />

und ein bedeutender nächster Schritt in<br />

der Entwicklung von Wikipedia“, sagt<br />

Dr. Mark Greaves, Vizepräsident des Allen<br />

Institute for Artifical Intelligence. „Es<br />

wird die Art und Weise verändern, wie<br />

enzyklopädische Daten veröffentlicht,<br />

zugänglich gemacht und von Menschen<br />

weltweit verwendet werden können.<br />

Wikidata baut auf semantischen<br />

Technologien auf, die wir seit Langem<br />

unterstützen. Das Projekt wird den Takt<br />

wissenschaftlicher Entdeckungen beschleunigen<br />

und der Welt eine außergewöhnliche<br />

neue Datenquelle bereitstellen.“<br />

Ein Viertel der Entwicklungskosten von<br />

Wikidata ist durch eine Spende der Gordon<br />

and Betty Moore Foundation gesichert.<br />

Die Vision der Gordon and Betty<br />

Moore Foundation ist es, messbare, nachhaltige<br />

und weitreichende Erfolge in<br />

Umweltschutz und Wissenschaft zu erzielen.<br />

Datenangebot für Wikipedia<br />

„Wikidata ist für die Forschung bedeutend“,<br />

sagt Chris Mentzel vom wissenschaftlichen<br />

Programm der Gordon and<br />

Betty Moore Foundation. „Das Projekt<br />

wird ein wichtiges Datenangebot für<br />

Wikipedia sein. Zusätzlich können<br />

beispielsweise Wissenschaftler die ein-<br />

2/12 45


fach bedienbare Wikidata-Software herunterladen.<br />

Wikidata ermöglicht ihnen,<br />

ständig wachsende und komplexe wissenschaftliche<br />

Datenmengen zu verwalten<br />

und daraus wertvolle Schlüsse zu<br />

ziehen.“<br />

Google, Inc. stellt ein weiteres Viertel der<br />

Wikidata-Finanzierung bereit. Chris<br />

DiBona, Leiter des Bereichs Open Source,<br />

sagt: „Googles Auftrag ist es, die Informationen<br />

der Welt überall zugänglich<br />

und sinnvoll verwendbar zu machen.<br />

Darum freuen wir uns, am Projekt<br />

Wikidata teilzuhaben. Wir hoffen, dass<br />

damit erhebliche Mengen strukturierter<br />

Daten der Allgemeinheit zur Verfügung<br />

gestellt werden können.“<br />

Entwicklung in drei Phasen<br />

Wikidata wird in drei Phasen entwickelt.<br />

Der Abschluss der ersten Phase erfolgt<br />

voraussichtlich bis August <strong>2012</strong>. Darin<br />

werden Links zwischen verschiedenen<br />

Sprachversionen von Wikipedia zentral<br />

an einer Stelle gesammelt. In der zweiten<br />

Phase können Nutzer Daten verwenden<br />

und neue hinzufügen. Die Ergebnisse<br />

der Auswertung werden hierfür im Dezember<br />

<strong>2012</strong> veröffentlicht. Die dritte<br />

und letzte Phase wird die automatische<br />

Erstellung von Listen und Grafiken erlauben.<br />

Wikimedia Deutschland führt die drei<br />

Phasen aus und übergibt anschließend<br />

den Betrieb und die Wartung von<br />

Wikidata an die Wikimedia Foundation.<br />

Geplanter Übergabetermin ist März 2013.<br />

Das Team von acht Software-Entwicklern<br />

wird von Dr. Denny Vrandecic geleitet.<br />

Er wechselte vom Karlsruher Institut<br />

für Technologie zu Wikimedia Deutschland.<br />

Zusammen mit Dr. Markus<br />

Krötzsch von der University of Oxford<br />

hat er das Semantic-MediaWiki-Projekt<br />

gegründet. Der Projektvorschlag für<br />

Wikidata wurde mit finanzieller Unterstützung<br />

des EU-Projekts RENDER<br />

entwickelt, an dem Wikimedia Deutschland<br />

als einer der Anwendungspartner<br />

ebenfalls beteiligt ist. (PR/ Wikimedia<br />

Deutschland e.V.)<br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Mobile Informationsquelle für<br />

<strong>Berlin</strong>er Politik und Verwaltung<br />

PolitikNews-App<br />

Mehr Durchblick in den Politik-<br />

Dschungel bringt die „PolitikNews-<br />

App“ des <strong>Berlin</strong>er E-Government-<br />

Dienstleisters ]init[ AG. Die kostenlose<br />

App für iOS- und Android-Geräte<br />

ist ein mobiler News-Aggregator für<br />

Politiker, Referenten, Journalisten<br />

Die PolitikNews-App filtert Nachrichten<br />

und Pressemitteilungen<br />

nach folgenden Kategorien:<br />

Thematisch:<br />

• Innenpolitik<br />

• Ausland<br />

• Wirtschaft und Finanzen<br />

• Wissenschaft und Bildung<br />

• Kultur und Medien<br />

• Umwelt und Verkehr<br />

Regional(thematisch eingrenzbar):<br />

• Bundesregierung und -ministerien<br />

• alle 16 Bundesländer<br />

• ausgewählte Städte: Stuttgart,<br />

Frankfurt a.M., Düsseldorf, Dortmund,<br />

Köln, Bielefeld, München,<br />

Nürnberg, Dresden, Leipzig<br />

sowie politikinteressierte Bürger – und<br />

das erste Informationstool dieser Art<br />

überhaupt in Deutschland.<br />

Einmal auf dem Handy oder Tablet installiert,<br />

bündelt die App offizielle und<br />

frei verfügbare Nachrichten und Pressemitteilungen<br />

von Ministerien und Behörden<br />

aus Bund, Ländern und bisher<br />

zehn ausgewählten Städten – ungefiltert<br />

und direkt von der Quelle.<br />

Damit ist die App auch eine wichtige<br />

Informationsquelle für die Abgeordneten<br />

des <strong>Berlin</strong>er Parlaments, die<br />

Mitarbeiterinnen und Mitarbeiter der<br />

<strong>Berlin</strong>er Senatsverwaltung sowie nachgeordneter<br />

Behörden. Als Nutzer kann<br />

man das Newsangebot mit sechs thematischen<br />

und 26 regionalen Filtern gezielt<br />

an seinen persönlichen Informationsbedarf<br />

anpassen. So bleibt man einfach<br />

und schnell auf dem Laufenden, welche<br />

Themen ganz oben auf der politischen<br />

Agenda stehen und welche Informationen<br />

man zu seinem jeweiligen Arbeitsschwerpunkt<br />

kennen sollte.<br />

Die am 14. Februar <strong>2012</strong> gestartete<br />

PolitikNews-App wird mit dem Feedback<br />

der Nutzer weiterentwickelt und um<br />

weitere Regionen ausgebaut. Hervorgegangen<br />

ist die App aus einem internen<br />

Innovations-Wettbewerbs der ]init[ AG.<br />

Die Links zum Apple App Store und<br />

Android Market finden Sie auf<br />

www.init.de/politiknews-app.<br />

ANDREAS STEFFEN<br />

Innovationsmanager<br />

]init[ AG für Digitale Kommunikation <br />

2/12 46


WorkHub ermöglicht<br />

Barrierefreiheit von<br />

öffentlichen Webseiten<br />

mithilfe der Crowd<br />

Barrierefreiheit ist für alle öffentlichen<br />

Einrichtungen ein wichtiges<br />

Thema. Das Ziel, öffentliche Webseiten<br />

unabhängig von einer eventuell<br />

vorhandenen Behinderung des Besuchers<br />

für jedermann uneingeschränkt<br />

zugänglich und nutzbar zu machen,<br />

kann aus Kostengründen oft nur<br />

teilweise erreicht werden. Der Zugang<br />

zu medialen Webseiteninhalten wie<br />

Bildern bleibt beispielsweise Blinden<br />

und sehbehinderten Menschen in vielen<br />

Fällen verschlossen.<br />

Selbst bei den besten Internetauftritten<br />

können sich zudem mit der Zeit Probleme<br />

einschleichen. Wiederkehrende Aufgaben<br />

beim Import neuer Bilder, Audiooder<br />

Videoaufzeichnungen bedürfen<br />

immer wieder der redaktionellen Arbeit.<br />

Ob es nun um das Erstellen alternativer<br />

Textbeschreibungen für Bilder oder um<br />

die Transkription von Audio- oder Videoaufzeichnungen<br />

geht: Diese Aufgaben<br />

verschlingen kostbare Zeit und Ressourcen,<br />

welche der Redaktion anschließend<br />

bei der Wahrnehmung ihrer Hauptaufgaben<br />

fehlen.<br />

Das Gewicht dieses Problems wird aus<br />

den Ergebnissen einer internen Untersuchung<br />

von WorkHub deutlich. Bei über<br />

einem Drittel der untersuchten Stichprobe<br />

von 325 Webauftritten von öffentlichen<br />

Einrichtungen auf Landes- und<br />

Bundesebene waren weniger als 50 Prozent<br />

der vorhandenen Bilder mit alternativen<br />

Bildbeschreibungen versehen. Für<br />

den Fall, dass Beschreibungen vorhanden<br />

waren, wären sie zudem nur in den<br />

seltensten Fällen für tatsächlich für<br />

Sehgeschädigte hilfreich gewesen.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Dieses Problem kann nun mit Hilfe eines<br />

Spin-Off-Projektes der Humboldt-Universität<br />

zu <strong>Berlin</strong> entschärft werden:<br />

WorkHub bietet Nutzern von<br />

internetfähigen Geräten wie Smartphones,<br />

Tablets oder PCs die Möglichkeit,<br />

mit der Erledigung von Kleinaufträgen<br />

in ihrer Freizeit produktiv zu sein<br />

und Geld zu verdienen. Unter die angebotenen<br />

Kleinaufgaben fallen auch das<br />

Erstellen von alternativen Bildbeschreibungen<br />

für Webseiten sowie die<br />

Transkription von Audio- und Videoinhalten.<br />

„Die Idee ist einfach“, erläutert<br />

Anton Skornyakov,<br />

Mitgründer und<br />

Vertriebsleiter bei<br />

WorkHub. „Ein Student<br />

kann auf seinem Weg zur<br />

Universität zehn Minuten<br />

für die Erstellung von<br />

Bildbeschreibungen nutzen<br />

und sich damit ein en<br />

Nebenverdienst ermöglichen.<br />

Weil auf diese<br />

Weise viele Menschen für<br />

die Bearbeitung von Teilaufgaben<br />

innerhalb ihrer<br />

Freizeit herangezogen<br />

werden können, ist die<br />

Erstellung der Bildbeschreibungen<br />

besonders einfach, schnell und preiswert.“<br />

Das junge <strong>Berlin</strong>er Unternehmen garantiert<br />

die Qualität aller gelieferten Ergebnisse<br />

intern mithilfe eines umfangreichen<br />

Qualitätssicherungssystems. So muss ein<br />

Nutzer, der ein Webseitenbild zur Herstellung<br />

der Barrierefreiheit beschreiben<br />

möchte, zunächst im Rahmen einer Qualifikation<br />

beweisen, dass er die Besonderheiten<br />

der Aufgabe auch verstanden hat.<br />

Plagiate und andere Betrugsfälle werden<br />

durch die Algorithmen von WorkHub<br />

erkannt und zurückgewiesen. Schließlich<br />

werden durch redundantes Bearbeiten der<br />

Aufgaben sowie interne Kontrollen durch<br />

vertrauenswürdige Mitglieder der Plattform<br />

qualitativ schlechte Beschreibungen<br />

aussortiert. Am Ende entsteht eine vollautomatisierte<br />

Plattform für die Herstellung<br />

von Barrierefreiheit.<br />

Die Idee von WorkHub entstand aus<br />

dem Bedürfnis der Gründer heraus, während<br />

des Studiums Geld verdienen zu<br />

können, ohne dabei die persönliche Freiheit<br />

aufzugeben. International bekannt<br />

ist dieses Konzept unter dem Begriff<br />

„Crowdsourcing“, da für die Bearbeitung<br />

der Aufgaben eine große Ad-hoc-Gruppe<br />

von Menschen („Crowd“) genutzt<br />

wird, statt die Aufgabe einem Experten<br />

oder einer Agentur zu überlassen. Das<br />

Ob im Wartezimmer oder auf dem Weg zur Universität: Mit<br />

WorkHub lässt sich die Zeit zur Erstellung von<br />

Bildbeschreibungen nutzen<br />

Ziel von WorkHub ist es, die Beauftragung<br />

der Crowd so einfach und risikofrei<br />

wie möglich zu gestalten.<br />

Konkret benötigt es zur Erstellung von<br />

Alternativtexten für Bilder auf einer Webseite<br />

mithilfe von WorkHub nur einer<br />

Liste der URLs (Web-Adressen) der Bilder<br />

selbst sowie der Seiten, auf denen<br />

diese auftauchen, um den Kontext sichtbar<br />

zu machen. Die Liste kann beispielsweise<br />

als CSV-Datei (kommagetrennte<br />

Werte) vorliegen und über ein simples<br />

Webinterface innerhalb von wenigen<br />

Minuten an WorkHub übermittelt werden.<br />

Ergebnisse werden in der Regel innerhalb<br />

von zwei bis sieben Tagen bereitgestellt.<br />

ANTON SKORNYAKOV<br />

WorkHub<br />

<br />

2/12 47


Neue App für Online-<br />

Weltkarte OpenStreetMap<br />

Die kostenlose App „OSMapTuner“<br />

von Salzburg Research ermöglicht ein<br />

einfacheres Bearbeiten der freien<br />

Internet-Weltkarte OpenStreetMap.<br />

Navigationsgeräte, Online-Karten oder<br />

ortsbasierte Dienste - der weltweite Bedarf<br />

an ortsbezogenen Daten steigt dramatisch.<br />

Vorbei sind die Zeiten, in denen<br />

die Erfassung von Straßen,<br />

Geschwindigkeitsbeschränkungen oder<br />

Adressdaten in der Hand von Behörden<br />

oder weniger Unternehmen lag. Die freie<br />

Weltkarte OpenStreetMap - eine Alternative<br />

zu Google Maps - wird überwiegend<br />

durch freiwillige „Internet-Nutzer“ - so<br />

genannte Mapper in mühsamer Kleinarbeit<br />

erstellt. Forscher von Salzburg Research<br />

haben nun „OSMapTuner“, eine<br />

einfache, kostenlose und bislang weltweit<br />

einzigartige App zur Bearbeitung der<br />

OpenStreetMap-Daten für handelsübliche<br />

Android-Smartphones und Tablet<br />

PCs entwickelt. Mit Hilfe der App können<br />

erfahrene Mapper gezielt die Daten ihrer<br />

Umgebung direkt vor Ort kontrollieren<br />

und falls notwendig Ergänzungen oder<br />

Korrekturen durchführen. Aber auch für<br />

OpenStreetMap-Neulinge ist die App<br />

zum Kennenlernen der faszinierenden<br />

Weltkarte geeignet.<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

erweitert wird. Im Unterschied zu kommerziellen<br />

Angeboten wie z.B. Google<br />

Maps stehen die Daten der<br />

OpenStreetMap unter einer freien Lizenz<br />

und können kommerziell sowie nichtkommerziell<br />

genutzt werden. Viele Länder<br />

sind bereits nahezu vollständig abgedeckt<br />

und zahlreiche Organisationen bzw.<br />

Unternehmen nutzen bereits die Daten<br />

für ihre Anwendungen. „Um die Mapper<br />

bei ihrer täglichen Arbeit zu unterstützen,<br />

sind Software-Werkzeuge notwendig<br />

- wie die von uns entwickelte App<br />

OSMapTuner. Mit OSMapTuner wollen<br />

wir die sehr aktive OpenStreetMap-<br />

Community in der Erweiterung und<br />

Verbesserung der Weltkarte unterstützen.<br />

Wird die App von der Community<br />

verwendet, kommt uns das in unseren<br />

Forschungsprojekten, in denen wir<br />

immer häufiger die Daten nutzen, zugute.<br />

Außerdem können wir das Know-how<br />

an unsere Wirtschaftspartner weitergeben“,<br />

so Salzburg Research Geschäftsführer<br />

Univ.-Doz. Dr. Siegfried Reich.<br />

Mobile Editierhilfe für freie Online-<br />

Karte<br />

Mit der mobilen App „OSMapTuner“<br />

für Android-basierte Smartphones und<br />

Tablet PCs entwickelten die Forscher von<br />

Salzburg Research ein neuartiges Werkzeug<br />

zur Datenbearbeitung. „Mit Hilfe<br />

von OSMapTuner sind Mapper in der<br />

Lage, gezielt die Daten in ihrer Umgebung<br />

und direkt vor Ort zu kontrollieren<br />

und falls notwendig Ergänzungen oder<br />

Korrekturen durchzuführen“, so Projektleiter<br />

Mag. Sven Leitinger, Forscher und<br />

Entwickler von Salzburg Research. Die<br />

App wurde für touch-basierte Displays<br />

von Smartphones und Tablet PCs optimiert.<br />

Standardvorgaben für die Eigenschaften<br />

der erfassten Objekte ermöglichen<br />

einfaches Editieren und reduzieren<br />

sowohl die benötigte Zeit als auch die<br />

Fehleranfälligkeit. Darüber hinaus erkennt<br />

OSMapTuner automatisch fehlerhafte<br />

Einträge und markiert diese zur Überarbeitung.<br />

Dadurch können erfahrene<br />

Mapper gezielt zur Verbesserung der<br />

Datenbank beitragen.<br />

Neben dem Bearbeiten von Daten der<br />

OpenStreetMap eignet sich die Technologie<br />

generell für das mobile Bearbeiten von<br />

ortsbezogenen Daten. „Wir sehen im<br />

mobilen Bearbeiten von ortsbezogenen<br />

Inhalten einen Zukunftsmarkt, für den<br />

bisher gute Lösungen fehlen. Daher haben<br />

wir uns aus der angewandten <strong>IT</strong>- <br />

In Zeiten, in denen beinahe jeder Zweite<br />

bzw. jede Zweite stolze Besitzer eines<br />

Smartphones oder Tablet PCs sind und<br />

uneingeschränkte Mobilität und „Online<br />

zu sein“ immer mehr zur Selbstverständlichkeit<br />

wird, sind auch Online-Kartendienste<br />

gefragter denn je. Die Basis jeder<br />

Weltkarte bilden Geodaten, die möglichst<br />

realistisch und detailreich die Welt digital<br />

abbilden sollten. Während Online-Karten<br />

wie beispielsweise Google Maps oder<br />

Microsoft Bing Maps zwar kostenlos zur<br />

Verfügung gestellt werden, sind sie mit<br />

sehr restriktiven Lizenzbedingungen verknüpft.<br />

Eine Alternative ist die freie<br />

Internet-Weltkarte OpenStreetMap, die<br />

von unzähligen Freiwilligen, so genannten<br />

„Mappern“ bearbeitet und ständig<br />

Neue App aus dem Hause Salzburg Research: „OSMap Tuner“, eine einfache, kostenlose<br />

und bislang weltweit einzigartige App zur Verbesserung der OpenStreetMap-<br />

Daten für handelsübliche Android-Smartphones und Tablet PCs. Mit Hilfe der App<br />

können Mapper gezielt die Daten ihrer Umgebung direkt vor Ort kontrollieren und<br />

falls notwendig Ergänzungen oder Korrekturen durchführen<br />

2/12 48


Forschung heraus das Ziel gesetzt,<br />

neuartige Lösungen zu entwickeln und<br />

zu demonstrieren“, sagt Leitinger. „Wir<br />

haben bereits erste Anfragen von Unternehmen,<br />

die diese Technologie auch für<br />

ihre Daten einsetzen bzw. darauf aufbauend<br />

eigene Erfassungsanwendungen entwickeln<br />

wollen“, so Leitinger weiter.<br />

Einfach in der Nutzung – App auch<br />

für OpenStreetMap Einsteiger<br />

Aber auch für OpenStreetMap-Einsteiger/-innen<br />

ist die App geeignet. Auf<br />

einfache Art und Weise lässt sich mit dem<br />

Smartphone oder Tablet PC der aktuelle<br />

Erfassungsgrad der OpenStreetMap in<br />

der direkten Umgebung erkunden. Für<br />

sämtliche erfasste Objekte (z.B. Straßen,<br />

Häuser, Einrichtungen) können die zugewiesenen<br />

Eigenschaften abgerufen<br />

werden. Links zur jeweiligen Wiki-Seite<br />

ermöglichen auch ungeübten Mappern<br />

die Prinzipien dieses faszinierenden Projekts<br />

kennen zu lernen. Längerfristig sollen<br />

neue Mapper - vor allem weibliche -<br />

gewonnen werden, um einen Beitrag zur<br />

OpenStreetMap zu leisten. „Bisher liegt<br />

der Anteil an weiblichen Mappern bei nur<br />

3%. Vielleicht können Anwendungen wie<br />

OSMapTuner dazu beitragen, diesen<br />

Anteil nachhaltig zu steigern“, hofft Leitinger.<br />

Die Idee zu OSMapTuner ist in der<br />

Forschungslinie Mobile und Web-basierte<br />

Informationssysteme in Forschungsprojekten<br />

entstanden. Die Umsetzung<br />

dieser weltweit einzigartigen Anwendung<br />

wurde durch das umfassende Know-how<br />

der Forschungslinie im Bereich der<br />

Geoinformationstechnologien und mobilen<br />

Anwendungen ermöglicht. Die technologische<br />

Basis von OSMapTuner wurde<br />

im Rahmen der Initiative GI<br />

Technology Lab Salzburg entwickelt, die<br />

vom österreichischen Bundesministerium<br />

für Verkehr, Innovation und<br />

Technologie (bm:vit) gefördert wird.<br />

Weitere Infos zur App und Download:<br />

osmaptuner.salzburgresearch.at,<br />

OpenStreetMap: openstreetmap.de (PR/<br />

Salzburg Research Foschungsgesellschaft<br />

mbH)<br />

<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Wettkampf der<br />

Smartphone-Plattformen<br />

Android ist aktuell die am stärksten<br />

verbreitete Smartphone-Plattform in<br />

Deutschland. 40 Prozent aller derzeit<br />

genutzten Smartphones laufen mit<br />

dem Betriebssystem Android von<br />

Google. Vor einem Jahr waren es erst<br />

17 Prozent. Das berichtet der Hightech-Verband<br />

Bitkom. Grundlage der<br />

Daten ist eine Erhebung des Marktforschungsunternehmens<br />

comScore<br />

für den Bitkom.<br />

Betrachtet wurde der Smartphone-Bestand<br />

im ersten Quartal <strong>2012</strong> im Vergleich<br />

zum Vorjahresquartal. Auf dem<br />

zweiten Platz liegt das Betriebssystem<br />

Symbian von Nokia mit einem Anteil<br />

von 24 Prozent. Vor einem Jahr hatte<br />

Symbian den Markt mit 42 Prozent noch<br />

beherrscht. Das iPhone-Betriebssystem<br />

iOS von Apple konnte seine Position mit<br />

einem Anstieg um einen Prozentpunkt<br />

auf jetzt 22 Prozent festigen. Die Plattformen<br />

Windows Phone und Windows<br />

Mobile von Microsoft erreichen 7 Prozent<br />

Marktanteil. Zurzeit sind in Deutschland<br />

23,6 Millionen Smartphones als Erstgerät<br />

im Einsatz. Das sind 8,1 Millionen<br />

oder 52 Prozent mehr als vor einem Jahr.<br />

Laut comScore besitzen somit 41 Prozent<br />

aller Handynutzer ab 15 Jahren in Deutschland<br />

ein Smartphone.<br />

Das Betriebssystem steuert die Grundfunktionen<br />

eines Smartphones und entscheidet<br />

darüber, wie das Gerät zu bedienen<br />

ist und welche Anwendungen möglich<br />

sind. Für jede Plattform sind zahlreiche<br />

Zusatzprogramme (Apps) vorhanden,<br />

die der Nutzer auf seinem Gerät<br />

installieren kann. Aktuell gibt es weltweit<br />

rund 1,3 Millionen Apps für die unterschiedlichen<br />

Systeme. Darüber hinaus<br />

spielen beim Betriebssystem technische<br />

Fragen eine Rolle, zum Beispiel wie Datensicherungen<br />

(Backups) vorgenommen<br />

werden oder wie Aktualisierungen der<br />

Software erfolgen. Einen großen technologischen<br />

Sprung machten die Betriebssysteme<br />

vor einigen Jahren, als die Geräte<br />

von einer Steuerung per Tastatur auf eine<br />

Bedienung mit den Fingern über<br />

berührungsempfindliche Bildschirme<br />

umgestellt wurden.<br />

Methodik: Basis der Angaben ist<br />

comScore MobiLens, eine monatliche<br />

Online-Umfrage von mehr als 5.000<br />

Handy-Besitzern in Deutschland. (PR/<br />

Bitkom e.V.)<br />

<br />

2/12 49


22. bis 24. Oktober, Montreal<br />

Weltkongress für<br />

Informationstechnologie<br />

wird in Montreal<br />

stattfinden<br />

Der World Congress on Information<br />

Technology (WC<strong>IT</strong>, Weltkongress für<br />

Informationstechnologie) wird vom<br />

22. bis zum 24. Oktober im Palais des<br />

Congrès de Montréal in Montreal stattfinden.<br />

Der WC<strong>IT</strong> wird alle zwei Jahre<br />

unter der Schirmherrschaft der World<br />

Information Technology and Services<br />

Alliance (W<strong>IT</strong>SA) in einem anderen<br />

Land ausgerichtet und hat sich zum<br />

weltweit wichtigsten Treffen für<br />

Informationstechnologie entwickelt,<br />

an dem prominente Redner,<br />

massgebliche Vordenker und<br />

Führungskräfte aus aller Welt als geladene<br />

Gäste teilnehmen.<br />

Dieses Jahr wird der WC<strong>IT</strong> der Welt<br />

etwas Neues und wohl noch nie<br />

Dagewesenes bieten: Im Vorfeld des<br />

WC<strong>IT</strong> <strong>2012</strong> fand vom 5. bis 7. Juni ein<br />

„World Tech Jam“ mit 20.000 Online-<br />

Teilnehmern statt, welche ihre Ideen, Leidenschaften<br />

und Einsichten mitteilten<br />

und gemeinsam im großen Rahmen in<br />

die Entwicklung eines Aktionsplans für<br />

eine weltweite digitale Gesellschaft<br />

einfliessen ließen – eine wahre Bewegung<br />

von der Basis her. „Im Vergleich mit<br />

herkömmlichen Einbindungstechniken<br />

bieten „Jamming“ oder digitales Brainstorming<br />

etliche Vorteile“, erklärte<br />

Anthony Williams, Programmleiter des<br />

WC<strong>IT</strong> <strong>2012</strong>. „Und erstmals werden <strong>IT</strong>-<br />

Anwender von überall auf der Welt das<br />

Gespräch leiten. Dieses Ereignis wird den<br />

Anwendern eine Stimme geben - ein gewaltiger<br />

Schritt für die <strong>IT</strong>-Welt und eine<br />

absolute Neuheit.“<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Eines der Ergebnisse des Jams soll die<br />

„Digitale Agenda“ sein, welche Einfluss<br />

auf das Programm des WC<strong>IT</strong> <strong>2012</strong> haben<br />

wird. Man stelle sich diese als Aktionsplan<br />

für Chancen zur digitalen Innovation<br />

vor, der Entscheidungsträger aus verschiedenen<br />

Bereichen - von öffentlicher<br />

Verwaltung und Gesundheitswesen bis<br />

hin zu Ausbildung und Wissenschaft -<br />

informieren, inspirieren und anleiten<br />

kann. Die Digitale Agenda wird den<br />

Kongressteilnehmern, Stakeholdern der<br />

Informations- und Kommunikationstechnologie<br />

(IKT) sowie Führungspersönlichkeiten<br />

aus Regierung, Wissenschaft<br />

und Gesellschaft während der<br />

Abschlussveranstaltung des WC<strong>IT</strong> 2011<br />

vorgestellt und anschliessend der W<strong>IT</strong>SA<br />

als Werkzeug für politische Entwicklung,<br />

Bildungsinstrumente und Corporate-<br />

Citizenship-Programme vorgelegt werden.<br />

Der WC<strong>IT</strong> <strong>2012</strong> unter dem Motto<br />

„EINE Vision für eine weltweite digitale<br />

Gesellschaft“, wird eine intensive<br />

dreitägige Konferenz mit mehr als einhundert<br />

hochkarätigen Vortragenden sein<br />

und bis zu 3.000 Delegierte und 300<br />

Medienvertreter aus über 80 Ländern anlocken.<br />

Ziel der Konferenz ist es, wirtschaftliche<br />

und soziale Entwicklungen<br />

durch den Austausch von politischen<br />

Strategien, Praktiken, Trends und Ideen<br />

zur IKT zu beeinflussen. Sie wird Themen<br />

ansprechen, die die Rolle der IKT in<br />

Wirtschaft, Umwelt, Regierung,<br />

Gesundheitsbranche, Ausbildung und<br />

Mobilität zum Inhalt haben.<br />

„Der WC<strong>IT</strong> <strong>2012</strong> wird erstklassige Hauptredner<br />

mit Führungspersönlichkeiten aus<br />

Regierung, Industrie, Wissenschaft und<br />

Gesellschaft zu breit gefächerten Diskussionen<br />

zusammenbringen, in denen es<br />

darum geht, wie Informations- und<br />

Kommunikationstechnologien die heutige<br />

digitale Gesellschaft prägen und unterstützen,<br />

wobei der Anwender in den<br />

Mittelpunkt der Veranstaltung gerückt<br />

wird“, sagte Francois Morin, CEO des<br />

WC<strong>IT</strong> <strong>2012</strong>. „Er wird einem weltweiten<br />

Publikum kanadische Technik-Neuheiten<br />

vorstellen, Geschäftschancen für kanadische<br />

Unternehmer bieten und Investitionen<br />

aus dem Ausland anlocken.“<br />

Der World Congress on <strong>IT</strong> (WC<strong>IT</strong>) ist<br />

eine zweijährig stattfindende Veranstaltung,<br />

bei der Politiker, CEOs und Wissenschaftler<br />

Chancen und Möglichkeiten<br />

von <strong>IT</strong>-Anwendungen erörtern. Der<br />

Weltkongress ist eine einzigartige Zusammenarbeit<br />

zwischen der internationalen<br />

IKT-Branche, Anwendern und<br />

Regierungen. Der WC<strong>IT</strong> findet unter der<br />

Schirmherrschaft der W<strong>IT</strong>SA (World<br />

Information Technology and Services<br />

Alliance) statt. Als erstklassiger weltweiter<br />

IKT-Kongress bringt der WC<strong>IT</strong> mehr<br />

als 3.000 weltweite Führungskräfte aus<br />

Business, Regierung und Wissenschaft<br />

aus über 80 Ländern zusammen und<br />

beeinflusst so durch den Austausch von<br />

politischen Strategien, Praktiken, Trends<br />

und Ideen zur IKT die wirtschaftliche<br />

und soziale Entwicklung. Seit seiner Einführung<br />

im Jahr 1978 hat sich der WC<strong>IT</strong><br />

zum wichtigsten Treffen im Bereich der<br />

Informationstechnologie weltweit entwickelt,<br />

mit berühmten Rednern aus aller<br />

Welt. Zu den Vortragenden der Konferenz<br />

gehörten in der Vergangenheit unter<br />

anderem Bill Gates, Michael Dell, Bill<br />

Clinton, Colin Powell und Michail<br />

Gorbatschow, um nur einige zu nennen.<br />

www.wcit<strong>2012</strong>.org (PR/ WC<strong>IT</strong>)<br />

<br />

Der WC<strong>IT</strong> <strong>2012</strong> findet im Palais des Congrès de Montréal statt<br />

2/12 50


Fachbuch zu <strong>IT</strong>-<br />

Projektmanagement<br />

erschienen<br />

Anfang März ist im Düsseldorfer Verlag<br />

Symposion Publishing das Fachbuch<br />

„<strong>IT</strong>-Projektmanagement Methoden:<br />

Best Practices von Scrum bis<br />

PRINCE“ erschienen. Mit Dr. Jürgen<br />

Schmied und Dr. Karlheinz Morgenroth<br />

zählen zwei Method Park Consultants<br />

zu den Co-Autoren dieses Buches.<br />

Ihr Know-how und ihre praktischen<br />

Erfahrungen aus zahlreichen<br />

Kundenprojekten flossen in den Text<br />

ein.<br />

Der zweite Band der Fachbuchreihe „<strong>IT</strong>-<br />

Projektmanagement“ befasst sich mit den<br />

Methoden des Managements von <strong>IT</strong>-<br />

Projekten. Die Autoren erläutern bewährte<br />

und neue Ansätze verständlich und<br />

praxisnah. Neben den Basics des Projektmanagements<br />

zeigen sie den Einsatz klassischer<br />

Methoden wie PRINCE, agiler<br />

Herangehensweisen wie Scrum und<br />

qualitätsorientierter Verfahren wie Lean<br />

Six Sigma auf. Der Leser erhält Hilfestellung,<br />

wie er diese Managementmethoden<br />

zu einer individuellen Sammlung weiterentwickelt,<br />

damit sie den spezifischen<br />

Belangen seines Unternehmens gerecht<br />

wird. Den Themen „Messen, Schätzen<br />

und Bewerten“ sowie dem Gebrauch<br />

geeigneter Tools widmet das Buch jeweils<br />

eigene Abschnitte.<br />

Damit gibt dieses Fachbuch dem <strong>IT</strong>-<br />

Projektmanager ein methodisches Vorgehen<br />

an die Hand, mit dem er die Komplexität<br />

seiner Aufgaben strukturieren und<br />

seine Projekte zum Erfolg führen kann.<br />

Method Park Mitarbeiter haben in der<br />

Vergangenheit wiederholt an Fachbüchern<br />

zu unterschiedlichen Aspekten des Software<br />

und Systems Engineering mitgeschrieben<br />

oder selbst veröffentlicht.<br />

Hinzu kommen unzählige Beiträge in<br />

Fachzeitschriften. Die Autoren bei<br />

Method Park orientieren sich dabei an der<br />

unternehmerischen Praxis und an einer<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

realitätsnahen Umsetzbarkeit der dargestellten<br />

Ansätze. Über die reine Knowhow-Vermittlung<br />

hinaus wollen sie den<br />

Leser bei der Anwendung seines Wissens<br />

und dem Abgleich mit seinen Erfahrungen<br />

unterstützen. (PR/ Method Park<br />

Software AG)<br />

<br />

Bitkom mit neuen<br />

Leitfäden zu Enterprise<br />

Content Management<br />

Ein effizientes und papierloses Dokumenten-Management<br />

gewinnt für Unternehmen<br />

und öffentliche Verwaltung<br />

zunehmend an Bedeutung. Immer<br />

mehr Unternehmen entscheiden sich<br />

für Lösungen zum so genannten<br />

Enterprise Content Management<br />

(ECM). Der Umsatz mit ECM steigt<br />

nach Angaben des Hightech-Verbands<br />

Bitkom in diesem Jahr voraussichtlich<br />

um acht Prozent auf über 1,5 Milliarden<br />

Euro.<br />

Doch was steht hinter Begriffen wie DMS,<br />

Information Life Cycle Management oder<br />

elektronische Akte? Der Bitkom hat einen<br />

neuen Leitfaden zum Themenbereich<br />

ECM erstellt, der grundlegende<br />

Begriffe für <strong>IT</strong>-Anwender in den Unternehmen<br />

erklärt. In einem weiteren neuen<br />

Leitfaden geht es um den Trend zu „ECM<br />

in der Cloud“, der sich auf der weltgrößten<br />

Computermesse CeB<strong>IT</strong> im März<br />

deutlich abgezeichnet hat. „Unsere beiden<br />

ECM-Leitfäden erklären anschaulich,<br />

welche praktischen Anwendungsfälle sich<br />

hinter den Fachbegriffen verbergen“, sagt<br />

Andreas Nowottka, Vorsitzender des<br />

Kompetenzbereichs<br />

ECM<br />

im Bitkom.<br />

ECM-Technologien<br />

ermöglichen<br />

Unternehmen,<br />

die wachsende<br />

Menge an<br />

elektronischen<br />

und Papierdokumenten<br />

effizient zu managen,<br />

rechtssicher zu verarbeiten und zu speichern.<br />

Der Leitfaden „Enterprise Content Management<br />

– Überblick und Begriffserläuterungen“<br />

bereitet die Fachbegriffe auf<br />

32 Seiten verständlich für Führungskräfte<br />

und <strong>IT</strong>-Experten auf. Bei einer elektronischen<br />

Akte etwa handelt es sich um eine<br />

abteilungs- und standortübergreifende<br />

Zusammenfassung von Informationen<br />

zu einem Vorgang an einem zentralen<br />

Ort. Mitarbeiter greifen von verschiedenen<br />

Standorten auf eine solche elektronische<br />

Mappe zu, auch mit dem<br />

Smartphone. „Die komplexen technischen<br />

Vorgänge lassen sich durchaus in<br />

verständlichen Worten erklären“, sagt<br />

Nowottka. Dass es Bedarf für einen solchen<br />

Leitfaden gibt, zeigt eine Umfrage<br />

des Unternehmens Trovarit: Demnach<br />

können unter <strong>IT</strong>-Anwendern bislang nur<br />

etwa 60 Prozent den Begriff „ECM“ verständlich<br />

erklären.<br />

In dem zweiten Bitkom-Leitfaden, „ECM<br />

in der Cloud“, werden die technischen<br />

Vorgänge mit Blick auf die „Datenwolke“<br />

vorgestellt. Verantwortliche für Cloud<br />

Computing und weitere <strong>IT</strong>-Anwender<br />

sollen so einen Einblick ins Thema ECM<br />

bekommen: So wird der Frage nachgegangen,<br />

warum es sinnvoll ist, das Dokumenten-Management<br />

in die Cloud zu<br />

verlagern. „Mit dem Leitfaden können<br />

Unternehmen abwägen, ob sich ECM-<br />

Dienste in der Cloud für sie lohnen“, so<br />

Nowottka.<br />

Der Leitfaden „ Enterprise Content Management<br />

– Überblick und Begriffserläuterungen“<br />

steht unter<br />

www.bitkom.org/de/publikationen<br />

zum kostenlosen<br />

Download<br />

bereit. Den Leitfaden<br />

„ECM in<br />

der Cloud“ gibt<br />

es ebenfalls kostenfrei<br />

unter<br />

dieser Adresse.<br />

(PR/ Bitkom<br />

e.V.) <br />

2/12 51


Wenn sich Ihre Anschrift ändert,<br />

wenden Sie sich bitte an<br />

die Redaktion des <strong>SPL<strong>IT</strong>TER</strong>,<br />

Telefon 030 / 90 222-3248<br />

Nr. 2 / <strong>2012</strong><br />

Die nächste Ausgabe hat das<br />

Schwerpunktthema „Cloud<br />

Computing“ und erscheint im August.<br />

Der Redaktionsschluss ist der<br />

13. Juli <strong>2012</strong>.<br />

Wir freuen uns immer über Gastbeiträge,<br />

vor allem, wenn sie direkt<br />

aus der Verwaltung kommen und<br />

Anwendungsbeispiele beschreiben.<br />

Mailen Sie uns einfach Ihre Texte,<br />

faxen Sie sie oder rufen Sie uns an:<br />

E-Mail: Splitter@itdz-berlin.de<br />

Telefon: 030 / 90 222-3248<br />

Fax: 030 / 90 222-3112<br />

Ihre <strong>SPL<strong>IT</strong>TER</strong>-Redaktion<br />

<strong>SPL<strong>IT</strong>TER</strong><br />

Vor 20 Jahren im <strong>SPL<strong>IT</strong>TER</strong><br />

Telefax – tolle Technik mit<br />

Gefahren!<br />

„(...) Telefaxgeräte haben sich in den letzten drei<br />

Jahren in der <strong>Berlin</strong>er Verwaltung durchgesetzt und<br />

in weiten Bereichen faktisch den Fernschreiber verdrängt.<br />

Waren Mitte 1989 nur ca. 100 Telefaxgeräte<br />

im Einsatz, so stieg die Anzahl auf derzeit weit über<br />

500 Geräte.<br />

(...)<br />

Die Integration von Telefax in Datenendgeräte -<br />

sowohl PC-Fax als auch BK-Fax - werden derzeit in<br />

den Laborbereichen des L<strong>IT</strong> erprobt.<br />

(...)<br />

Bei aller Euphorie über die Vorteile von Telefax sollten die Gefahren nicht vergessen<br />

werden. Telefaxgeräte stehen regelmäßig in allgemein zugänglichen Räumen, die<br />

eigentlichen Empfänger sitzen teilweise in anderen Stockwerken. So geschieht es immer<br />

wieder, daß Telefaxe einfach in einen Eingangskorb gelegt werden und von jedem<br />

gelesen werden können.<br />

Bei besonders wichtigen Faxen ruft deshalb der Absender den Empfänger vorab an, »Ich<br />

schicke Ihnen jetzt ein Telefax«, damit der Empfänger am Faxgerät auf die Ausgabe<br />

wartet (und sich die Langeweile damit vertreibt, die anderen bereits rumliegenden, nicht<br />

für ihn bestimmten Telefaxe zu lesen). (...)“ (EB)<br />

<br />

I M P R E S S U M<br />

Herausgeber:<br />

<strong>IT</strong>-<strong>Dienstleistungszentrum</strong> <strong>Berlin</strong>, <strong>Berlin</strong>er Straße 112-115, 1O713 <strong>Berlin</strong><br />

Telefon: +49 3O 9O222-O, Fax: +49 3O 9O222-5864, V.i.S.d.P.: Konrad Kandziora<br />

Internet: www.itdz-berlin.de und im Intranet: www.itdz.verwalt-berlin.de<br />

Redaktion:<br />

Daniel Kämpfe: Tel: O3O / 9O 222-3248, E-Mail: Daniel.Kaempfe@itdz-berlin.de<br />

Pressestelle: Tel: O3O / 9O 222-6111, E-Mail: Presse@itdz-berlin.de<br />

Druck: <strong>IT</strong>-<strong>Dienstleistungszentrum</strong> <strong>Berlin</strong>, Xerox DocuColor 26O Laserdrucker, Auflage: 2.75O<br />

Gastautoren:<br />

Dr. Wolfgang Both (Senatsverwaltung für Wirtschaft, Technologie und Forschung), Prof. Dr.-Ing. Ina Schieferdecker, Florian Marienfeld, Jens<br />

Klessmann (alle Fraunhofer-Institut FOKUS), Doris Stärk (Statistisches Bundesamt), Dietmar Mothes (DLZ-<strong>IT</strong> BMVBS, Ilmenau), Henning Bredel,<br />

Simon Jirka (beide 52°North Initiative for Geospatial Open Source Software GmbH, Münster), Dipl.-Inf. Karin Patenge, Dr. Rita Engemaier (beide<br />

Oracle Deutschland B.V. & Co. KG), Dr. Lutz Rittershaus (Bundesanstalt für Straßenwesen), Lorenz Matzat (datenjournalist.de), Projektteam<br />

DiDaKat der Senatsverwaltung für Gesundheit und Soziales, icomedias GmbH, Norbert Ahrend (Humboldt-Universität zu <strong>Berlin</strong>), Martin G. Bernhard<br />

(ECG Management Consulting GmbH <strong>Berlin</strong>), Andreas Steffen (]init[ AG für Digitale Kommunikation), Anton Skornyakov (WorkHub)<br />

Fotonachweis:<br />

(EB) kennzeichnet Berichte des <strong>IT</strong>DZ <strong>Berlin</strong>, (LPD) Mitteilungen des Landespressedienstes <strong>Berlin</strong>, (PR) sonstige Pressemitteilungen<br />

Titel: Fotolia/ Mopic, S. 4: Pixelio/ Thomas Hugel, S. 5,6: Autor, S. 7: daten.berlin.de, S. 9: USAF (Public Domain), S. 1O: Fraunhofer FOKUS,<br />

S. 11: daten.berlin.de, S. 12: Pixelio/ Oliver Haja, S. 13: www.service-bw.de, S. 14: BMI, S. 15: Pixelio/ K. Brockmann, S. 16/17: Pegel Online/<br />

Autor, S. 18: Sensor-GDI/ Autoren, S. 19-21: Oracle/ Autoren, S. 22: Wikimedia Commons/ Babakathy (Public Domain), S. 24: frankfurt-gestal<br />

ten.de (cc-by-3.O), S. 25: DiDaKat/ Autoren, S. 27: NPB/ Autor, S. 29: Fotolia/ PeJo, Pixelio/ Rainer Sturm, S. 31: www.businesslocationcenter<br />

.de/wirtschaftsatlas, S. 32: Fotolia/ Andres Rodriguez, S. 33: www.dns-ok.de, S. 35: Pixelio/ Gisela Peter, S. 36: Pixelio/ Kunstart.net,S. 37:<br />

obs/Fraunhofer-Institut für Sichere Informationstechnologie S<strong>IT</strong>, S. 38: Fotolia/ Stephen VanHorn, S. 39: ECG Management Consulting GmbH/<br />

Autor, S. 4O: Fotolia/ Fineas, S. 42: Pixelio/ Schmuttel, S. 43: twitter.com, S. 44: Bitkom e.V., S. 46: ]init[ AG/ Autor, S. 47: Pixelio/ Rainer Sturm,<br />

S. 48: Salzburg Research/ Wild & Team, S. 49: Bitkom e.V., S. 5O: Wikimedia Commons/ Maurice Haddad (cc-by-sa-3.O), S. 51: Bitkom e.V.<br />

2/12 52

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!