tekom-Jahrestagung 2012 - ActiveDoc

tekom-Jahrestagung 2012 - ActiveDoc tekom-Jahrestagung 2012 - ActiveDoc

activedoc.opensuse.org
von activedoc.opensuse.org Mehr von diesem Publisher
23.11.2013 Aufrufe

tekom-Jahrestagung 2012 in Wiesbaden Zusammenfassungen der Referate

<strong>tekom</strong>-<strong>Jahrestagung</strong><br />

<strong>2012</strong><br />

in Wiesbaden<br />

Zusammenfassungen der Referate


Herausgeber: tcworld GmbH<br />

Verantwortlich: Dr. Michael Fritz<br />

Redaktion und Layout: Elisabeth Gräfe<br />

Kontakt: info@<strong>tekom</strong>.de<br />

© Copyright 10/<strong>2012</strong><br />

tcworld GmbH<br />

Rotebühlstr. 64<br />

70178 Stuttgart<br />

Fon 0711 65704-0<br />

Fax 0711 65704-99<br />

E-Mail info@<strong>tekom</strong>.de<br />

www.<strong>tekom</strong>.de<br />

Alle Rechte vorbehalten.<br />

Die Verantwortung für den Inhalt liegt bei den Autoren. Alle Abbildungen,<br />

Fotos und Grafiken stammen von den Verfassern der Beiträge,<br />

soweit nicht anders angegeben.<br />

Die Urheberrechte der Verfasser werden durch die Veröffentlichung<br />

dieses Bandes nicht berührt.<br />

Jede Vervielfältigung – auch auszugsweise – bedarf der ausdrücklichen<br />

schriftlichen Genehmigung des Urhebers.


Themen:<br />

Forum 82079<br />

CM – Content Management<br />

CS – Content Strategies<br />

HUW – Hochschule und Wissenschaft<br />

IM – International Management<br />

INF – Informationsdesign<br />

JTR – Junge Technische Redakteure<br />

KAR – Karriere<br />

KAT – Katalogerstellung<br />

LOC – Lokalisierung und Übersetzung / Localization<br />

LT – Sprachtechnologie / Language Technology<br />

MOB – Mobile Dokumentation / Mobile Documentation<br />

NORM – Gesetze, Normen, Richtlinien<br />

OTS – Offene technische Standards<br />

PKM – Personal- und Kostenmanagement<br />

Social Media<br />

TA – Professionelles Schreiben / Technical Authoring<br />

TERM – Terminologie / Terminology<br />

UA – User Assistance<br />

VISU – Visuelle Kommunikation


Inhalt<br />

Forum 82079<br />

82079/3 Roland Schmeling: IEC 82079-1: Sicherheitshinweise 15<br />

82079/4 Prof. Dr. Gertrud Grünwied: Anleitungen in<br />

elektronischen Medien 18<br />

82079/5 Dr. Gabriela Fleischer: Anleitungen für Verbraucher 20<br />

82079/6 Jens-Uwe Heuer: Rechtliche Grundlagen 22<br />

82079/7 Roland Schmeling: IEC 82079-1: Herstellung der<br />

Konformität mit dieser Norm 24<br />

Content Management<br />

CM 1 Marco Aeschimann, Dr. Alexander Mehling:<br />

Katalogproduktion bei SAUTER: Vorher und heute nach Einführung<br />

des PIM- und Redaktionssystems 29<br />

CM 2 Michael Müller-Hillebrand: Erst „Content“-Strategie, dann<br />

CMS (vielleicht) 32<br />

CM 3 Prof. Dr. Wolfgang Ziegler: Wie (gut) wird unser CMS<br />

genutzt? REx-Kennzahlen für das Content Management 36<br />

CM 4 Julia Schairer, Thiemo von Gillhaußen:<br />

Software-Dokumentation unter Zeitdruck – Oberfläche, Online-<br />

Hilfe und Handbuch aus einem Guss 38<br />

CM 5 Victor Linnemann: Revisionsprozesse im Redaktionssystem 41<br />

CM 6 Bernd Klötzl, Karsten Schrempp: Prozessoptimierung bei<br />

Putzmeister: Einführung eines Redaktionssystems mit PI-Mod und<br />

SAP-Schnittstelle 44<br />

CM 7 Ute Mitschke: Module al gusto – Dokumente<br />

maßgeschneidert modularisieren 47<br />

CM 8 Edgar Hellfritsch: Code und Texte aus Datentabellen<br />

generieren mit MS Excel 50<br />

CM 9 Mareike von der Stück, Elvis Ališic: Zwei rechts, zwei links,<br />

zwei fallenlassen – Strickmuster zur Bestandsdatenmigration 53<br />

CM 10 Lisa Pietrangeli: Selecting the Best Technology to Support<br />

Your Content Reuse Strategy 55<br />

Content Strategies<br />

CS 6 Sarah S. O’Keefe: Transforming Technical Content into a<br />

Business Asset 59<br />

CS 8 Andrew Bredenkamp: Content Quality: Three Dimensions to<br />

Creating Content that Works 62<br />

4<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


CS 11 Sarah S. O’Keefe: Building a Business Case for<br />

Content Strategy 64<br />

Hochschule und Wissenschaft<br />

HUW 1 Prof. Dr. Michael Meng: Technische Kommunikation als<br />

Forschungsgegenstand: Fragen, Ergebnisse, Perspektiven 69<br />

HUW 2 Ana Hoffmeister: Sprachtechnologie aus der<br />

Anwenderperspektive – Ergebnisse eines Forschungsprojekts 73<br />

International Management<br />

IM 1 Brian Cho, Danbi Kwak: Status of Mobile Documentation in<br />

South Korea 79<br />

IM 2 Toshimasa Yamazaki: How Japanese companies reflect the<br />

voices of customers on their products 81<br />

IM 3 Thomas Hayk: Tenders, biddings, requests for…<br />

How customers get what they really need 86<br />

IM 4 Dr. Axel Poestges: Improve the Efficiency and Quality of<br />

your Localization Management based on the Global Information<br />

Management Self Assessment 89<br />

IM 7 Tony Lee: Machine Translation in Action 92<br />

IM 8 Ivo Sturzenegger, L. Simeon: Technical writing for the<br />

machinery industry in India: a success story 95<br />

IM 9 Nicoletta A. Bleiel: Developing and Delivering Robust<br />

Sample Projects as User Assistance 98<br />

Informationsdesign<br />

INF 1 Grit Mückstein, Armin Müller: Der Speck muss weg!<br />

Schlankheitskur für das Geberit Datenmodell 105<br />

INF 2 Michael Brand: Konfigurierbare Dokumentation –<br />

Dokumentationsaufbau und Publikation bei hochvarianten<br />

Produkten 108<br />

INF 3 Margit Becher: Responsive Webdesign 112<br />

INF 4 Elke Grundmann: Variantenmanagement in der<br />

Technischen Dokumentation 116<br />

INF 6 Martin Holzmann: Minimalism neu gedacht oder was<br />

gehört eigentlich in eine Dokumentation rein? 118<br />

INF 7 Diana Fuchs, Alexander Gassmann: Unterwegs auf der<br />

eigenen Wissenslandkarte 121<br />

INF 8 Brigitte Grether: Informationsmodelle mit Hilfe von<br />

semantischen Elementen maßschneidern 125<br />

INF 10 Johannes Dreikorn, Jörg Palm: Wenn maximale Flexibilität<br />

gefragt ist: Redaktionsleitfaden für eine tagesaktuelle Support-<br />

Datenbank 127<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

5


INF 9 Dr. Britta Görs: Modularisierung 130<br />

INF 11 Pascal Kesselmark: Microsoft Batch – ein nützlicher Helfer<br />

für tägliche Routinen 131<br />

Junge Technische Redakteure<br />

JTR 1 Kirsten Brettschneider: Frauen, Männer und Technik –<br />

Bedienungsanleitungen geschlechtergerecht gestalten 135<br />

JTR 3 Ute Klingelhöfer: Projektorganisation für kleine Teams –<br />

mobil, sozial und über den Wolken 138<br />

Karriere<br />

KAR 1 Dr. Sylvia Fischer: Effektiv kommunizieren 143<br />

KAR 2 Frank Fleury: Was nun? Kreativitätstechniken für alle Fälle 145<br />

KAR 3 Heidi Wahl: Seien Sie kein Frosch! Nehmen Sie Ihr Leben<br />

in die Hand. 146<br />

KAR 4 Heidi Wahl: Tempo raus, Ruhe rein! 149<br />

Katalogerstellung<br />

KAT 1 Dr. Stefan Dierssen, Thomas Lutz: Kernaspekte und<br />

Basiskonzept zur Umsetzung eines durchgängigen ETK-<br />

Erstellungsprozesses 155<br />

KAT 2 Peter Pfalzgraf: Von PLM zum Katalog –<br />

Integrationsszenarien 160<br />

KAT 3 Rainer Börsig: Print-Katalog, Homepage und Online-Shop<br />

aus einer Quelle?! – Erfahrungen aus der Praxis 163<br />

KAT 4 Bernd Neugebauer, Robert Schäfer: Ersatzteilkataloge<br />

automatisiert erstellen mit SAP ERP und CATALOGcreator® 167<br />

KAT 5 Mike Fischer, Kevin Johnson: In einem System alle<br />

Katalogbestandteile erstellen: System-Cockpit für PIM und<br />

Technische Kommunikation 170<br />

KAT 6 Susanne Löhrer, Karsten Schrempp: Ein Atlas statt<br />

mehrerer Kataloge – eine Wegbeschreibung zum Erfolg 173<br />

Lokalisierung und Übersetzung / Localization<br />

LOC 1 Daniel Busch, Thomas Wedde: Tanz der Doubletten<br />

Skriptgestützte Analyse und Optimierung von Translation Memorys 179<br />

LOC 2 Melanie Siegel: Automatische Autorenunterstützung für das<br />

Postediting in der Maschinellen Übersetzung 182<br />

LOC 3 Dr. Brigitte Herrmann, Michael Oettli: Siemens<br />

Online Verification Tool: IT-Lösung zur Optimierung des<br />

Verifizierungsprozesses bei Siemens Healthcare 185<br />

6<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


LOC 4 Dr. Robert Wenzel: Der Widerspenstigen Zähmung:<br />

Abteilungsübergreifender QM-Prozess 187<br />

LOC 5 Jörgen Danielsen, Harald Elsen: MTM: Wie sollte eine echte<br />

Integration zwischen MT und TM aussehen? 191<br />

LOC 6 Andreas Ljungström: Möglichkeiten und Grenzen<br />

computerunterstützter Qualitätssicherung – ein Praxisvergleich 192<br />

LOC 7 Johann Plennert: Datenqualität im Ausgangstext:<br />

Formatierungsqualität unter der Lupe 195<br />

LOC 8 Richard Ishida, Christian Lieske, Jan Nelson, Felix Sasaki:<br />

Highlights, Holes in and Hopes for the “Multilingual Web” 198<br />

LOC 11 Uwe Muegge: The need for speed: How to ensure the<br />

completion of your most urgent translation projects within<br />

three days 201<br />

LOC 12 Alberto José Viralhadas Ferreira: An Organic Mechanism:<br />

Effective Localization QA in Agile Development Environments 203<br />

LOC 15 Shirley Yeng: What constitutes a healthy localization<br />

department? 206<br />

LOC 17 Uta Kreimeier: Automated monolingual term extraction<br />

through spelling check: a case study 207<br />

LOC 18 Tiene Vertriest, Eef Blommaart: Snapshot of Machine<br />

Translation 209<br />

LOC 20 Michael Carl Enderstein, Pavel Schick: Einführung von<br />

maschinellen Über setzungsprozessen in einer mittel ständischen<br />

Übersetzungsagentur 211<br />

LOC 22 Ingo Schumann, Mathan Sivaloganathan: Post-Editing<br />

maschineller Übersetzung in der Praxis 214<br />

LOC 23 Thomas Imhof: Übersetzer und Softwareentwickler<br />

verändern gemeinsam die Übersetzungsbranche 217<br />

LOC 24 Susanne Dahlén: Eight steps to get in control of quality 219<br />

LOC 25 Prof. Ana Elisa Ribeiro, Sabrina Bauer: Multimodal Texts:<br />

Reading, comprehension and writing, in Brazil and in Germany 222<br />

Sprachtechnologie / Language Technology<br />

LT 1 Binke Fiedler, Kerstin Berns: Deutschland sucht den<br />

Super‐Workflow 229<br />

LT 2 Aljoscha Burchardt, Michael Schneider: Integration von<br />

MT in den LSP‐Workflow: Eine Pilotstudie 231<br />

LT 3 Ursula Reuther: Regelbasiertes Schreiben –<br />

sprachübergreifender Ansatz oder sprachabhängige Regelwerke 234<br />

LT 4 Harald Elsen, Dr. Andrew Bredenkamp: Komplexität des<br />

Lifecycle-Managements multilingualer Inhalte 237<br />

LT 5 Stefan Kreckwitz: Informationssicherheit in<br />

Übersetzungsprozessen 240<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

7


LT 6 Horst Liebscher: Mehrwerte ohne mehr Worte:<br />

Terminologie im synergetischen Kontext von Maschine und Mensch 243<br />

LT 7 Prof. Dr. Christoph Rösener: Reif für die Prüfung? –<br />

Linguistische Verfahren zur Kontrolle von Translation Memorys 247<br />

LT 8 Richard Sikes, Melissa Biggs: Globalization Business<br />

Intelligence Analysis and Reporting Systems 251<br />

LT 12 Stephan Böhmig, Dave van den Akker: Business Intelligence<br />

in cloud-based Translation Environments 257<br />

LT 13 Nathalie De Sutter, Joachim Van den Bogaert: A (terminology)<br />

service layer for Moses SMT 260<br />

LT 14 Françoise Bajon, Christian Schwendy, Xavier Maza, Raymund<br />

Prins: MT Post-Editing: the Language Service Provider perspective 263<br />

Mobile Dokumentation / Mobile Documentation<br />

MOB 2 Martin Rüegg: RTFM (Real & Touchable Front-end Matter)<br />

Oder: Nutzer bestimmen das Was/Wie/Wann. 269<br />

MOB 3 Claudia Gerhardt, Georg Eck: Techniken, Formate und<br />

Möglichkeiten mobiler Technischer Dokumentation 270<br />

MOB 4 Aleš Chyba, Robert Erfle: Das mobile Bordbuch 273<br />

MOB 5 Andreas Volpert: Mobile First – Anforderungen an die<br />

Prozesse zur Erzeugung mobiler Dokumentation 278<br />

MOB 7 Ralph Muhsau: APPetithappen aus der Praxis: Physical<br />

World Connection und Content-Aufbereitung für mobile Doku 281<br />

MOB 8 Gyanesh Talwar, Nandini Gupta: Creating ePubs and other<br />

mobile device outputs using TCS and its point products 284<br />

MOB 9 Juergen Lumera: Is Augmented Reality the Future of<br />

Technical Documentation 286<br />

MOB 10 Martin Rüegg: RTFM (Real & Touchable Front-end Matter)<br />

Or: Users decide on What/How/When. 289<br />

MOB 11 Chris Laska: The business case for mastering liquid content 290<br />

MOB 12 Martin Häberle: Apps für Technische Redakteure 293<br />

MOB 13 Falk Aupers: 3D-visualisierte Dokumentation für Wartung,<br />

Training und Verkaufsunterstützung auf mobilen Endgeräten 295<br />

MOB 14 Georg O. Herriger: Abenteuer TecDoc: Thesen zum<br />

Paradigmawechsel in der Technischen Dokumentation 299<br />

MOB 15 Prof. Dr. Michael Bauer: Autorensysteme für mobile<br />

Anwendungen – Totgesagte leben länger 302<br />

MOB 17 Werner Hofmeister: Mobile Service-Dokumentation auf<br />

iPad, Android & Co. 305<br />

MOB 19 Dieter Gust: Technische Dokumentation auf mobilen<br />

Medien: Märchen, Mist und Möglichkeiten 308<br />

MOB 20 Jörg Ertelt: eBooks in der Technischen Dokumentation 314<br />

8<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

NORM 1 Jens-Uwe Heuer: CE-Kennzeichnung und CE-Richtlinien –<br />

Mythos und Wahrheit 319<br />

NORM 2 Abraham de Wolf: The Machine and Copyrights /<br />

Die Maschine und das Recht 322<br />

NORM 4 Jens-Uwe Heuer: Aktuelle Rechtsentwicklungen für die<br />

Technische Dokumentation 323<br />

NORM 5 Roland Schmeling: Neue ANSI Z535 – vom vernünftigen<br />

Umgang mit Sicherheitshinweisen 325<br />

NORM 6 Gerhard Lierheimer: Der „Guide“ zur Maschinenrichtlinie<br />

2006/42/EG 327<br />

NORM 7 Matthias Schulz: Podiumsdiskussion: Technische Redaktion<br />

als Normenstelle? 329<br />

NORM 8 Volker Krey: Aufbau eines CE-Managementsystems 331<br />

Offene technische Standards<br />

OTS 1 Ulrich Pelster: XML – Standard oder proprietär? 335<br />

OTS 2 Klaus-Dirk Schmitz: TBX – ein Standard für den Austausch<br />

terminologischer Daten: Anforderungen, Probleme, Verbesserungen 338<br />

OTS 3 Dr. Thomas Meinike: 3.0-Updates von XSLT und XPath auf<br />

einen Blick 341<br />

OTS 4 Dr. Thilo Buchholz, Christian Lieske: DITA für die<br />

multilinguale, modulare, multi-modale Produktion von SAP-<br />

Lerninhalten 344<br />

OTS 5 Jörg Rogge: Nachhaltige logistische Unterstützung in<br />

Zeiten des Wandels am Beispiel der ASD-Spec S1000D, S2000M<br />

und S3000L 347<br />

OTS 6 Alexander Witzigmann: HTML5 – die neue ‚Silver Bullet‘<br />

für die Verteilung technischer Information? 349<br />

OTS 7 Marijana Prusina: Mit DITA um die Welt 352<br />

OTS 8 Ulrich Isermeyer: Neue Möglichkeiten des PDF-Standards<br />

ISO 32000 in der Technischen Dokumentation 354<br />

Personal- und Kostenmanagement<br />

PKM 1 Dr.-Ing. Michael Schaffner: Wie sich die TK im Human<br />

Capital Management positionieren kann 359<br />

PKM 2 Dr.-Ing. Axel Poestges: ‚Offer to Operation‘ Dokumentation:<br />

Herausforderungen für Prozesse und Systeme der Technischen<br />

Dokumentation 363<br />

PKM 3 Stefan Magerstedt, Dirk Wilke: Outsourcing der gesamten<br />

Dokumentation 366<br />

PKM 4 Constantin Walter: Ressourcenplanung im<br />

Übersetzungsmanagement 369<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

9


PKM 5 Dr.-Ing. Michael Schaffner, Dr.-Ing. Wolfgang Sturz: Aufbau<br />

eines Kennzahlensystems für Technische Kommunikation 370<br />

PKM 6 Dr.-Ing. Axel Poestges: Ihre individuelle<br />

Standortbestimmung in Sachen Lokalisierungsmanagement 371<br />

PKM 7 Isabelle Fleury: Houston, …! Problemlösungsprozess in<br />

Dokumentation und Übersetzung 374<br />

Social Media<br />

SOCIAL MEDIA Sarah Maddox: Engaging readers in your<br />

documentation – how and why with social media 379<br />

Professionelles Schreiben / Technical Authoring<br />

TA 2 Tony Self: Working with a Style Guide within DITA 385<br />

TA 3 Jang F.M. Graat: Write less, say more – The added value of<br />

minimalism 388<br />

TA 4 Scott Prentice: EPUB3: What does it offer, and is it ready? 391<br />

TA 5 Jang F.M. Graat, Susanne Dahlén: Changing the engine<br />

without stopping the car 394<br />

TA 6 Leah Guren: The Usability of Layout: Advanced<br />

Visual Editing 396<br />

TA 7 Barbara Jungwirth: Writing for Global Audiences 398<br />

TA 8 Herbert Kaiser: Simplified Technical English – Ja oder Nein?<br />

Eine Entscheidungshilfe für Unternehmen 400<br />

TA 9 Rouven Andersson, Dr. Britta Görs: Entdeckungsbericht:<br />

Redakteure der Firma MENCK erkunden ihre Zielgruppe 403<br />

TA 10 Marc Achtelig: Do you speak Deutsch? Produkte mit<br />

englischen Benutzeroberflächen auf Deutsch beschreiben 406<br />

TA 11 Achim Götz: Mehrdeutigkeiten – finden, auflösen,<br />

vermeiden 410<br />

TA 12 Harry Stricker: Gesucht und gefunden: Premium<br />

Dokumentation verlangt Premium Index! 413<br />

TA 13 Dr. Christian Schindelin, Bernd Growek: Instruktionsdesign<br />

als Leitfaden für die Technische Redaktion bei der Erstellung von<br />

eLearnings 416<br />

TA 15 Nolwenn Kerzreho, Tony Self: Educating DITA 420<br />

TA 16 Jang F.M. Graat: Crossing the divide – Advanced techniques<br />

for conversion to structured FrameMaker 423<br />

TA 17 Andreas Baumert, Annette Verhein-Jarren: Sprachregeln<br />

und Redaktionsleitfaden 425<br />

TA 18 Nandini Gupta, Gyanesh Talwar: Technical Authoring: Zero<br />

to S1000D in 1 hour 45 minutes 428<br />

TA 19 Russ Ward: Light Programming for Technical Writers 430<br />

10<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


TA 20 Scott Prentice: Hands On with EPUBs 432<br />

TA 21 Leah Guren: Adding Value through Glossaries 435<br />

Terminologie / Terminology<br />

TERM 1 Dr. François Massion, Rainer Lotz: Terminologie für<br />

modulare Produkte am Beispiel Konica Minolta (CoLa) 439<br />

TERM 2 Bernd Lenhart, Stefan Ziesche: Terminologiemanagement<br />

für VDI-Richtlinien 442<br />

TERM 3 Dr. Rachel Herwartz, Dr. Holger Brüggemann: Mit Excel<br />

und Prüftool: Terminologieverwaltung und -prüfung konzernweit<br />

einführen 445<br />

TERM 4 Susanne Arndt: Terminologie now – und was kommt dann?! 447<br />

TERM 5 Regina Krüger: Vom Finden und unternehmensweiten<br />

Managen von Terminologie 454<br />

TERM 6 Dr. Birte Lönneker-Rodman: Terminologie zwischen<br />

normativer Referenz und deskriptiver Dokumentation 457<br />

TERM 7 Christian Stein: Von der Terminologie zum semantischen<br />

Netz: Wissensmanagement und Ontologien 460<br />

TERM 8 Blanca Nájera Villar: ECQA Certified Terminology<br />

Manger – Basic 462<br />

TERM 9 Klaus-Dirk Schmitz: Terminologische Informationen und<br />

Dienste für Spracharbeiter 467<br />

TERM 10 Christiane Jäger, Klaus Fleischmann: Terminologie –<br />

fit für die Zukunft 470<br />

TERM 11 Rainer Lotz: Unternehmen in der Terminologiefalle 474<br />

TERM 12 Lars Schiller: Auch Wörter sind Zeichen – auf der Suche<br />

nach der Vorzugsbenennung hilft die Semiotik 476<br />

TERM 14 Tamara Arndt, Dr. Rachel Herwartz: Der Terminologiekreis:<br />

Unternehmensweite Abstimmungsprozesse planen und leiten 479<br />

TERM 15 Christine Schmacht, Ilka Kurfess: Der Weg zum effizienten<br />

Terminologiemanagement 481<br />

User Assistance<br />

UA 1 Marc Achtelig: Soziale Funktionen zu verträglichen Kosten 487<br />

UA 2 Romana Oehmig, Tanja Bader: Wie nutzen die Kunden<br />

unsere Dokumentation? Interviewmethoden und Anwendungsfälle 492<br />

UA 3 Hansjörg Kögel, Age Knossen: Fahrzeugspezifische<br />

Serviceinformationen zur Optimierung des After-Sales 495<br />

UA 4 Kai Weber: Addicted to Meaning: How Good Technical<br />

Communication is Like Bad Magic Tricks 497<br />

UA 5 Ulrike Parson: Chaotic Wiki versus Structured Authoring 504<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

11


UA 6 Dr. Stefan Schnabel, Dr. Matthias Kammerer: ARIA in der<br />

Dokumentation 508<br />

UA 7 Harald Hermann: Ein Open-Source-Hilfe-Viewer<br />

zeigt es allen 511<br />

UA 8 Waltraud Winter, Uwe Reißenweber: The Cosmopolitan<br />

Information Topic 514<br />

UA 9 Nicoletta A. Bleiel: Adding Useful Interactivity to<br />

Online Help 515<br />

UA 10 Jonas Wäckerle, Mark Schubert: Nutzer- und<br />

autorenfreundliche Wikis – wie geht das? 518<br />

UA 11 Anne Hoffmann, Ann-Cathrin Mackenthun: Karteikarten<br />

und Bierdeckel: User Stories für Dokumentation und Entwicklung 521<br />

UA 12 Nicoletta A. Bleiel: Best Practices for Mobile Outputs 524<br />

UA 13 Alexander Hendrix: Business Case: Wir gestalten eine User<br />

Assistance nach strategischer Ausrichtung 527<br />

UA 14 Jonatan Lundin: Designing for the searching user: Are you<br />

still designing manuals nobody finds any answers in? 529<br />

UA 15 Alan Houser: Hands-On HTML5 532<br />

Visuelle Kommunikation<br />

VISU 1 Martin Uhrig: Adobe Captivate & HTML5:<br />

E- und M-Learning aus einem Guss!? 537<br />

VISU 2 Prof. Anja Grunwald: Ohne Worte – visuelle Vermittlung<br />

von Informationen 539<br />

VISU 3 Ralf Otto: Parallelisierung der Konstruktion und<br />

Produktkommunikation mit SolidWorks und 3DVIA Composer 542<br />

VISU 4 Dirk Meißner, Klaus Vossen: Effizienter Einsatz von Grafik<br />

und Bild in der Technischen Dokumentation 543<br />

VISU 5 Melanie Denner, Diana Fuchs: Und … Action! Wie Filme<br />

die Wissenslandschaft bereichern 547<br />

VISU 6 Mirko Schön, Ulrich Isermeyer: Erstellung, Aufbereitung<br />

und Integration von 2D-Grafiken und 3D-PDF-Modellen in<br />

technische Dokumente 549<br />

VISU 7 Thomas Schwarzer, Sven Sonntag: Illustrationen aus<br />

3D-Daten erstellen 553<br />

VISU 8 Thomas Emrich: Piktogramme selbst entwickeln 557<br />

12<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Forum 82079


Forum 82079<br />

82079/3<br />

Fachvortrag<br />

Grundlegender Ansatz<br />

Warnschilder<br />

ANSI Z535<br />

Arten von Hinweisen<br />

IEC 82079-1: Sicherheitshinweise<br />

Roland Schmeling, Schmeling + Consultants GmbH, Heidelberg<br />

Das Thema Sicherheitshinweise (die Norm spricht von „safety-related<br />

information“ – also sinngemäß „sicherheitsbezogene Informationen“) ist<br />

eine der wesentlichen Neuerungen der neuen IEC 82079-1 gegenüber<br />

der Vorgängernorm IEC 62079 von 2001.<br />

Der grundlegende Ansatz des Normungsgremiums ist dabei,<br />

−−<br />

eine Regelung zu schaffen, die der verbreiteten ANSI Z535 nicht<br />

widerspricht, so dass eine gleichzeitige Erfüllung der Anforderungen<br />

der ANSI Z535 wie auch der IEC 820791 möglich ist, und<br />

−−<br />

die Regelungen auf die prinzipiellen Punkte zu beschränken.<br />

Vor allem der zweite Punkt führt dazu, dass die Norm keinen „Style<br />

guide“ zur Gestaltung von Sicherheits- und Warnhinweisen bietet,<br />

sondern lediglich den Rahmen absteckt. Dieses Vorgehen lässt genügend<br />

Spielraum, um unterschiedliche Ansätze bei der Gestaltung zu<br />

realisieren.<br />

Darüber hinaus spielt auch die ISO 3864-2 „Graphical symbols – Safety<br />

colours and safety signs – Part 2: Design principles for product safety<br />

labels“ eine Rolle: Diese Norm steht für die internationalen Regelungen<br />

rund um Warnschilder auf Produkten. Hinsichtlich der Warnschilder<br />

verweist die IEC 82079-1 sinnvollerweise auf die ISO 3864-2. Aufgrund<br />

langjähriger Zusammenarbeit des zuständigen ISO-Gremiums mit dem<br />

Gremium ANSI Z535 sind hier bereits Vereinheitlichungen entstanden.<br />

Zu den wichtigsten Vereinheitlichungen gehören:<br />

−−<br />

Vereinheitlichte Signalworte: DANGER, WARNING, CAUTION<br />

−−<br />

gemeinsames Signalwort-Panel mit dem Gefahrenzeichen der ISO<br />

(Dreieck mit Ausrufezeichen, Schwarz auf gelbem Grund) anstelle<br />

des Gefahrenzeichens der ANSI<br />

−−<br />

Möglichkeit, ISO-Zeichen auf Warnschildern zu verwenden: Warnzeichen<br />

(schwarze Symbole im Dreieck auf gelbem Grund), Verbotszeichen<br />

(schwarze Symbole auf weißem Grund in rotem Kreis,<br />

durchgestrichen) und Gebotszeichen (weiße Symbole auf blauem<br />

kreisförmigem Grund)<br />

Mehr zu den Regeln der ANSI Z535 wird im Vortrag NORM 5 „Neue<br />

ANSI 535“ erläutert.<br />

Der zentrale Ansatz der IEC 82079-1 ist die Unterscheidung von drei<br />

Arten sicherheitsbezogener Informationen, die in der Norm geregelt<br />

werden:<br />

−−<br />

grundlegende Sicherheitshinweise („safety notes“)<br />

−−<br />

Warnhinweise („warning messages“)<br />

−−<br />

Warnschilder („product safety labels/safety signs”)<br />

Die grundlegenden Sicherheitshinweise korrespondieren mit den<br />

„grouped safety messages“ der ANSI Z535.6 und bilden im Wesentlichen<br />

das klassische Sicherheitskapitel. Die Warnhinweise werden in der<br />

ANSI Z535.6 differenziert „section safety messages“, „embedded safety<br />

messages“ und „property damage messages“. Die Warnschilder nach<br />

ISO 3864-2 regeln den Bereich, der in der ANSI Z535.4 behandelt wird.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

15


Forum 82079<br />

Die strikte Trennung der ANSI von Sicherheit für Personen und Gefahr<br />

von Sachschäden vollzieht die IEC 82079-1 nicht.<br />

Die folgende Übersicht zeigt die Hinweisarten der ANSI Z535 im Vergleich<br />

zur IEC 82079-1:<br />

Inhalte von<br />

sicherheitsbezogenen<br />

Informationen<br />

Hinsichtlich des Inhalts von Sicherheitshinweisen legt die IEC 82079-1<br />

strukturell fest, dass sowohl Sicherheitshinweise als auch Warnhinweise<br />

die Art der Gefahr, die Folgen bei Nichtbeachtung und die Maßnahmen<br />

zur Vermeidung angeben müssen. Speziell bei Sicherheitshinweisen<br />

fehlen in der Praxis häufig die Folgen bei Nichtbeachtung – diese<br />

Anforderung „hat es also in sich“.<br />

Ansonsten wird inhaltlich wenig festgelegt; die Norm verlagert sinnvollerweise<br />

die Verantwortung in den Prozess der Risikobeurteilung einschließlich<br />

der Zielgruppenanalyse. Aus diesem Prozess heraus muss<br />

über die Relevanz von sicherheitsbezogenen Informationen im Einzelfall<br />

entschieden werden.<br />

Die Norm bietet jedoch eine Liste möglicher Inhalte an, zu denen<br />

gehören:<br />

−−<br />

bestimmungsgemäße Verwendung<br />

−−<br />

Grenzen der Verwendung, beispielsweise hinsichtlich der Anwendung,<br />

Materialien, Werkzeuge oder Umgebungsbedingungen<br />

−−<br />

Schutzeinrichtungen zur Installation oder Aktivierung durch den<br />

Anwender<br />

−−<br />

persönliche Schutzausrüstungen<br />

−−<br />

Warnungen für besonders gefährdete Personengruppen, beispielsweise<br />

Kinder<br />

−−<br />

mögliche Gesundheitsrisiken<br />

−−<br />

Anforderungen an die Anwender<br />

−−<br />

Anzeichen dafür, dass das Produkt nicht mehr sicher ist, beispielsweise<br />

durch Abnutzung oder Alterung<br />

−−<br />

sichere Entsorgung<br />

−−<br />

Erklärung der Symbole, Signalworte und Warnschilder<br />

−−<br />

Warnungen vor Gefahren durch vorhersehbaren (Fehl-)gebrauch<br />

16<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Forum 82079<br />

Fazit<br />

Die neue IEC 82079-1 bietet ein solides und dennoch flexibles Gerüst<br />

für die Entwicklung konsistenter Sicherheits- und Warnhinweise in<br />

Übereinstimmung mit ANSI Z535. Erstmalig wird die Unterscheidung<br />

von Sicherheitshinweisen und Warnhinweisen auf internationaler Normungsebene<br />

eingeführt. Wesentlich für die Produktsicherheit ist jedoch<br />

auch der Inhalt von Sicherheits- und Warnhinweisen, weshalb der Prozess<br />

der Zielgruppenanalyse und Risikobeurteilung von zentraler Bedeutung<br />

ist.<br />

für Rückfragen: r.schmeling@schmeling-consultants.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

17


Forum 82079<br />

82079/4<br />

Fachvortrag<br />

Anleitungen in elektronischen Medien<br />

Prof. Dr. Gertrud Grünwied, Steinbeis Beratungszentrum Dokumentation und Usability –<br />

EVIDOC, Stuttgart<br />

Die Forderung nach der Aufbereitung und Weitergabe von Benutzerinformationen<br />

in elektronischer Form wird zunehmend lauter – sowohl<br />

von Ersteller- als auch von Nutzerseite. Verschiedene EU-Richtlinien<br />

und die offiziellen Guides dazu beschränken allerdings den Einsatz<br />

elektronischer Medien bei der Darbietung von Benutzerinformationen.<br />

Welchen Standpunkt vertritt dazu die neue Norm?<br />

Welche Formate von Medien definiert die Norm IEC 82079-1?<br />

Die Norm fasst unter elektronischen Medien alle Formate zusammen, die<br />

auf Displays anzeigbar sind. Dazu gehören Videos, in Software eingebettete<br />

Anleitungen, interaktive Multimedia-Anwendungen, Websites,<br />

Online-Hilfe-Systeme, Kontexthilfen, druckbare Handbücher in elektronischen<br />

Austauschformaten und Kollaborations-Applikationen wie<br />

Blogs und Wikis. Bei den druckbaren Anleitungen geht die Norm davon<br />

aus, dass das Layout identisch zur gedruckten Version ist, also ohne Anpassung<br />

an das Lesen am Bildschirm. Die Festlegung auf ein oder mehrere<br />

Medien für die Anleitungen sollte früh im Entwicklungsprozess der<br />

Dokumentation stattfinden.<br />

Der Mehrwert elektronischer Anleitungen<br />

Elektronische Dokumentation bietet didaktische Vorteile. Allerdings<br />

droht der Anwender mit der Komplexität und Informationsdichte überflutet<br />

zu werden. Wichtig ist darum laut Norm, dass beispielsweise<br />

Handlungsschritte auch in der korrekten Reihenfolge der Bedienung<br />

aufgeführt werden oder bei umfangreichen Arbeitsabläufen visuelle<br />

und auditive Medien das Verständnis des Benutzers unterstützen. Für<br />

sicherheitsrelevante Informationen gelten im elektronischen Bereich<br />

dieselben Anforderungen wie für Druckdokumentation.<br />

Die Norm widmet den Anforderungen an die Benutzerinteraktion in<br />

elektronischen Medien einen eigenen Absatz: expandierbare Navigationsbäume,<br />

gängige Navigationselemente und aufklappbare Abschnitte<br />

über anklickbare Zwischenüberschriften sind demnach Stand der<br />

Technik. Druckfunktionen sollten bei elektronischen Handbüchern<br />

sowie in Online-Hilfen vorgesehen sein. Wichtig sind bei Online-Hilfen<br />

und Multimedia die vielfältigen Arten von elektronischen Suchfunktionen.<br />

Falls das Produkt über Benutzungsoberflächen verfügt, müssen<br />

die Hilfe informationen weitgehend in diese integriert oder über einen<br />

Hilfe-Button direkt aufrufbar sein.<br />

Wie sollten Anleitungen in elektronischen Medien gestaltet sein?<br />

Grundsätzlich gibt die Norm vor, dass Anleitungen in Form elektronischer<br />

Medien denselben Anforderungen an Lesbarkeit, Verständlichkeit<br />

und Visualisierung unterliegen, wie sie auch für Druckdokumente in<br />

dieser Norm definiert sind. So fasst die Norm Textgrößen und Symbolhöhen<br />

für gedruckte und elektronische Formen zusammen. Die minimalen<br />

Textgrößen für Drucksachen und Display-Anzeigen betragen für<br />

beispielsweise Überschriften, Warnungen und Dezimalzahlen 12 pt und<br />

18<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Forum 82079<br />

für fortlaufenden Text 10 pt. Für die Anzeige auf mobilen Geräten und<br />

mehrfach gefaltete Broschüren werden etwas geringere Werte verlangt.<br />

Einen hohen Stellenwert nimmt die barrierefreie Gestaltung ein. Bei<br />

den multimedialen Informationen sind Audio-Dateien von Bedeutung<br />

sowie Animationen mit Untertiteln und Sprachausgaben; bei Internet-<br />

Anwendungen gelten generell die Web Content Accessibility Guidelines<br />

(WCAG) des World Wide Web Consortium.<br />

Was ist bei der Weitergabe zu beachten?<br />

Für Anleitungen, die von Websites herunterladbar sind, gibt die Norm<br />

vor, dass dies ohne Änderungen an den gängigen Betriebssystemen und<br />

Anzeigeprogrammen möglich sein muss. Benötigte Software muss unmittelbar<br />

herunterladbar sein. Der Download muss zeitlich unbegrenzt<br />

möglich sein.<br />

Ergänzung oder Ersatz der gedruckten Anleitung?<br />

Hersteller stellen sich oft die Frage, ob elektronische Informationsprodukte<br />

die gedruckten ergänzen oder gar ersetzen dürfen. Da sich die<br />

Norm auf beliebige Produkte und Dienstleistungen erstreckt, ist diese<br />

Frage nicht eindeutig zu beantworten. Die Norm verweist darauf, dass<br />

die alleinige Bereitstellung von Dokumentation in einem elektronischen<br />

Format in vielen Fällen gemäß gesetzlichen Vorschriften nicht<br />

zulässig ist. Falls die Dokumentation (legal) ausschließlich elektronisch<br />

vorhanden ist, muss dies sowie die Art des Mediums und die benötigten<br />

Anzeige programme deutlich erkennbar zum Zeitpunkt des Verkaufs auf<br />

der Verpackung angezeigt werden.<br />

Usability: Neue Anleitungen und Medien auf dem Prüfstein<br />

Welche Form der Dokumentation schlussendlich der Benutzer leicht<br />

versteht, kann laut Norm ein Usability-Test entscheiden. Gerade bei der<br />

Entwicklung neuer Anleitungen und Medien können Benutzer hilfreichen<br />

Aufschluss über Erwartungshaltungen, Nutzungsverhalten und<br />

Akzeptanz geben und damit die Qualität der medialen Informationsprodukte<br />

steigern.<br />

Kontakt: gruenwied@evidoc.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

19


Forum 82079<br />

82079/5<br />

Fachvortrag<br />

Anleitungen für Verbraucher<br />

Dr. Gabriela Fleischer, Verbraucherrat des DIN, Berlin<br />

Gebrauchsanleitungen werden gelesen!<br />

Entgegen der landläufigen Meinung lesen Verbraucher Gebrauchsanleitungen.<br />

Umfragen zeigen, dass Verbraucher in erster Linie zur<br />

Gebrauchsanleitung greifen, wenn sie ein Problem mit dem Produkt<br />

haben und eine Lösung finden wollen. Sie nutzen die Anleitungen aber<br />

auch, um gezielt Informationen nachzuschlagen oder bei der Inbetriebnahme<br />

des Produkts.<br />

Verbraucher stufen die Bedeutung der Wichtigkeit von Anleitungen als<br />

„sehr hoch“ ein bei Haushaltsgeräten, Unterhaltungselektronik, Heimwerkergeräten,<br />

Telekommunikationsgeräten und Computer-Hardware.<br />

Auch aus Sicht des Fachhandels nimmt die Bedeutung der Gebrauchsanleitungen<br />

zu, was unter anderem mit der zunehmenden Komplexität<br />

vieler technischer Geräte zusammenhängt. Je komplizierter die Bedienung<br />

und je umfangreicher die Funktionen der Produkte sind, umso<br />

wichtiger sind gut handhabbare und verständliche Anleitungen<br />

Die Gebrauchsanleitung ist „Teil“ der Produktqualität!<br />

Stiftung Warentest bewertet beispielsweise in vergleichenden Produkttests<br />

auch die Gebrauchsanleitung. Nach Aussagen des Fachhandels<br />

sollten Hersteller großen Wert auf die Qualität ihrer Anleitung legen.<br />

Die IEC 82079-1 aus Verbrauchersicht<br />

Die IEC 82079-1 stellt aus Verbrauchersicht wichtige Anforderungen<br />

und gibt gute Empfehlungen in Bezug auf Gebrauchsanleitungen. Wichtige<br />

Festlegungen enthält die 82079 unter anderem<br />

−−<br />

zu Zielgruppen: Der Grad der Beschreibung und die Einzelheiten<br />

der Informationen müssen dem Wissen und den Bedürfnissen der<br />

Zielgruppe(n) angepasst werden. Die Berücksichtigung der Bedürfnisse<br />

muss auf einer Zielgruppenanalyse basieren für die bei Verbraucherprodukten<br />

empirische Untersuchungen empfohlen werden.<br />

Unterschiedliche Informationen für verschiedene Zielgruppen müssen<br />

der jeweiligen Gruppe klar zugeordnet sein und die jeweilige<br />

Zielgruppe muss am Beginn definiert werden.<br />

−−<br />

zur Verständlichkeit: Gebrauchsanleitungen müssen in einer für die<br />

allgemeine Öffentlichkeit verständlichen Fachsprache verfasst sein.<br />

Es gibt Empfehlungen, wie der Inhalt einer Gebrauchsanleitung verständlich<br />

aufgebaut werden kann durch die Beachtung anerkannter<br />

Kommunikationsprinzipien. Bei der Anwendung von graphischen<br />

Symbolen müssen diese für die Zielgruppe der Anleitung verständlich<br />

sein. Signale und Anzeigen, die Fehler und Warnung melden,<br />

müssen verständlich und dokumentiert sein. Unvermeidbare Fachbegriffe,<br />

die für die beabsichtigte Zielgruppe nicht leicht verständlich<br />

sind, müssen aufgelistet und erklärt sein.<br />

−−<br />

zur Leserlichkeit: Eine bestmögliche Leserlichkeit wird erreicht,<br />

wenn das Verhältnis von Schriftart, Schriftgröße, Anzahl der Zeichen<br />

pro Linie und Zeilenabstand optimiert ist. Es werden Beispiele gegeben,<br />

welche Schriften und graphischen Symbole unter verschiedenen<br />

20<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Forum 82079<br />

Bedingungen (zum Beispiel Anleitungen, die bei einem Abstand bis<br />

zu 1 Meter betrachtet werden, oder Anleitungen als Informationsblätter)<br />

als Minimalgröße empfohlen werden. Angesprochen wird auch<br />

die Leserlichkeit von Anleitungen, die auf der Produktoberfläche<br />

oder Verpackungen gegeben werden.<br />

−−<br />

zur Qualität von Übersetzungen: Übersetzungen sind von Fachübersetzern<br />

oder Spezialisten, die grundlegende Kenntnisse in technischer<br />

Kommunikation haben, mit dem Fachgebiet vertraut und<br />

fließend in der ursprünglichen und der Zielsprache sind, zu verantworten.<br />

−−<br />

zum Nutzen und Einsatz von empirischen Methoden: Um herauszufinden,<br />

welche Bedürfnisse und Vorkenntnisse die Zielgruppen<br />

haben oder ob eine Anleitung die Erwartungen der Zielgruppe auch<br />

erfüllt oder verständlich ist, werden verschiedene empirische Methode<br />

empfohlen und kurz umrissen.<br />

In dieser Zusammenfassung sind nur einige Aspekte herausgegriffen.<br />

Die Norm stellt auch in anderen Bereichen wie zur konsistenten Bezeichnung<br />

und Beschreibung von Inhalten, zu sicherheitsrelevanten<br />

Informationen, zum Prozess der Planung und Vorbereitung einer Anleitung<br />

wichtige Anforderungen bzw. sie gibt Hilfestellungen, damit für die<br />

Zielgruppe „Verbraucher“ gute und verständliche Gebrauchsanleitungen<br />

erstellt werden können.<br />

Ausblick<br />

Innerhalb der Verbraucherszene werden weitere Themen/Schwerpunkte<br />

diskutiert, die aus Verbrauchersicht in der IEC 82079 zukünftig<br />

stärker berücksichtigt werden sollten. Es ist zu prüfen, wie die Bedeutung<br />

der Anleitung als wichtiger Teil der Produktqualität stärker in den<br />

Blickpunkt genommen werden kann.<br />

Quellen<br />

Verbraucherrat des DIN (Hg.): Bedienungs- und Gebrauchsanleitungen:<br />

Probleme aus Verbrauchersicht und Lösungsansätze zur Verbesserung<br />

technischer Anleitungen. Berlin, 2009<br />

Verbraucherrat des DIN (Hg.): Bedienungs- und Gebrauchsanleitungen:<br />

Folgen fehlerhafter Anleitungen am Markt und Lösungsvorschläge zur<br />

Verbesserung technischer Anleitungen. Berlin, 2010<br />

IEC 82079-1 Ed. 1.0: <strong>2012</strong>-08<br />

Preparation of instructions for use – Structuring, content and presentation<br />

– Part 1: General principles and detailed requirements<br />

gabriela.fleischer@din.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

21


Forum 82079<br />

82079/6<br />

Fachvortrag<br />

Rechtliche Grundlagen<br />

Jens-Uwe Heuer, Luther Rechtsanwaltgesellschaft, Hannover<br />

In der Praxis lässt sich z. B. aufgrund der Fragen im <strong>tekom</strong>-Webforum<br />

ablesen, dass in gewisser Hinsicht eine „Normgläubigkeit“ in der Technischen<br />

Dokumentation herrscht. In Bezug auf die rechtlichen Anforderungen<br />

und den Zusammenhang zur neuen IEC 82079 sind daher einige<br />

Erläuterungen über die Hintergründe und Zusammenhänge zu geben.<br />

Vertragsrecht und IEC 82079<br />

Aus Sicht des Vertragsrechts ist vom Verkäufer geschuldet, dem Käufer<br />

eine taugliche Benutzerinformation zur Verfügung zu stellen. Die<br />

Vertragsparteien sind grundsätzlich frei, über spezifische Vorgaben im<br />

Vertrag genau zu definieren, wie diese Benutzerinformation zu gestalten<br />

ist. In der Regel wird davon jedoch kein Gebrauch gemacht.<br />

Fehlen ins Einzelne gehende vertragliche Vorgaben, bleibt auf den gesetzlichen<br />

Rahmen zurückzugreifen. Danach wird ein Produkt geschuldet,<br />

das den üblichen Beschaffenheitsvorgaben entspricht.<br />

Eine wesentliche Quelle für die „übliche Beschaffenheit“ sind technische<br />

Normen. An dieser Stelle würde bei der Bewertung der Benutzerinformation<br />

auf die IEC 82079 zurückgegriffen. Sind wichtige in dieser<br />

Norm enthaltene Vorgaben, z. B. zur Analyse der Zielgruppe, nicht beachtet<br />

und stellt der Verkäufer in diesem Sinne „unverständliche“ Benutzerinformation<br />

zur Verfügung, so führt dies zum Gewährleistungsfall.<br />

In erster Linie bleibt dann nachzuerfüllen und z. B. eine taugliche<br />

Benutzerinformation nachzuliefern.<br />

Gelingt dies nicht, ist der Käufer frei, vom Vertrag zurückzutreten.<br />

An dieser Stelle bleibt auf Folgendes hinzuweisen: Der Verkäufer kann<br />

sich hier nicht von der Verantwortung mit dem Argument freizeichnen,<br />

die Benutzerinformation sei Sache des Herstellers. Rechtlich ist der<br />

Verkäufer in der Verpflichtung gegenüber dem Käufer. Er hat wiederum<br />

durch vertragsrechtlichen Rückgriff auf den Hersteller sicherzustellen,<br />

dass er eine taugliche Benutzerinformation erhält. Besteht dazu allerdings<br />

keine Möglichkeit, z. B. weil zwischenzeitlich die Ansprüche des<br />

Verkäufers gegenüber dem Hersteller aus Mängelgewährleistung verjährt<br />

sind, so bleibt der Verkäufer in der Verpflichtung gegenüber dem<br />

Käufer und muss auf eigene Kosten eine taugliche Benutzerinformation<br />

zur Verfügung stellen.<br />

Produkthaftung und IEC 82079<br />

Nach Produkthaftung schuldet der Hersteller eine Benutzerinformation,<br />

die in der Lage ist, beim Gebrauch des Produktes Sachgefahren<br />

oder die Gefahr von Körperschäden zu verhindern. Maßstab hierzu<br />

ist der Stand von Wissenschaft und Technik. Dies führt zu folgender<br />

Erkenntnis:<br />

Die Einhaltung technischer Normen genügt hier nicht, um den Anforderungen<br />

gerecht zu werden. Technische Normen gelten nämlich als<br />

anerkannte Regeln der Technik. Es ist durchaus nicht selten, dass bei<br />

Veröffentlichung der Norm diese bereits veraltet ist, weil durch wissenschaftliche<br />

Untersuchungen bereits andere Verfahren oder Methoden<br />

22<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Forum 82079<br />

entstanden sind. An diesen neuen Erkenntnissen hat sich der Hersteller<br />

auszurichten. Er darf nicht dabei auf dem Stand der Normen verharren.<br />

In diesem Sinne wird die IEC 82079 auch nur das untere Level dessen<br />

sein, was die Benutzerinformation tatsächlich zu leisten hat. In der<br />

Realität wird die 82079 allerdings auch nicht entscheidend sein, wenn<br />

es um die Frage geht, ob eine taugliche Benutzerinformation entstanden<br />

ist. Gradmesser für die Tauglichkeit ist vielmehr, ob alle Risiken,<br />

die in der Risikoanalyse ermittelt worden sind, auch in der gebotenen<br />

Art und Weise Berücksichtigung gefunden haben. Hinzu kommt eine<br />

sachgerechte Berücksichtigung der Kenntnisse der Nutzergruppe und<br />

auch Einschluss des Produktfehlgebrauchs. An dieser Stelle lässt sich<br />

festhalten, dass vom Hersteller eine individuelle Analyse gefordert ist<br />

und die Arbeit am jeweiligen Einzelfall. Dabei mag die IEC 82079 eine<br />

der Grundlagen bilden. Der bloße Verweis auf die Einhaltung der Norm<br />

genügt indessen nicht.<br />

Produktsicherheitsrecht und IEC 82079<br />

Im Kern hat das Produktsicherheitsrecht dieselbe Ausrichtung wie das<br />

Produkthaftungsrecht. In Bezug auf die IEC 82079 bleibt allerdings abzuwarten,<br />

ob diese Norm dem Bestand an Normen zugehören wird, bei<br />

dem die Einhaltung der grundlegenden Sicherheitsanforderungen im<br />

Sinne von § 3 ProdSG vermutet wird („Konformitätsvermutung“). Wahrscheinlich<br />

werden allerdings die Marktüberwachungsbehörden durchaus<br />

auf diese Norm zurückgreifen, um die Qualität einer Benutzerinformation<br />

zu bewerten. Dies war bereits Praxis bei der Vorgängernorm, der<br />

62079. In diesem Sinne wird der IEC 82079 eine faktische Bedeutung<br />

zukommen.<br />

Mit anderen Worten: Hält ein Unternehmen die IEC 82079 nicht ein bzw.<br />

kann ein Unternehmen nicht nachweisen, dass die IEC 82079 bei der<br />

Entstehung der Technischen Dokumentation Berücksichtigung findet,<br />

so wird eine Marktüberwachungsbehörde Zweifel daran haben, ob das<br />

Thema „Produktsicherheit“ in dem Unternehmen beherrscht wird.<br />

für Rückfragen: jens.heuer@luther-lawfirm.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

23


Forum 82079<br />

82079/7<br />

Fachvortrag<br />

Checkliste?<br />

Hilfspersonal?<br />

Abschließender<br />

Anforderungskatalog?<br />

Präzise Anforderungen?<br />

IEC 82079-1: Herstellung der<br />

Konformität mit dieser Norm<br />

Roland Schmeling, Schmeling + Consultants GmbH, Heidelberg<br />

Angesichts der ohnehin hohen und weiterhin gestiegenen Bedeutung<br />

der IEC 62079 und damit der zu erwartenden Bedeutung der<br />

IEC 82079‐1 stellt sich zu Recht die Frage, wie die Konformität mit der<br />

Norm sichergestellt werden kann.<br />

Die Norm widmet der Beantwortung dieser Frage eigens das Kapitel 7.<br />

In diesem Kapitel sind wichtige Aussagen enthalten, die mit einigen<br />

Fehlverständnissen der Vergangenheit aufräumen.<br />

Bisher herrschte die Meinung vor, dass eine Checkliste ausreicht, um<br />

eine Anleitung gegen die Anforderung der Norm zu prüfen. Das ist<br />

falsch.<br />

Richtig ist, dass ein fundiertes Verständnis der gesamten Norm unabdingbar<br />

ist, um eine Prüfung nach der Norm durchführen zu können.<br />

Bisher herrschte die Meinung vor, dass mit Hilfe der Checkliste auch<br />

„Hilfspersonal“ in der Lage ist, die Prüfung nach der Norm durchzuführen.<br />

Auch dies ist falsch.<br />

Richtig ist, dass die Prüfung einer Anleitung nach der Norm eine der<br />

höchsten Anforderungen an die Qualifikation der Prüfer stellt. Die Qualifikation<br />

von Verantwortlichen für die Informationsentwicklung wird<br />

in der Norm erstmalig beschrieben (Kapitel 4.2). Dabei werden Attribute<br />

wie „Experte“ und „Spezialist in der technischen Kommunikation“<br />

verwendet.<br />

Bisher herrschte die Meinung vor, dass es einen abschließenden Katalog<br />

an Anforderungen gibt, den eine Anleitung erfüllen muss. Das ist<br />

falsch.<br />

Richtig ist, dass die Norm fordert, dass die spezifischen Anforderungen<br />

an eine konkrete Anleitung im Einzelfall zunächst recherchiert werden<br />

müssen. Dabei geht es nicht nur um produktspezifische Normen, sondern<br />

auch um „weichere“ Faktoren wie die Zielgruppenanalyse und die<br />

Risikobeurteilung.<br />

Damit kommen jedoch auch Aspekte des Informationsentwicklungsprozesses<br />

in den Fokus einer Konformitätsprüfung. Ein seriöses Prüfprogramm<br />

für die Konformität muss folgerichtig auch den Erstellungsprozess<br />

hinterfragen.<br />

Bisher herrschte die Meinung vor, dass die normativen Anforderungen<br />

an eine Anleitung präzise definiert sind oder zumindestens präzise definiert<br />

werden können. Das ist falsch.<br />

Richtig ist, dass die Norm den Prüfprozess als subjektiv beschreibt.<br />

Die Prüfung nach der Norm besteht danach in einer Beurteilung durch<br />

einen Experten anhand der Kriterien der Norm mit dem Ergebnis weitgehend<br />

subjektiver Optimierungsvorschläge. Dem liegt die Erkenntnis<br />

zugrunde, dass Informationsqualität nicht in gleicher Weise gemessen<br />

werden kann wie beispielsweise die Entflammbarkeit eines Kabels oder<br />

die Größe eines möglicherweise verschluckbaren Kleinteils.<br />

24<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Forum 82079<br />

Anleitung pur?<br />

Fazit<br />

Literatur<br />

Diese Tatsache stellt hohe Anforderungen an beispielsweise Prüfhäuser,<br />

die entsprechende Prüfungen anbieten. Hier sollte bei der Wahl<br />

eines externen Prüfpartners auf entsprechende Prüferfahrung geachtet<br />

werden.<br />

Bisher herrschte die Meinung vor, dass eine Anleitung allein auf Basis<br />

der Anleitung geprüft werden kann. Das ist falsch.<br />

Richtig ist, dass die IEC 82079-1 zwingend die Prüfung der Anleitung<br />

zusammen mit dem Produkt vorschreibt. Dass dies sinnvoll ist, muss<br />

wohl nicht weiter ausgeführt werden.<br />

Erstmalig setzt sich die Norm ausführlicher mit der Konformitätsprüfung<br />

auseinander und trifft Aussagen auf einer realistischen Basis. Bei<br />

der unternehmensinternen Prüfung auf Konformität sollte den Umständen<br />

Rechnung getragen werden, dass eine hohe Qualifikation, angepasste<br />

Prüfprogramme, dokumentierte Standards, geregelte Prozesse<br />

und eine konstruktive interne Kommunikation zwischen Prüfer und<br />

Redakteur wie auch in der gesamten Redaktion wesentliche Faktoren<br />

für den Erfolg mit Blick auf die angestrebte kontinuierliche Verbesserung<br />

sind.<br />

Roland Schmeling: Qualitätssicherung etablieren – Abläufe und Mittel<br />

von Qualitätsmanagement in der Technischen Redaktion, in: Technische<br />

Kommunikation 05/12<br />

für Rückfragen: r.schmeling@schmeling-consultants.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

25


Content Management


Content Management<br />

CM 1<br />

Partnerpräsentation<br />

Katalogproduktion bei SAUTER:<br />

Vorher und heute nach Einführung<br />

des PIM- und Redaktionssystems<br />

Marco Aeschimann, Fr. Sauter AG, Schweiz, Basel<br />

Dr. Alexander Mehling, Noxum GmbH, Deutschland, Würzburg<br />

SAUTER sorgt weltweit als führender Lösungsanbieter von Gebäudeautomation<br />

in „Green Buildings“ für gute Klimaverhältnisse in Lebensräumen.<br />

Zur Umsetzung der Ziele in der Produktkommunikation hat<br />

SAUTER ein PIM- und Redaktionssystem eingeführt. Damit wurden die<br />

inhaltliche Qualität, die Kosten und Termintreue bei der Erstellung von<br />

Katalogen und Technischer Dokumentation, im Übersetzungsprozess<br />

und bei der Beschickung des Webportals mit Produktinformationen<br />

optimiert.<br />

Dieser zweite Vortrag zu dem Projekt von SAUTER und Noxum zeigt<br />

die Veränderungen und Ergebnisse in der Katalogproduktion, die die<br />

System einführung bewirkt hat. Er stellt und beantwortet Fragen wie<br />

„Werden Kunden nun bei Produktauswahl und Bestellung besser unterstützt?“<br />

Dazu werten die Referenten die Qualität in der Produktkommunikation<br />

sowie das Feedback aus dem eigenen Haus und der Kunden<br />

aus.<br />

Systemeinführung: Erwartungen und Erfahrungen<br />

SAUTER definierte seine Erwartungen an und Ziele für das zukünftige<br />

Redaktionssystem. Die Herausforderung lag in der Erstellung und<br />

Produktion des Katalogs in mehreren Sprachen für unterschiedliche<br />

Zielgruppen. Produktbeschreibung, technische Datentabellen, Anwendungssituationen<br />

für jedes Produkt und jede Sprache sollten immer<br />

genau die gleiche Informationsarchitektur und ein identisches Layout<br />

haben.<br />

Die Umsetzung der Anforderungen gelang: Das PIM- und Content Management<br />

System von Noxum stellt die zentralen Systemfunktionen wie<br />

Benutzerverwaltung, Rechte- Versions-, Übersetzungsmanagement und<br />

Datenablage sowie die Kopplung von den Drittsystemen PDM/PLM,<br />

Web-CMS und TMS bereit. Es gibt Workflows zu Datenpflege, Übersetzung,<br />

Publikation, für Planungs-Tools werden die Daten bereitgestellt.<br />

Auf einer Bedienoberfläche und aus einem System heraus werden<br />

nahtlos die Aufgaben des Product Information Management und Content<br />

Management umgesetzt. Durch Übersetzungsmanagement und<br />

die Anbindung von Translation Memory Systemen reduzieren sich die<br />

Aufwände für die Übersetzungsprojekte spürbar. Die vollautomatische<br />

Katalogproduktion ermöglicht ohne Risiko Last-Minute-Änderungen an<br />

Preisen und technischen Daten.<br />

Veränderungen in der Katalogproduktion<br />

Der Nutzen der Systemeinführung lässt sich anhand der Veränderungen<br />

in der Katalogproduktion aufzeigen. Dazu stellt sich die Frage, ob<br />

die Produktinformationen nun schneller fertig werden. Die Antwort<br />

lautet „Ja, viel schneller“: Durch die Datenkonsolidierung und die<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

29


Content Management<br />

Erstbefüllung des Systems wurden die Inhalte standardisiert. Daraus<br />

ergeben sich die Möglichkeiten der Mehrfachverwendung der Produktdaten,<br />

Texte, Bilder und Informationseinheiten. Es können außerdem<br />

konsequent einheitliche Layouts genutzt werden. Diese Faktoren<br />

führen zu erheblicher Beschleunigung der Katalogerstellungsprozesse<br />

und noch dazu zur Qualitätssteigerung.<br />

Mit der Verbesserung in der Katalogproduktion gehen die Verbesserungen<br />

in der Technischen Dokumentation einher. Auch hier haben sich<br />

Erstellungszeit, Übersetzungszeit und Publikationszeit wie erwartet<br />

entwickelt. Es gilt zu ermitteln, inwiefern sich das Projekt auf das ganze<br />

Unternehmen positiv ausgewirkt hat, d. h. auch, inwiefern Produkte<br />

zukünftig schneller auf dem Markt positioniert werden können. Die<br />

Entwicklungen in den nächsten Quartalen werden hierauf die Antwort<br />

liefern.<br />

Auch Veränderungen der Print-Auflage der Kataloge werden sich in<br />

Zukunft abzeichnen. Noch setzen die SAUTER Kunden auf den gedruckten<br />

Katalog, und der erscheint bisher ein Mal im Jahr. Es ist zu<br />

erwarten, dass sich die Nutzer in Zukunft den allgemein sich verändernden<br />

Nutzungsgewohnheiten anpassen und vermutlich verstärkt<br />

auf das digitale Medium umsteigen. Dann könnte sich die Print-Auflage<br />

reduzieren und Druckkosten eingespart werden.<br />

Käme z. B. die Anforderung nach häufigeren Katalogpublikationszyklen<br />

auf SAUTER zu, könnten diese erfüllt werden. Die Automatisierung und<br />

Prozessoptimierung in der Katalogproduktion, definierte Workflows und<br />

die stetige Datenpflege und Übersetzungsmanagement würden eine<br />

Publikation quasi per Knopfdruck ermöglichen.<br />

Projektergebnis und Ausblick – Aufbruch in der Produktkommunikation<br />

Die Anforderungen an die Technische Redaktion und die Katalogproduktion<br />

waren nicht mehr mit „Adhoc-Arbeit“ zu meistern. Mit der Systemimplementierung<br />

und Datenkonsolidierung wurde der Wandel von<br />

Adhoc-Arbeit hin zu kontinuierlicher Content-Pflege und damit einer<br />

quasi „Adhoc-Publikationsbereitschaft“ geschafft.<br />

Die Systemeinführung brachte bei der Redaktion erstmals auch ein<br />

gemeinsames Verständnis der PIM-Prozesse. Das konsistente Datenmodell<br />

im PIM-System ermöglicht schnell und einfach Publikationsplanungen.<br />

SAUTER kann jetzt auch von der erheblichen Verkürzung<br />

der Produktionszeiten bei den zielgruppenorientierten Publikationen<br />

profitieren.<br />

Zusätzlich ist eine deutliche Qualitätssteigerung in der Produktkommunikation<br />

– wohlgemerkt bei reduzierten Kosten – zu beobachten. Die<br />

Qualitäts- und Kostenvorteile sind auch in jeder weiteren crossmedialen<br />

Publikation der Produktkataloge zu erwarten und bereits bei der<br />

Publikation der Online-Kataloge spürbar geworden.<br />

Das PIM-System erfährt nicht nur die Akzeptanz der Nutzer aus dem<br />

eigenen Hause: Es unterstützt auch die Kunden. Sie profitieren bei<br />

ihrer Bestellung durch bessere, verständlichere Produktinformationen<br />

und schnellere Auffindbarkeit. Zusätzlich können sie mit Smart phones<br />

z. B. über die QR-Codes aus dem Print-Katalog die entsprechenden<br />

Zusatzinformationen auf der SAUTER Website in der jeweiligen<br />

30<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Sprachversion aufrufen. Die Interessenten gelangen dann direkt zu den<br />

Datenblättern und den ergänzenden technischen Unterlagen.<br />

Die Unterstützung des Vertriebs durch das PIM-System schlägt sich inzwischen<br />

in einer erfreulichen Umsatzentwicklung nieder. Die Kunden<br />

führen ihre Bestellungen selbständig durch, es kommen wenige Rückfragen<br />

und der Service konnte deutlich entlastet werden.<br />

Informationsservice: QR-Codes im Produktkatalog bieten den<br />

Direktzugang zur Online-Produkteseite<br />

für Rückfragen:<br />

marco.aeschimann@ch.sauter-bc.com<br />

mehling@noxum.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

31


Content Management<br />

CM 2<br />

Workshop<br />

Erst „Content“-Strategie,<br />

dann CMS (vielleicht)<br />

Michael Müller-Hillebrand, DOCUFY GmbH, Bamberg<br />

Bevor auch nur an die Einführung eines Redaktionssystems gedacht<br />

werden kann, sollte eine klare Strategie bezüglich des Umgangs mit<br />

Inhalten vorliegen. Das umfasst neben Erzeugung, Verteilung und Kontrolle<br />

des „Content“ auch die Kenntnis des „Business Case“. Im Bereich<br />

der Technischen Kommunikation ist Dokumentation niemals Selbstzweck,<br />

sondern muss sich geschäftlich rechtfertigen wie alle anderen<br />

Entscheidungen auch. Auf der Basis dieses Wissens lassen sich die<br />

Kriterien für die Auswahl eines CMS leichter und präziser definieren<br />

und gewichten.<br />

Inspiriert zur Beschäftigung mit diesem Thema wurde ich durch die<br />

Webseite http://www.contentstrategy101.com und das im September<br />

<strong>2012</strong> dazu erschienene Buch „Content Strategy 101“ von Sarah S.<br />

O’Keefe and Alan S. Pringle. Vielen Dank!<br />

Warum Strategie?<br />

Was ist eine Content-Strategie?<br />

Es geht hierbei nicht um die Art und Weise der Strukturierung von<br />

Inhalten, es geht nicht um DITA und/oder andere Strukturierungsverfahren.<br />

Es geht darum, wie Sie die notwendigen Inhalte – den „Content“<br />

– erstellen, verteilen und kontrollieren, um die damit zusammenhängenden<br />

geschäftlichen Ziele zu erreichen. Es geht um den Plan zur<br />

Erzeugung, Verteilung und Kontrolle von Inhalten.<br />

Es geht in der Technischen Kommunikation – schon dieser Begriff impliziert,<br />

dass es um mehr geht als einfach „ein Handbuch zu schreiben“<br />

– seit einigen Jahren um ziemlich komplexe Dinge:<br />

––<br />

die Bedürfnisse internationaler Märkte<br />

––<br />

kürzere Entwicklungszyklen<br />

––<br />

mehr Produktvarianten oder individuell konfigurierte Produkte<br />

––<br />

zunehmende gesetzliche Anforderungen<br />

Um dem gerecht zu werden, reicht es nicht, einfach nur zu „schreiben“,<br />

der große Blick für die Zusammenhänge ist gefordert. Und ohne die<br />

richtige Strategie bleibt die Technische Dokumentation ein lästiger Kostenfaktor,<br />

statt ein wichtiger Wert für das Unternehmen zu sein. Denn<br />

es geht darum,<br />

––<br />

auch internationale Märkte mit jeweils den richtigen Inhalten zu<br />

versorgen,<br />

––<br />

die Kosten des technischen Support zu senken,<br />

––<br />

die Kundenzufriedenheit zu stärken,<br />

––<br />

die gesetzlichen Anforderung mit minimalem Aufwand zu erfüllen<br />

und nicht zuletzt:<br />

––<br />

die Kosten für die Informationserstellung zu senken.<br />

Bei den Kosten dürfen nicht nur interne und externe Aufwände zu<br />

Buche schlagen, sondern auch positive Effekte wie das Vermeiden von<br />

Risiken oder eine bessere Position im Wettbewerb müssen eingerechnet<br />

werden.<br />

32<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Reifegrad der<br />

Content-Erstellung<br />

Wesentliche Vorteile<br />

Aspekte verschiedener<br />

Szenarios<br />

Beispiel für Strategien<br />

Die Bandbreite an Strategien reicht von der Nicht-Strategie bis zum<br />

bloßen Erfüllen rein regulatorischer Anforderungen. Letztlich geht es<br />

nicht um großartige Literatur, sondern um die optimale Balance von<br />

Anforderungen und Kosten.<br />

In der Annahme, dass Sie bereits erkannt haben, „etwas muss sich ändern“,<br />

können Sie davon ausgehen, dass Kosten entstehen werden. Diese<br />

Kostenschätzungen müssen Sie den Einsparungen gegenüberstellen,<br />

um einen brauchbaren Business Case zu erhalten.<br />

Ein wichtiger Einflussfaktor ist der Punkt, von dem Sie starten. Sarah<br />

O’Keefe und Alan Pringle sprechen vom „Reifegrad der Content-Erstellung“:<br />

––<br />

Ebene 1: Mist auf der Seite. Vielleicht etwas grob formuliert, aber gemeint<br />

ist der völlige Mangel an inhaltlicher und formaler Konsistenz<br />

in den Inhalten – vielleicht abgesehen vom vorgedruckten Papier mit<br />

Firmenlogo …<br />

––<br />

Ebene 2: Layoutvorgaben. Es werden Layoutstandards eingehalten,<br />

aber es gibt eine Vielzahl von Methoden, um das zu erreichen.<br />

––<br />

Ebene 3: Template-basierend. Die Erfassung von Texten und Grafiken<br />

sowie deren Formatierung erfolgt nach Regeln, die ein konsistentes<br />

Erscheinungsbild ergeben.<br />

––<br />

Ebene 4: Strukturierte Inhalte. Hier folgen auch die Inhalte einer<br />

vorgegebenen Strukturierung, was in der Regel XML bedeutet. Alle<br />

Informationen sind vorhersehbar und konsistent strukturiert.<br />

––<br />

Ebene 5: Inhalte in einer Datenbank. Die Inhalte einer Datenbank<br />

können „auf interessante Art und Weise gesucht und manipuliert<br />

werden“.<br />

Lösungen der Ebenen 1 oder 2 sind nicht ausreichend. Und nicht jede<br />

Firma benötigt eine Lösung der Ebene 5, aber je größer die Differenz<br />

zwischen der gegenwärtigen und der benötigten Ebene ist, desto größer<br />

ist die Herausforderung.<br />

Konsistenz bei der Erstellung der Informationen führt zu Konsistenz<br />

beim Leser und damit zur Steigerung des Vertrauens in das Produkt.<br />

Beschleunigung der Produktionsprozesse bedeutet eine aktuellere Informationen,<br />

die damit oft auch relevanter für die Anwender sind.<br />

Automatisierte Formatierung schließlich reduziert die Kosten für jede<br />

Version jedes Medienobjekts in jeder Sprache. Multiplizieren Sie das<br />

einmal aus.<br />

Die konkreten Bedürfnisse jeder Firma sind hoch individuell und es<br />

gibt keine Patentlösung. Aber jenseits der Lieferung von PDF-Dokumenten,<br />

die für den Druck gestaltet wurden, sollten Sie folgende Möglichkeiten<br />

in Betracht ziehen:<br />

––<br />

Konvertierung bestehender Inhalte nach HTML<br />

––<br />

Inhalte vereinfachen, so dass eine Konvertierung nach HTML möglich<br />

wird<br />

––<br />

Verzicht auf individuelle Formatierungen<br />

––<br />

Einsatz von Open Source Tools („free, but not cheap“)<br />

––<br />

Wechsel von PDF zu HTML als führendes Format, PDF-Erstellung<br />

durch Konvertierung<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

33


Content Management<br />

Berücksichtigung<br />

der Kosten<br />

––<br />

Wechsel zu Topic-orientierter Erstellung<br />

––<br />

Schulung der Mitarbeiter zum Topic-orientierten Schreiben<br />

––<br />

Stücklisten-gesteuerte Dokument-Erstellung<br />

––<br />

Effizienter Review-Prozesses, z. B. durch Topic-Orientierung<br />

––<br />

Verbesserung der Zusammenarbeit zwischen Technischer Redaktion<br />

und Support<br />

––<br />

Optimierte Zusammenarbeit mit dem Übersetzungsdienstleister<br />

––<br />

Schulung der Mitarbeiter, um übersetzungsfreundliche Texte zu erstellen<br />

––<br />

Einsatz eines „Author Memory“ Tools<br />

––<br />

Automatisches Layout ohne manuelle Eingriffsmöglichkeiten, oder<br />

zumindest „heavy templatized“<br />

––<br />

Mitverwendung vorhandener Daten aus anderen Quellen (Datenbanken)<br />

Zu diesen konzeptonellen Überlegungen kommen noch ganz konkrete<br />

Kosten:<br />

––<br />

Lizenzkosten: Berücksichtigen Sie auch Folgejahre (Wartungskosten)<br />

und Änderungen bei der Anzahl der benötigten Lizenzen.<br />

––<br />

Migration: Es gibt verschiedene Methoden mit mehr oder weniger<br />

hohem Anteil externer Kosten.<br />

––<br />

Schulungen: Neue Werkzeuge und vor allem neue Prozesse werden<br />

nur dann effektiv sein, wenn die Beteiligten wissen, wie sie richtig<br />

eingesetzt werden.<br />

––<br />

Beratung: Sind Sie Spezialist für den Entwurf einer Content Strategy?<br />

In vielen Fällen lassen Sie sich besser helfen.<br />

––<br />

Spätere Optimierungen: Nach der Ersteinrichtung werden Sie voraussichtlich<br />

weiteres Optimierungspotential erkennen.<br />

Um keine bösen Budget-Überraschungen zu erleben, schätzen Sie auf<br />

der Kostenseite eher großzügig.<br />

Wie lassen sich diese Strategien auf CMS abbilden?<br />

Eine Lösung der Ebene 5 verlangt den Einsatz eines CMS oder Redaktionssystems.<br />

Der Einsatz eines Web-CMS ist oft nicht ausreichend, da<br />

diese Systeme in der Regel nicht für die Wiederverwendung von Inhalten<br />

entworfen sind.<br />

Wenn Sie sich davon verabschieden können, jedes Dokument manuell<br />

nachbearbeiten zu müssen, können Sie den offensichtlichsten Gewinn<br />

beim Einsatz eines CMS einstreichen: vollautomatische Formatierung!<br />

Damit erhalten Sie auch ein konsistentes Erscheinungsbild aller Ausgabeformate,<br />

also die Ebenen 2 und 3 inklusive.<br />

Da diese Systeme heutzutage alle XML-basiert arbeiten, sind die Vorteile<br />

der Ebene 4 bereits eingeschlossen. Wie stark semantisch die Inhaltsstruktur<br />

sein muss, entscheidet sich nach anderen Kriterien.<br />

Aber über all das hinaus bietet Ihnen ein CMS aufgrund der Verfügbarkeit<br />

von automatisch ermittelten und manuell gesetzten Metadaten<br />

noch weitergehende Automatisierungsmöglichkeiten, wie die erwähnte<br />

Dokumentationsgenerierung aufgrund externer Daten z. B. aus dem<br />

Bestellwesen. Aber solche Optimierungen kommen oft erst im zweiten<br />

Schritt und müssen sich dann erneut einer Business-Case-Betrachtung<br />

unterwerfen.<br />

34<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Gehen Sie es an!<br />

Analysieren Sie die Technische Dokumentation in Ihrem Hause, klären<br />

Sie, ob damit die geschäftlichen Ziele erreicht werden. Und wenn Sie<br />

Änderungsbedarf ermitteln, gehen Sie ganz nüchtern an die Zahlen.<br />

Ganz egal, ob am Ende das Budget für die von Ihnen favorisierte Lösung<br />

steht, ob es ein Redaktionssystem sein darf oder nur kleine Effizienzsteigerungen<br />

an der bestehenden Umgebung: Gehen Sie es an!<br />

für Rückfragen: mmh@docufy.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

35


Content Management<br />

CM 3<br />

Fachvortrag<br />

Wie (gut) wird unser CMS genutzt?<br />

REx-Kennzahlen für das Content Management<br />

Prof. Dr. Wolfgang Ziegler, Hochschule Karlsruhe, Fakultät Informationsmanagement und<br />

Medien, Studiengang Kommunikation und Medienmanagement<br />

Die Argumentation für die Einführung von Content-Management-<br />

Systemen (CMS) basiert in der Regel auf der effizienten Wiederverwendung<br />

von modularen Inhalten. Auf dieser beruhen zudem die<br />

erwünschten Einsparungen bei internen Bearbeitungszeiten von Dokumentationen<br />

sowie von externen Dienstleistungen wie der Übersetzung<br />

von Content. Allerdings werden bisher kaum systematische Untersuchungen<br />

betrieben, wie die CMS in der Praxis langfristig genutzt<br />

werden.<br />

Für quantitative Analysen wurden bereits grundlegende Definitionen<br />

von Kennzahlen für die Technische Dokumentation und für entsprechende<br />

Dokumentationsprojekte eingeführt [1]. Für die Untersuchung<br />

und Darstellung der speziellen Arbeitsweise innerhalb der Content-<br />

Management-Systeme wurde darüber hinaus eine spezifische Kennzahlensystematik<br />

erarbeitet [2]. Die Kennzahlen können über CMSspezifische<br />

Mechanismen mit Hilfe eines Standard-XML-Formates<br />

exportiert und ausgewertet werden [3]. Dieses Format wurde als<br />

Report-Exchange-Format (REx) definiert [4]. Die (R)Exporte enthalten<br />

dabei u. a. die Basisinformationen zur Wiederverwendung von Content.<br />

Die Auswertungen liefern daraus statistische Nutzungskennzahlen<br />

zur Wiederverwendung und Visualisierungen der relevanten Größen.<br />

Die REx-Methodik ist damit ein Ausgangspunkt für ein internes CMS-<br />

Monitoring und für branchenweite CMS-Studien. In einer ersten Phase<br />

wurden bisher (R)Exporte aus Produktivsystemen verschiedener Anbieter<br />

erstellt und ausgewertet.<br />

Die Vorabergebnisse dieser Kennzahlen zeigen u. a. die real vorliegenden<br />

Wiederverwendungen. Hierbei ergibt sich im Maschinenbau häufig<br />

eine effiziente Wiederverwendungsrate von 80–100 % bezogen auf den<br />

Inhalt von Dokumenten. Die (Wieder-)Verwendungszahl der einzelnen<br />

Module streut dabei stark und liegt in der Regel bei nur einem Bruchteil<br />

aller Dokumente. Deutlich zu erkennen ist die häufig postulierte (inverse)<br />

Abhängigkeit der Modulgröße von der Wiederverwendungshäufigkeit<br />

von Modulen.<br />

Insgesamt kann mit der REx-Methodik eine Vielzahl von Mittelwerten,<br />

Verteilungen und Korrelationen von Größen ermittelt werden, die für<br />

eine Darstellung und Optimierung der Arbeitsweise mit einem CMS<br />

hilfreich sind. Zudem stellt die REx-Methodik auch aus wissenschaftlicher<br />

Sicht ein Instrument für die Weiterentwicklung der Content-Management-Konzepte<br />

und für branchen- oder produktbezogene Benchmarks<br />

dar.<br />

36<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Literatur<br />

[1] Straub D., Grau M., Fritz M.: „101 Kennzahlen für die Technische<br />

Kommunikation“, <strong>tekom</strong>, Stuttgart (2008)<br />

[2] Ziegler W.: „Metrische Untersuchung der Wiederverwendung im<br />

Content Management“, Hochschule Karlsruhe (2008)<br />

[3] Oberle C.: „Kennzahlen für das Content Management – Auswertung<br />

und Visualisierung von Daten im Report Exchange Format (REx-Format)“,<br />

Master-These Hochschule Karlsruhe (2010)<br />

[4] http://www.home.hs-karlsruhe.de/~ziwo0001/rex/intro.html<br />

für Rückfragen: wolfgang.ziegler@hs-karlsruhe.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

37


Content Management<br />

CM 4<br />

Partnerpräsentation<br />

Software-Dokumentation unter<br />

Zeitdruck – Oberfläche, Online-Hilfe<br />

und Handbuch aus einem Guss<br />

Julia Schairer, Dürr Dental AG, Bietigheim-Bissingen<br />

Thiemo von Gillhaußen, Fischer Computertechnik GmbH, Radolfzell<br />

Software-Anleitungen stellen das Redaktionsteam immer wieder vor<br />

neue Herausforderungen: Zeitnah zum Code-Freeze der Software muss<br />

die Anleitung sowohl als kontextsensitive Online-Hilfe als auch als<br />

Handbuch bereitgestellt werden.<br />

Der Vortrag zeigt, welchen Weg die Technische Redaktion und die Software-Entwicklung<br />

von Dürr Dental für die neue Software-Generation<br />

gemeinsam gehen, um die Software-Oberfläche und Anleitungen effizient<br />

und hochwertig zu erstellen.<br />

PDF-Handbuch in<br />

18 Sprachen<br />

Software-Texte<br />

vom Entwickler<br />

Ausgangspunkt<br />

Das Medizintechnik-Unternehmen Dürr Dental entwickelt und produziert<br />

neben verschiedensten Geräten auch Software, z. B. eine Imaging-<br />

Software, mit der Röntgen- und Videobilder erstellt, verwaltet und bearbeitet<br />

werden können. Die Anwender der Software sind Zahnärzte und<br />

Zahnarzthelferinnen.<br />

Das Handbuch mit rund 170 Seiten und ca. 300 Screenshots wurde<br />

bisher in InDesign in 18 Sprachen erstellt und im PDF-Format mit<br />

wenigen Sprungmarken in die Software eingebunden. Die Erstellungszeit<br />

des Handbuchs war auf den Testzeitraum der Software (6 Wochen)<br />

begrenzt. Deshalb wurden die Screenshots nur in Deutsch und Englisch<br />

erstellt und die Sprungmarken, die manuell in die einzelnen PDFs eingepflegt<br />

werden mussten, auf ein Minimum begrenzt.<br />

Die Oberflächen-Texte der Software erstellten die Software-Entwickler<br />

während der Programmierung, auf Konsistenz und Verständlichkeit<br />

wurde dabei nur marginal geachtet. Die Lokalisierung erfolgte durch<br />

Export und Import von Excel-Tabellen.<br />

Mit der neuen Software-Generation, einer vollständigen Neuentwicklung,<br />

und der Einführung des XML-Redaktionssystems TIM-<br />

RS ® Professional stiegen auch die Ansprüche und Wünsche an die<br />

Software-Dokumentation.<br />

Anleitungen mit XML erstellen<br />

Im Redaktionssystem TIM-RS ® Professional erfolgt die Erfassung redaktioneller<br />

Inhalte vollständig auf Basis von XML. Damit werden die Inhalte<br />

Layout-neutral erfasst, unabhängig von deren Weiterverarbeitung.<br />

Aus der gemeinsamen Datenbasis werden heute sowohl InDesign-Dokumente<br />

(PDF) als auch die neue Software-Hilfe als HTML-Applikation<br />

mit Navigation, Suche und Index in das Format XLIFF publiziert.<br />

38<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Mit Sprungmarken gezielt helfen<br />

Von der Software-Entwicklung wird zu jedem (Teil-)Screen eine interne,<br />

sprechende ID vergeben, die den Teil der Software eindeutig<br />

identifiziert.<br />

Der Redakteur kennzeichnet beim Erstellen der Dokumentation die<br />

beschreibenden Module in der Dokumentstruktur mit diesen IDs<br />

(HelpID).<br />

Bei der Publikation der Software-Hilfe wird die Dokumentstruktur<br />

anhand der HelpIDs aufgeteilt. Für jede HelpID wird in der fertigen<br />

Software-Hilfe eine eigene HTML-Seite erstellt.<br />

In der späteren Anwendung hat der Benutzer die Möglichkeit, zu jeder<br />

Zeit die Hilfefunktion zu nutzen. Diese sucht mittels der HelpID die<br />

entsprechende kontextbezogene HTML-Seite und zeigt diese an.<br />

Screenshots erstellen, verwalten und verwenden<br />

Parallel zur Software-Entwicklung werden bereits vorläufige Screenshots<br />

vollautomatisch generiert. Über eine spezielle Importfunktion<br />

werden diese „Platzhalter“ frühzeitig in das Redaktionssystem importiert<br />

und verwendet.<br />

Nach Fertigstellung und Lokalisierung der Software werden die finalen<br />

Screenshots in 21 Sprachen generiert. Die Platzhalter werden dann<br />

automatisch überschrieben und in den XML-Modulen aktualisiert.<br />

Über diesen Mechanismus ist es auch möglich, die Sprachvarianten<br />

hinzuzufügen und zu aktualisieren. Bei bereits freigegebenen Grafiken<br />

wird eine neue Version erzeugt, wodurch die Vorgängerversion sofort<br />

veraltet.<br />

Software-Texte: Entwicklersprache verständlich machen<br />

Einen wichtigen Einfluss auf die Bedienbarkeit einer Software haben<br />

die Texte der Software-Oberfläche, die eindeutig, verständlich und<br />

konsistent sein sollen. Deshalb werden die Texte der neuen Software-<br />

Generation von der Technischen Redaktion bearbeitet.<br />

Die Software-Entwickler unterbreiten zunächst einen Vorschlag in<br />

„Entwicklersprache“, der aufgrund des internationalen Teams deutsch<br />

oder auch englisch sein kann. Daraus entwickelt der Technische Redakteur<br />

die deutschen Texte, die anschließend in die verschiedenen Sprachen<br />

übersetzt werden.<br />

Als Austauschformat für die Software-Texte dient das standardisierte<br />

XLIFF-Format, das im Translation-Memory-System Transit NXT mit konsistenter<br />

Terminologie und in einem einheitlichen Workflow übersetzt<br />

wird. Für den Kontext der Texte in der Software erhält der Technische<br />

Redakteur zusätzlich eine HTML-Datei mit Screenshots und dazugehörigen<br />

Texteinträgen.<br />

Paralleler<br />

Erstellungsprozess<br />

Zeit sparen und Qualität verbessern<br />

Da die Software in Modulen aufgebaut und entwickelt wird, kann der<br />

Technische Redakteur parallel zur Software-Entwicklung arbeiten. Sobald<br />

ein Software-Modul freigegeben ist, werden sowohl die Software-<br />

Texte als auch die Anleitung für dieses Modul erstellt und übersetzt.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

39


Content Management<br />

Screenshots in<br />

allen Sprachen<br />

Bessere Sprungmarken<br />

Verschiedene<br />

Publikationen<br />

Statt die Screenshots mühsam einzeln zu erstellen, werden die automatisch<br />

erstellten Screenshots rasch in die Anleitung eingebunden und<br />

aktualisiert. Der Software-Anwender profitiert von Screenshots in seiner<br />

Sprache.<br />

Durch die einmalige Zuordnung der Sprungmarken in der XML-Dokumentstruktur<br />

entfällt die manuelle Nacharbeit der fertigen Software-<br />

Hilfe in allen Sprachen. Dadurch können, mit wenig Aufwand, viele<br />

Sprungmarken gesetzt und die Effizienz der kontextsensitiven Hilfe<br />

verbessert werden.<br />

Aus der layout-neutral erstellten Anleitung werden mehrere Formate<br />

publiziert. Somit können die Vorzüge verschiedener Medien (kontextsensitive<br />

HTML-Applikation und PDF als gesammeltes Nachschlagewerk)<br />

ohne zusätzlichen Aufwand genutzt werden.<br />

Ausblick<br />

Die erste Software von Dürr Dental mit der neuen Umsetzung der Hilfe<br />

wird 2013 auf den Markt kommen. Die Umsetzung weiterer Wünsche ist<br />

geplant:<br />

Eine Referenzierung der Software-Texte in den XML-Bausteinen soll<br />

sicherstellen, dass die zitierten Texte in der Software-Hilfe immer dem<br />

aktuellen Stand der Software entsprechen.<br />

Kurze Videosequenzen sollen für die „Ersten Schritte“ in die Software-<br />

Hilfe integriert werden, um dem Anwender einen leichteren Einstieg in<br />

die Software zu verschaffen.<br />

Mittels Filterung der XML-Inhalte abhängig von der Publikation werden<br />

aus einer Dokumentstruktur verschiedene Publikationen mit unterschiedlichen<br />

Informationstiefen erstellt.<br />

Kurzfristig wurde bereits eine zusätzliche Anforderung, die im Rahmen<br />

von Geräte-Neuentwicklungen entstanden ist, umgesetzt: Eine Hilfe, die<br />

auf der Bedienoberfläche (Touchscreen) eines Gerätes integriert wird.<br />

Dabei wird die gleiche Technik verwendet. Zum Einbinden der Hilfe in<br />

die Firmware erfolgt die Publikation im XLIFF-Format mit eingebettetem<br />

HTML.<br />

für Rückfragen:<br />

schairer.j@duerr.de<br />

Gillhaussen@fct.de<br />

40<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

CM 5<br />

Fachvortrag<br />

Externe Faktoren<br />

Interne Faktoren<br />

Revisionsprozesse im Redaktionssystem<br />

Victor Linnemann, neo communication ag, Kreuzlingen, Schweiz<br />

Einleitung<br />

Das neue Redaktionswerkzeug wurde eingeführt und initial befüllt. Alle<br />

Inhalte sind freigegeben, übersetzt, fachlich und terminologisch einwandfrei.<br />

Nun beginnt die Uhr zu ticken: Nach und nach verwandeln<br />

sich die wertvollen Inhalte trotz Freigabe in fragwürdige, revisionsbedürftige<br />

Objekte …<br />

Nicht die Inhalte verändern sich bzw. verlieren ihren beschreibenden<br />

Wert, sondern der durch sie beschriebene Teil der realen Welt verändert<br />

sich und relativiert den Wert der konkreten, ihn beschreibenden<br />

Inhalte.<br />

Externe Faktoren, die eine inhaltliche Revision notwendig machen, sind<br />

neben Veränderungen in der zu beschreibenden Produktewelt auch<br />

Änderungen in der Terminologie und der Übersetzung der Inhalte. Auch<br />

Veränderungen an Redaktionsleitfäden, Richtlinien und Normen können<br />

als Verursacher umfangreicher Revisionen festgemacht werden.<br />

Daneben gibt es interne Gründe, warum die Inhalte in einem Redaktionssystem<br />

revisionsbedürftig sein können: Das Single Source Prinzip<br />

wurde nicht konsequent angewendet, es wurde mangels Prüfautomatismen<br />

gegen Strukturregeln verstoßen, Dokumente wurden per Massenimport<br />

im Rahmen einer Migration ins Redaktionssystem importiert<br />

u.s.w.<br />

Motivation und Fragestellung<br />

Der zu diesem Vortrag führende Gedanke war ursprünglich, unterschiedlichen<br />

Textsorten in einem Redaktionssystem spezifische Haltbarkeitsintervalle<br />

zuzuordnen. Ein Marketingtext verfällt ein Jahr nach<br />

der letzten Änderung, ein Modul des Typs Allgemein hält sich unbegrenzt,<br />

das Verfallsdatum eines Technischen Datenblatts orientiert sich<br />

an den Entwicklungszyklen des Unternehmens. Aus diesen Metadaten<br />

könnte ein projektbezogener Report generiert werden, der dem Redakteur<br />

zusätzliche Informationen bei der Wiederverwendung von Modulen<br />

bietet. Denn „redaktionell freigegeben“ und „in aktueller Übersetzung<br />

vorliegend“ sind Zustände eines Moduls im Redaktionssystem, die<br />

nicht mit den dynamischen Veränderungen der Sachverhalte der realen<br />

Welt synchronisiert sind. Wenn sich diese Veränderungen aber zyklisch<br />

ereignen, dann kann ein solcher Report zumindest annäherungsweise<br />

abbilden, welche Module genauer betrachtet werden sollten.<br />

Die zuerst befragten Redakteure waren der Auffassung, dass ein solches<br />

Regelwerk ihnen keine wertvollen Informationen liefern kann, weil<br />

schlussendlich jeder Redakteur „seine“ Module genau kennen sollte,<br />

andererseits bestand die Befürchtung, dass sie mit dem Überprüfen der<br />

„abgelaufenen“ Module lediglich eine zusätzliche, zeitfressende Aufgabe<br />

erhalten würden.<br />

Daraufhin wurde die Fragestellung erweitert, um sinnvolle(re) Anwendungen<br />

für automatisiert erstellte Revisionslisten in Redaktionssystemen<br />

zu finden: Welche Technologien bieten sich aktuell an, um den<br />

Revisionsprozess im Redaktionssystem zu unterstützen?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

41


Content Management<br />

Statische und<br />

dynamische Kennzahlen<br />

Kennzahlen und<br />

Interaktion<br />

Kennzahlen<br />

Die Anwendung des Single Source Prinzips mit dem Redaktionssystem<br />

kann durch die Analyse der relationalen Bezüge der Module und Ressourcen<br />

untereinander geprüft werden. Das Messen der Wiederverwendungshäufigkeit<br />

von Modulen und kleineren Einheiten kann Aufschluss<br />

über die zu erwartende Kostensenkung im Dokumentationsprozess und<br />

die mitunter entstehende höhere Konsistenz der im Redaktionssystem<br />

komponierten Texte geben. Die wohl bekannteste Methodik zur Ermittlung<br />

von Kennzahlen für den redaktionellen Prozess im deutschsprachigen<br />

Raum ist REx.<br />

Die Analyse liefert zunächst statische Kennzahlen zur Verwendungshäufigkeit<br />

von Modulen und Wörtern. Eine naheliegende Erweiterung<br />

der Auswertungsmethodik bestünde darin, den zeitlichen Verlauf der<br />

Wiederverwendungen im Redaktionssystem nachzuzeichnen, um<br />

Trends in der Anwendung des Systems erkennen und steuernd eingreifen<br />

zu können.<br />

Die Zielgruppe für statische und dynamische Kennzahlen scheint recht<br />

eindeutig die Redaktionsleitung zu sein. Den Redakteur in seinem<br />

Umfeld unterstützt das zunächst wenig. Indessen lassen sich die auf<br />

Wiederverwendung ausgerichteten Kennzahlen auch so auswerten,<br />

dass der Redakteur genau diejenigen Module in einer Trefferliste versammelt<br />

findet, die in seinem Projekt nur ein einziges Mal verwendet<br />

werden. Umgekehrt kann ein gewisser Argwohn gegenüber stereotyp in<br />

jeder Bedienungsanleitung vorkommenden Inhalten sehr gesund sein.<br />

Die Auswertung der Kennzahlen erfolgt in diesem Fall nicht grafisch<br />

(Informationscockpit), sondern in der Form einer hierarchisch gegliederten<br />

Modulliste. Über diese kann der Redakteur dann relativ einfach<br />

diejenigen Inhalte aufsuchen, die er genauer betrachten möchte.<br />

Optimierung der Wiederverwendung durch Ähnlichkeitssuche<br />

Redaktionssysteme bieten, wenn Technische Dokumentation im Fokus<br />

des Anbieters steht, oft Schnittstellen zu einer Autorenunterstützung an.<br />

Bei der Translation-Memory-gestützten Variante werden die im Translation<br />

Memory gespeicherten und indizierten Übersetzungseinheiten in<br />

der Ausgangssprache durchsucht, um dann während des Schreibens im<br />

Editor per Suche im Hintergrund ähnliche Sätze und Phrasen im Vergleich<br />

zu dem soeben Geschriebenen in einer Trefferliste anzuordnen.<br />

Das Einfügen eines Satzes aus der Liste anstelle der soeben geschriebenen<br />

Variante kann die Übersetzungskosten reduzieren und die Textkonsistenz<br />

erhöhen.<br />

Eine Redaktionssystems-gestützte Autorenunterstützung bietet den<br />

großen Vorteil, dass sich nicht nur Sätze aus Inhalten des Redaktionssystems<br />

wiederverwenden lassen, sondern auch die Module, aus denen<br />

sie stammen.<br />

Die Implementierung einer Ähnlichkeitssuche auf der technischen<br />

Grundlage der (vorhandenen) Autorenunterstützung liefert Revisionslisten,<br />

die dem Redakteur helfen, redundant vorhandene oder ähnliche<br />

Module zu identifizieren und zusammenzuführen.<br />

42<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Prüfung gegen den Redaktionsleitfaden<br />

Regeln mit Bezug auf die Makrostruktur (Teilbäume) und die Mikrostruktur<br />

(strukturierter Inhalt) lassen sich oft formal fassen. Ein XMLbasierter<br />

Standard, der über die mit DTD und XML Schema prüfbaren<br />

Strukturen hinaus kombinierte Tests von Struktur, Inhalt und Metadaten<br />

ermöglicht, ist ISO Schematron. Die Implementierung setzt entweder<br />

eine API für das Navigieren im Repository voraus, oder das auszuwertende<br />

Dokument muss im XML-Format vorliegen.<br />

Eine entsprechende Revisionsliste könnte z. B. diese Treffer enthalten:<br />

––<br />

Handlungsanweisungen mit mehr als n Handlungsschritten<br />

––<br />

Überschriften, die mit einem Artikel beginnen<br />

––<br />

veraltete Module (siehe unter „Motivation und Fragestellung“)<br />

––<br />

falsch komponierte Dokumente (die gegen die DTD valide sind)<br />

Terminologieprüfung im Hintergrund<br />

Die Prüfung der Inhalte auf die Einhaltung vorgegebener Terminologie<br />

setzt voraus, dass verbotene Benennungen und Synonyme miterfasst<br />

werden. Allerdings funktioniert Terminologieerkennung nicht bei allen<br />

bzw. nicht zuverlässig bei einigen Sprachen (inflektierende Sprachen,<br />

zu geringe Ähnlichkeit beim Stemming u.s.w.). Beim Aufbau einer entsprechenden<br />

Revisionsliste ist darauf zu achten, dass Terminologieänderungen<br />

in der Ausgangssprache nicht zwangsläufig zu Änderungen in<br />

der jeweiligen Zielsprache führen (es gibt alle drei Kombinationen). Bei<br />

allen Einschränkungen ergibt sich aber auch hier eine sinnvolle Revisionsliste.<br />

Die Implementierung setzt derzeit die Kopplung von Systemen<br />

unterschiedlicher Anbieter voraus.<br />

Fazit<br />

Die Unterstützung von Revisionsprozessen im Redaktionssystem ist<br />

teilweise mit Bordmitteln, teilweise über die Implementierung offener<br />

Standards mit überschaubarem Aufwand realisierbar. Speziell Tests gegen<br />

die weichen Regeln des Redaktionsleitfadens und die Optimierung<br />

der Wiederverwendung durch Ähnlichkeitssuche können nach Meinung<br />

des Autors einen wertvollen Beitrag zu Textqualität und Kostenentwicklung<br />

leisten. Einzelne Entwicklungsprojekte laufen bereits. Darum:<br />

Augen auf beim Messebesuch!<br />

Literaturhinweise und Links<br />

Report Exchange Format (REx):<br />

http://www.home.hs-karlsruhe.de/~ziwo0001/rex/intro.html<br />

(Homepage von Prof. Dr. W. Ziegler)<br />

ISO Schematron: http://www.schematron.com/<br />

für Rückfragen: victor.linnemann@neo-comm.ch<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

43


Content Management<br />

CM 6<br />

Partnerpräsentation<br />

Prozessoptimierung bei Putzmeister:<br />

Einführung eines Redaktionssystems<br />

mit PI-Mod und SAP-Schnittstelle<br />

Bernd Klötzl, Putzmeister Concrete Pumps GmbH, Bodnegg<br />

Karsten Schrempp, PANTOPIX GmbH & Co. KG, Aichtal<br />

Es ist ein alter Traum, im variantenreichen Sondermaschinenbau aus<br />

einer Maschinenkarte oder Fertigungsstückliste adäquate Technische<br />

Dokumentation zu erzeugen. Wir zeigen, wie wir das bei Putzmeister für<br />

Betonpumpen umgesetzt haben.<br />

Ausgangslage<br />

Variantenvielfalt<br />

Die Herausforderung<br />

Die Ausgangslage ist einfach: Für eine Betonpumpe gibt es eine optionale<br />

Funktion, repräsentiert durch eine Baugruppe, z. B. die Spülwasserpumpe.<br />

Je nach Typ der Betonpumpe, z. B. fahrbar oder stationär,<br />

unterscheidet sich die Art des Einbaus. Damit gibt es Unterschiede in<br />

Detailfunktionen in der Bedienung und bei der Wartung. Anspruch und<br />

Stand der Redaktion ist die auftragsspezifische Dokumentation.<br />

Bei alleine über 20 Typen fahrbarer Betonpumpen mit etwa hundert<br />

kombinierbaren Optionen und kundenspezifischen Erweiterungen<br />

ergibt sich damit eine Variantenvielfalt, die aus dem augenscheinlichen<br />

Serienprodukt eine Sondermaschine macht.<br />

Ziele des Projekts<br />

––<br />

Das bestehende, auf Quicksilver und einer MS Access-Datenbank<br />

basierende Redaktionssystem sollte abgelöst werden.<br />

––<br />

Es sollte weiterhin die auftragsspezifische Dokumentation erstellt<br />

werden können, bei einer Reduktion des dazu notwendigen Aufwands.<br />

––<br />

Es sollte ein Redaktionskonzept entwickelt werden, das basierend<br />

auf einem oder mehreren Maximaldokumenten und mit intelligenten<br />

Filtermechanismen zu einer Vereinfachung und Beschleunigung der<br />

Redaktions- und Publikationsprozesse führt.<br />

––<br />

Die Filter sollten über eine Schnittstelle zu SAP auftragsspezifisch<br />

beliefert werden.<br />

––<br />

Während des Projekts ergab sich eine Erweiterung des Projekts von<br />

einem Geschäftsbereich (PCP, Betonpumpen, Sondermaschinen) auf<br />

zwei weitere Geschäftsbereiche (Putzmeister Mörtelmaschinen, weitgehend<br />

Serienmaschinen, und Putzmeister Solid Pumps, Anlagenbau),<br />

die beide mit möglichst identischen Prozessen in der Nutzung<br />

des Redaktionssystems integriert werden sollten.<br />

––<br />

Das neue System mit seinen Prozessen sollte übersichtlich und handhabbar<br />

bleiben.<br />

Der Auswahlprozess für das Redaktionssystem erfolgte nach den üblichen<br />

Standards und ist nicht Gegenstand dieses Vortrags. Es wird COSI-<br />

MA PI-Mod von Docufy eingesetzt.<br />

44<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Konzept<br />

Das Gesamtkonzept wurde über eine Diplomarbeit vorbereitet. Sie zeigte<br />

auf, dass bei der Einführung einer entsprechenden Materialklassifikation<br />

in der Stückliste und einer passenden Modularisierung im CMS<br />

die Erstellung von Maximaldokumenten mit Filterkriterien möglich ist.<br />

Ebenso wurden zwei Komplikationen erkennbar:<br />

––<br />

Die Stücklisten sind nicht vollständig, da manche Standardfunktion<br />

nicht als Baugruppe in der Stückliste erscheint.<br />

––<br />

Für mehrfach verbaubare Baugruppen ist der Einbauort nur implizit<br />

(und nicht immer regelbasiert) aus der Stückliste ablesbar.<br />

Daraus ergab sich, dass zumindest in einer ersten Ausbauphase ein redaktionelles<br />

Überarbeiten der Stücklisteninformationen notwendig war.<br />

Materialklassen in<br />

der Stückliste<br />

PI-Mod<br />

Produktklassifikation<br />

PI-Mod<br />

Informationsklassen<br />

Maximaldokumente<br />

Filter<br />

Umsetzung<br />

Im Stammdatenmanagement wurde ein zusätzliches Feld eingeführt.<br />

In Abstimmung mit der Redaktion wird bei der Anlage eines Materials<br />

abgestimmt, ob dieses Material (z. B. eine Baugruppe) dokumentationsrelevant<br />

ist. In diesem Fall wird in dieses Feld eine Kennung für die<br />

Materialklasse eingetragen.<br />

Als Datenmodell für die Modularisierung wird PI-Mod eingesetzt. Für<br />

jedes Topic wird das „P“ für die Produktklassifikation über die Materialklasse<br />

oder die Materialnummer einer Baugruppe gefüllt, je nach<br />

Allgemeingültigkeit der Information. Da wir dieses Metadatenkonzept<br />

über die Funktion der Gültigkeiten des CMS abbilden, haben wir zudem<br />

die Möglichkeit, Inhalte innerhalb eines Topics mit einer Gültigkeit zu<br />

versehen, was wir zu einer gezielten Filterung einsetzen.<br />

Gleichzeitig haben wir die Möglichkeit, zu einem Material Informationen<br />

zu verschiedenen Informationsklassen zu füllen. Damit stellen wir<br />

sicher, dass z. B. Bedien- und Wartungsinformationen erfasst werden. Es<br />

gibt keine übergreifenden Regelungen, sondern Baugruppen-abhängig<br />

wird entschieden, welche Informationsklassen mit Inhalten versehen<br />

werden.<br />

Je nach Geschäftsbereich und Produktpalette erstellen wir Maximaldokumente,<br />

die kontinuierlich gepflegt werden. Sie sind nach dem obigen<br />

Schema modularisiert. Für einen Kundenauftrag wird eine Kopie eines<br />

Maximaldokumentes angelegt, die mit den entsprechenden Filtern versehen<br />

und gegebenenfalls individuell angepasst wird. Über diesen Mechanismus<br />

verlieren wir zwar für das auftragsspezifische Dokument die<br />

Weiterentwicklung des Maximaldokuments, was aus unserer Sicht aber<br />

keinen gravierenden Nachteil bedeutet.<br />

Eine Erweiterung des Redaktionssystems stellt uns Filter als redaktionelle<br />

Objekte zur Verfügung, die gespeichert, überarbeitet und versioniert<br />

werden können. Damit können wir einerseits Materialklassen<br />

nachpflegen, die nicht über die Stückliste geliefert werden. Andererseits<br />

können wir für „ähnliche“ Aufträge vorhandene Filter verwenden. Es<br />

hat sich als sinnvoll erwiesen, nicht nur mit einem Filter zu arbeiten,<br />

das einen ganzen Auftrag abdeckt, sondern typenspezifische Standardfilter<br />

als Basis zu nutzen und zusätzliche Auftragsspezifika über eigene<br />

Filter abzudecken. In der Praxis bedeutet das, dass einem Maximaldokument<br />

mehrere Filter zugewiesen werden können.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

45


Content Management<br />

Aktueller Status: Der Redaktionsprozess<br />

Die Erstellung einer kundenspezifischen Dokumentation erfolgt in den<br />

folgenden Schritten:<br />

––<br />

SAP liefert eine kundenspezifische Fertigungsstückliste<br />

––<br />

Aus dieser Liste wird ein Filter generiert und im CMS abgelegt<br />

Gleichzeitig erhalten wir eine Delta-Informationen zu im CMS nicht<br />

vorhandenen Gültigkeiten und/oder Materialnummern<br />

––<br />

Der Redakteur erstellt eine Kopie des Maximaldokuments für den<br />

Kundenauftrag. Der aus den SAP-Daten erstellte Filter und entsprechende<br />

Basis-Filter (mit Typinformationen) werden an dieses Maximaldokument<br />

gehängt.<br />

––<br />

Die Filter und das Dokument können redaktionell überarbeitet werden.<br />

––<br />

Publikation<br />

Fazit<br />

Auf der Basis einer grundlegenden Konzeption haben wir ein effizientes<br />

Werkzeug für die Redaktion aufgebaut.<br />

Für Rückfragen:<br />

kloetzlb@pmw.de<br />

karsten.schrempp@pantopix.de<br />

46<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

CM 7<br />

Workshop<br />

Module al gusto – Dokumente<br />

maßgeschneidert modularisieren<br />

Ute Mitschke, Ovidius GmbH, Berlin<br />

Beim Aufbau modularer Dokumentation wird großer Wert auf die Auswahl<br />

einer geeigneten XML-Struktur gelegt. Wiederverwendung von<br />

Inhalten und Effizienz des Systems beim Publizieren werden gleichzeitig<br />

durch die Klassifizierung der Inhalte und Vereinbarungen zur Modulgröße<br />

beeinflusst.<br />

Wird ein Content-Management-System (CMS) eingeführt, entstehen<br />

Module mit den unterschiedlichsten Inhalten, die vom Redakteur bei<br />

der Arbeit mit dem CMS leicht gefunden, eindeutig identifiziert und im<br />

gewünschten Kontext zusammengestellt werden müssen.<br />

Was ist das Schwierige am Finden einer effektiven Benennung für Module?<br />

Es ist der Wunsch, mit ständig wechselnden Suchkriterien das<br />

Modul über die Benennung aus einer nicht mehr überschaubaren Vielzahl<br />

wiederfinden zu können.<br />

Wer sucht, der findet?<br />

Folgende Szenarien sind vorstellbar:<br />

1. Jemand sucht alle Module, in denen das Wort „Schraubenzieher“ vorkommt.<br />

2. Es soll ein Modul gefunden werden, in dem die Reinigung eines Filters<br />

von Ölresten beschrieben wird.<br />

3. Die Anleitung für Produkt 1 muss überarbeitet werden, da es eine<br />

funktionale Änderung gibt, die nur Produkt 1 betrifft. Wie müssen die<br />

Module gekennzeichnet werden, damit nur die Module von Produkt 1<br />

und nur die aus den Kapiteln Inbetriebnahme und Bedienung gefunden<br />

werden?<br />

4. Es soll ermittelt werden, ob es Module gibt, für die ein konkreter Autor<br />

Inhalte für Service-Handbücher verfasst hat.<br />

5. Die Anleitungen von Produkten, die im kommenden Monat auf den<br />

Markt gehen sollen, müssen um einen Sicherheitshinweis für die<br />

Betriebssicherheit ergänzt werden. Davon betroffen sind nur die<br />

Produkte einer Produktklasse und nur die Abschnitte für das Kapitel<br />

Bedienung. Wie müssen die Module gekennzeichnet worden sein,<br />

damit konkret diese Module leicht gefunden werden?<br />

Die Beispiele zeigen, dass es empfehlenswert ist, in der Konfiguration<br />

des CMS die Möglichkeit vorzusehen, Module mit ausreichend vielen<br />

Metadaten auszuzeichnen, um mit deren Hilfe gezielt nach ihnen suchen<br />

zu können. Durch jedes Metadatum wird dabei eine bestimmte<br />

Perspektive definiert, nach der gesucht werden kann.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

47


Content Management<br />

Wie ein Filtern nach Maschinen- und Handbuchtyp aussehen kann, zeigt<br />

die Abbildung.<br />

Informationen für Metadaten klassifizieren<br />

Es hat sich bewährt, die Handbuch-Typen (Betriebsanleitung, Serviceanleitung,<br />

Schulungshandbuch usw.) und die nach Maschinenrichtlinie<br />

erforderlichen Kapitel (Installation/Inbetriebnahme, Bedienung,<br />

Fehlerbehebung usw.) als Metadatum zu definieren. Welche anderen<br />

Metadaten zusätzlich sinnvoll sind, kann je nach Anwendungsfall sehr<br />

unterschiedlich sein.<br />

Für Firmen mit einer konkreten Produktstruktur nach Produktklassen<br />

und -gruppen, mit wenigen Zusatzoptionen und ohne Varianten, die<br />

sehr umfangreiche Dokumentationen erstellen (z. B. im Flugzeugbau),<br />

ist es sinnvoll, in den Modulen die Produktzugehörigkeit anzugeben.<br />

Ist die Produktpalette einer Firma sehr breit gefächert, variantenreich<br />

und der Innovationsgrad sehr hoch, wird die Produkt-Kennzeichnung<br />

in der Vielzahl kleiner, allgemeingültiger Module zu aufwendig. In diesem<br />

Fall empfiehlt es sich, bestimmte Produkt-Merkmale und -Funktionen<br />

als Kennzeichnung zusammenzustellen.<br />

Da nicht nur die Dokumentationsabteilung mit der Produktvielfalt umgehen<br />

muss, sondern die Produktionsplanung und Fertigung davon<br />

genauso betroffen sind, lohnt es, sich in anderen Betriebsbereichen anzuschauen,<br />

wie dort die Vielfalt der Produkte handhabbar klassifiziert<br />

wird.<br />

Das konkrete Vorgehen im Workshop<br />

1. Vorstellen der Beispiel-Firma, deren Produktstruktur und vier konkreter<br />

Produkte.<br />

Als Beispielfirma dient eine fiktive Bohrmaschinen produzierende<br />

Firma, die Bohrmaschinen verschiedener Größe, Leistung,<br />

48<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

Hinweis<br />

Funktionsumfang und Aufstellung (Standbohrmaschinen und Handbohrmaschinen)<br />

produziert.<br />

2. Erarbeiten des prinzipiellen Inhalts für ein Beispielkapitel einer BA<br />

nach Maschinenrichtlinie.<br />

Die Teilnehmer erhalten ein Arbeitsblatt, auf dem 3 verschiedene Abschnitte<br />

aus Kapiteln „Bedienung“ aufgelistet sind. Sie sollen auf dem<br />

Arbeitsblatt die Abschnitte in ihrer Gültigkeit den Produkten zuordnen.<br />

Mögliche Ergebnisse sind: z. B. Gültigkeit für alle Produkte, für eine<br />

Produktklasse oder für ein spezielles Produkt.<br />

In einem Folgeschritt werden die Inhalte analysiert und inhaltlich zu<br />

verschiedenen Informationstypen zugeordnet: z. B. Handlungsanweisung,<br />

Beschreibung, Technische Daten<br />

Die Ergebnisse werden auf dem Flipchart festgehalten.<br />

3. Definition der Perspektiven, zu denen Module konkret zugeordnet<br />

werden können.<br />

Hierzu gibt es eine Vorstellung von konkret im Redaktionsalltag vorkommenden<br />

Aufgaben, die es notwendig machen, Module schnell zu<br />

finden.<br />

Ziel dieser Aufgabe ist es, zu erkennen, unter welchem Gesichtspunkt<br />

bzw. welcher Perspektive ein Modul gesucht werden könnte.<br />

Im Ergebnis werden 6 Kriterien zusammengestellt, die einem Modul<br />

für die konkrete Situation als Metadatum beigefügt werden sollten, um<br />

beim Suchen zu den gewünschten Ergebnissen zu kommen.<br />

4. Gruppenweises Schreiben von Beispiel-Modulen und Klassifizieren<br />

der erarbeiteten Module.<br />

Auf einem Arbeitsblatt sind 3 Beispieltexte für Module enthalten. Je<br />

Gruppe soll ein Beispieltext überarbeitet und die konkreten Metadaten<br />

zugeordnet werden.<br />

Ziel: Finden von Formulierungsfehlern, um das Modul wiederverwendbar<br />

zu gestalten, Erkennen unpassender Modulgrenzen und das Anwenden<br />

der gefundenen Klassifizierungskriterien.<br />

5. Zusammenfassung der Ergebnisse und des Verfahrens<br />

Hier wird in einer Übersicht verallgemeinert, wie Kriterien für die Klassifizierung<br />

von Modulen ermittelt werden können und welche Auswirkungen<br />

das auf die inhaltliche Gestaltung von Modulen hat.<br />

Während des Workshops arbeiten die Teilnehmer nicht mit Computertechnik.<br />

Es ist empfehlenswert, Schreibgeräte und Textmarker<br />

mitzubringen.<br />

für Rückfragen: ute.mitschke@ovidius.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

49


Content Management<br />

CM 8<br />

Tutorial<br />

Code und Texte aus Datentabellen<br />

generieren mit MS Excel<br />

Edgar Hellfritsch, doctima GmbH, Fürth<br />

Hin und wieder steht man als Technischer Redakteur oder als Content<br />

Administrator vor der Aufgabe, eine größere Reihe von Datensätzen<br />

umzuformen oder umzustrukturieren. Produkt- und Stücklisten, Term-<br />

Vorschläge für das Terminologie-Management, die Ausgabe der Befehlszeile<br />

„c:\> DIR /S > dir.txt“ – Sie kennen sicher eigene Beispiele aus<br />

Ihrem Alltag. Dabei kann es sich um Excel- oder CSV-Dateien handeln<br />

oder beliebige andere Listen-Formate.<br />

Je nachdem, wie umfangreich die Daten sind und wie häufig sie neu<br />

konvertiert werden müssen, lohnt sich eine elaborierte Skript- oder<br />

Programm-Lösung. Oder man überlegt sich, die Verarbeitung manuell<br />

durchzuführen.<br />

Für viele Aufgaben bietet sich ein unaufwändiger Zwischenweg an.<br />

Tabellenkalkulationen wie MS Excel können bereits mit Kenntnis einiger<br />

weniger Formeln und ein bisschen logischem Denken überraschend<br />

komplexe Konvertierungen erledigen. Alternativen wie OpenOffice e. a.<br />

bieten mit leichten Abwandlungen ähnliche Möglichkeiten.<br />

Vorteile des hier vorgestellten Ansatzes:<br />

––<br />

Geringe Vorkenntnisse, keine Programmierung nötig<br />

––<br />

Schnelle Ergebnisse<br />

––<br />

Wiederverwendbare Funktionalität<br />

––<br />

Effizienz- und Qualitätsgewinn gegenüber manuellem Arbeiten<br />

Ein einfaches Beispiel<br />

Das nachfolgende Beispiel ist branchenneutral-instruktiv gewählt.<br />

Quelle: Attributierte Datensätze<br />

Avatar Science-Fiction 2009<br />

Beetlejuice Fantasy 1989<br />

Coraline Fantasy 2009<br />

Dave Comedy 1993<br />

Um die folgende Ausgabe zu erreichen, müssen Sie lediglich die folgenden<br />

Excel-Mechanismen anwenden: Daten sortieren, Wenn-Dann-<br />

Abfrage, Zellinhalte vergleichen, Zellinhalte und Texte verketten.<br />

Ziel: Hierarchische XML-Struktur<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

50<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

<br />

<br />

<br />

Grundlagen<br />

Excel ist dazu da, Datenkolonnen zu erfassen und, für die etwas versierteren<br />

Anwender, diese auch auszuwerten. Neben den meist verwendeten<br />

logischen und mathematischen Berechnungsformeln erlaubt Excel<br />

auch einfache Bearbeitungsschritte für textuelle Inhalte.<br />

Einfaches Beispiel: Zellinhalte aus Spalten A und B verketten<br />

A B C (Formel) C (Anzeige)<br />

1 Avatar Science-Fiction =A1&“, “&B1 Avatar, Science-Fiction<br />

2 Dave Comedy =A2&“, “&B2 Dave, Comedy<br />

Excel ist sehr intelligent beim Kopieren und Verschieben von Formeln<br />

(was Segen und Fluch bedeuten kann, in diesem Fall ist es eher Ersteres).<br />

Wenn Sie eine Formel einmal, z. B. für den Datensatz in Zeile 1,<br />

definiert haben, können Sie sie sehr leicht für alle weiteren Datensätze<br />

übernehmen. Die Zeilen- bzw. ggf. Spaltennummern werden beim Kopieren<br />

angepasst.<br />

Sie können Formeln miteinander kombinieren, sie ineinander verschachteln.<br />

Hier ist insbesondere die Formel WENN interessant.<br />

Einfaches Beispiel: Comedy-Filme hervorheben<br />

A B C (Formel) C (Anzeige)<br />

1 Avatar Science- =WENN(B1=“Comedy“; A1&“, “&B1;““)<br />

Fiction<br />

2 Dave Comedy =WENN(B2=“Comedy“; A2&“, “&B2;““) Dave, Comedy<br />

Mit diesen wenigen Hilfsmitteln lässt sich bereits sehr viel erreichen.<br />

Für die oben gezeigte Transformation ist kein weiteres Excel-Knowhow<br />

nötig. Um die transformierten Daten weiter zu verwenden (z. B.<br />

im XML-Editor Ihres CMS), genügt es im einfachsten Fall, die generierten<br />

Zellen zu markieren und sie mit Copy/Paste in Ihre Software zu<br />

übernehmen.<br />

Interessante Aspekte<br />

Im Beispiel sehen Sie eine einfache Umstrukturierung der Datensätze<br />

nach einem Attribut (hier: das Genre). Das ist relativ leicht nachzuvollziehen,<br />

aber bereits mehr, als man mit Suchen und Ersetzen lösen kann.<br />

Richtig interessant wird es, wenn weitere Aspekte hinzukommen.<br />

––<br />

Die Kategorisierung der Daten erfolgt über mehrere Ebenen. Im Beispiel<br />

könnte man noch nach Erscheinungsjahr strukturieren.<br />

––<br />

Die Daten enthalten kommagetrennte Listen. Im Beispiel könnte es<br />

sich dabei um eine Liste der beteiligten Schauspieler handeln.<br />

––<br />

Die Daten sollen in der Ausgabe mehrfach verwendet werden. Im<br />

Beispiel könnte man statt dem hier gezeigten XML HTML-Code generieren:<br />

zunächst eine Auswahlbox mit allen Titeln, als Zweites dann<br />

eine Liste von HTML-Containern mit allen Daten des Datensatzes.<br />

Wählt man einen Titel aus, erscheint der entsprechende Container.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

51


Content Management<br />

––<br />

Die Daten enthalten Attribute, aus denen sich Verweise bzw. Hyperlinks<br />

erzeugen lassen. Im Beispiel könnte das eine zusätzliche Spalte<br />

mit der IMDb-ID des Films sein (International Movie Database, z. B.<br />

tt0327597 mit dem Link http://www.imdb.com/title/tt0327597/ für den<br />

Titel Coraline).<br />

––<br />

Die Daten benötigen für die weitere Verarbeitung eindeutige IDs, die<br />

sich mit Excel datensatzweise generieren lassen.<br />

––<br />

Die Daten enthalten formatierte Zahlenwerte. Datumswerte, Prozentund<br />

Geldwerte sind für Excel zunächst nackte Zahlen, deren Darstellung<br />

als Datum oder Prozentzahl erst durch die Formatierungs-<br />

Eigenschaften der Zelle entsteht. Verwendet man solche Zahlenwerte<br />

in Textverkettungen, muss die Formatierung eigens erfolgen.<br />

Weiterführende Möglichkeiten<br />

Die hier vorgestellte, programmierfreie Lösung hat natürlich ihre<br />

Grenzen. Bequemere und flexiblere Mechanismen – beispielsweise ein<br />

HTML-Export auf Knopfdruck – lassen sich in Excel mit Visual Basic<br />

realisieren. Aber das ist ein ganz anderes Kapitel und soll in diesem<br />

Tutorial nur kurz als Ausblick gezeigt werden.<br />

Für Rückfragen: edgar.hellfritsch@doctima.de<br />

52<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

CM 9<br />

Workshop<br />

Zwei rechts, zwei links, zwei fallenlassen –<br />

Strickmuster zur Bestandsdatenmigration<br />

Mareike von der Stück, Elvis Ališic, Schmeling + Consultants GmbH, Heidelberg<br />

Nur wenige Unternehmen können es sich leisten, nach der Einführung<br />

eines neuen Redaktionswerkzeugs mit der Dokumentationserstellung<br />

wieder bei null anzufangen. Gewöhnlich muss für einen effizienten<br />

Produktivstart zumindest ein Teil der Bestandsdaten in die Struktur der<br />

neuen Schreibumgebung übertragen (migriert) werden.<br />

Für die Bestandsdatenmigration gibt es unterschiedliche Strategien:<br />

––<br />

Migration mit viel oder wenig Automatisierung<br />

––<br />

Migration großer Datenvolumina auf Vorrat oder einzelner Dokumente<br />

nach Bedarf<br />

––<br />

Migration mit umfangreicher oder nur punktueller Überarbeitung der<br />

Inhalte<br />

Abhängig von der Ausgangssituation hat jede Strategie ihre Berechtigung<br />

und fordert einen bestimmten Aufwand. Um die eigene Ausgangssituation<br />

und den zu erwartenden Aufwand besser einschätzen zu können,<br />

sind folgende vorbereitende Überlegungen hilfreich:<br />

––<br />

Entspricht die Qualität der Bestandsdaten der SOLL-Qualität der<br />

Inhalte, die zukünftig mit dem neuen Werkzeug erstellt werden?<br />

––<br />

Welche Bestandsdaten und in welchem Umfang sollen sie in die neue<br />

Umgebung übertragen werden?<br />

––<br />

Mit welchen Mitteln und in welchen Schritten können die Bestandsdaten<br />

übertragen werden?<br />

Diskrepanzen zwischen IST- und SOLL-Qualität ermitteln<br />

Eine gründliche Analyse der Inhalte zeigt, wie weit die inhaltliche Qualität<br />

der Bestandsdaten von der SOLL-Qualität entfernt ist, und gibt<br />

Aufschluss darüber, in welchem Umfang die Bestandsdaten inhaltlich<br />

überarbeitet werden müssen. Die Kriterien, nach denen die Analyse<br />

durchgeführt wird, müssen aus dem übergeordneten Projektziel abgeleitet<br />

werden.<br />

Mit der Entscheidung für ein neues Redaktionswerkzeug ist das Ziel<br />

verbunden, die Dokumentation effizienter zu erstellen. Typischerweise<br />

soll die höhere Effizienz über eines oder mehrere der folgenden Teilziele<br />

(Qualitätskriterien) für die Dokumentation erreicht werden:<br />

––<br />

zielgruppengerechte Inhalte<br />

––<br />

übersetzungsgerechte Inhalte<br />

––<br />

konsistente Formulierung und Struktur<br />

––<br />

optimale Kürze<br />

––<br />

Aktualität<br />

––<br />

Modularität und Wiederverwendbarkeit<br />

Bestimmung und Umfang der zu migrierenden Daten<br />

Die quantitative Bewertung gibt Aufschluss darüber, welche Bestandsdaten<br />

man bei der Migration priorisieren sollte. Häufige quantitative<br />

Bewertungskriterien für Bestandsdaten sind:<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

53


Content Management<br />

––<br />

Gibt es von dem beschriebenen Produkt viele Varianten oder ist es<br />

ein „Einzelkind“?<br />

––<br />

Wird das beschriebene Produkt regelmäßig geändert und weiterentwickelt<br />

oder ist es bereits abgekündigt?<br />

––<br />

Wird das beschriebene Produkt in neue Märkte vertrieben?<br />

Auch organisatorische und qualitative Aspekte können bei der Bestimmung<br />

der zu migrierenden Daten eine Rolle spielen, z. B.<br />

––<br />

standardisierte Inhalte, die in Zusammenarbeit mit mehreren Abteilungen<br />

erstellt wurden<br />

––<br />

Inhalte, die nach speziellen normativen Anforderungen entwickelt<br />

wurden<br />

Mittel und Schritte der Bestandsdatenmigration<br />

Nachdem die Qualitätsziele und der Umfang der zu migrierenden Inhalte<br />

bestimmt sind, muss geprüft werden, wie die Daten in die neue<br />

Schreibumgebung übertragen werden können. Hier spielen sowohl<br />

technische und strukturelle Aspekte eine Rolle.<br />

Technisch:<br />

––<br />

Kann man (außer mit Copy&Paste) Daten aus dem Quell- ins Zielformat<br />

portieren?<br />

––<br />

Sind Zwischen-Transformationen nötig?<br />

––<br />

Können wichtige Informationen beim Übertragen verloren gehen?<br />

Strukturell:<br />

––<br />

Ist eine klare Gliederung der Inhalte zu erkennen?<br />

––<br />

Wurden bereits konsistente Formatvorlagen oder Elemente benutzt?<br />

––<br />

Wie nahe kommt die Gliederung und Formatierung an die SOLL-<br />

Strukur im neuen Redaktionswerkzeug?<br />

Die Ergebnisse dieser Betrachtung helfen dabei einzuschätzen, ob man<br />

bei der Migration eine Automatisierung einsetzen kann und ob man die<br />

Inhalte und die Struktur der Daten besser vorbereitend noch im alten<br />

Werkzeug überarbeitet oder erst in der Nachbearbeitung im neuen<br />

Redaktionswerkzeug.<br />

für Rückfragen:<br />

m.vonderstueck@schmeling-consultants.de<br />

e.alisic@schmeling-consultants.de<br />

54<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Management<br />

CM 10<br />

Presentation<br />

Selecting the Best Technology to<br />

Support Your Content Reuse Strategy<br />

Lisa Pietrangeli, ThirtySix Software<br />

Companies need to take advantage of content reuse in order to save<br />

time, save money, and generate higher quality documentation. A successful<br />

content reuse implementation requires a well-planned, well<br />

thought out content reuse strategy and a technology that effectively<br />

supports this strategy. Often, technical communicators must lead this effort<br />

because they are working with the content, tools, and writing teams<br />

who are critical to the success of any content reuse and management<br />

efforts.<br />

Selecting the right technology isn‘t easy. There is no universal one-sizefits-all<br />

content reuse solution. There are countless vendor products,<br />

each differing in features, functionality, price, and complexity. With<br />

all these possibilities it‘s easy to get lost. However, by taking a wellplanned<br />

and disciplined approach to evaluating these technologies, you<br />

can be sure to select the right solution for your organization.<br />

This presentation outlines a practical approach for how to identify and<br />

evaluate content reuse technologies to ensure you select the one that<br />

best supports your content reuse strategy. In addition, we will emphasize<br />

the importance of having a sound content strategy in place before<br />

you begin shopping for the right technology.<br />

Through real-world examples and using some very practical handouts,<br />

participants will leave with clear next steps in mind and a great starting<br />

point. By setting priorities, identifying the company’s true needs, and<br />

learning how to evaluate tools intelligently, technical communicators<br />

will lead the way for their companies to save time, money, and produce<br />

consistently higher quality content.<br />

lisap@thirtysix.net<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

55


Content Strategies


Content Strategies<br />

CS 6<br />

Presentation<br />

Transforming Technical Content<br />

into a Business Asset<br />

Sarah S. O’Keefe, Scriptorium Publishing, Raleigh-Durham, USA<br />

Technical content is often the last in line for investment and innovation,<br />

but poor content has profound effects inside and outside the organization.<br />

Before relegating technical content to the “necessary evil” role with<br />

minimal investment, consider whether it might actually be less expensive<br />

to create high-quality technical information.<br />

The issues to consider are:<br />

−−<br />

The real cost of low-cost documentation<br />

−−<br />

How to create an efficient content development process<br />

−−<br />

Whether high-quality documentation can lower the cost of technical<br />

support<br />

−−<br />

The most cost-effective way to share technical content across the<br />

enterprise<br />

The fallacy of low-cost documentation<br />

In many organizations, management pays as little attention as possible<br />

to content. Content development is assigned to administrative staff<br />

using whatever tools are lying around (usually Microsoft Office) or outsourced<br />

to the lowest bidder.<br />

It is acceptable to assess your organization’s content requirements and<br />

embark on a strategy of producing indifferent content cheaply (the<br />

“meh” strategy). The vast majority of organizations who adopt a laissezfaire<br />

attitude, however, have not thought through the implications.<br />

Here are some typical business problems that have bad documentation<br />

as their root cause:<br />

−−<br />

Call volume to technical support is high.<br />

−−<br />

Product returns are high and sales are lost.<br />

−−<br />

Missing content.<br />

−−<br />

Cannot deliver required formats.<br />

−−<br />

Ugly content contradicts premium product messaging.<br />

−−<br />

Huge globalization costs.<br />

−−<br />

Technical support and other internal organizations are creating content<br />

that duplicates documentation.<br />

Efficient technical content development<br />

The process of creating technical information includes writing text,<br />

creating graphics, recording audio, and the like. A basic prerequisite for<br />

good content strategy is that the content should be of good quality—accurate,<br />

concise, and complete.<br />

An efficient workflow with professional technical communicators creating<br />

high-value information is typically the least expensive option (better,<br />

faster, and cheaper). This correlation is explained by the following<br />

factors:<br />

−−<br />

Reuse versus copy and paste. Copying and pasting is quick and easy<br />

initially, but it is hard to maintain over time because of information<br />

duplication.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

59


Content Strategies<br />

−−<br />

Formatting. “Quick-and-dirty” formatting is also unmaintainable.<br />

−−<br />

Production. Instead of converting content from one format to another<br />

manually, a professional workflow generates the proper outputs automatically.<br />

A one-time configuration effort replaces the repeated conversion<br />

task.<br />

−−<br />

Localization. Better-organized content and automated production<br />

result in much lower localization costs.<br />

A rough estimate is that writers spend around 20 percent of their time<br />

on formatting tasks in less-efficient content development environments.<br />

The right tools and technologies will make your content development<br />

process more efficient. (The wrong tools, even when they are “free,” can<br />

be very expensive.) An efficient process is one where the tools and technologies<br />

that are in place help you produce the content you need, in the<br />

formats you need, and when you need it.<br />

Reducing the cost of technical support<br />

Live technical support, whether provided via phone, email, or chat, is<br />

expensive because it is provided one-to-one. Technical content, by contrast,<br />

is one-to-many and less expensive per person—assuming that<br />

you have a reasonable number of readers. Many people can use a single<br />

installation guide without increasing the cost of the document. Therefore,<br />

many large companies measure the effectiveness of improved<br />

content by looking for call deflection—a reduction of technical support<br />

incidents.<br />

Call deflection isn’t the only way in which technical documentation can<br />

reduce support costs. If technical content is both reliable and easily<br />

searchable, support agents can quickly find the specific information a<br />

customer needs—and shorten the average time per call.<br />

Better content results in fewer calls because users find the information<br />

before picking up the phone. You can evaluate the cost of producing and<br />

distributing technical content against the cost of providing technical<br />

support. For large organizations, which may receive thousands or tens<br />

of thousands of technical support calls per day, reducing calls by just<br />

one or two percentage points results in huge cost savings.<br />

Technical content is not just for customers. It is also a valuable asset<br />

inside your organization, particularly for the technical support team.<br />

The technical support staff is responsible for helping customers to use<br />

a product successfully. The technical support organization desperately<br />

needs technical content—and the sooner it’s available, the better.<br />

Technical content that is locked down in PDF files and print is not particularly<br />

useful to support agents. Support agents need quick answers<br />

to questions, so they need the ability to search all technical content<br />

quickly. They might be able to use the index or table of contents of a<br />

single printed book to find what they want, but given a library of books,<br />

an online search is the only reasonable option.<br />

Content collaboration across the organization<br />

Historically, technical communication, marketing, and other departments<br />

developing content did not work closely with each other. Today,<br />

collaboration is increasing. Instead of working in isolation, departments<br />

60<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Strategies<br />

are identifying shared content assets and pooling their resources to<br />

develop this content more efficiently.<br />

Technical communication and marketing usually “own” large amounts<br />

of content. But there are other, less obvious places where high-value<br />

information is created:<br />

−−<br />

Product design and development<br />

−−<br />

Training and education<br />

−−<br />

Technical support<br />

−−<br />

Software<br />

−−<br />

Product interface labels<br />

−−<br />

Web services<br />

−−<br />

Sales<br />

Sharing content across departments improves the overall product quality<br />

by ensuring that customers receive consistent information and a unified<br />

message. At the same time, content sharing eliminates redundancy,<br />

which reduces the cost of content development.<br />

Excerpted from Content Strategy 101: Transform Technical Content into<br />

a Business Asset by Sarah S. O’Keefe and Alan S. Pringle, ISBN 978-0-<br />

9828118-4-9. The full text of the book is available online at<br />

www.contentstrategy101.com.<br />

okeefe@scriptorium.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

61


Content Strategies<br />

CS 8<br />

Workshop<br />

Content Quality: Three Dimensions<br />

to Creating Content that Works<br />

Andrew Bredenkamp, Acrolinx, Berlin<br />

This workshop delivers practical exercises in writing content which<br />

works – moving from a high-level content strategy to the detail of deciding<br />

which content to write and ultimately to make it engage your<br />

audience.<br />

The workshop will be divided into three sessions reflecting three key<br />

dimensions to creating successful content. Good content needs to be<br />

people-ready, global-ready and search-ready.<br />

People-Ready<br />

Making your content people-ready means ensuring that you are writing<br />

for your target audience in a language they can understand.<br />

It also needs to be focused on solving a particular need they have. This<br />

means writing in a disciplined task- and solution-oriented way. Note:<br />

this is useful even for marketing content!<br />

The third aspect of people-readiness – especially, but not exclusively, for<br />

English content – involves making content easier to read by non-native<br />

speakers of the language.<br />

Of course being “people-ready” is the over-arching goal for all your content,<br />

and thinking hard about who will read your content and why will<br />

significantly increase your chances of success.<br />

Global-Ready<br />

This used to mean translation-friendly writing – but this has become<br />

much more complex in the last few years.<br />

We are moving into a new phase of automation around translation and<br />

localization. The dominance of translation memories as the overwhelming<br />

technological support for translation is under serious threat from<br />

machine translation (MT). Of course, these approaches are not mutually<br />

exclusive.<br />

The key idea is that preparing content for going global is more complex<br />

than it used to be. There are many studies on how to prepare content<br />

for rule-based MT, but what of new statistical methods for MT, such as<br />

those popularized by Google and Bing? What does it mean to write content<br />

for MT in this new paradigm?<br />

Even if you are not translating the content yourself with MT, it is now<br />

increasingly likely that your content will be translated by a publicly<br />

available MT engine. How can you ensure that it survives this in the<br />

best possible shape?<br />

As you move to high-growth new markets in Africa and Asia, what will<br />

this mean for your translation strategy? How can you prepare yourself<br />

for translating into hundreds of target languages?<br />

Of course, supporting the needs of non-native speakers is also an aspect<br />

of global-readiness.<br />

62<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Strategies<br />

Search-Ready<br />

The key to a successful content strategy is to get the right content to<br />

the right people at the right time. But how? Many organizations expend<br />

huge effort on portals and their infrastructure for content delivery. Unfortunately<br />

the only content delivery channel which matters for most<br />

customers is Google, or their favourite search engine. For most organizations,<br />

content which is not findable by search engines is invisible.<br />

How can you make sure your content is ready to be found by your customers?<br />

We will look in detail at how the short fashion for crude SEO is<br />

already losing effectiveness and what is replacing SEO as best practice<br />

around making your content findable by your customers.<br />

Until recently, search optimization was very much restricted to the domain<br />

of marketing content. This has changed dramatically as companies<br />

have realized that (a) many customers consult “after-sales” content,<br />

before they buy and (b) that findability is in fact just as important in the<br />

context of customer support.<br />

Andrew.Bredenkamp@acrolinx.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

63


Content Strategies<br />

CS 11<br />

Workshop<br />

Building a Business Case for Content Strategy<br />

Sarah S. O’Keefe, Scriptorium Publishing, Raleigh-Durham, USA<br />

Content people, as a group, are terrible at business cases. In discussions<br />

about content challenges, the content creators usually have a long list<br />

of valid complaints about bad tools, inefficient processes, and generally<br />

wasted resources. But at the first mention of a potential solution that<br />

costs more than $100, content creators respond, “Oh, they will never approve<br />

that. We never get any money.”<br />

It is true that “they”—which is to say upper management—do not respond<br />

well to requests for large sums of money. What they do understand<br />

is business cases, such as, “To prevent us from wasting Y amount<br />

of resources every year, we need X amount of money this year,” and X is<br />

smaller than Y.<br />

Building a business case requires you to quantify how an investment<br />

(in tools, technology, training, or anything else) will improve business<br />

results. It is not sufficient to claim that your content strategy will contribute<br />

to business goals; you must estimate the improvement and show<br />

that the results are worth the investment. It helps when your estimates<br />

are obviously erring on the conservative side and the savings shown are<br />

still compelling.<br />

Estimating the business value<br />

Increased content reuse and efficient localization are the most common<br />

ways to show value in a business case for technical content.<br />

For reuse, you contrast the cost of writing or maintaining a topic with<br />

the cost of reusing a topic automatically. If the proposed system can<br />

increase the amount of reuse, you have a clear cost savings. Typical tech<br />

comm estimates in this area are as follows:<br />

−−<br />

Current reuse: 5 percent<br />

−−<br />

Estimated reuse with new strategy: 20 percent<br />

If the cost of maintaining a topic is estimated at €100 and the organization<br />

has approximately 4000 topics, then a 15 percent increase in reuse<br />

results in savings of €60,000. If all of the topics are updated in a typical<br />

year, this is a yearly cost savings.<br />

For localization, you need to look at the cost of reformatting translated<br />

text. In less-efficient environments, that cost is approximately 50 percent<br />

of the overall content localization cost. But in this example, we will<br />

use a more conservative 25 percent:<br />

−−<br />

Cost of localization, per word: €0.10<br />

−−<br />

Percentage of localization cost associated with formatting: 25 percent<br />

Again, we assume 4000 pages of content being translated and 250 words<br />

per page. The cost is therefore €100,000 per target language. If formatting<br />

is automated, the organization saves €25,000 per target language in<br />

each localization pass.<br />

64<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Content Strategies<br />

Note: There are also cost<br />

savings associated with<br />

increasing reuse, which<br />

decreases the amount<br />

of content sent for<br />

localization, but those<br />

are not calculated here.<br />

There are additional possibilities for cost savings, including the<br />

following:<br />

−−<br />

Sharing content across the organization (rather than just within technical<br />

communication content)<br />

−−<br />

Decreasing time to market<br />

−−<br />

Opening new markets (by increasing the number of supported languages)<br />

−−<br />

Eliminating manual conversion from one format to another<br />

−−<br />

Efficiently creating customized information products<br />

Estimating implementation costs<br />

With a reasonable estimate of cost savings, you can turn your attention<br />

to the implementation side. The proposed system must be scaled appropriately.<br />

For example, if you estimate savings of €100,000 per year,<br />

a system that costs €1 million is not going to work. Ideally, you want to<br />

show a positive return within three years. 12–18 months is better. Thus,<br />

a reasonable cost for your system would be in the range of €100,000 to<br />

€250,000. But what if a less expensive system (€50,000) can deliver most<br />

of the cost savings (€75,000 per year)?<br />

The system you choose will affect the cost savings realized, so there is a<br />

process of weighing both sides of the business case to identify the best<br />

possible investment.<br />

The implementation cost estimate needs to consider the following components<br />

(not all will be present in all solutions)<br />

−−<br />

Software and tools licensing, including content management system,<br />

authoring tools, and publishing tools<br />

−−<br />

Content conversion<br />

−−<br />

Training<br />

−−<br />

Consulting<br />

−−<br />

Follow-on support<br />

A spreadsheet to help with the business case calculation is available<br />

online at bit.ly/TFPSLa<br />

Portions excerpted from Content Strategy 101: Transform Technical Content<br />

into a Business Asset by Sarah S. O’Keefe and Alan S. Pringle, ISBN<br />

978-0-9828118-4-9. The full text of the book is available online at<br />

www.contentstrategy101.com.<br />

okeefe@scriptorium.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

65


Hochschule und Wissenschaft


Hochschule und Wissenschaft<br />

HUW 1<br />

Fachvortrag<br />

Technische Kommunikation als<br />

Forschungsgegenstand: Fragen,<br />

Ergebnisse, Perspektiven<br />

Prof. Dr. Michael Meng, Hochschule Merseburg<br />

Wie Markus Nickl in verschiedenen Beiträgen herausgearbeitet hat, ist<br />

die Arbeit Technischer Redakteure in den letzten Jahren einem grundlegenden<br />

Wandel unterworfen, den Nickl als „Industrialisierung des<br />

Schreibens“ bezeichnet (z. B. Nickl, 2005). Kennzeichen dieses Prozesses<br />

sind zunehmende Standardisierung, Modularisierung, Prozessorientierung<br />

sowie eine größere Bedeutung von Forschung und Entwicklung.<br />

Brauchen wir mehr Forschung in der Technischen Kommunikation?<br />

Welche Bereiche kann Forschung hier in den Blick nehmen? Welche<br />

Ergebnisse hat die Forschung in den letzten Jahren geliefert?<br />

Brauchen wir mehr Forschung?<br />

Neben der Rechtssicherheit soll gute Technische Dokumentation vor<br />

allem drei Kriterien genügen: Sie soll lerneffektiv, vollständig und<br />

dazu kostengünstig zu produzieren, zu pflegen und zu verteilen sein.<br />

Wie jeder Praktiker aus eigener Erfahrung bestätigen kann, stellt der<br />

betriebliche Alltag Technische Redakteure sehr häufig vor Entscheidungen,<br />

bei denen diese Kriterien in Konflikt geraten. Welche Inhalte<br />

sollen in das Handbuch aufgenommen und wie ausführlich sollen diese<br />

Informationen dargestellt werden? Welche Inhalte sind zwingend erforderlich,<br />

um die zuverlässige Bedienung eines Geräts oder das Erlernen<br />

eines Softwareprogramms zu ermöglichen? Welche Information wird<br />

besser durch Sprache und welche besser durch Bilder und Screenshots<br />

vermittelt?<br />

Probleme wie diese können zwar mit Erfahrungswissen, „Best<br />

Practice“-Ansätzen und viel Bauchgefühl schnell einer pragmatischen<br />

Lösung zugeführt werden. Aber spätestens, wenn unterschiedliche<br />

Lösungsansätze konkurrieren, wird deutlich, dass die Basis für eine<br />

begründete und nicht allein ökonomisch getriebene Entscheidung für<br />

oder gegen einen Lösungsansatz oftmals fehlt. In diese Begründungslücke<br />

kann und muss angewandte Forschung zur Technischen Kommunikation<br />

stoßen.<br />

Was für Forschung brauchen wir?<br />

Mit Blick auf den Prozess der Technischen Kommunikation kann Forschung<br />

drei verschiedene Bereiche beleuchten (vgl. Krings, 1996): den<br />

Prozess der Erstellung Technischer Dokumentation, den Prozess der<br />

Rezeption Technischer Dokumentation durch die Anwender und die<br />

entstandenen Texte selbst. In jedem dieser Bereiche gibt es Ansatzpunkte<br />

für praxisrelevante Untersuchungen. Damit Forschung aber<br />

tatsächlich handlungsleitend werden kann, muss sie nach Krings (1996)<br />

folgende Kriterien erfüllen:<br />

−−<br />

Sie muss konkret sein und einen kausalen Zusammenhang zwischen<br />

Text-/Bildmerkmalen auf Merkmale der Textverarbeitung oder der<br />

Produktnutzung nachweisen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

69


Hochschule und Wissenschaft<br />

−−<br />

Sie muss verallgemeinerbar sein und für die Kommunikationsform<br />

„Technische Kommunikation“ gelten.<br />

−−<br />

Sie muss informativ sein, d. h. im Ergebnis lösungsorientiert und<br />

handlungsbezogen.<br />

Auf der Suche nach Begründungswissen nutzen Technische Redakteure<br />

bereits seit einiger Zeit Forschungsergebnisse aus Nachbardisziplinen<br />

wie z. B. der Kognitionswissenschaft. Siehe dazu beispielhaft Kösler<br />

(1990) und Ballstaedt (1997). In den letzten Jahren haben sich jedoch<br />

zusätzliche Forschungsstränge gebildet, die ganz direkt auf Gegenstand<br />

und Prozess der Technischen Kommunikation abzielen. Zwei Beispiele<br />

dafür werden nachfolgend erläutert.<br />

Beispiel 1: Sind Screenshots hilfreich?<br />

Screenshots (Bildschirmfotos) sind das wichtigste Visualisierungsmittel<br />

in der Softwaredokumentation. Screenshots können unterschiedliche<br />

Informationsarten repräsentieren, z. B. ein Ziel vorwegnehmen, das<br />

Resultat einer Handlung abbilden oder die Ausführung einer Handlung<br />

selbst unterstützen. Der Einsatz von Screenshots resultiert jedoch in<br />

deutlich umfangreicheren Handbüchern und erhöht die Kosten bei der<br />

Erstellung und Pflege von Dokumentation. Wirkt sich der Einsatz von<br />

Screenshots tatsächlich positiv auf die Benutzbarkeit von Handbüchern<br />

und den Lernerfolg aus? Welche Funktionen werden von Screenshots<br />

effektiv übernommen und welche Design-Aspekte sind zu beachten?<br />

Die bisherige Forschung zeigt:<br />

−−<br />

Handbücher, in denen Screenshots systematisch zum Einsatz kommen,<br />

bewirken, dass Anwender beschriebene Handlungen schneller<br />

ausführen können (van der Meij, 1998) und weniger Trainingszeit<br />

benötigen (van der Meij, 1996).<br />

−−<br />

Screenshots erleichtern die Koordination der Lerner-Aktivität zwischen<br />

Eingabemedium (Tastatur/Maus), Ausgabemedium (Bildschirm)<br />

und dem Handbuch (Gellevij & van der Meij, 2002).<br />

−−<br />

Screenshots erleichtern den Aufbau eines mentalen Modells und führen<br />

zu einem besseren Verständnis der Funktionsweise der erlernten<br />

Software (Gellevij & van der Meij, 2004).<br />

−−<br />

Positive Effekte werden stärker durch Screenshots befördert, in denen<br />

der Bildschirminhalt komplett abgebildet wird (van der Meij,<br />

2000).<br />

Beispiel 2: „Minimal Manuals“: Ist weniger mehr?<br />

Viele Studien haben sich mit der Effektivität des von John M. Carroll<br />

und Kollegen entwickelten und unter der Bezeichnung „Minimalismus“<br />

bekannt gewordenen Instruktionsmodells für Handbücher und Tutorials<br />

gewidmet. Zentrale Annahmen des minimalistischen Instruktionsmodells<br />

sind unter anderem die strikte Handlungsorientierung, die<br />

konsequente Ausrichtung beschriebener Funktionen und Handlungssequenzen<br />

auf praxisrelevante Nutzungsszenarien, die Unterstützung<br />

explorativen Lernens und der bewusste Verzicht auf Informationen, die<br />

Anwender selbständig aus dem Nutzungskontext ableiten können, sowie<br />

die systematische Unterstützung der Anwender bei der Analyse und<br />

Korrektur von Bedienfehlern. Der Minimalismus regte eine bis heute<br />

anhaltende rege Forschungstätigkeit an. Befördern minimalistische<br />

70<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Hochschule und Wissenschaft<br />

Handbücher insgesamt effektiveres Lernen? Welche der Design-Prinzipien<br />

wirken sich tatsächlich positiv auf das Lernen aus?<br />

−−<br />

Handbücher und Tutorials, die minimalistischen Design-Prinzipien<br />

folgen, sind traditionell gestalteten Materialien überlegen. Sie verkürzen<br />

die Trainingszeit und führen zu einem insgesamt besseren Lernerfolg<br />

(Carroll et al., 1988). Anwender können beschriebene Handlungen<br />

zudem schneller ausführen (Kühn, 2004).<br />

−−<br />

Die Wirksamkeit einzelner Designfaktoren des minimalistischen<br />

Modells ist nur teilweise erforscht. Die Übergewichtung von Information<br />

zu Hilfe im Problemfall wirkt sich positiv auf die Lernergebnisse<br />

aus (Lazonder & van der Meij, 1995). Die Betonung explorativen Lernens<br />

trägt hingegen nicht zum höheren Lernerfolg bei. Strukturierte<br />

Übungen erweisen sich hier als effektiver (Wiedenbeck & Zila, 1997).<br />

−−<br />

Anwender lesen und verarbeiten auch Information, die für die Handlungsausführung<br />

nicht zwingend erforderlich ist, z. B. Erläuterungen<br />

zur Funktionsweise eines Softwareprogramms. Ob diese zusätzliche<br />

Information zur Effizienz der Handlungsausführung beiträgt, ist jedoch<br />

unklar (Karreman et al., 2005; Edelmann, 2003).<br />

Perspektiven<br />

Neben ersten vorsichtigen Antworten wirft die hier diskutierte Forschung<br />

viele offene Fragen auf. Eine drängende Frage ist z. B. die, ob<br />

die vornehmlich anhand von Softwaredokumentation gewonnenen<br />

Ergebnisse auf andere Domänen übertragen werden können. Dennoch<br />

hat Forschung wie diese großes Potential, zu einer Verbesserung Technischer<br />

Dokumentation beizutragen.<br />

Themenbereiche, in denen erste Ergebnisse vorliegen, die aber zukünftig<br />

noch stärker durch Forschung adressiert werden sollten, betreffen<br />

z. B. die Optimierung von Handlungssequenzen (hier speziell die Rolle<br />

beschreibender neben anleitender Information), die Wirkung motivationaler<br />

Gestaltungselemente auf Lernerfolg und Benutzbarkeit, die<br />

Lerneffektivität unterschiedlicher Standardisierungsmethoden und die<br />

Optimierung Technischer Dokumentation für ältere Anwender. Praktiker<br />

sind aufgefordert, Fragen und Probleme aus dem Redaktionsalltag<br />

in diese Forschung einzubringen. Die Wissenschaftler an Hochschulen<br />

und Forschungseinrichtungen stehen vor der Aufgabe, angewandte Forschung<br />

zu verstärken, um Fragen aus der Alltagspraxis einer Antwort<br />

näher zu bringen.<br />

Literatur (Auswahl)<br />

Carroll, John M.; Smith-Kerker, Penny L.; Ford, Jim R.; Mazur-Rimetz,<br />

Sandra A. (1988): The Minimal Manual. In: Stephen Doheny-Farina<br />

(Hrsg.): Effective Documentation. What We Have Learned from Research.<br />

Cambridge, Mass: MIT Press, pp. 73–102.<br />

Gellevij, Mark; van der Meij, Hans (2004): Empirical Proof for Presenting<br />

Screen Captures in Software Documentation. Technical Communication<br />

51 (2), pp. 224–258.<br />

Krings, Hans P. (1996): Wieviel Wissenschaft brauchen Technische Redakteure?<br />

Zum Verhältnis von Wissenschaft und Praxis in der Technischen<br />

Dokumentation. In: Hans P. Krings (Hrsg.): Wissenschaftliche<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

71


Hochschule und Wissenschaft<br />

Grundlagen der Technischen Kommunikation. Tübingen: Gunter Narr<br />

Verlag, pp. 5–128.<br />

Kühn, Cornelia (2004): Handlungsorientierte Gestaltung von Bedienungsanleitungen.<br />

Lübeck: Schmidt-Römhild (<strong>tekom</strong> Hochschulschriften,<br />

10).<br />

van der Meij, Hans (2000): The role and design of screen images in<br />

software documentation. Journal of Computer Assisted Learning 16,<br />

pp. 294–306.<br />

van der Meij, Hans; Karreman, Joyce; Steehouder, Michael (2009): Three<br />

Decades of Research and Professional Practice on Printed Software<br />

Tutorials for Novices. Technical Communication 56 (3), pp. 265–292.<br />

für Rückfragen: michael.meng@hs-merseburg.de<br />

72<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Hochschule und Wissenschaft<br />

HUW 2<br />

Fachvortrag<br />

Sprachtechnologie aus der<br />

Anwenderperspektive – Ergebnisse<br />

eines Forschungsprojekts<br />

Ana Hoffmeister, Volkswagen AG, Wolfsburg<br />

„Ich glaube an das Pferd. Das Automobil ist nur eine vorübergehende<br />

Erscheinung“. So kommentierte Kaiser Wilhelm II. die Innovation des<br />

späten 19. Jahrhunderts. Nach 125 Jahren Automobilgeschichte können<br />

wir ihn heute eines Besseren belehren: Das Automobil ist ein weltweites<br />

Massenprodukt, die Automobilindustrie der umsatzstärkste Industriezweig<br />

Deutschlands und der Kaiser – ein technophober Skeptiker seiner<br />

Zeit?<br />

Von Innovatoren und Nachzüglern<br />

Menschen reagieren unterschiedlich auf Innovationen und akzeptieren<br />

diese in verschiedenen Geschwindigkeiten. Damals wie heute gibt es<br />

Nachzügler (engl.: laggards), die sich erst dann von einer Innovation<br />

überzeugen lassen, wenn sich diese als bewährter Standard in der Gesellschaft<br />

etabliert hat. Diese Anwendergruppe ist kaum risikobereit,<br />

dafür aber umso skeptischer und stärker in Traditionen verwurzelt.<br />

Innovatoren (engl.: innovators) hingegen – wir kennen sie alle – gehören<br />

immer zu den ersten, wenn es um die Anschaffung neuester Technologien<br />

geht. Neugierig und mit Selbstverständlichkeit testen sie neue Produkte<br />

und sind dem Rest der Gesellschaft immer einen Schritt voraus.<br />

Diese beiden Extrempositionen sind im Verhältnis zwar eine Minderheit,<br />

können aber die Akzeptanz einer Innovation fördern oder auch beeinträchtigen.<br />

Sie nehmen Einfluss auf die breite Masse, die sich früher<br />

oder später für oder gegen die Innovation entscheidet.<br />

Abb. 1: Typische Verteilung der Adoptionstypen nach Rogers [1]<br />

Einführung von Sprachtechnologie in der Praxis<br />

Sprachtechnologien sind Innovationen unserer Zeit und haben sich<br />

zum Teil bereits zu einem Massenprodukt entwickelt. Die Herstellerund<br />

Produktvielfalt auf dem Markt ist ein Spiegel dieser Entwicklung.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

73


Hochschule und Wissenschaft<br />

Wie unterschiedlich Anwender auf die Einführung von Sprachtechnologie<br />

reagieren, zeigen Ergebnisse eines Forschungsprojekts innerhalb<br />

der Technischen Dokumentation. [2]<br />

Über zwei Jahre wurde eine Gruppe von Technischen Redakteuren<br />

bei der Einführung eines Controlled Language Checkers und ihrer<br />

operativen Tätigkeit begleitet und befragt. Die Ergebnisse zeigen den<br />

Einfluss von anwenderbezogenen Faktoren auf die Qualität der Ergebnisse<br />

und den langfristigen Erfolg von Sprachtechnologie in der<br />

Unternehmenspraxis.<br />

Lernprozesse und Unterschiede in der Wahrnehmung von Sprachtechnologie<br />

bei Innovatoren und Nachzüglern konnten, neben dem Alter<br />

und der Qualifikation der Anwender, als Erfolgsfaktoren identifiziert<br />

werden. Ferner beeinflusste die persönliche Motivation der Anwender<br />

die Effizienz der Arbeitsabläufe mit dem Controlled Language Checker<br />

und somit auch die Qualität der geprüften Texte. In der Praxis können<br />

zwei verschiedene Motivationstypen beobachtet werden:<br />

1. Die Anwender arbeiten entweder aus Überzeugung und mit der Absicht,<br />

das Werkzeug vollständig zu beherrschen (intrinsisch motiviert)<br />

2. oder aufgrund von externen Faktoren, um eine Belohnung zu erhalten<br />

oder eine Bestrafung zu vermeiden (extrinsisch motiviert).<br />

Verschiedene Studien belegen, dass intrinsisch motiviertes Lernen<br />

vergleichsweise bessere Arbeitsergebnisse und vor allem langfristigere<br />

Lerneffekte erzeugt, als extrinsisch motiviertes Lernen. Dies macht sich<br />

in der Praxis in einem tieferen Verständnis über das eingesetzte Tool<br />

und somit in effizienten Arbeitsabläufen und qualitativ besseren Ergebnissen<br />

bemerkbar – Faktoren, die den Erfolg der eingesetzten Sprachtechnologie<br />

langfristig beeinflussen.<br />

Voraussetzungen für intrinsisch motiviertes Handeln ist die Erfüllung<br />

von drei Grundbedürfnissen des Menschen: [3]<br />

1. Kompetenzerleben<br />

2. Autonomieempfinden<br />

3. Soziale Eingebundenheit<br />

Mit der Erfüllung dieser Grundbedürfnisse und der Förderung intrinsischer<br />

Motivation ist ein langfristig erfolgreicher und effizienter Einsatz<br />

von Sprachtechnologie möglich.<br />

Handlungsempfehlungen<br />

In der Praxis liegt die Entscheidung, ob und in welchem Umfang<br />

Sprachtechnologie verwendet wird, selten bei den Anwendern selbst.<br />

Entscheidungsträger können jedoch durch den Blick auf die Anwender<br />

den erfolgreichen Einsatz von Sprachtechnologie beeinflussen. Aus der<br />

Praxis heraus kann daher Folgendes empfohlen werden, um die intrinsische<br />

Motivation stärker anzusprechen:<br />

−−<br />

Anwendern frühzeitig den Sinn und die Vorteile der Sprachtechnologie<br />

veranschaulichen. Dabei mit praktischen Beispielen arbeiten (z. B.<br />

mit dem Textmaterial der Anwender).<br />

−−<br />

Arbeitsauftrag bzgl. der Anwendung von Sprachtechnologie klar, verständlich<br />

und wirksam kommunizieren.<br />

74<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Hochschule und Wissenschaft<br />

−−<br />

Innovatoren frühzeitig identifizieren und als Multiplikatoren in der<br />

Einführungsphase einsetzen; Nachzügler mit zusätzlichen Hilfestellungen<br />

überzeugen.<br />

−−<br />

Kompetenzerleben und Selbstbestimmung in der Anwendung mit<br />

dem System hervorheben und ggf. fördern; das Bedürfnis nach sozialer<br />

Eingebundenheit durch Vernetzung und Austausch zwischen den<br />

Anwendern erfüllen.<br />

−−<br />

Regelmäßig Feedback einholen – Anwender kennen die Stärken und<br />

Schwächen des Systems; Kritik der Anwender als Chance zur Prozess-<br />

und Systemverbesserung ernstnehmen.<br />

Literatur<br />

[1] Rogers, E. M. (2003): Diffusion of innovations. New York, NY: Free<br />

Press.<br />

[2] Hoffmeister, A. (<strong>2012</strong>): Qualitätsmanagement in der Technischen<br />

Dokumentation. Am Beispiel der Volkswagen AG „After Sales Technik“.<br />

Saarbrücker Beiträge zur Sprach- und Translationswissenschaft. Band<br />

24. Frankfurt a. M.: Peter Lang (in Druck).<br />

[3] Deci, Edward L.; Ryan, R. M. (1993): Die Selbstbestimmungstheorie<br />

der Motivation und ihre Bedeutung für die Pädagogik. In: Zeitschrift für<br />

Pädagogik, S. 223–238.<br />

für Rückfragen: ana.hoffmeister@volkswagen.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

75


International Management


International Management<br />

IM 1<br />

Presentation<br />

Status of Mobile Documentation<br />

in South Korea<br />

Brian Cho, HansemEUG, Inc., Gyeonggi-do, South Korea<br />

Danbi Kwak, HansemEUG, Inc., Gyeonggi-do, South Korea<br />

Electronic manual development is gaining momentum in S. Korea<br />

Due to convenience and newly-introduced technologies, major manufacturers<br />

who develop consumer products in Korea are trying to offer<br />

their product manuals in electronic formats to provide supplemental explanations<br />

to end-users, rather than conventional paper manuals, which<br />

have significant limitations. In this presentation, we will categorize various<br />

types of electronic manuals from our recent experiences and show<br />

actual samples that were requested from global manufacturers who are<br />

based in S. Korea:<br />

−−<br />

PDF (conventional and plain)<br />

−−<br />

HTML (Cross-browsing or browser specific)<br />

−−<br />

Applications for specific platforms<br />

−−<br />

Movie clips for supplemental purposes<br />

Fertile environment for development of electronic documentation<br />

The favourable environment for developing software, an abundant<br />

workforce, and aggressive marketing has benefitted global manufacturers<br />

from Korea in other areas, but how does this environment benefit<br />

the documentation industry?<br />

Awareness of market demand for electronic documentation<br />

Most manufacturers are focused on publishing electronic formats and<br />

trying to embed documentation into the device or provide it on a website<br />

with the primary goal of minimizing printing and distribution costs.<br />

However, this approach has only resulted in additional costs to the<br />

manufacturer, because import regulations in several countries require<br />

printed documentation. So, does the market demand for electronic documentation<br />

present a real business opportunity?<br />

Proliferation of mobile devices in the market<br />

Due to many variations in operating systems and mobile devices in the<br />

market, configuring documentation to be viewable on mobile devices is<br />

a challenge to creating electronic documentation. Selecting the proper<br />

layouts and rendering engines is an important step.<br />

Readiness of the documentation industry to implement<br />

electronic documentation in Korea<br />

−−<br />

What workflows or processes are used to develop electronic documentation?<br />

−−<br />

Is Korea’s TC industry mature enough to implement or adopt the necessary<br />

methods and tools?<br />

−−<br />

Is the workforce sufficiently knowledgeable about the design and<br />

structure of electronic documentation?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

79


International Management<br />

Challenges faced when developing electronic documentation<br />

−−<br />

Platform specific or independent (cross-platform)?<br />

−−<br />

Screen sizes and resolutions, as well as readability concerns: browserrendering<br />

engines, widely-used screen sizes in desktops and portable<br />

devices, responsive web outputs, adaptive web outputs<br />

−−<br />

Cost-conscious mindset of clients and turnaround times<br />

−−<br />

Readily-available technologies and experts<br />

Predicting trends in electronic publishing<br />

−−<br />

Current environment: simple conversion from paper to electronic<br />

formats, gradual transition to platform-specific documentation<br />

−−<br />

Within five years: customized user experience based on usage patterns,<br />

enhanced search functions and app-based documentation<br />

−−<br />

In a decade: artificial intelligence engines, true personal assistance<br />

via interactions with end users<br />

If you have any questions please contact: briancho@ezuserguide.com<br />

80<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

IM 2<br />

Presentation<br />

How Japanese companies reflect the<br />

voices of customers on their products<br />

Toshimasa Yamazaki, Japan Technical Communicators Association, Tokyo, Japan<br />

A brand can be regarded as an accumulation of experiences. With the<br />

aim of giving customers the satisfaction of happiness and appreciation,<br />

Japanese manufacturers of home electric appliances study information<br />

collected on every aspect of customers’ purchase and use of products.<br />

The activities of “Customer Call Centers” which come in direct contact<br />

with customers, play a particularly influential role in improving products<br />

and increasing the number of repeat customers. This paper introduces<br />

examples of VOC activities using a case study of a home electric<br />

appliance manufacturer as an example.<br />

VOC case studies involving other industries will be introduced during<br />

presentations at tcworld <strong>2012</strong>.<br />

1. Case study: How a home electric appliance manufacturer makes<br />

use of the voice of customers (data provided by Panasonic)<br />

“VOC” stands for “Voice of Customer,” and Panasonic takes the voice of<br />

its customers very seriously, undertaking FOC activities aimed at hearing<br />

issues raised by customers and raising the level of management<br />

quality to resolve issues.<br />

This represents an actualization of Panasonic’s management philosophy,<br />

and is an activity that is incorporated into all work of all employees.<br />

Panasonic gathers VOC information through the customer contacts of its<br />

customer call center, sales force, and corporate clients (business partners).<br />

Panasonic regards VOC information as a “treasure trove” to be<br />

exploited in the interest of product development and improvements in<br />

functionality, quality, and service.<br />

Through its customer call center and development departments, Panasonic<br />

responds to and analyzes this valuable resource on a daily basis,<br />

and undertakes ongoing deliberations and improvement efforts in cooperation<br />

with the product projects, design, technology, quality, and marketing/sales<br />

departments.<br />

Step 1: The customer call center responds to telephone and mail inquiries<br />

received from customers on a daily basis.<br />

The sales department also receives VOC information from sales personnel<br />

and clients.<br />

Step 2: Collation of VOC information<br />

VOC information is recorded, entered into a database, and analyzed on a<br />

daily basis.<br />

Step 3: VOC info is used to identify needed improvements<br />

Based on VOC information, conditions that contribute to making products<br />

or use manuals difficult to use are analyzed and issues that require<br />

improvement are considered.<br />

Step 4: VOC info is used to improve products and manuals<br />

Deliberative committees are convened in departments responsible for<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

81


International Management<br />

product development or production of use manuals, and measures are<br />

taken to improve the quality of delivered products or services.<br />

Case 1: Improvement of package information<br />

Voice of customer<br />

−−<br />

Package markings indicating voltage of rechargeable EVOLTA batteries<br />

are small and hard to read<br />

−−<br />

Putting specs on package back makes them hard to find<br />

−−<br />

Unclear whether batteries can be used without charging immediately<br />

after purchase<br />

Before improvement<br />

After improvement<br />

Case 2: Web site (customer support page) improvement<br />

Voice of customer<br />

Would like to buy replacement consumable parts for faucet on unit<br />

kitchen, but can’t find part number of faucet<br />

Improvements made:<br />

−−<br />

Photographs of faucets placed on Web site together with part numbers.<br />

−−<br />

Exploded drawings provided for each model, indicating part numbers<br />

of consumable parts.<br />

82<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

2. Typical VOC utilization process (data provided by Panasonic)<br />

VOC information flow and product improvement<br />

Many of Japan’s manufacturers have built support systems that utilize<br />

the Web to provide customer support. This has produced a boom in “Instant<br />

support, 24 hours/day, 365 days/year,” and “Interactive Q&A-type<br />

support using rich media (video and audio).”<br />

The background for this is the attractiveness of Web support as a means<br />

of ameliorating dissatisfaction with support by telephone or printed<br />

material.<br />

(Main complaints about support by telephone or printed material)<br />

→ (With the introduction of Web support)<br />

Having to call is a bother → Web support can be used freely, without<br />

hesitation<br />

It’s hard to get through by phone. → Can be used at customer’s<br />

convenience<br />

Manual illustrations by themselves are hard to understand. → Can use<br />

actual product photos and videos<br />

Doesn’t provide the latest information. → Latest information can always<br />

be made available<br />

Which explanation applies to me? → Interactive assessment zeroes in<br />

on explanation fitting customer’s situation<br />

Explanations are complication and hard to understand. → Always evolving<br />

based on VOC info<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

83


International Management<br />

3. What do consumers expect of manuals?<br />

Following are the top ten printed manual improvements expected by<br />

consumers, ranked in order of priority.<br />

Source: “Consumer” magazine, published monthly by the Japan Consumers<br />

Association (May, 2009).<br />

1. Larger text size<br />

2. More concise explanations<br />

3. More use of illustrations and photographs<br />

4. Avoidance of specialized vocabulary<br />

5. Thinner manuals<br />

6. Elderly-friendly manuals<br />

7. Beginner-friendly manuals<br />

8. Putting main, “other” features into separate booklets<br />

9. Less use of phoneticized foreign words (such as katakana)<br />

10. Easy to use indexes and thumb tabs<br />

These improvement points can be regarded as the key issues in producing<br />

printed manuals for the Japanese market. “Greater noticeability of<br />

safety information” ranked 16th among consumers, but from the manufacturers’<br />

perspective, such information is of great importance.<br />

From the survey, achieving consumer satisfaction in manuals produced<br />

for multifunction products requires “concise clarity,” “writing in plain<br />

language,” “making safety information more prominent,” “extensive use<br />

of graphics,” and “greater attention to storability.”<br />

4. The 7 traits of good printed manuals<br />

A “good printed manual” must meet the following seven conditions.<br />

These conditions are excerpted from the evaluation standards used for<br />

judging in the Japan manuals contest that is sponsored by the Japan<br />

Technical Communicators Association Foundation, in which manuals<br />

are judged for composition, writing quality, and design.<br />

1. Understandability<br />

2. Accuracy<br />

3. Attractiveness<br />

4. Searchability<br />

5. Ease of use<br />

6. Usefulness<br />

7. Consideration for consumer protection<br />

These conditions should be used as a checklist when producing consumer<br />

instruction manuals for the Japanese market.<br />

The following are examples of three defects encountered in sub-standard<br />

printed manuals (from results of the Japan manuals contest).<br />

(1) Content not suited to consumer needs<br />

−−<br />

Needed information missing, or irrelevant information included<br />

−−<br />

Structure too complicated, or inconsistent informational hierarchies<br />

−−<br />

Too much information, resulting in manuals that are too thick<br />

84<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

(2) Text hard to understand<br />

−−<br />

Poor Japanese<br />

−−<br />

Excessive use of difficult technical terms<br />

−−<br />

Inconsistent use of Japanese characters or vocabulary<br />

(3) Unattractive design<br />

−−<br />

Relevant points not easy to understand<br />

−−<br />

High text density, small characters<br />

−−<br />

Boring, pedantic style<br />

Contact: yamazaki@jtca.org<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

85


International Management<br />

IM 3<br />

Presentation<br />

Tenders and<br />

biddings today<br />

Different criteria and<br />

levers for choosing<br />

products, systems<br />

and services<br />

Tenders, biddings, requests for…<br />

How customers get what they really need<br />

Thomas Hayk, Hitchensen AG, Zürich, Schweiz<br />

Tenders and biddings absorb a lot of time and money on customer’s<br />

and supplier’s side. To reduce the efforts and to concentrate on the real<br />

needs, existing patterns should be remodelled and procurement organizations<br />

should rethink current techniques.<br />

The presentation and discussion aims to elaborate on success factors<br />

to choose the right provider and solution for systems and services for<br />

content management or translation services.<br />

Since the 1960s the purchasing function has evolved from an administrative<br />

role (order placing) into an integrated and strategic function.<br />

Increasing outsourcing activities made it necessary to better control the<br />

supply chain. Nowadays third party spend exceeds 50% or more of the<br />

total revenue of globally acting companies.<br />

Therefore procurement methods and tools have been developed to<br />

serve the procurement of strategic (direct) materials for manufacturing.<br />

Recently these purchasing methods have also been used to manage indirect<br />

spend such as IT/Software or services. This is a problem. Let me<br />

explain why.<br />

Direct material<br />

Criteria for 3 rd party products for manufacturing have to be balanced in<br />

a triangle of cost, quality and availability. To achieve this, ideally standard<br />

components are to be used. Most manufacturing companies buy also<br />

a lot of customized parts. Depending on the complexity and quantity,<br />

these have to be produced on the right machine or with the ideal process<br />

(automatic, semi-automatic etc.) in order to fulfill cost and quality<br />

requirements.<br />

Levers to choose the right products<br />

In standardized RFQs/RFPs or other types for tendering, cost transparency<br />

and cost comparison is granted to the customer. That leads to a<br />

good understanding of the product. Standard contracts transfer most<br />

of the risks to suppliers and several negotiation rounds lead to a good<br />

result at the end. This is accompanied by standardized supplier and risk<br />

management processes to ensure compliance with policies. Depending<br />

on the balance of power suppliers mainly accept the dictate and try to<br />

find niches where their power is bigger and they can earn money.<br />

Systems<br />

Criteria for 3 rd party systems differ from those for products. A system<br />

mostly brings an own functionality that contributes to a high degree to<br />

the performance of the final “product” and thus has an influence on the<br />

competitiveness or supports productivity. Furthermore intelligent systems<br />

help to ensure sustainable growth in the future.<br />

86<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

Risks and threats<br />

Levers to choose the right systems and services<br />

Tenders, biddings or requests for quotation, proposal or information etc.<br />

which currently mostly focus on transparency and cost, regularly lead to<br />

wrong decisions when it comes to systems and services.<br />

What is said here mainly fits to systems but most of it is also true for<br />

services.<br />

Good systems and their successful integration into existing environments<br />

require mainly skills on the supplier side that cannot be measured:<br />

Ability to work in cross-functional and cross-company teams or<br />

knowledge sharing to enable common developments. Furthermore, deep<br />

knowledge of special technologies is mostly needed. Not to forget the<br />

engagement of every involved employee.<br />

Instead of a focus on cost, supplier and customer should focus on an<br />

alignment of interests. In addition to that they also must trust each<br />

other to ensure that both parties “run into the right direction”.<br />

The question to be answered during the bidding phase for systems and<br />

services is not: “What is the cheapest solution to my problem?” but “Who<br />

helps me to be competitive and innovative in the future?”<br />

Innovation is missed<br />

If customers don’t manage to choose the right suppliers or partners for<br />

systems and services, they are not prepared for future challenges on<br />

global markets where factor cost always can be underbid. Future competitiveness<br />

needs innovation throughout all product life cycle steps<br />

and via the whole supply chain.<br />

High non conformity cost (NCC)<br />

Empirical experience shows that 60–70% of follow-up cost appear during<br />

or after project execution but their cause is to be found during the<br />

decision phase. NCC examples are:<br />

−−<br />

Project target missed (time and/or budget)<br />

−−<br />

Rework before going life<br />

−−<br />

Rework after going life<br />

What goes wrong during the decision phase?<br />

The wrong questions are asked, misleading incentives such as “savings”<br />

are set and the courage for a big innovation and change is missing. If<br />

expectations are high, small innovations or adjustments to existing systems<br />

won’t deliver sufficient results.<br />

How to do it right?<br />

Cost-focused tenders or biddings are not suitable for systems and services.<br />

Below list of suggestions shall trigger discussions and change<br />

current techniques.<br />

−−<br />

Don’t incentivise cost savings.<br />

Sustainable long term success should be honored instead.<br />

−−<br />

Avoid concurrent targets among team members.<br />

For example don’t define for IT stuff that new systems must be avoided<br />

while other team members should spot new innovative software.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

87


International Management<br />

−−<br />

Don’t measure quality with certificates<br />

DIN EN ISO 9001 does not guarantee a good result. Quality can only<br />

be evaluated during or after the cooperation when the “honeymoon<br />

period” is over.<br />

−−<br />

Trust that the team comes up with the right decision.<br />

Employees are the most valuable resource in a company. Don’t control<br />

them.<br />

−−<br />

Define principles and guidelines instead of binding regulations.<br />

The more freedom a team has, the more responsible everyone acts.<br />

−−<br />

Staff the team (buying center) with the right persons and make sure<br />

that know how carrier are freed from daily work to participate.<br />

This is the most underestimated issue. A team consistent of e.g. a<br />

buyer, a quality manager and a business process specialist is not the<br />

right set-up.<br />

−−<br />

Have fair (real! win-win) contracts.<br />

Otherwise nobody feels comfortable to negotiate it with the supplier.<br />

−−<br />

Use agile methods to gain experiences with different suppliers in<br />

small projects.<br />

Gain experience during daily work. This requires upfront strategic<br />

planning to have adequate suppliers in place.<br />

−−<br />

Apply a no-tactics approach.<br />

Openly discuss interests and be fair in the team and towards suppliers.<br />

Try to increase the size of the cake instead of focusing on claiming<br />

the largest part (Be a baker not an eater).<br />

−−<br />

Conduct concept competitions instead of using “best of bread”<br />

Best of bread = the best parts of all supplier answers are copied to<br />

one tender specification and send out for a last best offer. With this<br />

method you lose the power of the different concepts. Stick to one<br />

concept.<br />

−−<br />

Involve suppliers in the very early project phase.<br />

Make use of their knowledge, quickly decide on the right concept and<br />

go with one supplier from that point.<br />

Contact: thomas.hayk@hitchensen.com<br />

88<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

IM 4<br />

Presentation<br />

Improve the Efficiency and Quality of your<br />

Localization Management based on the Global<br />

Information Management Self Assessment<br />

Dr. Axel Poestges, SDL, Stuttgart<br />

Global information management is a management system like quality<br />

and environmental management systems. As you would expect, global<br />

information management systems are tied strongly to business models<br />

and are of great strategic importance. As with any management system,<br />

the desired outcome of global information management is to create<br />

momentum for continuous improvement. However, in order to develop<br />

and optimize the system, it is essential to have a detailed understanding<br />

of the company’s background and current situation. Best practices available<br />

for attaining this knowledge are limited and truly goal-oriented<br />

tools are not well known, so how is it possible to optimize something if<br />

the tools and methods do not exist.<br />

Why is the Global Information Management system so important?<br />

Management systems have differing levels of strategic importance and<br />

vary considerably in the scope and depth of their influence throughout<br />

the lifecycle of a product. In turn, the information supply chain becomes<br />

more complex when a greater number of different resources are involved<br />

in the value creation process, and when the value creation process<br />

itself is interconnected on a more global scale. Companies that simply<br />

offer one product in specific local markets place different demands<br />

on the information supply chain than global players. Global Information<br />

Management is a complexity driver that is difficult to control and that<br />

also has a significant influence on costs. Companies that wish to create a<br />

global footprint must be experts in controlling their Global Information<br />

Management system; otherwise, the results of their globalization strategy<br />

will always be less than ideal.<br />

How is the Global Information Management Self Assessment used?<br />

The Global Information Management Self Assessment is an IT-supported<br />

tool for establishing requirements for your Global Information<br />

Management system. As the name suggests, the assessment is based<br />

on knowledge acquired from best practices used by successful global<br />

players, as well as a comprehensive range of benchmark information,<br />

to allow companies with a global orientation to establish themselves<br />

successfully.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

89


International Management<br />

The Global Information Management Self Assessment covers all areas of<br />

the Information Supply Chain and allows for an individual position fixing.<br />

The Global Information Management Self Assessment comprises three<br />

modules:<br />

−−<br />

Analysis<br />

−−<br />

Evaluation<br />

−−<br />

Interpretation<br />

The analysis module is based on a comprehensive questionnaire, which<br />

contains multiple-choice questions in addition to descriptions and<br />

questions to gather quantitative data. This questionnaire can either be<br />

answered separately by the relevant departments or it can be filled out<br />

together as part of a workshop lasting several days. Once all questions<br />

have been answered in full, the questionnaire is assessed using an ITsupported<br />

tool during the evaluation stage. The results are documented<br />

and presented by means of a wide range of diagrams with differing<br />

levels of detail.<br />

The main diagram is a spider‘s web chart showing the status at all phases<br />

of the information lifecycle compared to industry standards and best<br />

practices. This diagram allows gaps and areas requiring improvement<br />

within the company to be identified immediately.<br />

90<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

The spider’s web as main diagram of the Global Information Management<br />

Self Assessment shows, where the company stands compared to industry<br />

best practices.<br />

During the interpretation phase, the gaps that have been identified are<br />

compared to typical successful projects in comparable sectors and evaluated<br />

using the relevant benchmark data before potential for improvement<br />

is determined. Potential for improvement can then be represented<br />

immediately as a business case in a separate project.<br />

What results can be expected?<br />

The Global Information Management Self Assessment delivers clear<br />

priorities for action, provides a focus for associated tasks and supplies<br />

qualitative and quantitative objectives for systematic change management.<br />

Since the data is exclusively based on best practices from a range<br />

of industries, the examples provided with the project results can be<br />

used as a benchmark for subsequent activities. In this paper, two current<br />

examples involving clients at large global corporations will be presented.<br />

Both companies were able to optimize their Global Information<br />

Management strategy successfully using the results generated by the<br />

self assessment tool.<br />

Find out more about this topic during the workshop<br />

This paper can only provide a brief overview of a powerful tool like the<br />

Global Information Management Self Assessment. Anyone who would<br />

like to find out more about the methods and the tool itself is invited to<br />

attend the associated workshop (PKM6; Wednesday October 24, <strong>2012</strong>,<br />

11.15 a.m. to 1.00 p.m.). This workshop will provide a more detailed explanation<br />

of the entire concept and will give practical examples of data<br />

collection, evaluation and interpretation.<br />

If you have any questions, please contact: apoestges@sdl.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

91


International Management<br />

IM 7<br />

Presentation<br />

Machine Translation in Action<br />

Tony Lee, Saltlux, Inc., Seoul<br />

Recently, machine translation technologies have been used comprehensively<br />

in the technical translation industry. This means a great change in<br />

the translation industry, as commercial use of the machine translation<br />

system was considered taboo in the past due to poor quality. This presentation<br />

is to show the development and trend in machine translation<br />

and introduce various cases of the application, especially in Asia. In addition,<br />

we will present the guidelines for practical operation of the machine<br />

translation that allows high-quality, low-cost, and a large amount<br />

of translation in a short period of time. Last, this presentation demonstrates<br />

various cases of application of machine translation including<br />

mobile interpreters, and suggests the plans for its future development.<br />

Machine Translation Chronicle<br />

According to the Bible, there was only one language for humans prior to<br />

the Tower of Babel. At present, there are about 6900 spoken languages<br />

on earth. In Asia, there are 2200 different languages, which amount to<br />

almost 10 times compared to 230 languages used in Europe. Despite the<br />

fact that the language serves as the basis of knowledge transmission<br />

and the source of developing and maintaining the society and culture,<br />

it is mysterious to figure out how so many languages have individually<br />

been developed. The Bible, the world’s most widely translated book,<br />

has been translated into about 2200 languages. What do you think is<br />

the actual size of the commercial translation market? It is estimated<br />

at approximately 10–30 billion US dollars, though it is very difficult to<br />

correctly figure out. Then, why is it so difficult for translation vendors to<br />

ensure its profitability? Why is it so hard to find a remarkable innovation<br />

in translation industry for the past 5,000 years? In the middle of<br />

these questions is machine translation.<br />

The early idea of machine translation originates from René Descartes<br />

about 500 years ago. The first Machine Translation (MT) system actually<br />

operated was developed by the US government and IBM to automatically<br />

translate Russian into English in 1954 at the beginning of the Cold<br />

War era. The MT system was developed as the most important application<br />

when the computer was invented for the first time. The first MT<br />

system developed by IBM was able to translate about 10 sentences per<br />

second. The cost of the MT system is estimated at 4 million US dollars<br />

based on the current value. Not many people know that the computing<br />

power of Apple iPhone currently used by individuals is superior to<br />

that of the supercomputer used to send a man to the moon by National<br />

Aeronautic and Space Administration (NASA) in 1969. The computer<br />

technologies, which have undergone innovation for the last 50 years,<br />

currently allow big data processing based on cloud computing. This also<br />

provides a turning point for machine translation.<br />

Technical Landscape of MT<br />

Most of the initial MT systems have used a rule-based transfer method.<br />

As it became possible to use the superior computing power at a reasonable<br />

cost since 2000, the statistical machine translation (SMT) based<br />

on machine learning (ML) came into the spotlight. Actually, the recent<br />

92<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

MT systems including Google are rooted in SMT for the most part. It is<br />

apparent that SMT is a quite advanced technology that shows how the<br />

computer automatically learns the knowledge of translation and makes<br />

its own translations. SMT has a strong point that it is able to perform<br />

domain customization rapidly, if provided with sufficient corpus. Then,<br />

why is it impossible for SMT to substitute human translation? The reasons<br />

lie in its inferior translation quality and the inability of making<br />

“perfect lies” required occasionally for translation, as well as its technological<br />

characteristics that make it difficult for human to participate in<br />

and have a delicate control.<br />

Our expectation for the MT system is very clear: inexpensive and rapid<br />

post editing, high-quality translation, cost reduction, and easy implementation<br />

of the custom engine appropriate for the specific domain or<br />

customer. Additionally, it is required to ensure consistency in translation,<br />

immediate participation of human translators or project managers,<br />

and real-time quality improvement through active learning. I would like<br />

to show how these requirements apply to the recent MT systems in this<br />

presentation.<br />

The development of the MT systems for Asian languages began in Japan<br />

and Korea at the beginning of 1980. The focus of the development was<br />

on translation between English and Japanese or between English and<br />

Korea. However, high quality enough for commercial application was<br />

not ensured until the 2000s. Machine translation between Japanese and<br />

Korean showed 95% of accuracy with regard to the translation quality at<br />

the beginning of 2000, due to their similar language structures. So it was<br />

actually employed in various commercial services. The most popular<br />

language spoken worldwide is Chinese. Almost 15% of the world population<br />

is speaking Chinese, which amounts to the sum of the population<br />

using English, Spanish, and Hindi. The recent development of translation<br />

technologies is focused on translation from Chinese to Japanese,<br />

Korean, and English. However, satisfactory quality of translation seems<br />

a long way away. This presentation will introduce its specific cases,<br />

translation quality, and commercial application.<br />

Practical MTs for Technical Communication<br />

It is obvious that MT will be employed for the larger range of the Technical<br />

Communication (TC) industry. But the problem is how to employ<br />

insufficient quality of translation and the hard-to-handle MT system in<br />

the actual translation work. In this presentation, we will introduce the<br />

application system based on various MTs that Saltlux, Inc. has developed<br />

and applied for the past 20 years, and explain how to achieve practical<br />

quality at a reasonable cost. Especially, Saltlux, as a representative<br />

Multi-Language Vendor (MLV) in Asia, is providing high-quality human<br />

translation services. Saltlux aims to not only share the experience and<br />

vision in bringing about innovation in the translation industry through<br />

collaboration of machine and human. But it also searches for and expands<br />

the service for new groups of customers. To help your understanding,<br />

we will demonstrate the hybrid machine translation platform<br />

linked to the social network, and show the mobile translation capable of<br />

voice input and output.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

93


International Management<br />

The Art of War<br />

We are certain that it is almost impossible to replace human translation<br />

with machine translation for a considerably long period of time. The<br />

core competitiveness of the MT system is not to replace human translators,<br />

but to support them for their efficient work. For this, it is necessary<br />

to ensure the strategic system for facilitating human-machine collaboration<br />

and sharing and reapplying the translation knowledge. Especially,<br />

a new work process is required to dynamically train translators for getting<br />

familiar with the MT system to maximize the intellectual value of<br />

human beings, as well as performing the post-editing for the resultant<br />

translations conducted by the MT system.<br />

This presentation will provide a new form of a workflow for dynamic<br />

human-machine collaboration and the system idea based on the workflow.<br />

Additionally, we will also present the future development plan by<br />

explaining how the MT system combined with Computer-Aided Translation<br />

(CAT) communicates with humans via social network.<br />

For any further questions, please contact:<br />

Tony LEE, tony@saltlux.com<br />

Seokwhan SHIN, shshin@saltlux.com<br />

94<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

IM 8<br />

Presentation<br />

Technical writing for the machinery<br />

industry in India: a success story<br />

Ivo Sturzenegger, PackSys Global , Switzerland,<br />

L. Simeon, PackSys Global, India<br />

Introduction<br />

PackSys Global India (PSI) is part of the PackSys Global group of companies<br />

owned by Brückner Technology Holding (Germany). We have<br />

more than 50 years of experience in developing, manufacturing & marketing<br />

complex machineries globally. PackSys Global (India) is an engineering<br />

services arm of PackSys Global (Switzerland). Under the brand<br />

Conea, PackSys Global (India) offers design and documentation services<br />

to group companies as well as to other machinery manufacturers.<br />

In this document we give an overview of our current standards of technical<br />

documentation @ conea and the organisational environment enabling<br />

this.<br />

The dynamics of the environment at machine manufacturer’s and<br />

their customers, namely the increasing complexity of the machine, the<br />

shrinking time for machine development, customer expectations and<br />

the increasing focus on cost reduction made us to revamp our existing<br />

documentation processes and standards. We did an analysis and identified<br />

the areas on which we need to improve our documentation services.<br />

A summary of this analysis is given in the below table.<br />

This analysis gave us a clear indication of the direction which we need<br />

to take for revamping our documentation services. We had to invest not<br />

only in software but also in the complete environment surrounding our<br />

services. Some of the environmental factors were already available, but<br />

we had to adapt/add some others.<br />

The conea technical documentation environment<br />

1. Staff know-how:<br />

The best method to impart domain knowledge is to give exposure to the<br />

team on the machine which they are documenting. We organise regular<br />

visits for the documentation team to customer sites in India and also to<br />

Switzerland for training on the machines.<br />

The second most important skill is the core technical writing skill. The<br />

technical writers undergo training through the TcTrainNet – International<br />

training and certification program by <strong>tekom</strong>. In addition to this,<br />

we also organise regular English and German Language Certification<br />

Courses for the writers.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

95


International Management<br />

Requirements of customer documentation<br />

e-portal (Spare parts User manuals<br />

catalog)<br />

Manufacturer’s requirement<br />

Cost reduction for creation of manuals and for<br />

spare parts catalog.<br />

Documentation ready at the time of factory<br />

acceptance of machine<br />

Life cycle management of the data. The data in<br />

e-portal and manual corresponds to that of the<br />

machine at customer‘s end. Meaning, updates<br />

in the machine at customer‘s end are incorporated<br />

in the customer documentation<br />

Consistency of exploded<br />

views<br />

Consistency in structure<br />

and content of<br />

manual<br />

Reduce the possibility of reverse engineering<br />

with the information provided to customer<br />

Customer requirements<br />

Dependable and<br />

complete information.<br />

Information<br />

both for new and<br />

experienced staff<br />

Information @ click<br />

Inquiry/order @ click<br />

History of inquiry/order<br />

@click<br />

What are the frequently<br />

placed orders?<br />

What machines/options/<br />

size parts do we have?<br />

Solution<br />

Modularization and principle of re-use<br />

for manuals<br />

Single sourcing – Prepare once and<br />

publish in different formats<br />

Translation management using re-use,<br />

XML, translation memories<br />

Re-use of machine struture in PLM for<br />

automatic generation of spare parts<br />

catalog<br />

Change management and linking of the<br />

source data in PLM<br />

Use of structured authoring.Training<br />

of technical writers and illustrators for<br />

standardisation<br />

Use of exploded views instead of 2D section<br />

drawings<br />

Finalise the depth of information for<br />

each topic.Bring in organizational awareness<br />

of customer requirements and work<br />

on the domain knowledge of technical<br />

writers<br />

Make the information available online<br />

to customer enabling anytime/anywhere<br />

access.<br />

Online customer wise information<br />

2. Organisation:<br />

The roles and responsibilities of the documentation team members and<br />

the other department members with reference to documentation are<br />

clearly laid out.<br />

The management gives high importance for the development of high<br />

quality customer documentations. This not only motivates the documentation<br />

team members but also increases the co-operation of other departments<br />

with the documentation team.<br />

What type of persons to hire, and from where - is a critical aspect for<br />

effective recruitment. We have identified the limits and also the options<br />

available to us for this. The profession of technical writing is not well<br />

recognised in India, especially in the field of mechanical engineering. The<br />

candidates are given a clear picture of their career prospects in this field.<br />

96<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

The most important aspect of the conea team is the very low attrition<br />

rate. Some of our senior employees have been with the organisation<br />

for more than 14 years. The other senior employees have been with the<br />

organisation for a minimum of six years. This is basically due to the excellent<br />

opportunities we provide to our staff in career development and<br />

also because of the niche in which we are operating.<br />

3. Process:<br />

Consistency in offering high quality services is essential and this can be<br />

achieved only by well defined processes. We have defined standardised<br />

methods for handling projects of different kinds. The steps in project<br />

execution are mapped to the process flow at the machinery manufacturer<br />

to ensure timely completion of documentation projects.<br />

4. Tools:<br />

We use the following tools: PLM Publisher (CMS tool), Structured<br />

FrameMaker for authoring, Adobe illustrator and 3D via composer for<br />

illustration.<br />

Communication tools like; Skype, screen sharing software and video<br />

conference further helps us to bridge the gap between SME and the<br />

documentation team.<br />

The choice of tool was made based on the requirement analysis mentioned<br />

above.<br />

5. Standards<br />

The focus on compliance to the machine directive 2006/42/EC, EN<br />

82079, ANSI Z535.6, and also to company style guide is an essential part<br />

for ensuring repeatable delivery of high quality content.<br />

6. The focus on content<br />

We organise regular sessions for the writers and the SME on the importance<br />

of improving the content in the manuals. This has increased the<br />

awareness concerning the importance of content among both the writers<br />

and the SME.<br />

If you have any questions please contact:<br />

simeon@packsysglobal.com<br />

sturzenegger@packsysglobal.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

97


International Management<br />

IM 9<br />

Tutorial<br />

Developing and Delivering Robust<br />

Sample Projects as User Assistance<br />

Nicoletta A. Bleiel, ComponentOne, a division of GrapeCity, inc., Pittsburgh, USA<br />

Introduction<br />

One of the best ways to learn is informally, by example, and sample<br />

projects that customers can use to learn your application are a valuable<br />

addition to your product’s user assistance set. The best sample projects<br />

should demonstrate different functionality, best practices, and features<br />

— and also be easy-to-use. In this tutorial, we will discuss how to develop<br />

and roll out different types of sample projects.<br />

Why Sample Projects are Useful<br />

Because customers can:<br />

−−<br />

Become comfortable in the user interface quickly.<br />

−−<br />

Work in a real project with no harm.<br />

−−<br />

Add their own data/content (depending on the application).<br />

−−<br />

Learn concepts more quickly.<br />

−−<br />

Use the sample as a starting point for their own project, rather than<br />

beginning from scratch. People can be intimidated by “blank slates.”<br />

(Alan Cooper)<br />

−−<br />

Learn what the product is capable of doing.<br />

In addition, successful interaction with the product during the evaluation<br />

period can help sell the product.<br />

A SharePoint Sample Project Site<br />

The Sample Project Team<br />

Since sample projects have a number of objectives, and (depending<br />

on the product) technical challenges, the team working on the<br />

98<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

sample projects should span a number of departments. The Project<br />

Management, Marketing, Software Development, Web Development,<br />

and Technical Communication departments should all be included<br />

at various phases of the project. Everyone should agree on goals and<br />

responsibilities.<br />

After the initial rollout, you may want to ask your user community to<br />

contribute samples. Before the community is asked, the technology and<br />

guidelines for community samples will need to be developed by the<br />

team, and a plan put in place to encourage and reward contributions.<br />

Determining Objectives<br />

The team needs to decide early in the planning process what the sample<br />

projects should illustrate. Several concepts can be illustrated with<br />

careful planning, including: features, best practices, scenarios, product<br />

power (capabilities), ease of use, completed projects, end-user interaction,<br />

outputs, and development environments.<br />

Project Planning<br />

When planning out your sample projects, keep the following in mind:<br />

−−<br />

Data or content must yield meaningful results. If you want to demonstrate<br />

a number of features, make sure the sample has enough content.<br />

−−<br />

Avoid proprietary content and graphics.<br />

−−<br />

If you need a database, use one that is publicly available for download<br />

(if one of them fits your needs), if not, you may need to create or<br />

scrub one and make it available for download. Consider a web-based<br />

sample if setup will be too complex – especially if it is a web-based<br />

product.<br />

−−<br />

It is a good idea to establish themes for samples that you can use in<br />

other deliverables — for example, tutorials and training. The same<br />

data/content can be used across projects. This will provide a consistent<br />

experience for your customers, as well as save development time.<br />

−−<br />

Download of software and sample projects/content should be as easy<br />

as possible.<br />

−−<br />

If code snippets will be needed, make sure enough time is allotted to<br />

develop them.<br />

−−<br />

Provide descriptions of the samples, as well as instructions for using<br />

them.<br />

−−<br />

For desktop products, make sure there is a backup, or way to restore<br />

the samples to their original state. The samples should be included in<br />

the install.<br />

−−<br />

If developing a web-based sample, determine if a login will be needed<br />

and plan accordingly. Make sure the sample is tested on several<br />

browsers.<br />

Writing the Scripts<br />

Every sample should have a script or outline before sample creation<br />

begins. All objectives should be listed in the script so nothing is missed.<br />

When developing scripts remember that scenarios should be realistic,<br />

and familiar to the audience. Make sure the content/data developed will<br />

work in your scenarios (for example, if your software creates charts,<br />

make sure the data will create charts that are meaningful). When<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

99


International Management<br />

illustrating best practices, make sure to highlight those in the sample.<br />

You can use video, audio, or any other relevant medium to augment your<br />

samples.<br />

Exposing Samples using a Getting Started Wizard<br />

Distributing and Publicizing Samples<br />

Once samples are created, they need to be given visibility. There are a<br />

number of ways to do this. A few options: the product’s Getting Started<br />

Wizard, your website, the product interface, the online help/documentation.<br />

You can publicize them via webcasts, newsletters, blog posts and<br />

Tweets.<br />

Sample Projects on the Web<br />

Following are a variety of sample projects that take a wide range of<br />

approaches.<br />

ComponentOne Studio for SharePoint: http://webparts.componentone.<br />

com/SitePages/Home.aspx<br />

ComponentOne Studio for LightSwitch: http://demo.componentone.<br />

com/LightSwitch/Studio/<br />

Mathematicata: http://demonstrations.wolfram.com/ (Learn more:<br />

http://en.wikipedia.org/wiki/Wolfram_Demonstrations_Project)<br />

Unity: http://unity3d.com/support/resources/example-projects/<br />

Graphisoft: http://www.graphisoft.com/support/archicad/downloads/example_files10/index.html<br />

FTDI: http://www.ftdichip.com/Support/FTSwExamples.htm<br />

100<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


International Management<br />

Chief Architect: http://www.chiefarchitect.com/products/samples.html<br />

BPlans: http://www.bplans.com/sample_business_plans.php<br />

Ornamental Pro: http://www.ornamentalpro.com/opsample3.htm<br />

CeledyDraw: http://www.celedy.com/samples.html#row3<br />

A4 Desk Pro: http://www.a4deskpro.com/sample.php<br />

DemoBuilder: http://www.demo-builder.com/samples.html<br />

Astoundit: http://www.astoundit.com/products/reallistings/samples/index.html<br />

InduSoft: http://www.indusoft.com/mainpage.<br />

php?aricleid=27&type=InduSoft/web/studio/sample/application/IWS<br />

(All product and company names are the property of their respective<br />

owners.)<br />

Recommended Reading<br />

Cooper, Alan. About Face: The Essentials of User Interface Design, 1995.<br />

Carliner, Saul. Informal Learning Basics, <strong>2012</strong>.<br />

Please send any questions or comments to Nicky Bleiel, Lead Information<br />

Developer, Doc-To-Help: nickyb@componentone.com. Follow me on Twitter<br />

at @nickybleiel and @DocToHelp.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

101


Informationsdesign


Informationsdesign<br />

INF 1<br />

Partnerpräsentation<br />

Der Speck muss weg! Schlankheitskur<br />

für das Geberit Datenmodell<br />

Grit Mückstein, Dokuwerk KG, Friedrichshafen<br />

Armin Müller, Geberit International AG, Jona<br />

Die Ausgangssituation<br />

Sternenzeit 2-0-0-1: Die Geberit International AG (GIAG) entscheidet<br />

sich, eine Redaktionsumgebung einzuführen, die Katalog- und Redaktions<br />

system in sich vereint. Dem System ist ein funktionales Datenmodell<br />

hinterlegt, das sich am Lebenszyklus eines Produkts orientiert.<br />

Neben der Erstellung von Produktkatalogen und produktbegleitenden<br />

Dokumenten durch die GIAG soll das System auch die Vertriebsgesellschaften<br />

bei der Publikation marktspezifischer Dokumente<br />

unterstützen.<br />

2003 beginnt die Technische Redaktion der GIAG das System mit Katalogdaten<br />

und redaktionellen Daten zu befüllen. 2004 werden die ersten<br />

Kataloge und Produktinformationen publiziert.<br />

10 Jahre nach der Einführung des Redaktionssystems muss Geberit<br />

feststellen, dass dieses fast ausschließlich von der GIAG genutzt wird.<br />

Die Vertriebsgesellschaften arbeiten auf abweichenden Datenmodellen,<br />

dokumentenorientiert und ohne Redaktionssystem. Eine konzernweite<br />

einheitliche Technische Kommunikation wurde nicht erreicht.<br />

Was ist passiert?<br />

Durch die Verzahnung von Katalog- und Redaktionswelt ist das Redaktionssystem<br />

äußerst komplex und bedarf einer langen Einarbeitungszeit.<br />

Im Datenmodell sind strikte Regeln hinterlegt, die dem Redakteur<br />

eine gute Führung bei der Erfassung von Informationen geben, jedoch<br />

zu wenig Flexibilität bei der Verwendung der Informationsbausteine<br />

führen. Da die Vertriebsgesellschaften in ihren Publikationen Informationen<br />

lokalisiert und in anderen funktionalen Kontexten verwenden,<br />

wird kaum auf die Daten der GIAG zurückgegriffen.<br />

Neue Rahmenbedingungen aus dem Konzernmarketing<br />

2011 verabschiedet das Konzernmarketing ein neues Corporate Design,<br />

das konzernweit zu einem einheitlichen Kommunikationsauftritt führen<br />

soll. Die Technische Redaktion ist darin für die Einheitlichkeit technischer<br />

Publikationen verantwortlich. Diese Verantwortung kann sie aber<br />

nur wahrnehmen, wenn sie die Vertriebsgesellschaften stärker bei der<br />

Erstellung marktspezifischer Publikationen unterstützt. Damit kehrt<br />

eine Anforderung ins Zentrum der Aufmerksamkeit zurück, die durch<br />

das bisherige System nie richtig erfüllt wurde. Man sieht sich also immer<br />

zwei Mal im Leben - und dieses Mal muss die Technische Redaktion<br />

erfolgreicher sein.<br />

Sie zieht daraus drei grundlegende Konsequenzen:<br />

−−<br />

Technisch: Flexibilisierung des Datenmodells<br />

−−<br />

Gestalterisch: Umsetzung des neuen CDs in allen Publikationstypen<br />

−−<br />

Organisatorisch: Effizienzsteigerung, bei der Neuerstellung oder<br />

Überarbeitung von Publikationen<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

105


Informationsdesign<br />

Oder weniger kompliziert ausgedrückt: Alles muss einfacher, schöner<br />

und effizienter werden.<br />

Der Weg zum neuen Datenmodell<br />

Am Beginn des Weges zum neuen Datenmodell stand eine weitere prinzipielle<br />

Entscheidung: Die Katalogwelt wird von der Redaktionswelt<br />

getrennt! Damit braucht das neue Datenmodell strukturierte Katalogdaten<br />

nicht mehr zu berücksichtigen. Für die Katalogwelt wird ein eigenständiges<br />

PIM-System eingeführt.<br />

Doch für die Flexibilisierung des Datenmodells reicht es nicht aus, die<br />

Katalogdaten auszulagern. Für die Ursachen seiner Rigidität sind andere<br />

Schuldige zu suchen:<br />

−−<br />

Die Informationsbausteine sind als Informationsklassen entlang des<br />

Produktlebenszyklus definiert. Sie können nur innerhalb einer Informationskategorie<br />

wie z. B. Planung oder Montage verwendet werden.<br />

−−<br />

Die Informationsbausteine können durch die Möglichkeit der Untergliederung<br />

sehr umfangreich werden. Dadurch verringert sich die<br />

Wahrscheinlichkeit ihrer Wiederverwendbarkeit, z. B. für Publikationen<br />

der Vertriebsgesellschaften.<br />

Daraus folgt: Ein Umbau der Datenstruktur muss folgende Kriterien<br />

erfüllen:<br />

−−<br />

Bausteintypen reduzieren und dadurch Flexibilität erhöhen.<br />

−−<br />

Bausteingrößen reduzieren, um Wiederverwendung zu ermöglichen.<br />

Nach einer Reihe von Workshops, Disputationen und Detaildiskussionen<br />

entscheidet sich die Technische Redaktion der GIAG, eine völlig<br />

neue Ebene in das Datenmodell einzuziehen: Topics. Diese Topics sollen<br />

die neue Informationsbausteinebene bilden, da sie sich in einem wesentlichen<br />

Punkt von den bisherigen Informationsklassen unterscheiden:<br />

Sie sind semantisch nicht gebunden und können daher wesentlich<br />

flexibler verwendet werden.<br />

Konkret führt die Entscheidung zum topicorientierten Arbeiten zu dramatischen<br />

Effekten:<br />

−−<br />

Die Informationsbausteine werden einer Radikalkur unterzogen und<br />

von 40 auf 3 Bausteintypen reduziert<br />

−−<br />

Die semantische Struktur des Datenmodells wird zurückgebaut. Die<br />

Informationsklassen, die bisher die Bausteinebene bildeten, werden<br />

nur noch als Metadaten verwendet.<br />

Weitere Konsequenzen für die Technische Redaktion<br />

Jedes runderneuerte Datenmodell ist aber nur so gut, wie die organisatorischen<br />

Randbedingungen und die Menschen, die damit arbeiten, es<br />

zulassen. Informationsbausteine müssen z. B. im Bauch des Redaktionssystems<br />

effizient wiederauffindbar sein. Aus diesem Grund ist eine alte<br />

Idee wiederbelebt worden: die Trennung zwischen Informationserfassung<br />

und Publikation. Topics dürfen nur in der Erfassungsumgebung<br />

erstellt, verändert und gespeichert werden, da sie auf Publikationsseite<br />

in unterschiedlichsten strukturellen und funktionalen Kontexten<br />

wiederverwendet werden können und sollen. Um solche Regeln in<br />

die täglichen Arbeitsroutinen zu implementieren, hat die Technische<br />

106<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Redaktion einen neuen Redaktionsprozess eingeführt, der zur Qualitätssicherung<br />

vier Qualitygates vorsieht.<br />

Bleibt zum Schluss die Frage: Lohnt sich der ganze Aufwand? Ein erstes<br />

Auspendeln der Waagschale sagt „Ja“:<br />

Vorteile:<br />

−−<br />

Umsetzung eines einheitlichen CD über alle Dokumentarten und<br />

Vertriebsgesellschaften<br />

−−<br />

Unterstützung der Vertriebsgesellschaften bei der Erstellung Technischer<br />

Informationen<br />

−−<br />

Die Akzeptanz der Technischen Redaktion als konzernweite Fachstelle<br />

für Technische Kommunikation steigt<br />

„Nachteile“:<br />

−−<br />

Durch die Vielfalt der Informationen und Dokumenttypen steigt der<br />

Anspruch an die Technische Redaktion<br />

für Rückfragen:<br />

grit.mueckstein@dokuwerk.de<br />

armin.mueller@geberit.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

107


Informationsdesign<br />

INF 2<br />

Fachvortrag<br />

Konfigurierbare Dokumentation –<br />

Dokumentationsaufbau und Publikation<br />

bei hochvarianten Produkten<br />

Michael Brand, Heidelberger Druckmaschinen AG, Heidelberg<br />

Variantenreiche Produkte erfordern eine ausgeklügelte Modularisierung<br />

der Dokumentationsinhalte und einen leistungsfähigen Publikationsprozess,<br />

der aufgrund der variantenspezifischen Kundenauftragsdaten<br />

eine spezifische Dokumentation für den Kunden zusammenstellt.<br />

Bei gedruckter Dokumentation ist man bestrebt, möglichst nur die individuell<br />

relevante Unterlagenmenge in die auszuliefernden Exemplare<br />

einzubinden, um Druckkosten zu sparen und dem Anwender ein leichtes<br />

Zurechtfinden in der gedruckten Dokumentation zu ermöglichen. Je<br />

nach Umfang ist auch eine Aufteilung der Dokumentation auf verschiedene<br />

Ordner sinnvoll.<br />

Wird die Dokumentation auf Datenträgern bereitgestellt, kann eine große<br />

Menge zusätzlicher Unterlagen für verschiedene Produktvarianten<br />

auf dem Datenträger enthalten sein, ohne die Produktionskosten des<br />

Datenträgers zu erhöhen. Die Aufteilung und Gruppierung der einzelnen<br />

Themengebiete für den Anwender wird dabei durch ein konfigurierbares<br />

Auswahlmodul vorgenommen, das die individuelle Sicht des<br />

Anwenders auf die jeweils produktspezifisch benötigte Teilmenge der<br />

Dokumentation sicherstellt.<br />

Aufbau des Publikationsprozesses<br />

Die Dokumentationsinhalte für alle Produktvarianten zu einer Produktreihe<br />

werden in einem kontinuierlichen Engineering Change Prozess<br />

im Redaktionssystem laufend erstellt und gesammelt. Zu fest vorgegebenen<br />

Publikationsterminen erfolgt zyklisch die Publikation aller erstellten<br />

Unterlagen auf einen gemeinsamen Sammeldatenträger.<br />

Für die vom Kunden bestellte und individuell konfigurierte Druckmaschine<br />

wird kurz vor Auslieferung auf Basis der konkreten Auftragsdaten<br />

ein kundenspezifisches Auswahlmodul erstellt. Dieses<br />

Auswahlmodul macht die benötigte Teilmenge der Dokumente auf dem<br />

Sammeldatenträger zugänglich über eine kundenspezifische Interaktionsoberfläche<br />

und blendet die nicht benötigten Dokumente aus.<br />

Mit einem Sammeldatenträger können mehrere kundenspezifische<br />

Auswahlmodule kombiniert werden, wodurch mehrere unterschiedliche<br />

Gesamtdokumentationen entstehen.<br />

108<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Abb. 1: Kombination des Sammeldatenträgers mit kundenspezifischen<br />

Auswahlmodulen, DTM = Dokumententeilmenge<br />

Aufbau des technischen Variantenmodells<br />

In der Konstruktionsstückliste werden Varianten durch bedingte Stücklistenteile<br />

beschrieben. Bei einer späteren produktspezifischen Ableitung<br />

wird ein bedingter Stücklistenteil nur dann in der abgeleiteten<br />

produktspezifischen Stückliste berücksichtigt, wenn die Variantenbedingung<br />

für diesen Stücklistenteil erfüllt ist.<br />

Die technischen Variantenbedingungen in der Konstruktionsstückliste<br />

werden vom Konstrukteur nach festen vorgegebenen Regeln mit booleschen<br />

Operatoren formuliert. Bei Bedarf erhält der Konstrukteur Unterstützung<br />

bei der Abfassung und Formulierung der booleschen Variantenregel.<br />

Die exakt formulierten booleschen Variantenregeln bilden<br />

die Basis, um aus den Auftragsdaten eine produktspezifische Stückliste<br />

genau für die bestellte Variante maschinell ableiten zu können.<br />

Definition von<br />

Konfigurationsmodulen<br />

Auswahlvarianten<br />

Besonderheiten im Redaktionsprozess<br />

Für den Redaktionsprozess werden zunächst die Hauptvarianten einer<br />

Druckmaschine betrachtet, wie sie auch aus Kundensicht bei einer<br />

Bestellung angegeben sind. Zu diesen Hauptvarianten (auch Konfigurationsmodule<br />

genannt) werden standardisierte Schemazeichnungen<br />

erstellt, die für die spätere kundenspezifische Interaktionsoberfläche<br />

herangezogen werden.<br />

Um Dokumentationsinhalte einzelnen Hauptvarianten bzw. Konfigurationsmodulen<br />

zuzuordnen, werden innerhalb der Hauptvarianten<br />

Auswahlvarianten festgelegt, denen wiederum im Redaktionssystem die<br />

Dokumente zugeordnet werden. Zusätzlich wird die visuelle Positionierung<br />

einer Auswahlvariante innerhalb der Hauptvariante über einfache,<br />

geometrische Grundformen vorgenommen. Jede Auswahlvariante wird<br />

zusätzlich mit einer Grafik versehen, die ein visuelles Wiedererkennen<br />

in der Interaktionsoberfläche ermöglichen soll. Auch Varianten mit nur<br />

einer Ausprägung werden in dieses Schema aufgenommen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

109


Informationsdesign<br />

Abb. 2: Dokumentationszuordnung über Auswahlvarianten und<br />

Hauptvarianten/Konfigurationsmodule<br />

Verwendung von<br />

Stücklistenbaukästen<br />

als Auswahlvariante<br />

Variante Unterlagen<br />

Da Varianten über bedingte Stücklistenbaukästen beschrieben werden,<br />

werden diese Stücklistenbaukästen meistens direkt als Auswahlvariante<br />

verwendet.<br />

Manchmal ist der redaktionelle Aufwand deutlich geringer, wenn alle<br />

möglichen Varianten in einer zusammenhängenden Unterlage beschrieben<br />

werden können und nicht für jede Variante eine separate Unterlage<br />

erstellt werden muss. In einer solchen varianten Unterlage werden<br />

dann die einzelnen Abschnitte variantenspezifisch gekennzeichnet. Bei<br />

Ersatzteildokumentation werden z. B. innerhalb einer varianten Unterlage<br />

die einzelnen Bauteile nur in Verbindung mit der zugehörigen<br />

technischen Variantenbedingung angezeigt, die direkt aus dem PLM-<br />

System übernommen wird.<br />

Aufbau des Auswahlmoduls<br />

Aus den Auftragsdaten ergeben sich die zu einer Druckmaschine zugehörigen<br />

Konfigurationsmodule bzw. die kundenspezifische Interaktionsoberfläche<br />

sowie die kundenspezifisch relevante Dokumentenmenge.<br />

Da im Redaktionssystem alle Dokumente neben der Auswahlvariante<br />

auch mit einem Stücklistenreferenzbaukasten versehen werden, ist<br />

durch die produktspezifische Stückliste auch exakt die benötigte Dokumentenmenge<br />

für jede Produktvariante bestimmt.<br />

Das kundenspezifische Auswahlmodul enthält also eine auftragsbezogene<br />

Dokumentenmenge sowie eine auftragsbezogene Interaktionsoberfläche,<br />

die in Verbindung mit dem Sammeldatenträger eine individuelle,<br />

auftragsspezifische Dokumentation ergibt.<br />

Herausforderungen in der Praxis<br />

„Last Minute Änderungen“ am Auftrag oder Umrüstungen an bereits<br />

ausgelieferten oder installierten Druckmaschinen können mit<br />

diesem Konzept dadurch gelöst werden, dass ein neu generiertes<br />

110<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Auswahlmodul aufgrund des geringen Datenumfangs auch per „download“<br />

bereitgestellt werden kann und mit dem bereits ausgelieferten<br />

Sammeldatenträger eine neue Dokumentation ergibt, die dem neuen<br />

bzw. geänderten Auftrag mit geänderten Varianten entspricht.<br />

für Rückfragen: michael.brand@heidelberg.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

111


Informationsdesign<br />

INF 3<br />

Fachvortrag<br />

Responsive Webdesign<br />

Margit Becher, Hochschule Hannover<br />

Webseiten werden heute auf einer Vielzahl unterschiedlichster Geräte<br />

betrachtet. Dazu gehören Breitbildmonitore ebenso wie Smartphones.<br />

Laut Gartner Research wird es 2013 mehr Webzugriffe durch mobile<br />

Geräte als durch Desktopcomputer geben [1].<br />

Viele Websites basieren noch auf einem statischen Grid-Layout, optimiert<br />

für eine Auflösung von 1024 x 768 px, für mobile Geräte wurde/<br />

wird häufig eine mobile Version in einer Subdomain erstellt. Mit einer<br />

Vielzahl unterschiedlichster Geräte entsteht jedoch ein nicht vertretbarer<br />

Pflegeaufwand. Zudem sollte bedacht werden, dass viele Nutzer<br />

mehr als zwei Geräte parallel verwenden (Multiscreen Szenario), daher<br />

sollten Websites so gestaltet werden, dass es für den Nutzer keinen<br />

Unterschied macht, über welches Gerät er Informationen abruft. Konsistentes<br />

Design, d. h. insbesondere der grundlegende Aufbau und die<br />

Navigationsmechanismen, sollten für den Nutzer erkennbar bleiben.<br />

Gleichzeitig sollte aber auch stets der Nutzungskontext berücksichtigt<br />

werden.<br />

Responsive bedeutet „auf jemanden eingehen“, „reaktionsfähig bleiben“.<br />

Responsive Webdesign wurde bekannt durch einen Artikel von<br />

Ethan Marcotte [2]. Es bezeichnet eine Technik im Webdesign, bei der<br />

sich das Layout einer Webseite selbstständig und dynamisch an die Fähigkeiten<br />

des Endgerätes, z. B. Größe, Auflösung, anpasst.<br />

Vorgehensweise<br />

Responsive Design ist kein mobiles Design, sondern ein Design für<br />

alle Geräte. Daher sollte bei der Planung der Website zuerst der Inhalt<br />

(„Content First“, „Content Driven“) betrachtet werden und dann erst das<br />

Layout. Dies bedeutet konkret:<br />

−−<br />

Inhaltselemente definieren, Inhalte kategorisieren, nach ihrer Bedeutung<br />

sortieren und gruppieren.<br />

−−<br />

Breakpoints definieren. Dies sind die Stellen, an denen sich das Layout<br />

einer Website ändert, wenn die Inhalte auf Geräten mit unterschiedlich<br />

großen Displays dargestellt werden (s. Abb. 1).<br />

−−<br />

Verhaltensweise der Inhaltselemente auf verschieden großen Ausgabebildschirmen<br />

(wird dieser Inhalt benötigt, in welchem Detaillierungsgrad,<br />

evtl. nur als Link?) festlegen.<br />

−−<br />

Navigationsstruktur planen.<br />

Bezüglich der Navigationsstruktur erfordern mobile Geräte eine besondere<br />

Aufmerksamkeit: Buttons müssen groß genug sein, Dropdownmenüs<br />

dürfen nicht vom Hover-Effekt abhängig sein. Tipps finden sich in<br />

[3].<br />

112<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Abb. 1: Breakpoints und Anpassung von Inhaltselementen<br />

Viele Entwickler empfehlen bei der Konzeption den „Mobile First“-Ansatz.<br />

Statt vom Desktoprechner auszugehen und Inhalte auszublenden<br />

bzw. zu verkleinern, wird beim kleinsten Gerät gestartet. So erkennt<br />

man die zentralen Inhalte, die, die auf keinen Fall wegelassen werden<br />

können und in jeder Situation funktionieren müssen. Zudem ist es<br />

deutlich einfacher Details hinzuzufügen, als diese später entfernen zu<br />

müssen.<br />

Technische Umsetzung<br />

In CSS2 wurden bereits Medientypen (z. B. print, screen) eingeführt [4].<br />

Hiermit können spezielle Regeln für das Zielmedium notiert werden.<br />

CSS3 Media Queries haben seit Juni <strong>2012</strong> den Status „W3C Recommendation“<br />

[5]. Media Queries sind logische Ausdrücke, die die Angabe<br />

von Medientypen und bestimmten Medienmerkmalen (media features)<br />

miteinander verknüpfen, d. h., es werden Bedingungen formuliert,<br />

z. B. für die Fenstergröße des Browsers, bei deren Erfüllung bestimmte<br />

Stylesheet-Regeln angewandt werden. Somit erhält jedes Gerät spezifischen<br />

CSS-Code.<br />

Die wichtigsten Media Features sind:<br />

−−<br />

width, min-width, max-width: Breite, minimale bzw. maximale Breite<br />

des Browserfensters<br />

−−<br />

height, min-height, max-height: Höhe, minimale bzw. maximale Höhe<br />

des Browserfensters<br />

−−<br />

device-width, min-device-width, max-device-width: Breite, minimale<br />

bzw. maximale Breite des Gerätes<br />

−−<br />

device-height, min-device-height, max-device-height: Höhe, minimale<br />

bzw. maximale Höhe des Gerätes<br />

−−<br />

orientation: Ausrichtung des Gerätes (portrait oder landscape)<br />

−−<br />

resolution: Auflösung des Gerätes<br />

Abb. 2 zeigt Beispiele zur Verwendung von Media Queries.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

113


Informationsdesign<br />

Abb. 2: Beispiele für CSS Media Queries<br />

Damit die Umsetzung eines Responsive Designs funktioniert, ist noch<br />

Folgendes zu beachten:<br />

−−<br />

Keine festen Grid-Layouts: stattdessen Fluid-Grids (%-Angaben statt<br />

Pixel) verwenden.<br />

−−<br />

Keine festen Schriftgrößen: Schriftgrößen und Zeilenhöhen auf Basis<br />

von % und/oder em definieren.<br />

−−<br />

Keine festen Bildgrößen: Bilder sollten skaliert werden, evtl. ist hierfür<br />

JavaScript notwendig.<br />

−−<br />

HTML5 verwenden.<br />

Testen<br />

Für einen ersten Test eignen sich Online-Tools, z. B. The Responsinator<br />

[6]. Nach Eingabe der URL wird die Anzeige auf verschiedenen Geräten<br />

parallel simuliert, eine Navigation innerhalb der Webseiten ist<br />

möglich. Ein Online-Tool ersetzt natürlich nicht den „echten“ Test auf<br />

verschiedensten Geräten. Erleichtert wird der Test, wenn das kostenlose<br />

Programm Adobe Shadow [7] eingesetzt wird. Auf dem Desktoprechner<br />

wird das Programm und die entsprechende Erweiterung für den<br />

Browser Google Chrome installiert, auf jedem mobilen Gerät die Adobe<br />

Shadow App. Nun wird jede Webseite, die auf dem Desktoprechner<br />

aufgerufen wird, automatisch auch auf allen mobilen Geräten angezeigt.<br />

Ein integrierter Remote Debugger ermöglicht die Anzeige des DOM im<br />

mobilen Browser. Weiterhin können auf den Mobilgeräten Screenshots<br />

erstellt werden, die automatisch auf dem Desktoprechner gespeichert<br />

werden.<br />

Beispiele<br />

Abb. 3 zeigt einen Preview (über The Responsinator erstellt) der Webseite<br />

des CSS-Frameworks YAML [8] in 2 verschiedenen Versionen:<br />

links für ein iPad, rechts für ein iPhone. Eine umfangreiche Sammlung<br />

von Websites, die Responsive Webdesign umsetzen, wird von Eivind<br />

Uggedal unter mediaqueries.es [9] zur Verfügung gestellt.<br />

114<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Abb. 3: Verschiedene Ansichten von www.yaml.de<br />

Probleme<br />

Werden alle Inhalte geladen und Teile davon durch die CSS-Eigenschaft<br />

display:none versteckt und Bilder erst durch den Browser auf die passende<br />

(kleinere) Größe skaliert, kann es auf mobilen Geräten Performance-Probleme<br />

geben.<br />

Quellen<br />

[1] http://thenextweb.com/mobile/2011/01/06/<br />

the-great-rise-of-the-mobile-web/<br />

[2] Marcotte, E.: Responsive Webdesign. http://www.alistapart.com/<br />

articles/responsive-web-design/<br />

[3] http://www.elmastudio.de/webdesign/<br />

webseiten-navigationen-in-responsive-webdesigns-analysiert/<br />

[4] http://www.w3.org/TR/CSS21/media.html<br />

[5] http://www.w3.org/TR/css3-mediaqueries/<br />

[6] http://www.responsinator.com/<br />

[7] http://labs.adobe.com/technologies/shadow/<br />

[8] http://www.yaml.de<br />

[9] http://mediaqueri.es/<br />

für Rückfragen: margit.becher@fh-hannover.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

115


Informationsdesign<br />

INF 4<br />

Fachvortrag<br />

Variantenmanagement in der<br />

Technischen Dokumentation<br />

Elke Grundmann, Comet Communication GmbH, München<br />

Die Welt ist bunt, vielfältig und komplex, die Ansprüche und Bedürfnisse<br />

der Konsumenten sind es ebenso. Produkte müssen diesen Ansprüchen<br />

gerecht werden, wollen sie sich am Markt behaupten. Kunden<br />

warten heute nicht mehr jahrelang auf die Zuteilung eines Autos und<br />

sind zufrieden, wenn dieses vier Räder und ein Lenkrad hat. Viele weitere<br />

Details müssen stimmen: Technische Ausstattung, Leistungsfähigkeit,<br />

Design, Farbe etc. – schließlich will sich der einzelne Mensch von<br />

der Masse seiner Mitmenschen abheben.<br />

Automobilhersteller wie Audi starten in den 80er Jahren mit einem<br />

Audi 80, heute wird alleine der Audi A3 in 192 Varianten angeboten. In<br />

Kombination mit den möglichen Sonderausstattungen wird deshalb nur<br />

noch selten ein exakt gleiches Fahrzeug innerhalb eines Tages gebaut.<br />

Diesem Marktdruck ist nicht nur die Automobilindustrie ausgesetzt, er<br />

gilt für andere Branchen in gleicher Weise.<br />

Vielfältigste Kundenwünsche sollen individuell bedient werden. Viele<br />

ähnliche Produkte verursachen aber auch hohe Kosten und ein noch<br />

so zufriedener Kunde bringt gar nichts, wenn mit dem Verkauf eines<br />

Produktes kein Gewinn mehr erzielt werden kann. Um nicht in so eine<br />

Variantenfalle zu geraten, ist ein Variantenmanagement überlebenswichtig.<br />

Konzepte für Variantenmanagement haben im Maschinenbau<br />

eine lange Tradition und spielen auch in anderen Branchen eine immer<br />

größere Rolle. Diese Entwicklung hat auch Auswirkungen auf die Technische<br />

Dokumentation.<br />

Vom Maschinenbau lernen<br />

Die Kosten für die Varianten in der Technischen Dokumentation werden<br />

kaum gemessen, allerdings gilt hier das gleiche Prinzip wie in anderen<br />

Bereichen: je höher die Variantenanzahl, desto höher die Kosten.<br />

Man unterscheidet in der TD zwischen:<br />

−−<br />

Strukturvarianten (Die Dokumente unterscheiden sich hinsichtlich<br />

der Struktur)<br />

−−<br />

Modulvarianten (Die Dokumente unterscheiden sich in einzelnen<br />

Modulen)<br />

−−<br />

Fragmentvarianten (Die Dokumente unterscheiden sich in einzelnen<br />

Fragmenten innerhalb eines Moduls)<br />

Um die Kosten zu begrenzen, hat sich ein Variantenmanagement in der<br />

Technischen Dokumentation bewährt.<br />

Ziele eines Variantenmanagements<br />

Technische Dokumentation wird im Hinblick auf folgende drei Ziele<br />

analysiert:<br />

Sortimentbereinigung: Welche Varianten haben für den Anwender<br />

einen Nutzen, welche können ganz entfallen, welche kann man sinnvollerweise<br />

mit anderen Varianten zusammenführen? Mögliche Konsequenzen<br />

aus dem Analyseergebnis können sein:<br />

116<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

−−<br />

technische Details auslagern, z. B. in eine Tabelle mit Technischen<br />

Daten<br />

−−<br />

überflüssige Inhalte löschen und abstrahieren<br />

−−<br />

einheitliche Terminologie verwenden<br />

Modularisierung und Wiederverwendung: Auf Basis des Analyseergebnisses<br />

wird ein Modularisierungskonzept entwickelt, das die verschiedenen<br />

Ebenen Struktur, Modul und Fragment berücksichtigt.<br />

Variantenbildung bei der Publikation: Die Publikation von verschiedenen<br />

Dokumentvarianten kann schon im Vorfeld durch unterschiedliche<br />

Verfahren (z. B. durch Festlegen von Stücklisten oder Filterkriterien)<br />

wirtschaftlich gesteuert werden. Dabei entscheidet nicht die<br />

Technische Redaktion während der Erstellung, welche Module in einem<br />

bestimmten Dokument verwendet werden müssen. Diese Festlegungen<br />

werden im CMS hinterlegt. Die gewünschte Dokumentvariante wird<br />

anschließend gemäß den gewählten Kriterien erzeugt.<br />

Variantenmanagement<br />

mit MS Word<br />

Variantenmanagement<br />

mit CMS, Beispiel<br />

Author-it<br />

Realisierung mit verschiedenen Werkzeugen<br />

Die Umsetzung eines Variantenmanagements ist stark abhängig von<br />

den Möglichkeiten des gewählten Werkzeugs.<br />

Variantenmanagement mit MS Word ist möglich, aber nicht so komfortabel<br />

wie mit einem CMS. Um Strukturvarianten zu realisieren, modularisieren<br />

Sie Ihre Inhalte, indem Sie pro Kapitel eine Word-Datei anlegen.<br />

Erstellen Sie pro Variante sowie für wiederverwendete Inhalte ein<br />

Verzeichnis und speichern Sie die Modulvarianten unter dem gleichen<br />

Namen im Variantenverzeichnis. Fragmentvarianten, beispielsweise<br />

Warnhinweise, speichern Sie als Textbausteine mit Textmarken und<br />

referenzieren diese mittels der Feldfunktion IncludeText.<br />

Alternativ können Sie auch alle Module als einzelne Dateien anlegen<br />

und diese in Stücklisten mit MS Excel verwalten. Mit einem VBA Makro<br />

erzeugen Sie aus dieser Excel-Stückliste die variantenabhängigen<br />

Dokumente.<br />

Wesentlich effizienter lässt sich ein Variantenmanagement mit einem<br />

CMS wie Author-it umsetzen. In Author-it erstellen Sie Varianten von<br />

Büchern und Topics, um Struktur- oder Modulvarianten zu erzeugen.<br />

Aus dem ursprünglichen Objekt (Standardobjekt) wird so ein „Primary-<br />

Objekt“, das als solches in Author-it gekennzeichnet wird und als Basis<br />

dient. Sie legen fest, in welchen Modulen (Topics) welche Fragmente<br />

(eingebettete Topics) oder welche Grafikvarianten nötig sind. Bei der<br />

Publikation wählen Sie die Varianten aus und erhalten – ohne Nacharbeit<br />

– automatisch ein variantenspezifisches Dokument.<br />

Kontakt: grundmann@comet.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

117


Informationsdesign<br />

INF 6<br />

Fachvortrag<br />

Häufige Probleme<br />

Eine Methode zum<br />

Erlernen von Software<br />

Grundgedanken<br />

Grundprinzipien<br />

Minimalism neu gedacht oder was gehört<br />

eigentlich in eine Dokumentation rein?<br />

Martin Holzmann, ARAKANGA GmbH, Hanau<br />

Viele Dokumente erfüllen ihren Zweck nicht. Diese Dokumente sind mit<br />

viel Aufwand erstellt mit dem einzigen Resultat, dass Nutzer mit Informationen<br />

überfüllt werden, sie diese aber nicht nutzen können:<br />

−−<br />

Fachinformationen, in denen alle Details eines neuen oder geänderten<br />

Produktes beschrieben sind.<br />

−−<br />

Bedienungsanleitungen, in denen alle möglichen Funktionen in Form<br />

von Anleitungen beschrieben sind.<br />

−−<br />

Bedienungsanleitungen, die mit Hinweisen und Tipps und ergänzenden<br />

Informationen gespickt sind.<br />

Minimalism nach John M. Carroll<br />

Minimalism ist ein methodischer Ansatz zum Erstellen von Anwenderdokumentation<br />

– primär Softwaredokumentation – zum Zweck des<br />

Lernens. Die Methode wurde von John M. Carroll am IBMs User Interface<br />

Institute entwickelt und ist von ihm im Buch „ The Nürnberg<br />

Funnel: Designing Minimalist Instruction for Practical Computer Skill<br />

(Technical Communication, Multimedia, and Information Systems)“<br />

beschrieben.<br />

Ausgangspunkt war die Erkenntnis, dass Nutzer einer Software nicht<br />

zuerst umfangreiche Systembeschreibungen durcharbeiten, bevor sie<br />

die Software verwenden. Nutzer tendieren dazu, Software direkt zu<br />

verwenden und erst dann auf die Dokumentation zuzugreifen, wenn<br />

sich ihnen diese nicht erschließt, sie also Fehler machen oder ihr Ziel<br />

nicht erreichen. Daraus ergibt sich, dass die Dokumentation nicht<br />

primär vollständig sein muss – also alle nur denkbaren Aspekte der<br />

Anwendung beschreiben muss – sondern dass sie den Nutzer in einer<br />

Lernphase beim Lösen seiner Probleme helfen soll. Nutzer wollen nicht<br />

lesen, sondern handeln.<br />

Die wichtigsten Prinzipien des Minimalism<br />

−−<br />

Konkrete Aufgabenorientierung: Anwender wollen etwas tun, eine<br />

Aufgabe oder ein Problem lösen. Das Dokument muss dem Anwender<br />

beim Lösen der Aufgabe helfen, nicht ein System beschreiben.<br />

−−<br />

Anwenderziele und Aufgaben erkennen: Aufgabenorientierung setzt<br />

Zielgruppenkenntnis voraus. Vorhandenes Wissen muss nicht vermittelt<br />

werden.<br />

−−<br />

Weniger ist mehr: Nur Informationen geben, die Anwender beim<br />

Ausprobieren, Entdecken und Anwenden von Funktionen unterstützen.<br />

Anwender sind denkende Menschen – sie bilden sich beim Ausprobieren<br />

ihr eigenes mentales Modell, wie etwas funktioniert. Keine<br />

ermüdenden Details. Kurz schreiben – keine Füllworte etc.<br />

−−<br />

Topicorientierung: Wissen wird topicweise/themenweise vermittelt.<br />

Jeder Topic ist für sich selbst verständlich. Es gibt keine zwingende<br />

Lesereihenfolge zwischen den Topics.<br />

−−<br />

Fehlertoleranz: Informationen geben, die dem Anwender im Problemfall<br />

einen Lösungsweg aufzeigen.<br />

118<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

−−<br />

Testen des Resultats: Die Dokumente müssen Anwendungstest unterzogen<br />

werden. Die Erkenntnisse der Tests müssen wieder in die Dokumente<br />

eingearbeitet werden. Die Dokumente müssen anschließend<br />

ggf. wieder getestet werden (iterativer Prozess).<br />

Warum muss<br />

Minimalism neu<br />

gedacht werden?<br />

Der Lösungsansatz<br />

Ziele festlegen<br />

Inhalte festlegen<br />

Gruppieren und<br />

sequenzieren<br />

Einheitlich Gestalten<br />

und Formulieren<br />

Minimalism neu gedacht<br />

Wie beschrieben ist Minimalism eine Methode zum Erlernen von Software.<br />

Aber auch außerhalb der Domäne der Softwaredokumentation<br />

sind Nutzer von Informationen meist daran interessiert, schnell bestimmte<br />

Aufgaben zu lösen – Lesen von Dokumenten ist dabei ein notwendiges<br />

Übel, das Lesen ist aber nie das Ziel der Aktivität. Umfangreiche,<br />

komplizierte und unübersichtliche Dokumente schrecken ab,<br />

kosten Zeit und sind damit auch teuer – sie führen zu Fehlern, falschen<br />

Entscheidungen und verschwenden die Arbeitszeit von Mitarbeitern in<br />

Unternehmen. Minimieren der Dokumentation ist also ein – schon aus<br />

wirtschaftlichen Erwägungen heraus – anzustrebendes Ziel. Die Regeln,<br />

die für Softwaredokumentation/Lernsituationen aufgestellt wurden,<br />

lassen sich aber nicht 1:1 auf andere Bereiche übertragen – ein neuer<br />

Ansatz ist erforderlich.<br />

Unabhängig davon, welche Art Information erstellt werden soll, ist ein<br />

methodischer Lösungsansatz erforderlich, mit dessen Hilfe bestimmt<br />

werden kann, welche Informationen der Nutzer benötigt und welche<br />

nicht. Die folgenden 4 Schritte führen zu diesem Ziel:<br />

1. Ziel festlegen<br />

2. Inhalte festlegen<br />

3. Gruppieren und sequenzieren<br />

4. Einheitlich gestalten und formulieren<br />

Um die Ziele festzulegen, müssen die folgenden Fragen beantwortet<br />

werden:<br />

−−<br />

Für wen ist die Information?<br />

−−<br />

Wozu dient sie?<br />

Dies ist der wichtigste Schritt. Nur wenn der Ersteller weiß, wozu der<br />

Nutzer die Information benötigt, kann er entscheiden, welche Informationen<br />

für den Nutzer relevant sind.<br />

Um die Inhalte festzulegen, muss die folgende Frage beantwortet<br />

werden:<br />

−−<br />

Welche Informationen sind für das Erreichen der Ziele erforderlich?<br />

Das Beantworten dieser Frage führt zu einer an der Aufgabe gespiegelten<br />

Informationsmenge. Überflüssiges wird vermieden.<br />

Um die Gruppierung und Sequenzierung festzulegen, müssen die folgenden<br />

Fragen beantwortet werden:<br />

−−<br />

Welche Informationen gehören zusammen?<br />

−−<br />

In welcher Reihenfolge müssen die Informationen vermittelt werden,<br />

damit der Nutzer mentale Modelle aufbauen kann?<br />

Nachdem die notwendigen Informationen und deren notwendige Gruppierung/Sequenzierung<br />

erkannt sind, müssen passende Gestaltungsund<br />

Formulierungsmuster erstellt werden, die dann einheitlich auf die<br />

gesamte Informationsmenge angewendet werden. Die Muster sollen<br />

sich an bewährten und idealerweise erprobten Beispielen orientieren.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

119


Informationsdesign<br />

Resultat<br />

Alle entstehenden Informationen müssen immer am ersten Schritt gespiegelt<br />

werden: Sind sie für die Zielgruppe relevant und für die Aufgabe<br />

erforderlich?<br />

Das konsequente Ausfiltern überflüssiger Informationen durch die methodische<br />

Vorgehensweise minimiert den Umfang der erstellten Information.<br />

Das Nutzen von Gestaltungsmustern sorgt für eine einheitliche<br />

Gestaltung auch in größeren Gruppen. Nutzer erhalten nur noch die<br />

Informationen, die sie benötigen, und sparen dadurch Zeit<br />

Das Vorgehensmodel ist unabhängig von der Art der zu erstellenden<br />

Information und damit universell einsetzbar.<br />

für Rückfragen: martin.holzmann@arakanga.de<br />

120<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

INF 7<br />

Partnerpräsentation<br />

Allgemein<br />

In einer Organisation<br />

Unterwegs auf der eigenen Wissenslandkarte<br />

Diana Fuchs, SEW-EURODRIVE GmbH & Co KG, Bruchsal<br />

Alexander Gassmann, TTS GmbH, Heidelberg<br />

Zur Wissenslandkarte<br />

Eine Wissenslandkarte stellt Wissen grafisch dar. Unterschiedliche<br />

Wissensbereiche werden als „Länder“ dargestellt, mit Farben kann<br />

man unterschiedliche Wissensstände darstellen. Erstellt man eine<br />

Wissenslandkarte für sein eigenes Wissen, zeigt sie, welche Bereiche<br />

man beherrscht, wo man noch Schwächen hat oder was man sich noch<br />

aneignen möchte. Auch Verbindungen zwischen unterschiedlichen<br />

Wissensbereichen sind beispielsweise durch Flüsse visualisierbar. So<br />

ermöglicht die Landkarte außerdem eine strukturierte visuelle Darstellung<br />

des Lernprozesses.<br />

Die Wissenslandkarte jeder Person – und daher auch jedes Mitarbeiters<br />

in einem Unternehmen – sieht anders aus. Jeder hat ein anderes Wissen<br />

und möchte sich anders entwickeln. In einer Organisation besteht die<br />

Landkarte aber zum Teil aus gleichen Bereichen – den „Ländern“ –, da<br />

z. B. mehrere Mitarbeiter das Wissen zu einem Produkt benötigen.<br />

Ausgangssituation<br />

Unsere Aufgabe ist es, die Reisen unserer Mitarbeiter in unbekannte<br />

Gebiete ihrer Wissenslandkarte zu ermöglichen und zu planen. Dies tun<br />

wir in einem Blended-Learning-Ansatz, d. h., wir mischen unterschiedliche<br />

Lernformen für die Aus- und Weiterbildung unserer Mitarbeiter.<br />

In diesem Vortrag geht es um die Lernmittel, mit denen eigenverantwortlich<br />

gelernt wird, beispielsweise E-Learning-Einheiten. Bei diesen<br />

Lernmedien ist es noch wichtiger als bei Präsenztrainings, dem Lerner<br />

gerecht zu werden. In einem Präsenztraining ist der Trainer in Interaktion<br />

mit dem Lerner und kann spontan auf ihn reagieren. Diese Möglichkeit<br />

haben wir im Selbstlernbereich nicht, daher sollten die Interaktionen<br />

möglichst sorgfältig vorgeplant werden.<br />

Die Persona-Methode<br />

Wissen, wo man hinmöchte<br />

Je nach Zielgruppe sind unterschiedliche Länder auf der Wissenslandkarte<br />

interessant; insbesondere unterschiedliche „Regionen“ dieser<br />

Länder. Denn nicht jeder muss alles über ein Produkt wissen. Um<br />

denjenigen, den wir auf die Wissensreise schicken möchten, besser<br />

kennenzulernen, haben wir uns für die Zielgruppenanalyse nach der<br />

„Persona“-Methode entschieden.<br />

Die Persona ist eine Beschreibung einer fiktiven, archetypischen Person<br />

aus der Zielgruppe mit ihrem Arbeitsumfeld, aber auch ihrem privaten<br />

Umfeld und ihren Ansichten, ihrem Charakter.<br />

Für das Training wichtige Größen bei den Personas sind:<br />

−−<br />

Eine Status-quo-Bestimmung, um das Vorwissen konkret abbilden zu<br />

können.<br />

−−<br />

Eine genaue Aufgaben- und Schnittstellenbeschreibung, um ein<br />

Wissensprofil davon ableiten zu können. Das Wissensprofil ist die<br />

Grundlage für das Training und beantwortet die Frage: Was muss<br />

man wissen, um diese Aufgabe ausführen zu können?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

121


Informationsdesign<br />

Prozess als Rückgrat der<br />

Reisedokumentation<br />

Überblick verschaffen<br />

Interessengebiete<br />

erkunden<br />

Lernobjektstruktur<br />

für beste Effizienz der<br />

Reisedokumentation<br />

−−<br />

Ein Verständnis für den Tagesablauf der Person, um entscheiden zu<br />

können, wie lange Lerneinheiten dauern können, und einzuschätzen,<br />

wann sie vom Lerner bearbeitet werden.<br />

−−<br />

Hintergrundinformationen zur Person, wie private Umstände, um die<br />

Sprache der Zielgruppe sprechen zu können. Das schafft Glaubwürdigkeit<br />

und Akzeptanz, damit der Lernende sich auf das Lernmaterial<br />

einlässt.<br />

Die Unternehmensprozesse eignen sich gut als „Rückgrat“ der Lerninhalte.<br />

Folgende Vorteile ergeben sich:<br />

−−<br />

Den Mitarbeitern im Unternehmen sind diese Prozesse geläufig.<br />

−−<br />

Ein vorhergehende Trainingsbedarfsanalyse ermöglicht eine saubere<br />

Planung und Strukturierung des Wissens.<br />

−−<br />

Durch eine Struktur nach Lernobjekten, die im Prozessbaum geglie<br />

dert werden, kann eine redundanzfreie Trainingsdokumentation<br />

aufgebaut werden.<br />

−−<br />

Die prozessorientierte Strukturierung macht es bei Änderungen im<br />

System einfach zu ermitteln, welche Lernobjekte angepasst werden<br />

müssen.<br />

−−<br />

Eine Aktivierung von Rollenfiltern ermöglicht es einem Mitarbeiter;<br />

in einer gewissen Rolle nur die Trainingsinhalte zu sehen, die ihn<br />

betreffen.<br />

Die Reisevorbereitung<br />

Um so nah wie möglich an ein ideales Lernszenario für unsere Zielgruppen<br />

heranzukommen, haben wir ein Modularisierungskonzept erarbeitet,<br />

das der Wissenstiefe, dem Thema und den Lernanforderungen<br />

der Zielgruppen gerecht wird.<br />

Bevor die Reise losgeht, verschafft sich der Lerner einen Überblick –<br />

im übertragenen Sinne macht er auf jeden Fall die Sightseeing-Tour.<br />

Das hat zwei Vorteile: Egal welches Vorwissen jemand hat, er kann die<br />

Inhalte verstehen. Diejenigen, die sich noch tieferes Wissen aneignen<br />

möchten, haben Anknüpfungspunkte für spätere Informationen.<br />

Für diejenigen, die mehr als eine Sightseeing-Tour benötigen, gibt es<br />

verschiedene Schwerpunkte: Je nach Profil arbeitet sich der Lerner<br />

tiefer in bestimmte Regionen des „Landes“ ein.<br />

In unserem Konzept sind es die Kategorien Technik, Verkaufen, Service<br />

und noch einige Antriebstechnik-spezifische Punkte. Überlegen Sie, für<br />

welche Tätigkeit die Mitarbeiter die Informationen zu einem Produkt in<br />

Ihrem Unternehmen brauchen, und die Kategorien, die für Sie passend<br />

sind, werden sich Ihnen erschließen.<br />

Diverse Reiseveranstalter werden dasselbe Hotel in ihrem Prospekt haben.<br />

Wäre es nicht effizienter, wenn jeder Veranstalter in dem Reiseplan<br />

einen Link auf eine standardisierte und optimale Beschreibung des<br />

Hotels hätte? Genau dieses ermöglicht die Lernobjektstruktur:<br />

−−<br />

In dem Wissenspool werden sukzessiv Lernobjekte aufgebaut (E-<br />

Learning Sequenzen, Dokumente oder Links auf Wissen).<br />

−−<br />

Auf dem Wissenspool wird eine Strukturierung aufgesetzt nach Prozessen,<br />

Themen oder Kursen.<br />

−−<br />

Auf den Wissenspool kann auch direkt zugegriffen werden durch<br />

kontextsensitive Onlinehilfe (analog zum Scannen eines Barcodes<br />

122<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Template-Konzepte<br />

für beste Effizienz<br />

der Reiseunterlagenerstellung<br />

Krisengebiete<br />

bergen Gefahren<br />

Krisengebiete meiden<br />

auf der Werbung eines Veranstalters) oder durch Suche (Stichwort im<br />

Portal des Veranstalters).<br />

Bei dem Erstellen der Reiseunterlagen kann der Autor auf einem weißen<br />

Blatt Papier beginnen. Er hat dann aber maximal viel zu tun bezüglich<br />

der Inhalte, der Struktur und der Form seines Dokuments. Er wird<br />

sehr viel schneller sein bei Verwendung von vorgeplanten Templates:<br />

−−<br />

Es kann sinnvoll sein, ein System zu verwenden, das Inhalt und Form<br />

logisch trennt, so dass eine Anpassung der Form im Nachhinein sehr<br />

einfach wird.<br />

−−<br />

Die Vorstrukturierung sollte anwendbar sein auf Objekte (verwendete<br />

Bilder oder Textfelder), Seiten (vorgefertigte Seite mit Einleitung,<br />

Zusammenfassung, Fragen, Tabellen) und ganze Dokumente (Reisewerbung,<br />

Reiseprospekt, detaillierte Reiseunterlage).<br />

−−<br />

Durch diesen Ansatz kann sich der Reiseleiter auf die Inhalte konzentrieren<br />

und braucht sich nicht mehr um die Form bemühen. Dies<br />

macht ihn effizienter.<br />

−−<br />

Durch diesen Ansatz kann ein erzeugtes Lernobjekt nachträglich in<br />

einer ganz anderen Form publiziert werden, z. B. bei Wiederverwendung<br />

des Inhalts durch eine andere Reiseagentur.<br />

Die Reise beginnt<br />

Es gibt Krisengebiete, in die Sie als Autor Ihren Wissensreisenden keinesfalls<br />

schicken sollten. Diese Gebiete bergen im Wesentlichen folgende<br />

Gefahren:<br />

−−<br />

Verständigungsprobleme: Wenn Sie nicht die Sprache Ihres Lerners<br />

sprechen und zu wenig oder das falsche Anschauungsmaterial liefern,<br />

wird er Sie nicht verstehen. Ohne das Verstehen kann nachhaltiges<br />

Lernen nicht stattfinden. Es entsteht Frust beim Lerner – er<br />

bricht die Reise ab.<br />

−−<br />

Akute Unlust: Ist die Motivation zum Lernen die falsche, besteht nur<br />

geringe Aussicht auf Erfolg. Das neu erworbene Wissen direkt anwenden<br />

zu können, ist die beste Motivation zum Lernen.<br />

−−<br />

Stress oder Langeweile: Ist die Lernkurve zu steil oder zu flach, fühlt<br />

sich der Lerner über- bzw. unterfordert. In beiden Fällen entsteht<br />

Frust und er wird die Reise abbrechen.<br />

Sie können diese Gefahren meiden, indem Sie:<br />

−−<br />

Lernziele und dazu passende Inhalte strukturiert in einem Drehbuch<br />

und Storyboard erfassen, bevor Sie mit der Umsetzung beginnen.<br />

So vermeiden Sie, zu viel, zu wenig oder unpassenden Inhalt in die<br />

Lerneinheit einzuarbeiten.<br />

−−<br />

Die Informationen so oft wie möglich in einen Arbeitskontext setzen.<br />

−−<br />

Übungen zu den neuen Informationen anbieten, so dass das Wissen<br />

gleich angewendet werden kann.<br />

−−<br />

Die Informationen so darstellen, dass sie optimal wahrgenommen<br />

werden können. Beispielsweise dem Lerner bekannte Bedienmuster<br />

aufgreifen, Interaktionen deutlich von Informationen unterscheidbar<br />

machen, dem Lerner die Orientierung im System so einfach wie möglich<br />

machen.<br />

−−<br />

Die Informationen so darstellen, dass sie auf die Zielgruppe abgestimmt<br />

sind. Beispielsweise Beispiele aus der „Welt“ der Zielgruppe<br />

als Erläuterung von Funktionsprinzipien nutzen, Vorlieben der Ziel-<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

123


Informationsdesign<br />

gruppe bei Anschauungsmaterial berücksichtigen (technikorientierte<br />

Mitarbeiter ziehen Realbilder Animationen vor), Vorwissen der Lerner<br />

berücksichtigen.<br />

−−<br />

Am Anfang Ihres Projektes die betroffenen Prozesse und Rollen genau<br />

analysieren, um daraus einen Inhaltsplan zu erzeugen, der nach<br />

Prozessen gegliedert ist. Dies ermöglicht die Vermeidung von doppelten<br />

Inhalten.<br />

−−<br />

Am Anfang Ihres Projektes die notwendigen Templates gut zu überdenken.<br />

Dies ermöglicht danach eine wesentlich schnellere Arbeit<br />

der Autoren.<br />

für Rückfragen:<br />

diana.fuchs.da-pt@sew-eurodrive.de<br />

alexander.gassmann@tt-s.com<br />

124<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

INF 8<br />

Workshop<br />

Informationsmodelle mit Hilfe von<br />

semantischen Elementen maßschneidern<br />

Brigitte Grether, Belimed Sauter AG, Sulgen<br />

Was ist ein Informationsmodell in der Technischen Dokumentation?<br />

Ein Informationsmodell für einen Dokumenttyp bildet die Struktur des<br />

Dokuments ab. Dabei kann man zwischen dem Makromodell (z.B. Dokument<br />

besteht aus Deckblatt, Impressum, Kapiteln und Abbildungsverzeichnis)<br />

und dem Mikromodell (z.B. jedes Kapitel besteht aus Titel<br />

und ein bis mehreren Absätzen, jeder Absatz kann aus Textkörper und<br />

Listen bestehen, jede Liste enthält ein bis mehrere Listeneinträge)<br />

unterscheiden. Das Informationsmodell kann, muss aber nicht in einer<br />

Document Type Definition (DTD) oder einer XML Schema Definition<br />

(XSD) umgesetzt werden. Auch wenn ein nicht XML-basiertes Textverarbeitungsprogramm<br />

verwendet wird, kann ein Informationsmodell<br />

für die Erstellung von Formatvorlagen hilfreich sein, wenn auch die<br />

Verschachtelung von Elementen ohne die Verwendung von XML in der<br />

Regel nicht dargestellt werden kann.<br />

Warum überhaupt ein neues Informationsmodell?<br />

Es gibt ja bereits bewährte Informationsmodelle für die Technische<br />

Dokumentation, wie DocBook, DITA oder PI-Mod. Auch die Hersteller<br />

von Redaktionssystemen liefern meistens eine brauchbare DTD oder<br />

XSD mit. Da müsste doch eigentlich eines passen, sollte man meinen,<br />

oder mit nur kleinen Anpassungen dazu gebracht werden, zu passen.<br />

Dennoch gibt es zwei Veranlassungen dafür, ein eigenes, neues Informationsmodell<br />

zu entwickeln:<br />

−−<br />

Man will einen neuen Dokumenttyp abbilden.<br />

−−<br />

Man will neue Wege gehen.<br />

Als Beispiel für einen neuen Dokumenttyp erwähne ich die Qualifizierungsdokumente<br />

für Anlagen für die Pharmaindustrie, die von unserer<br />

Dokumentationsabteilung ins Redaktionssystem übernommen werden<br />

sollten. Sie bestehen aus standardisierten Prüfanweisungen und Prüfprotokollen<br />

mit genauen Vorgaben für ihre Struktur. Mit dem vorhandenen<br />

Informationsmodell, der mit dem Redaktionssystem TIM-RS<br />

gelieferten FrameMaker-EDD, die auf Anleitungstexte ausgerichtet war,<br />

konnten sie nicht abgebildet werden.<br />

Was die neuen Wege betrifft, so bin ich zwar auch der Meinung, dass<br />

man nicht jeden Tag das Rad neu erfinden muss, aber ab und zu muss<br />

jemand die ausgetretenen Pfade verlassen und etwas ganz anders machen<br />

als bisher, sonst gibt es nie einen Fortschritt.<br />

Warum semantische Elemente verwenden?<br />

Die semantischen Elemente werden von Rockley (2003: 311f.) beschrieben.<br />

Rockley unterscheidet für jeden Dokumenttyp zwei Informationsmodelle:<br />

Das Informationsproduktmodell (Makromodell) zeigt die<br />

Grobstruktur des Dokumenttyps, das Elementmodell (Mikromodell) die<br />

vorkommenden Bausteintypen und die darin enthaltenen Elemente.<br />

Rockley verwendet die Bezeichnung «Element» nicht im Sinne eines<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

125


Informationsdesign<br />

XML-Elements, sondern im allgemeinen Sinne von Grundbestandteil,<br />

Komponente. Sie unterscheidet zwischen semantischen Elementen und<br />

nicht semantischen Elementen (semantic vs. base elements). Ein semantisches<br />

Element sagt etwas über den Inhalt und die Funktion seines<br />

Inhalts aus (Bsp.: Handlungsanweisung), während ein nicht semantisches<br />

Element nur etwas über die Struktur sagt (Bsp.: Liste). Rockley<br />

(2003: 319) empfiehlt, nach Möglichkeit semantische Elemente zu verwenden,<br />

insbesondere wenn in einem strukturierten Editor gearbeitet<br />

wird.<br />

Die Verwendung von semantischen Elementen bringt folgende Vorteile:<br />

−−<br />

Erleichterung beim Erfassen einer XML-Datei: Der Autor muss nicht<br />

umfangreiche Regeln beachten, sondern erkennt gleich an den Namen<br />

der Elemente, welche wann verwendet werden müssen.<br />

−−<br />

Mehr Möglichkeiten beim Verarbeiten einer XML-Datei: Textteile<br />

mit gleicher Struktur, aber unterschiedlicher Funktion können beim<br />

Publizieren unterschiedlich dargestellt werden. Falls man eine XML-<br />

Datei durch XSLT umwandeln will, hat man mit semantischen Elementen<br />

ebenfalls viel mehr Möglichkeiten.<br />

Wann passt das Informationsmodell für den Dokumenttyp?<br />

Es gibt nie eine einzige richtige Lösung. Es gibt aber bessere und<br />

schlechtere Lösungen. Eine gute Lösung zeichnet sich dadurch aus,<br />

dass sie die Wirklichkeit so genau abbildet, wie es für die Texterfassung<br />

und für die Verarbeitung des erfassten Texts nötig ist.<br />

Ein gutes Informationsmodell hat folgende Eigenschaften:<br />

−−<br />

Es fasst zusammen, was zusammengehört, und trennt, was nicht zusammengehört.<br />

−−<br />

Es behandelt Gleiches gleich und Ungleiches ungleich.<br />

−−<br />

Es ist eindeutig in der Benennung der Elemente.<br />

Nicht zuletzt ist das Erstellen von Informationsmodellen auch eine<br />

Sache der Übung und Erfahrung. Deshalb werden wir im Workshop an<br />

zwei Beispielen von Dokumenten verschiedene Informationsmodelle<br />

erarbeiten und danach gleich selber testen und vergleichen.<br />

Rockley, Ann (2003): Single Sourcing and Information Design. In: Albers,<br />

Michael J. / Mazur, Beth (Hrsg.): Content and Complexity. Information<br />

Design in Technical Communication. Mahwah, N.J: Lawrence Erlbaum,<br />

S. 307–335.<br />

brigitte.grether@bluewin.ch<br />

126<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

INF 10<br />

Tutorial<br />

Rollenverteilung<br />

im Projekt<br />

Anlass<br />

Spannungsfeld<br />

Wenn maximale Flexibilität gefragt<br />

ist: Redaktionsleitfaden für eine<br />

tagesaktuelle Support-Datenbank<br />

Johannes Dreikorn, doctima GmbH, Fürth<br />

Jörg Palm, DATEV eG, Nürnberg<br />

Zu unserem Tutorial hier eine Zusammenfassung der wichtigsten fachlichen<br />

Aspekte.<br />

−−<br />

Johannes Dreikorn (doctima): Begleitet als externer Berater die gesamte<br />

Konzeption des Leitfadens. Hauptaufgaben: Entwicklung der<br />

Regeln, Erstellung von Mustertexten, Konzeption und Erstellung des<br />

Redaktionsleitfadens als Dokument.<br />

−−<br />

Jörg Palm (DATEV): Als Spezialist für die Entwicklung sprachlicher<br />

Standards für die Service-Kommunikation bei DATEV mitverantwortlich<br />

für Definition und Prüfung der Regeln. Jetzt zuständig für<br />

die Weiterentwicklung des Leitfadens und die Einbindung der Regeln<br />

in das Sprachqualitätswerkzeug Acrolinx.<br />

Die Herausforderung: Spagat zwischen Vollständigkeit und Anwendbarkeit<br />

Von Anleitungen über steuerliche Fachinformationen bis hin zu Administrations-Know-how:<br />

In über 6.500 online abrufbaren Dokumenten<br />

versorgt der Softwarehersteller DATEV seine Kunden mit tagesaktuellen<br />

Support-Informationen.<br />

Im Zuge eines konzeptionellen und technischen Relaunches der Support-Datenbank<br />

soll der Redaktionsleitfaden überarbeitet werden. Die<br />

Ziele: Übersichtliche und wiedererkennbare Dokumentstrukturen, die<br />

den Lesern eine schnelle und sichere Orientierung ermöglichen. Und<br />

eine lesefreundliche Aufbereitung der (Detail-)Informationen, um den<br />

Handlungserfolg sicherzustellen.<br />

Der Leitfaden muss dabei einen Spagat vollbringen: Er soll einerseits<br />

klare Standards für alle regelungsbedürftigen Dokumentbereiche vorgeben<br />

(Primat der Vollständigkeit und Einheitlichkeit). Andererseits<br />

muss er als Regelwerk hinreichend flexibel sein, um den Autoren Raum<br />

zu geben für situationsbedingte Lösungen (Primat der Anwendbarkeit).<br />

Die Herausforderungen:<br />

−−<br />

Großes thematisches Spektrum der Support-Datenbank; es reicht von<br />

buchhalterischem Fachwissen („Korrekte Verbuchung des Frühstücks<br />

auf einer Reisekostenabrechnung“) bis hin zu EDV-technischen Fragen.<br />

−−<br />

Inhomogene Zielgruppen wie Führungskräfte, Sachbearbeiter, IT-<br />

Spezialisten. Sie alle sollen durch die Support-Datenbank in ihrem<br />

Informationsbedarf unterstützt werden.<br />

−−<br />

Unterschiedliche Informationsanlässe; die Support-Datenbank wird<br />

zu ganz unterschiedlichen Anlässen zu Rate gezogen: Bei der täglichen<br />

Arbeit (z. B. fachliche Fragen), im Fehlerfall, bei der Wartung<br />

oder Neueinrichtung des EDV-Systems etc.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

127


Informationsdesign<br />

Der Leitfaden: Modulares Nachschlagewerk<br />

Wir haben uns entschieden, den Leitfaden als Nachschlagewerk anzulegen,<br />

das die Autoren bedarfsweise zu Rate ziehen können. Konzeptionshilfe<br />

war uns dabei ein linguistisches Textmodell, das die<br />

sprachlichen Phänomene in einem Text (und damit den potenziellen<br />

Regelungsbedarf) in drei Ebenen aufteilt:<br />

−−<br />

Makro-Ebene: Bestimmt die Typisierung der Informationen, das heißt<br />

Struktur und Aufbau der Support-Dokumente bis zur Überschriftenebene.<br />

−−<br />

Meso-Ebene: Definiert Struktur- und Darstellungsvorgaben für die<br />

Inhalte eines Dokuments, zum Beispiel Handlungsanweisungen oder<br />

Signalelemente.<br />

−−<br />

Mikro-Ebene: Regelt Fragen von Terminologie und Formulierung.<br />

Das dreistufige Textmodell in Anlehnung an: Martin Ley (2005): Kontrollierte<br />

Textstrukturen. Heidelberg.<br />

Makro-Ebene:<br />

Dokumenttypen<br />

Meso-Ebene:<br />

Standardelemente<br />

Zentraler Gedanke des Leitfadens ist die Klassifizierung der Informationen<br />

durch Dokumenttypen. Ausgangspunkt ist also die Frage,<br />

welche Art von Inhalten in einem Dokument steht. Häufig benötigte<br />

Dokumenttypen:<br />

−−<br />

Anleitung<br />

−−<br />

Hintergrund<br />

−−<br />

Tipp<br />

−−<br />

Fehler und Abhilfen<br />

Die Wahl des Dokumenttypen entscheidet für den Autor, welche Regeln<br />

er auf der nachgeordneten Meso-Ebene (Standardelemente) und<br />

Mikro-Ebene (Formulierung) wählt. Eine Anleitung „funktioniert“ damit<br />

anders als ein „Hintergrund“ oder ein Dokument vom Typ „Fehler und<br />

Abhilfen“.<br />

Diese inhaltsorientierte Typisierung haben wir ganz bewusst gewählt.<br />

Alternative Konzepte wie z. B. die Typisierung nach Zielgruppen (Führungskraft,<br />

Fachbearbeiter, IT-Spezialist) oder nach Informationsanlässen<br />

(Installation, Einarbeitung, Programmnutzung) haben wir<br />

verworfen, weil es für die Gestaltung des Dokuments letztlich keinen<br />

Unterschied macht, in welcher Situation ein Problem auftritt oder in<br />

welcher Rolle sich der Leser befindet.<br />

Regelt die Makro-Ebene vor allem, was in einem Dokument steht und<br />

wie es im Groben gegliedert ist, geht es auf der Meso-Ebene („Standard<br />

elemente“ im Leitfaden) darum, wie die konkreten Inhalte dargestellt<br />

werden. In diesem Zusammenhang haben wir funktionale<br />

128<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

Mikro-Ebene:<br />

Terminologie und<br />

Formulierung<br />

Textmodule identifiziert, für die über alle Dokumenttypen hinweg einheitliche<br />

Regeln gelten, zum Beispiel:<br />

−−<br />

Einstiegstext<br />

−−<br />

Handlungsanweisungen mit entsprechenden Untermodulen wie<br />

Handlungsschritt, Resultat etc.<br />

−−<br />

standardisierte Tabellen<br />

−−<br />

Querverweise<br />

Diese Modularisierung auf der Meso-Ebene sorgt dafür, dass in den<br />

Support-Dokumenten kein Stück Text vorkommt, für das es keine Regeln<br />

gibt.<br />

Wie die Inhalte der Module konkret versprachlicht werden, bestimmt<br />

die „unterste“ Ebene – die Mikro-Ebene. Obwohl diese Ebene zahlenmäßig<br />

die meisten Regeln zur Standardisierung beisteuert, nimmt sie<br />

im Leitfaden den kleinsten Raum ein. Warum?<br />

−−<br />

Terminologie und Stilistik werden durch ein Sprachqualitätswerkzeug<br />

(Acrolinx) geprüft.<br />

−−<br />

Bei Fragen zu Formulierung und Stilistik ist ein Nachschlagewerk oft<br />

wenig hilfreich. Die Kernkompetenzen dazu werden den Autoren in<br />

Schulungen vermittelt.<br />

Der Leitfaden profitiert von dieser Zurückhaltung. Er bleibt schlank<br />

und übersichtlich. Gleichzeitig entgeht man der Gefahr zur Überregulierung,<br />

die auf der Mikro-Ebene besonders virulent ist.<br />

Zwischenfazit nach anderthalb Jahren Praxiseinsatz<br />

−−<br />

Die Regeln lassen sich gut umsetzen. Vor allem die Dokumenttypen<br />

helfen den Redakteuren, Support-Texte schnell inhaltlich zu fokussieren<br />

und entsprechend zielgerichtet und zügig zu erstellen.<br />

−−<br />

Der modulare Aufbau des Leitfadens hat sich bewährt. Er lässt sich<br />

wie beabsichtigt als Nachschlagewerk einsetzen – was sich sehr gut<br />

daran zeigt, dass ihn die Autoren bedarfsweise zu Rate ziehen und<br />

dann wieder zur Seite legen. Er ist wirklich ein Helfer und kein Klotz<br />

am Bein.<br />

−−<br />

Das Ebenen-Modell macht es möglich, die Bestandsdaten phasenweise<br />

umzustellen. Als erster Schritt nach der Einführung reichte es<br />

aus, Makro-Struktur und (soweit nötig) die Meso-Struktur der Bestandsdaten<br />

anzupassen. Eine tiefergehende Bearbeitung wurde nur<br />

für Dokumente gewählt, die besonders oft frequentiert werden. Was<br />

viele Standardisierungsprojekte zum Scheitern bringt – nämlich ein<br />

Komplett-Relaunch der bisherigen Informationswelt – blieb DATEV<br />

damit erspart.<br />

−−<br />

Noch immer ist die erste Version des Leitfadens im Einsatz. Die<br />

Gründe dafür liegen in der Konzeptionsphase: (1) Es wurden alle<br />

beteiligten Redaktionen in die Erarbeitung der Regeln einbezogen.<br />

(2) Alle Regeln wurden prototypiert und ganz praktisch an Mustertexten<br />

ausprobiert. (3) Dem Arbeitskreis aus externen Beratern (doctima)<br />

und Verantwortlichen aus DATEV stand eine Projektlaufzeit<br />

von einem halben Jahr zur Verfügung. Es musste nichts übers Knie<br />

gebrochen werden.<br />

für Rückfragen:<br />

johannes.dreikorn@doctima.de<br />

joerg.palm@datev.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

129


Informationsdesign<br />

INF 9<br />

Workshop<br />

Modularisierung<br />

Dr. Britta Görs, Beratung und Redaktion aus einer Hand, Hamburg<br />

Die Modularisierung hat das Ziel, den Erstellungsprozess der Anleitungen<br />

effizienter zu gestalten. Modulares Arbeiten basiert auf dem Prinzip,<br />

dass ein definiertes Modul in verschiedenen Dokumenten oder in<br />

einer Anleitung an mehreren Stellen referenziert eingesetzt wird. Wenn<br />

sich Änderungen ergeben, müssen diese nur in der Quelle vorgenommen<br />

werden und sind in den Dokumenten automatisch enthalten.<br />

Der Workshop richtet sich vor allem an Technische Redakteure, die<br />

schon erste Erfahrungen mit der Modularisierung von Texten gesammelt<br />

haben und an Redakteure, die überlegen, zukünftig Texte modular<br />

zu erstellen.<br />

Der Workshop möchte einen Raum für den Austausch der unterschiedlichen<br />

Erfahrungen bieten. Daher ist er so gestaltet, dass die Diskussion<br />

im Vordergrund steht.<br />

Zu Beginn des Workshops wird die Referentin ihre Erfahrungen vorstellen,<br />

die sie bei der Erarbeitung und Einführung eines modularen<br />

Konzeptes gemacht hat. Anschließend werden wir gemeinsam mögliche<br />

Stolpersteine bei der Entwicklung und Umsetzung der Modularisierung<br />

sammeln und gemeinsam Lösungsideen entwickeln.<br />

Wer eigene Beispiele für modularisierte Texte oder Texte, die modularisiert<br />

werden sollen, mitbringen möchte, ist herzlich willkommen. Nutzen<br />

Sie die Möglichkeit, sich mit anderen Redakteuren auszutauschen<br />

und voneinander zu lernen.<br />

für Rückfragen: info@britta-goers.de<br />

130<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Informationsdesign<br />

INF 11<br />

Workshop<br />

Nur Standard-Software<br />

Möglichkeiten<br />

von Batchfiles<br />

Microsoft Batch – ein nützlicher<br />

Helfer für tägliche Routinen<br />

Pascal Kesselmark, Klingelnberg AG, Zürich, Schweiz<br />

Es gibt Arbeiten, die müssen in der TD regelmäßig wiederholt werden.<br />

Sei es das Erstellen einer Steuerdatei oder einer Ablagestruktur für<br />

einen Auftrag.<br />

Natürlich kann man das auch mit dem Kopieren von Ordnern und Dateien<br />

gelöst werden. Leider ist man dadurch nicht flexibel, kann keine<br />

Spezialfälle abdecken, keinen Standard durchsetzen und hat eventuell<br />

redundante Daten. Dass durch manuelle Anpassungen dann auch Fehler<br />

passieren, kommt erschwerend dazu. Deshalb sind Stapelverarbeitungsdateien<br />

für solche Aufgaben ideal.<br />

Das Gute an Batch-Files ist die Tatsache, dass man die Dateien mit<br />

einem kostenlosen Texteditor erstellen kann. Vorzugsweise verwende<br />

ich Notepad++. Zusätzliche Software wird nicht benötigt, da Batchfiles<br />

vom Betriebssystem ausgeführt werden und das von Windows XP bis<br />

Windows 7.<br />

Die Syntax in einem Batchfile ist eine einfache Programmiersprache.<br />

Die grundlegenden Befehle können unter der folgenden Adresse gefunden<br />

werden: http://de.wikibooks.org/wiki/Batch-Programmierung.<br />

Mit Batchfiles können vielfältige Aufgaben gelöst werden. So verwendet<br />

zum Beispiel IT-Abteilungen Batchfiles, um beim Anmelden bei Windows<br />

die internen Laufwerke zu verbinden oder die aktuellen Vorlagen<br />

auf den eigenen Rechner zu kopieren. In meinem Workshop haben<br />

wir nicht die Zeit, alle Möglichkeiten vom Batchfile anzuschauen, aber<br />

zumindest wissen Sie danach, wie folgende grundlegende Aufgaben zu<br />

erledigen sind:<br />

−−<br />

Erstellung der ersten eigenen Batch-Datei<br />

−−<br />

Anlegen von einem neuen Ordner<br />

−−<br />

Kopieren von Dateien<br />

−−<br />

Dateien dynamisch erstellen<br />

−−<br />

Eingabefeld erstellen<br />

−−<br />

Eingaben verarbeiten<br />

−−<br />

Mit Variablen arbeiten<br />

−−<br />

Subroutinen<br />

−−<br />

If/else-Befehl<br />

für Rückfragen: p.kesselmark@klingelnberg.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

131


Junge Technische Redakteure


Junge Technische Redakteure<br />

JTR 1<br />

Fachvortrag<br />

Frauen, Männer und Technik –<br />

Bedienungsanleitungen<br />

geschlechtergerecht gestalten<br />

Kirsten Brettschneider, Celle<br />

Obwohl technische Produkte von Frauen und Männern gleichermaßen<br />

gekauft und benutzt werden, waren geschlechtsspezifische Bedürfnisse<br />

von Frauen und Männern in Bezug auf die Gestaltung von Bedienungsanleitungen<br />

im Bereich der Technischen Kommunikation bislang<br />

kaum Gegenstand der wissenschaftlichen Forschung. Geschlechtsdifferenzierende<br />

Forschungsergebnisse aus dem Umfeld der Technischen<br />

Kommunikation sowie aus den ihr nahestehenden Fachgebieten des<br />

Marketings, der Didaktik, der Kognitionspsychologie und der Sprachwissenschaft<br />

deuten jedoch darauf hin, dass Frauen und Männer bei<br />

einzelnen Aspekten unterschiedliche Anforderungen an Bedienungsanleitungen<br />

haben, die für beide Geschlechtsgruppen im Hinblick auf eine<br />

anwendungsfreundliche Gestaltung stärker zu berücksichtigen sind.<br />

Befundlage<br />

Aus den konsultierten Fachgebieten sind die folgenden Befunde für<br />

eine Ableitung geschlechtsspezifischer Bedürfnisse von Frauen und<br />

Männern in Bezug auf die Gestaltung von Bedienungsanleitungen<br />

relevant:<br />

−−<br />

Frauen wollen technische Geräte in der Regel für bestimmte, konkrete<br />

Zwecke benutzen, während Männer bei Geräten gerne die<br />

Grenzen des technisch Machbaren ausloten. Für Frauen steht demgemäß<br />

der konkrete Nutzen eines technischen Gerätes im Vordergrund,<br />

für Männer das Potential.<br />

−−<br />

Beim Aneignen von Technik ist es für Frauen in der Regel wichtig zu<br />

verstehen, wie ein Gerät funktioniert und warum sie bestimmte Bedienschritte<br />

ausführen sollen. Männer gehen eher regelorientiert an<br />

ein technisches Gerät heran: Es reicht ihnen meist das Verfahren zu<br />

kennen, mit dem sie ans Ziel gelangen. Das dahinterliegende Funktionsprinzip<br />

zu verstehen, ist für sie im Hinblick auf die Benutzung<br />

eines Gerätes sekundär.<br />

−−<br />

In Lernprozessen ist bei Frauen in der Regel das eigene Ich Bezugspunkt<br />

der Betrachtung, während Männer sich beim Betrachten eines<br />

Objekts als Subjekt herausnehmen.<br />

−−<br />

Frauen legen tendenziell Wert auf ein systematisches und an Effizienzkriterien<br />

orientiertes Lernen und bevorzugen daher auch die<br />

Kenntnisübernahme von Dritten. Männer tendieren bei technischen<br />

Geräten zu einem autodidaktischen und spielerischen Lernen z. B.<br />

durch einfaches Ausprobieren.<br />

−−<br />

Frauen greifen bei kognitiven Problemstellungen bevorzugt auf<br />

verbale Lösungsstrategien zurück, z. B. indem sie Objekte verbal in<br />

Beziehung zueinander setzen, während Männer meist ein besseres<br />

räumliches Vorstellungsvermögen haben und zu räumlichen Lösungsstrategien<br />

tendieren.<br />

−−<br />

Frauen schätzen ihre eigenen Fähigkeiten und Kompetenzen bei<br />

gleichem Kenntnisstand im Durchschnitt schlechter als Männer ein.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

135


Junge Technische Redakteure<br />

−−<br />

Frauen bevorzugen beim Kauf technischer Geräte eine Ansprache<br />

auf Augenhöhe, Männer informieren sich in der Regel umfassend im<br />

Vorwege und bevorzugen im Verkaufsgespräch eine Ansprache als<br />

Experte.<br />

−−<br />

Frauen kennzeichnen ihre Äußerungen häufig als Bitten, Männer<br />

tendieren zu direkten Aufforderungen.<br />

−−<br />

Frauen bewerten das Vorhandensein von Weißraum in Bedienungsanleitungen<br />

im Durchschnitt positiver als Männer.<br />

−−<br />

Frauen sind eher als Männer geneigt, ein Produkt aufgrund einer<br />

mangelhaft erscheinenden Dokumentation als unattraktiv einzustufen.<br />

Gestaltungsempfehlungen<br />

Aus den Befunden lassen sich die folgenden Gestaltungsempfehlungen<br />

ableiten:<br />

Bedienungsanleitungen, die sich an Frauen und Männer richten, sollten<br />

−−<br />

konkrete Hinweise zum Produktnutzen geben, bevorzugt in von den<br />

Handlungsanweisungen isolierten Abschnitten oder Kapiteln;<br />

−−<br />

das Leistungspotential des Produktes deutlich machen, z. B. über die<br />

technischen Daten oder ein eigenständiges Kapitel;<br />

−−<br />

das dahinterliegende Funktionsprinzip, getrennt von den Handlungsanweisungen,<br />

erklären;<br />

−−<br />

alle Informationen und Handlungsanweisungen schriftlich geben, um<br />

die Anwendung verbaler Lösungsstrategien zu unterstützen;<br />

−−<br />

alle Handlungsanweisungen mit Bildern umfassend unterstützen, um<br />

die Anwendung räumlicher Lösungsstrategien zu unterstützen;<br />

−−<br />

bei Handlungsanweisungen immer vom Benutzenden ausgehen<br />

(„Schalten Sie das Gerät über die Taste (1) ein.“) und nicht das Gerät<br />

ohne den Benutzenden beschreiben („Das Gerät wird über die Taste<br />

(1) eingeschaltet.“);<br />

−−<br />

neben der Inbetriebnahme konkrete, typischerweise von der Zielgruppe<br />

zu erwartende Nutzungsanlässe erklären;<br />

−−<br />

alle Funktionen und Optionen des Gerätes vollständig erklären;<br />

−−<br />

Probleme im Umgang mit Technik angemessen würdigen, z. B. über<br />

konkrete Hilfestellungen in den Handlungsanweisungen oder eigenständige<br />

Kapitel;<br />

−−<br />

Leserinnen und Leser, die sich im Umgang mit Technik wenig zutrauen,<br />

positiv in ihren Fähigkeiten bestärken, z. B. durch mutmachende<br />

Elemente;<br />

−−<br />

Nutzende auf gleicher Augenhöhe ansprechen, ohne Wissensunterschiede<br />

zu betonen;<br />

−−<br />

Handlungsanweisungen verwenden, die nicht als „befehlsartig“ empfunden<br />

werden, z. B. „Schalten Sie das Gerät ein.“ statt „Gerät einschalten.“;<br />

−−<br />

über ein übersichtliches Layout verfügen.<br />

Ausblick<br />

Geschlechtsdifferenzen sind immer im Rahmen ihres gesellschaftlichen<br />

und zeitlichen Kontextes zu sehen und nicht auf jedes Mitglied<br />

der jeweiligen Geschlechtsgruppe zu verallgemeinern. Grundsätzlich<br />

sollte immer geprüft werden, inwieweit sich innerhalb einer Zielgruppe<br />

136<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Junge Technische Redakteure<br />

geschlechtstypische Bedürfnisse isolieren lassen und mit welchen Gestaltungsstrategien<br />

in der Bedienungsanleitung diesen Bedürfnissen<br />

dann angemessen Rechnung getragen werden kann.<br />

für Rückfragen: kirsten.brettschneider@gmx.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

137


Junge Technische Redakteure<br />

JTR 3<br />

Partnerpräsentation<br />

Terminabstimmung<br />

Inspirationsfindung<br />

und -sammlung<br />

Speicherung von Ideen<br />

Projektorganisation für kleine Teams –<br />

mobil, sozial und über den Wolken<br />

Ute Klingelhöfer<br />

Am Anfang eines Projekts stellt sich die Frage, wie Sie sich über die gesamte<br />

Projektlaufzeit innerhalb ihrer Projektgruppe organisieren. Haben<br />

Sie die Möglichkeit, sich regelmäßig zum persönlichen Austausch<br />

zu treffen oder müssen Sie aufgrund von zu hohen Distanzen Ihre<br />

Kommunikation ausschließlich über Internet und Telefon durchführen?<br />

Haben Sie regelmäßig Dateien auszutauschen? Müssen Sie im Team<br />

über Entwürfe abstimmen? Wie machen Sie Ihre Terminabstimmung<br />

für persönliche oder virtuelle Treffen? Woher nehmen Sie Ihre Inspiration<br />

für kreative Projekte?<br />

Sind Sie gewohnt, dies alles per E-Mail zu erledigen? Empfinden Sie<br />

diese Nachrichtenflut als mühsam und möchten diese auf das Notwendigste<br />

begrenzen? Lesen Sie, auf welche Art und Weise Sie noch zusammenarbeiten<br />

können.<br />

Mehrere E-Mails versenden, um alle Projektmitarbeiter nach passenden<br />

Terminen für persönliche Treffen oder virtuelle Konferenzen zu<br />

befragen, ist zeitaufwändig. Doodle (http://www.doodle.com) bietet hier<br />

Abhilfe: Sie suchen sich mehrere mögliche Termine aus und senden<br />

eine einzige E-Mail an die anderen Mitglieder mit dem Link zum Doodle.<br />

Online wählen diese ihre passenden Termine aus und am Ende findet<br />

Ihr Termin an jenem Datum oder in jenem Zeitfenster statt, für das<br />

die meisten Projektmitglieder gestimmt haben.<br />

Je nachdem, ob ihr Projekt im kreativen Bereich angesiedelt ist, benötigen<br />

Sie möglicherweise erst einmal Inspiration für Ihre eigene Arbeit.<br />

Ein soziales Netzwerk wie pinterest (http://www.pinterest.com), das<br />

rein visuell aufgebaut ist, ist eine geeignete Quelle für Designideen oder<br />

um Assoziationen zu einen bestimmten Begriff zu finden. Geben Sie Ihren<br />

Suchbegriff (für eine höhere Trefferquote am besten auf Englisch)<br />

in das Suchfeld ein und stöbern sie in sogenannten Pins oder Boards<br />

zum Thema.<br />

Wohin mit den Ideen, die man im Internet sammelt? Dafür eignet sich<br />

der Online-Service keeeb.it (http://www.keeeb.com/info/). Jeder Text,<br />

jedes Bild, jedes Video kann durch einen Klick auf das keeeb.-it-Symbol<br />

in der Lesezeichenleiste des Browsers wie auf einer digitalen Pinnwand<br />

gespeichert werden. Diese Pinnwand kann je nach Belieben nur für<br />

den Ersteller auf privat eingestellt werden oder öffentlich, damit die<br />

anderen Projektmitglieder die gesammelten Informationen auch einsehen<br />

können. Soll die digitale Pinnwand für alle Projektmitglieder als<br />

Inspirations- und Sammelstelle dienen, muss jedes Teammitglied einen<br />

keeeb.it-Account besitzen.<br />

Möchte man nicht nur Online-Inhalte in seinen digitalen Ideenspeicher<br />

übernehmen, sondern auch offline eigene Notizen anlegen, ist keeeb.<br />

it jedoch nicht geeignet. In diesem Fall eignet sich eher die Anwendung<br />

evernote (http://www.evernote.com), die es in der Desktop-Version für<br />

Windows wie auch den Mac gibt und als mobile App den Nutzern aller<br />

Betriebssysteme zur Verfügung steht. Digitale Notizen jeder Art werden<br />

hier in Notizbüchern organisiert, die den anderen Projektmitgliedern<br />

138<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Junge Technische Redakteure<br />

Synchrones Arbeiten<br />

Austausch von Dateien<br />

Mind-Mapping<br />

Browserbasiertes<br />

Projektmanagement<br />

freigegeben werden können. Leider begrenzt evernote in der kostenlosen<br />

Version die Freigabe auf das Anschauen der Notizen, erst mit der<br />

kostenpflichtigen Premium-Version ist ein kollaboratives Arbeiten am<br />

gleichen Notizbuch möglich.<br />

Manche Arbeiten erfordern eine zeitgleiche Bearbeitung, beispielsweise<br />

wenn Entwürfe oder Dokumente noch einmal zusammen diskutiert<br />

werden und parallel dazu alle Teilnehmer das Dokument oder den Entwurf<br />

vor sich sehen sollen. Hier bietet sich entweder eine passive Bildschirmübertragung<br />

an, die per skype-Bildschirmübertragung (http://<br />

www.skype.com) oder per Google Hangout (http://www.google.com/intl/<br />

de_ALL/+/learnmore/hangouts/) möglich ist. Für Ersteres ist es erforderlich,<br />

dass alle Teilnehmer einen skype-Account besitzen, für einen<br />

Google Hangout müssen alle ein Google-Konto besitzen. Soll auch jedes<br />

der Projektmitglieder in den Dateien zur Echtzeit etwas verändern können,<br />

eignet sich jedoch eher eine Übertragung per TeamViewer (http://<br />

www.teamviewer.com/de/) oder das Arbeiten in Google Docs (http://<br />

www.docs.google.com). Während es bei der Arbeit mit TeamViewer<br />

unbedeutend ist, welches Format die zu bearbeitende Datei hat, müssen<br />

in Google Docs jene Dokumente, die z. B. aus Microsoft Office stammen,<br />

erst einmal in das Google Docs Format umgewandelt werden, damit<br />

diese editiert werden können. Formatfehler bei der Konvertierung in<br />

das Google Docs Format sowie bei der späteren Rückkonvertierung ins<br />

Ursprungsformat sind somit denkbar und lassen sich nicht unbedingt<br />

ausschließen.<br />

Gerade bei einer dezentralen Zusammenarbeit benötigen Sie eine<br />

zentrale Ablage für Ihre Dokumente, damit auch jedes Teammitglied<br />

zu jeder Zeit den aktuellen Stand einsehen kann. Dafür gibt es Cloud-<br />

Dienste wie Dropbox, Minus oder Box. Der bekannteste und am meisten<br />

verbreitete Dienst Dropbox (http://www.dropbox.com) bietet den<br />

geringsten Speicherplatz zur freien Verfügung an (2 GB/Person – durch<br />

Anwerben anderer Personen sind bis zu 18 GB möglich), wertet dies<br />

jedoch mit der einfachsten Bedienbarkeit und der Unterstützung der<br />

wichtigsten Plattformen auf. Auch die mobile App kann sich sehen<br />

lassen: Microsoft Office Dokumente können zwar in der Dropbox-App<br />

nicht editiert, aber zumindest am Smartphone oder Tablet betrachtet<br />

werden. Bei Box (http://www.box.com) erhält der Einzelnutzer 5 GB<br />

Speicherplatz, bei Minus (http://minus.com) sind es 10 GB.<br />

Mind-Maps sind vor allem im Kick-off-Meeting zu Beginn eines Projekts<br />

nützlich, um die bevorstehenden Aufgaben und Ziele inklusive<br />

ihrer Verantwortlichkeiten zu definieren und strukturiert darzustellen.<br />

Besonders praktisch ist es, wenn man als Projektleiter von unterwegs<br />

an der Mind-Map weiterarbeiten kann, die am Desktop erstellt wurde.<br />

Für iOS- bzw. Mac-Nutzer bietet sich hier die App MindNode (http://<br />

mindnode.com) an, die jene Dateien, die in Dropbox gespeichert sind,<br />

bearbeiten und wieder über Dropbox synchronisieren kann. Exportiert<br />

man die mit MindNode erstellte Mind-Map in der App vorher noch in<br />

das PDF-Format, kann auch einem Projektmitglied, dem kein MindNode<br />

zur Verfügung steht, die Mind-Map zumindest zur Ansicht verfügbar<br />

gemacht werden.<br />

Wer alle Projektaktivitäten an einer Stelle verwalten möchte, sollte sich<br />

http://www.trello.com anschauen. Die verschiedenen Projektmitglieder<br />

arbeiten mit sogenannten „Boards“, die ihnen immer den aktuellen<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

139


Junge Technische Redakteure<br />

Stand eines Projekts anzeigen – auch die Aufgaben, an denen gerade<br />

die Kollegen arbeiten. An einzelne Aufgaben können Dateianhänge<br />

angefügt werden, so dass selbst Entwürfe oder Bearbeitungsstände<br />

direkt über trello diskutiert werden können. Stehen mehrere Entwürfe<br />

zur Bewertung frei, macht trello die Bewertung über eine Stimmabgabe<br />

einfach – ähnlich wie ein „Like“, das man aus sozialen Netzwerken<br />

kennt. Besonders überzeugen kann hier auch die mobile App (erhältlich<br />

für Android und iOS), die sich aufgrund ihrer intuitiven und minimalistischen<br />

Benutzeroberfläche sehr einfach bedienen lässt.<br />

Fazit<br />

Wer seine Nachrichten-Flut im E-Mail-Postfach begrenzen möchte und<br />

sich gleichzeitig nicht davor scheut, die eigenen (möglicherweise sensiblen)<br />

Daten bei anderen Anbietern als dem bisherigen und bekannten<br />

Server zu speichern, hat viele Möglichkeiten, Projekte größtenteils<br />

abseits der E-Mail zu organisieren. Anwendungen wie der Cloud-Dienst<br />

Dropbox oder das digitale Notizbuch evernote sind bereits so bewährt,<br />

dass sie in viele andere Dienste integriert sind und umgekehrt.<br />

Welche Anwendung die richtige für das eigene Vorhaben ist, kann jedoch<br />

nur durch Ausprobieren herausgefunden werden. Hat man selbst<br />

schließlich die erste Hürde der Installation und Anmeldung bei einem<br />

neuen Dienst genommen, gilt es immer noch, die anderen Projektmitglieder<br />

zu überzeugen. Entscheiden muss deswegen jede Projektgruppe<br />

für sich, welche Tools sie für sinnvoll hält bzw. was in welcher Projektphase<br />

nützlich ist.<br />

für Rückfragen: klingelhoefer.ute@gmail.com<br />

140<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Karriere


Karriere<br />

KAR 1<br />

Workshop<br />

Zusammenfassung<br />

Effektiv kommunizieren<br />

Dr. Sylvia Fischer, FH Oberösterreich in Wels<br />

Der Workshop vermittelt das sprachliche Handwerkszeug für eine zielgerichtete<br />

und effektive Kommunikation im Büro-, Redaktions- und<br />

Familienalltag. Er sensibilisiert die Teilnehmer für die Wirkung von<br />

kommunikationsrelevanten Sprachphänomenen und zeigt Strategien<br />

auf, die es den Teilnehmern ermöglichen, erfolgreich zu instruieren, effektiv<br />

zu kommunizieren, Kritik sozial verträglich zu äußern und somit<br />

das gewünschte Kommunikationsziel zu erreichen.<br />

Einführung<br />

Kommt Ihnen das bekannt vor? Sie fragen jemanden nach der Uhrzeit<br />

mit den Worten „Können Sie mir die Uhrzeit sagen?“ und bekommen<br />

als Antwort „Ja, kann ich“ – aber nicht die gewünschte Uhrzeit? Nicht<br />

kooperative Gesprächspartner sind zwar eher selten, jedoch veranschaulicht<br />

das Beispiel, dass unsere Sprache mehrdeutig ist und auch<br />

nicht intendierte Interpretationen zulässt, die dann den Erfolg unserer<br />

Kommunikation gefährden können.<br />

Instruktionen und Bitten erfolgreich äußern<br />

Und gleich noch eine Frage: Mit welcher der folgenden Formulierungen<br />

erreichen Sie, dass das Fenster geschlossen wird?<br />

1. „Meier, machen Sie dieses Fenster sofort zu.“<br />

2. „Könnte irgend jemand vielleicht mal bitte das Fenster schließen?“<br />

Obwohl die erste Formulierung zwar aggressiv wirkt, so führt sie jedoch<br />

aufgrund ihrer Direktheit und Konkretheit eher zur Handlungsausführung<br />

als die zweite als indirekte Frage weich, vage und sozial verträglich<br />

formulierte Äußerung. Die beiden Sätze veranschaulichen, dass es<br />

wirkungsvolle und nicht wirkungsvolle Formulierungen gibt. Eine Kombination<br />

der Vorteile beider Äußerungsvarianten mündet in der folgenden<br />

neutralen, klaren und sozial verträglichen Instruktion: „Herr Meier,<br />

bitte seien Sie so gut und machen Sie bitte das Fenster jetzt zu.“ Diese<br />

Formulierung zeichnet sich aus durch Direktheit (Namensnennung und<br />

Befehlsform), Freundlichkeit („bitte seien Sie so gut“) und Konkretheit<br />

(„jetzt“).<br />

Für eine effektive Kommunikation sollten Äußerungen generell folgendermaßen<br />

formuliert werden: konkret, überzeugend, direkt, kooperativ,<br />

eindeutig, positiv, kraftvoll, persönlich und gezielt. Der Workshop geht<br />

auf diese einzelnen Aspekte ein und verdeutlicht sie anhand von Beispielen<br />

und Übungen.<br />

Theorie<br />

Um die einzelnen Aspekte einer effektiven Kommunikation verständlich<br />

vermitteln zu können, bedarf es theoretischer Grundlagen: Dazu<br />

gehört die Sprechakttheorie, anhand derer sich indirekte und direkte<br />

Formulierungen von der sprachwissenschaftlichen Seite her aufschlüsseln<br />

lassen. Außerdem spielen die verschiedenen Ebenen einer<br />

Äußerung eine entscheidende Rolle bei der zwischenmenschlichen<br />

Verständigung. Diese Thematik wird anhand von Schulz von Thuns<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

143


Karriere<br />

Kommunikationsquadrat erläutert, das eine Sachinhaltsebene, eine<br />

Appellebene, eine Beziehungsebene und eine Selbstoffenbarungs ebene<br />

differenziert. Last but not least erweist sich für eine wirkungsvolle<br />

Kommunikation eine Übereinstimmung zwischen verbaler Sprache und<br />

Körpersprache als relevant. Im Hinblick auf den Kommunikationserfolg<br />

sind die Stimme und die Körpersprache weit wichtiger als der reine<br />

Sachinhalt.<br />

Effektiv kommunizieren<br />

Zu den im Workshop behandelten Formulierungsempfehlungen gehört<br />

in erster Linie der Verzicht auf:<br />

−−<br />

eine falsche Vergangenheit<br />

−−<br />

abschwächende Konjunktivformen<br />

−−<br />

abschwächende Modalverben<br />

−−<br />

schwache Verben<br />

−−<br />

Zweifel<br />

−−<br />

rhetorische Weichspüler und Kleinmacher<br />

−−<br />

Füllwörter<br />

−−<br />

die unpersönliche „man“-Form<br />

−−<br />

Verneinungen<br />

−−<br />

negative Wörter<br />

Durch eine Befreiung der Formulierungen von diesen abschwächenden,<br />

klein machenden, aufblähenden und negativen Wörtern gewinnt der<br />

Sprachstil an Klarheit und Kraft. Diese Formulierungsempfehlungen<br />

stellen die Basis für das Äußern von Bitten, Instruktionen und Kritik<br />

dar.<br />

Kritik sozial verträglich äußern<br />

Entscheidend für das sozial verträgliche Kritisieren ist auch ein bestimmter<br />

Kommunikationsaufbau: Zunächst sollte eine positive<br />

Einstimmung erfolgen, indem Sie beispielsweise Ihren Kommunikationspartner<br />

ehrlich loben. Danach sollten Sie ihm den Anlass des<br />

Gespräches nennen und Ihre Kritik präzise, sachlich und motivierend<br />

vortragen. Von zentraler Bedeutung ist es, dass Sie dann von ihm ein<br />

Feedback einholen, wie er Ihre Kritik sieht bzw. ob Ihre Kritik berechtigt<br />

ist und welche Problemlösung er vorschlägt. Zum Schluss sollten<br />

Sie eine Vereinbarung zur Problemlösung treffen.<br />

Fazit<br />

Eine Sensibilisierung für die Wirkung von Sprache führt dazu, dass Sie<br />

nicht nur Kritik erfolgreich äußern, sondern auch Instruktionen und<br />

Bitten effektiver formulieren und somit das gewünschte Kommunikationsziel<br />

erreichen können.<br />

für Rückfragen: mail@sylvia-fischer.eu<br />

144<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Karriere<br />

KAR 2<br />

Workshop<br />

Was nun?<br />

Kreativitätstechniken für alle Fälle<br />

Frank Fleury, Fleury & Fleury Consultants, Köln<br />

Brainstorming und Mindmapping kennt inzwischen jeder. Doch diese<br />

freien Assoziationstechniken sind nur ein kleiner Teil der Möglichkeiten,<br />

kreative und originelle Lösungen für neue Anforderungen zu finden<br />

und zu strukturieren.<br />

Wenig bekannt ist auch, dass Psychologen der Stanford University bereits<br />

1958 bewiesen, dass Brainstorming nicht sinnvoll funktioniert. Die<br />

Forscher zeigten, dass Brainstorming nicht nur ideenhemmend, sondern<br />

sogar motivationshemmend ist. Sie widerlegten die 1953 von einer<br />

amerikanischen Werbeagentur aufgestellte These, dass man mit einfachen<br />

Methoden die Ideenfindung innerhalb einer Gruppe verdoppeln<br />

könne. Bis in die jüngste Zeit belegen zahlreiche Studien diverse erhebliche<br />

Nachteile dieser Technik. Ungeachtet dessen findet Brainstorming<br />

bis heute große Verbreitung.<br />

Mindmapping ist eine hilfreiche Strukturierungstechnik für einfachere<br />

Zusammenhänge. Viele Behauptungen darüber sind jedoch inzwischen<br />

widerlegt. Außerdem ist Mindmapping selbst keine Kreativitätstechnik,<br />

sondern im Wesentlichen eine Methode, einem definierten Ordnungsprinzip<br />

zu folgen. In der Praxis werden dabei neue Ideen vor allem mit<br />

Hilfe von Brainstorming entwickelt – mit allen inzwischen bekannten<br />

Nachteilen.<br />

Wenn Brainstorming aber keine empfehlenswerte Methode ist: Wodurch<br />

definiert sich dann die Qualität einer Kreativitätstechnik, und welche<br />

besseren Techniken gibt es, um gezielt neue Ideen zu produzieren?<br />

Besonders wichtig ist es, die richtigen Dinge in Frage zu stellen. Das<br />

kreative Potenzial, das sich dahinter versteckt, wird allerdings oft verkannt<br />

und mit den gängigen Kreativkillern getötet: „Das hat Ihr Vorgänger<br />

auch schon vorgeschlagen!“, „Alter Hut!“, „Graue Theorie!“ usw.<br />

Solche Antworten sind Resultate aus Erfahrungen und Wissen aus der<br />

Vergangenheit und werden mit einem rückwärtsgewandten Blick gegeben.<br />

In-Frage-stellen reißt uns dagegen heraus aus unserem gewöhnlichen<br />

Denken und aus unserer Komfortzone. Wagemutige Fragen öffnen<br />

die Tür in eine andere Welt.<br />

Ausgehend vom kreativen Problemlösungszyklus und einer Einführung<br />

in ein praxistaugliches grundsätzliches Vorgehen vermittelt dieser<br />

Workshop spielerisch und anhand konkreter Situationen einige herausragende<br />

Kreativitätstechniken, die sowohl für die kreative Gestaltung<br />

in der Technischen Dokumentation als auch für die Problemlösung in<br />

unterschiedlichsten Situationen hilfreich sind. Beginnend mit einer<br />

einfachen Technik für alle Gelegenheiten, werden anschließend eine<br />

Technik für extreme Innovationen und eine Technik für komplexe Fragestellungen<br />

durchgespielt.<br />

für Rückfragen: ff@fleuryfleury.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

145


Karriere<br />

KAR 3<br />

Workshop<br />

Seien Sie kein Frosch!<br />

Nehmen Sie Ihr Leben in die Hand.<br />

Heidi Wahl, Trainerin. Autorin. Coach., München<br />

Menschen, die ihr Leben selbstbestimmt leben und gestalten, sind erfolgreich<br />

und zufrieden. Doch wie ist das zu schaffen? Im Alltag bleibt<br />

oft wenig Zeit, darüber nachzudenken und zu spüren, was wir brauchen,<br />

was wir eigentlich gerne machen oder schon immer mal tun<br />

wollten. Dinge, wofür unser Herz schlägt. Stattdessen ärgern wir uns<br />

über unzuverlässige Kollegen, eine schroffe Bemerkung des Chefs,<br />

quälen uns beim Texten von Artikeln oder raufen uns die Haare wegen<br />

Kunden, die selbst nach der dritten Überarbeitung immer noch Änderungen<br />

haben wollen. Ganz zu schweigen von der Unzufriedenheit, die<br />

Angestellte und Freiberufler überfällt, wenn sie neben dem stressigen<br />

Beruf und den Verpflichtungen gegenüber der Familie weder Zeit noch<br />

Energie für ein Hobby, einen Kinobesuch mit der Freundin oder einen<br />

Fußballabend mit den Kumpels haben.<br />

Im Workshop lernen Sie, wie Sie die Regie in Ihrem Leben wieder übernehmen.<br />

Sie sehen klarer, wo Sie gerade stehen und wohin Sie wollen<br />

– beruflich und privat. Sie erkennen, was Sie bis jetzt am Erfolg gehindert<br />

hat und lernen, Ihr Potenzial zu entfalten, neue Perspektiven zu<br />

entdecken, erreichbare Ziele zu definieren und sinnvolle Strategien zu<br />

entwickeln, um Ihre Ziele Schritt für Schritt zu erreichen.<br />

Wo stehe ich? Eine Standortbestimmung mit den fünf Säulen<br />

Als Erstes machen wir eine Mini-Inventur: Wo stehe ich, was ist grad<br />

aktuell los bei mir? Welche Bereiche sind mir wichtig? Erste Antworten<br />

ergeben sich bei einem Blick auf das Modell „Fünf Säulen der Identität“.<br />

Fünf Säulen der Identität<br />

Arbeit<br />

und<br />

Leistung<br />

Materielle<br />

Sicherheit<br />

Soziales Netz und<br />

Beziehungen<br />

Körper<br />

und<br />

Gesundheit<br />

Werte<br />

und<br />

Sinn<br />

Das Modell „Fünf Säulen der Identität“ eignet sich für eine persönliche<br />

Bestandsaufnahme und Überprüfung der eigenen Situation.<br />

Welche der Säulen sind bei Ihnen schwach ausgeprägt, welche stark?<br />

Zeichnen Sie die jeweiligen Säulen auf ein Blatt Papier. Sie sollten<br />

146<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Karriere<br />

so breit bzw. schmal sein, wie Sie die Ausprägung derzeit empfinden.<br />

Unterschiediche Schwerpunkte und Prioritäten sind absolut normal.<br />

Entscheidend ist vielmehr, ob Sie mit der Beschaffenheit Ihrer Säulen<br />

zufrieden sind und sich im Gleichgewicht fühlen oder ob Sie bewusst<br />

künftig neue Schwerpunkte setzen wollen.<br />

Werte sind wie Leuchttürme in stürmischen Zeiten<br />

Eine entscheidende Rolle bei der Beantwortung der Frage „Wo stehe<br />

ich und wo will ich hin?“ spielt besonders der Punkt „Werte und Sinn“<br />

in den „Säulen der Identität“. Werte bestimmen unsere Identität, stellen<br />

Steuerungsgrößen in Beruf und Privatleben dar. Man könnte auch<br />

sagen, Werte sind so etwas wie Leuchttürme, sie geben die Richtung<br />

vor und machen das Leben, unser Handeln und unsere Ziele bzw. Visionen<br />

sinnvoll. Werte sind zudem der Schlüssel zur Zufriedenheit und<br />

zur Selbstbestimmtheit, sie geben Kraft, Motivation, Befriedigung und<br />

dienen als Triebfeder unseres Tuns. Gleichzeitig beeinflussen sie unsere<br />

Wahrnehmung, unsere Bedürfnisse, Handlungen und Emotionen.<br />

Wenn alles im Einklang (Fähigkeiten, Wünsche, Werte) ist, läuft alles<br />

prima. Wenn es nicht so rund läuft, in Phasen der Veränderung oder<br />

wenn ein Ungleichgewicht im Leben vorherrscht, können Werte Orientierung<br />

geben und Entscheidungshilfe sein. Welche Werte (Zuverlässigkeit,<br />

Vertrauen, Macht, Sicherheit, Kollegialität usw.) sind Ihnen wichtig?<br />

Erstellen Sie eine „Hitliste“ für sich. Kleine Hilfe: Ergänzen Sie den<br />

Satz „Das Leben ist für mich absolut sinnlos ohne …“ – so erhalten Sie<br />

Ihre Werte. Wer will, kann den Wertebogen, den wir im Workshop bearbeiten,<br />

auch bei der Autorin per E-Mail (s. u.) anfordern.<br />

Welches sind meine Ziele?<br />

Sie haben nun anhand der Analyse Ihrer „Identitäts-Säulen“ und Ihrer<br />

Werte-Hitliste festgestellt, wo Sie stehen und im besten Falle bereits<br />

eine Idee, eine Vorstellung bekommen, wohin die Reise gehen soll. Welches<br />

persönliche Ziel wollen Sie ins Visier nehmen. Welches Vorhaben<br />

wollen Sie in die Tat umsetzen?<br />

Ein Ziel ist jedoch nur dann ein Ziel, wenn es bestimmten Kriterien genügt.<br />

Ganz entscheidend: Nur aufgeschriebene Ziele sind wahre Ziele.<br />

Weil sie dann verbindlich werden. Klopfen Sie Ihr Ziel auf folgende<br />

Punkte ab:<br />

−−<br />

Ist es realistisch?<br />

−−<br />

Ist es in eigener Verantwortung erreichbar?<br />

−−<br />

Ist es wichtig und motivierend für mich?<br />

−−<br />

Ist das Ziel positiv formuliert, ohne Konjunktive?<br />

−−<br />

Ist mein Ziel messbar, prüfbar, terminiert?<br />

Wenn Sie die einzelnen Punkte durchgegangen sind, überprüfen Sie die<br />

Formulierung Ihres Zieles und formulieren Sie es bei Bedarf um. Falls<br />

Sie noch keine so rechte Idee haben, wohin Ihr Weg führt, kein Thema:<br />

Legen Sie sich ein Notizbuch an und notieren darin alle Gedanken,<br />

Erfahrungen und Wünsche, die Ihnen so durch den Kopf gehen. Mit<br />

der Zeit kristallisiert sich Ihr Vorhaben heraus. Manchmal ist nur etwas<br />

Geduld gefragt. Denn wir Menschen können zwar sofort sagen, was wir<br />

nicht (mehr) wollen. Doch mit der Antwort auf die Frage „Was will ich<br />

wirklich?“ kann es etwas dauern.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

147


Karriere<br />

Über Motivationsförderer und Strategien<br />

Inzwischen wissen Sie, wie die Säulen Ihrer Identität beschaffen sind,<br />

welche Werte Ihnen am Herzen liegen und welches Ziel Sie verfolgen<br />

wollen. Doch wie kommen wir dahin?<br />

Nehmen Sie ein Blatt, quer. Unterteilen Sie es in drei gleich große Teile<br />

und schreiben oben, über die Spalten, folgende Fragen hin:<br />

−−<br />

Was kann ich? Welche Fähigkeiten, Kompetenzen habe ich?<br />

−−<br />

Was motiviert mich? Wofür schlägt mein Herz?<br />

−−<br />

Was brauche ich? Unterstützung von anderen, Fortbildungen?<br />

Nehmen Sie sich Zeit, die Fragen zu beantworten und Ihre Gedanken<br />

zu notieren. Sie werden merken, wie viele Dinge Ihnen einfallen, was<br />

Sie können, was Sie schon lange mal machen wollten und was Ihnen bei<br />

der Erfüllung Ihrer Wünsche helfen kann.<br />

Manche kommen hierbei auch an Muster und Verhaltensweisen, die sie<br />

blockieren und sich als Hindernisse erweisen. Nutzen Sie die Gelegenheit<br />

auch die „Blockierer“ einmal unter die Lupe zu nehmen. Wann tauchen<br />

solche Situationen auf? Wie verhalten Sie sich dann? Und welche<br />

alternativen Handlungsmöglichkeiten wären denkbar? Es kann sein,<br />

dass Sie bei den Blockaden nicht allein weiterkommen. Suchen Sie sich<br />

dann eine professionelle Unterstützung (Coach, Psychologen).<br />

Die ersten Schritte oder „Ich habe es in der Hand!“<br />

Am Ende des Workshops geht es darum, konkrete Schritte zu definieren,<br />

die jeder für sich innerhalb der nächsten 72 Stunden umsetzt. Also<br />

seine Strategie, seinen Weg festlegen. Das können Mini-Schritte sein<br />

wie etwa ein Telefonat führen oder sich mit dem Chef zusammenzusetzen.<br />

Denn Sie allein können etwas bewirken, etwas tun, um Ihrem Ziel<br />

näher zu kommen. Sie haben es in der Hand! Und seien Sie geduldig<br />

mit sich: Erfolgreiche Selbstcoacher wissen das. Selbstcoacher haben<br />

sich entschieden, in einen Veränderungsprozess einzutreten und Schritt<br />

für Schritt mutig vorwärts zu gehen. Ein Kollege von mir fragt da gerne:<br />

„Wie isst man einen Elefanten?“<br />

ERST NACHDENKEN, DANN WEITERLESEN!<br />

Die Lösung: Stück für Stück! In diesem Sinne: Viel Spaß und viel Erfolg<br />

bei Ihrem Vorhaben!<br />

für Rückfragen: info@heidiwahl.de<br />

148<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Karriere<br />

KAR 4<br />

Workshop<br />

Tempo raus, Ruhe rein!<br />

Heidi Wahl, Trainerin. Autorin. Coach., München<br />

Zu spät ins Büro gekommen, 120 E-Mails im Account, das Telefon klingelt<br />

ständig und die Headline soll noch schnell geändert werden. Sie<br />

wissen manchmal nicht mehr, wo Ihnen der Kopf steht? Mit diesem<br />

Gefühl sind Sie nicht allein: In einer aktuellen Umfrage des Nürnberger<br />

Marktforschungsunternehmens GfK klagte fast jeder zweite Befragte<br />

(47,4 Prozent) der 30- bis 39-Jährigen über ständigen Termin- und<br />

Zeitdruck.<br />

Was Stress ist und wie er entsteht<br />

Markante Veränderungen in der Arbeitswelt, die ständige Erreichbarkeit<br />

durch E-Mail und Mobiltelefon, hoher Erfolgsdruck und Arbeitsumfäge<br />

mit 60 Wochenstunden oder mehr führen zu Überlastung,<br />

zu Stresssymptomen und im schlimmsten Fall zu Burn-out, also zum<br />

Ausgebranntsein. Neben psychischen Reizereignissen (Stressoren)<br />

wie Angst vor Jobverlust, finanzielle Sorgen, hohe Verantwortung,<br />

Über- oder Unterforderung, Termindruck, Konflikte oder Verunsicherung<br />

führen auch körperliche Stressoren wie Lärm im Büro, Hitze oder<br />

Schlafentzug zu Stress. Der Körper sendet bei chronischer Überlastung<br />

Warnsignale aus. Typische Stressreaktionen sind Konzentrationsschwierigkeiten,<br />

Schlafprobleme, scheinbar grundlos auftauchende<br />

Angst oder Panik, Engegefühl in der Brust, Magen- oder Herzbeschwerden.<br />

Und das Gefühl, nicht mehr abschalten zu können. Nicht mal mehr<br />

im Urlaub.<br />

Dabei ist Stress prinzipiell völlig o.k. Es ist nicht der Stress an sich, der<br />

Angestellten und Freiberuflern zu schaffen macht. Denn nicht immer<br />

stresst Stress, manchmal macht er sogar riesigen Spaß, gibt Kraft und<br />

Energie, unterstützt die persönliche Weiterentwicklung und verleiht uns<br />

Flügel. Experten unterscheiden zwischen Eustress (angenehm, positiv)<br />

und Disstress (krankmachend). Akutes Stressverhalten bezeichnen Psychologen<br />

als Kampf- bzw. Fluchtreaktion.<br />

Körpereigenes Doping<br />

Wer eine „gefährliche“ Situation wahrnimmt wie etwa den wütenden<br />

Chef in der Tür oder einen unzufriedenen Kunden am Telefon, bei dem<br />

passiert Folgendes: Alle Körperfunktionen schalten auf Flucht oder Angriff.<br />

Das Gehirn gibt über das vegetative Nervensystem den Befehl aus:<br />

Stresshormone ausschütten. Damit kann der Organismus Leistungen<br />

erbringen, die er normalerweise nicht schafft. Das körpereigene Doping<br />

lässt Atmung, Puls, Blutdruck, Herzschlag und Muskeltonus ansteigen,<br />

Reaktionszeit und Konzentration verbessern sich. Man achtet nicht<br />

mehr auf sich, sondern auf die Situation, das Ziel. Normalerweise folgt<br />

der Anspannung eine Entspannungsphase. Doch heutzutage ist dieses<br />

Gleichgewicht gestört, auf Anspannung folgt Anspannung folgt Anspannung.<br />

Wer jedoch ständig unter Strom steht, muss mit schwerwiegenden<br />

Folgen rechnen: Nervenzellen sterben ab, Wahrnehmungsfähigkeit und<br />

Konzentration sind reduziert, Emotionen verflachen, alles wird gleichgültig<br />

und manche verfallen in Depressionen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

149


Karriere<br />

Kopfkreisler oder Magenverderber<br />

Menschen reagieren verschieden auf Stress. Denn Stress ist sehr individuell<br />

und sogar „tagesformabhängig“. Manche stecken arbeitsintensive<br />

und belastende Lebensphasen recht locker weg, andere sind höchst<br />

reizbar und unausgeglichen. Wer sich wann gestresst fühlt, hängt mit<br />

dem persönlichen Erleben und der Bewertung der als unangenehm<br />

empfundenen Spannungszustände zusammen.<br />

Was für ein Stresstyp sind Sie? Der „Magenverderber“ reagiert mit<br />

Appetitlosigkeit und Durchfall, andere haben Magendrücken und Sodbrennen.<br />

Die „Kopfkreisler“ neigen unter Dauerstress dazu, sich zu<br />

viele Gedanken zu machen und kommen abends beim Einschlafen oder<br />

nachts nicht mehr aus dieser kreisenden Denkspirale heraus. Um sich<br />

ja nicht mit missliebigen Aufgaben oder Themen beschäftigen zu müssen,<br />

sind „Auf-und-Davon-Typen“ sehr erfindungsreich: Sie müssen<br />

noch schnell eine Mail schreiben, einen Kaffee holen oder noch ein<br />

Telefonat führen. Die Folge: Der Arbeitsberg wird nicht kleiner, im Gegenteil.<br />

Der Druck nimmt noch mehr zu.<br />

Wege aus der Stress-Spirale<br />

Erst einmal gilt es, eine Situationsanalyse zu erstellen mit einem Selbsttest<br />

(PDF steht unter www.heidiwahl.de zum Download bereit) und<br />

seine mentalen Strukturen zu erkennen. Außerdem einen achtsamen<br />

Umgang mit sich selbst pflegen und sich in Gelassenheit üben („Es ist,<br />

wie es ist.“).<br />

Klar, das ist anfangs ziemlich ungewöhnlich für Menschen, die ein<br />

Projekt nach dem anderen abarbeiten und Aufgaben nur perfekt erledigen.<br />

Hilfreich ist das Führen eines persönlichen Stresstagebuchs mit<br />

individueller Erholungsliste, konkreter Tagesplanung und effektiverem<br />

Zeitmanagement.<br />

Wer sich vorkommt wie ein Hamster im Rad, sollte seine Erwartungen<br />

an sich selbst und seine Werte überprüfen und sich vor allem klarmachen:<br />

Wir sind alle nur Menschen, die hin und wieder Fehler machen,<br />

die nicht immer und überall perfekt sind und die gelegentlich an ihre<br />

Grenzen stoßen. Auch Erwartungen von Chefs, Mitarbeitern, Freunden<br />

und Verwandten muss und kann man nicht ständig erfüllen, Selbstständige<br />

dürfen Auftrage auch einmal absagen und wer keine Lust auf eine<br />

Party hat, bleibt eben zuhause.<br />

Stressmanagement im Alltag<br />

Entstressen, entschleunigen, einen Gang runterschalten – das ist allerdings<br />

leichter gesagt als getan. Doch packen Sie das Thema an, verschaffen<br />

Sie sich Freiräume, genießen Sie den Augenblick und gönnen<br />

Sie sich etwas. Entdecken Sie Ihr Talent zur Entspannung, zum Müßiggang.<br />

Sie und Ihre Mitmenschen werden davon profitieren.<br />

Wer kurz vor dem Burn-out steht, spürt zwar seine Grenzen, ignoriert<br />

sie jedoch und geht darüber hinweg. Was brauche ich? Was tut mir gut?<br />

Grundlagen der Achtsamkeit, der Wertschätzung des eigenen Körpers<br />

sind gefragt. Vertrauen Sie wieder Ihrer Intuition, Ihrem Bauchgefühl.<br />

Wer sich spürt, nimmt wieder die Umwelt wahr, andere Menschen und<br />

deren Bedüfnsse. Zu den Bewältigungs- bzw. Copingstrategien zählen:<br />

Entspannungs- und Meditationstechniken, gesunde Ernährung, Sport<br />

150<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Karriere<br />

und Bewegung. Funktionierende soziale Beziehungen sind ein guter<br />

Indikator für eine ausgewogene innere Balance. Jeder ist seines eigenes<br />

Glückes Schmied – oder anders ausgedrückt: Nehmen Sie Ihr Leben in<br />

die Hand.<br />

für Rückfragen: info@heidiwahl.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

151


Katalogerstellung


Katalogerstellung<br />

KAT 1<br />

Fachvortrag<br />

Kernaspekte und Basiskonzept zur Umsetzung<br />

eines durchgängigen ETK-Erstellungsprozesses<br />

Dr. Stefan Dierssen, DiNovum UG, Wildeshausen<br />

Thomas Lutz, Intelliact AG, Zürich, Schweiz<br />

Was ist am Ersatzteilkatalog Besonderes?<br />

Jedes Produkt wird heute mit einer Produktdokumentation ausgeliefert.<br />

Die typischen Informationsprodukte, die man aus dem privaten oder<br />

geschäftlichen Umfeld kennt, erstrecken sich von der Montageanleitung<br />

über die Betriebs-/Bedienungsanleitung bis hin zur Servicedokumentation<br />

oder Recyclinganleitung.<br />

Die Servicedokumentation und speziell der Ersatzteilkatalog (ETK)<br />

nimmt hier eine Sonderstellung ein. Im Falle eines Schadens oder einer<br />

Wartung muss die Funktionstüchtigkeit des Produktes in der Regel<br />

möglichst schnell wiederhergestellt werden. Je nach Produkt und gefordertem<br />

Produktivitätsgrad steht eine schnelle Problembehebung oder<br />

Ersatzteilbeschaffung im Zentrum, für die eine entsprechende Dokumentation<br />

unumgänglich ist. Der Kunde/Betreiber stellt dementsprechend<br />

hohe Ansprüche an die Dokumentation zum schnellen Auffindung<br />

des Fehlers, Identifikation des beschädigten Bauteiles und dessen<br />

Wiederbeschaffung.<br />

Die Sonderstellung der Ersatzteilkataloge gegenüber Produktdokumentationen<br />

verdeutlicht die nachfolgende Gegenüberstellung:<br />

Ersatzteilkatalog<br />

Basis:<br />

– Produktstruktur, Metadaten, Zeichnungen<br />

– Strukturierung/ Filterung nach Ersatz- &<br />

Verschleißteilen<br />

Erstellungsprozess:<br />

– Ersatzteilkennzeichnung in den Systemen<br />

– Zusammenführung der Daten aus den<br />

Systemen<br />

Businessrelevanz:<br />

– Aftersales Grundlage<br />

Produktdokumentation<br />

Basis:<br />

– Funktionsbeschreibungen, technische<br />

Daten, Prototypdaten etc.<br />

Erstellungsprozess:<br />

– Zusammentragen der verfügbaren Daten<br />

– Redaktioneller Inhaltsaufbau (Textbausteine,<br />

Layout, Finishing)<br />

Businessrelevanz:<br />

– Erfüllung gesetzlicher Forderungen<br />

– Kunden-Anforderung<br />

Tabelle 1: Vergleich ETK / Produktdokumentationen<br />

Aus der Gegenüberstellung werden zwei essentielle Unterschiede<br />

deutlich:<br />

1. Der Erstellungsprozess eines ETK basiert auf der Zusammenführung<br />

von Daten aus den Verwaltungssystemen (ERP, PDM, CAD), während<br />

Produktdokumentationen durch einen redaktionellen Prozess aufbereitet<br />

und verfasst werden.<br />

−−<br />

Das Ersatzteilwesen kann je nach Unternehmensstrategie eine<br />

prägende Businessrelevanz besitzen, was eine entsprechende Aufbereitung<br />

und Organisation der notwendigen Informationen und<br />

Dokumentationen erfordert. Die Businessrelevanz von allgemeinen<br />

Produktdokumentationen wie z. B. der Betriebs- und Bedienungsan-<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

155


Katalogerstellung<br />

leitung reduziert sich weitestgehend auf die Erfüllung gesetzlicher<br />

Normen oder die Umsetzung spezieller Kundenanforderungen.<br />

PDM/<br />

ERP<br />

Produkt<br />

-daten<br />

Zeichnungen/<br />

Modelle<br />

Stücklisten<br />

Redaktionssystem<br />

• Dokumentinhalte<br />

• Dokumentstrukturen<br />

• Inhaltskonfiguration<br />

• Layoutverknüpfung<br />

• Dokumentverwaltung<br />

Ersatzteilkatalog System<br />

• Hotspotting/<br />

3D Viewereinbindung<br />

• Stücklistenhandling<br />

• Bestellwesen<br />

• Anleitungsverknüpfung<br />

• Dokumentverwaltung<br />

Betriebsanleitung/<br />

Bedienungsanleitung<br />

Datenblätter/<br />

…<br />

Ersatzteilkatalog<br />

Abb. 1: Differenzierung von Redaktions-/Ersatzteilkatalogsystemen<br />

Der Kernunterschied zur inhaltlichen Aufbereitung wird auch bei einer<br />

systemseitigen Betrachtung von Redaktions- und Ersatzteilkatalogsystemen<br />

offensichtlich. Wie in Abb. 1 dargestellt, werden in einem<br />

Redaktionssystem die Basisinformationen aus dem Produkt-Daten-<br />

Management (PDM) und Warenwirtschaftssystem (ERP) gesammelt<br />

und redaktionell aufbereitet. Der Ersatzteilkatalog basiert hingegen<br />

zum Großteil auf der Ersatzteilstückliste, aus der die Artikel und ihre<br />

beschreibenden Merkmale bzw. Zeichnungen referenziert werden. Die<br />

Verknüpfung von Ersatzteilkatalog und Produktdokumentation ist auf<br />

gegenseitige Referenzen reduziert, da sich Inhalte und Layout in der<br />

Regel weitläufig unterscheiden.<br />

Somit sollte der Erstellungsprozess eines Ersatzteilkataloges gegenüber<br />

anderen redaktionell aufbereiteten Informationsprodukten klar unterschieden<br />

werden!<br />

Zur Erstellung eines Ersatzteilkataloges stehen heute funktionsreiche<br />

Softwaretools zur Verfügung. Die wesentlichsten Charakteristika können<br />

wie folgt zusammengefasst werden:<br />

−−<br />

Navigation durch Produktstruktur (2D oder 3D)<br />

−−<br />

Verknüpfung von Metadaten in die visuelle Navigationsdarstellung<br />

(2D-Hostspots, 3D-Links)<br />

−−<br />

Einbindung relevanter Dokumentationen und Anweisungen für Bauteile/Baugruppen<br />

−−<br />

Zugriffsbeschränkung (z. B. Differenzierung unterschiedlicher Benutzergruppen:<br />

Kunde, externer Servicetechniker, interner Servicetechniker)<br />

−−<br />

Know-how Hiding (2D-Zeichnungsanpassung, 3D-Genauigkeitsherabsetzung)<br />

Wie diese Funktionalitäten optimal angewendet und ausgenutzt<br />

werden, hängt entscheidend vom Erstellungsprozess und dessen<br />

156<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

Implementierung ab. Nachfolgend werden die Kernaspekte für eine<br />

entsprechende Umsetzung beleuchtet.<br />

ETK Erstellungsprozess – Kernaspekte<br />

Der Erstellungsprozess eines Ersatzteilkataloges wird im Wesentlichen<br />

durch drei Kernaspekte beeinflusst bzw. geprägt:<br />

−−<br />

Anwendungsfall<br />

−−<br />

Produkttyp & -struktur<br />

−−<br />

Organisation<br />

Der Anwendungsfall (engl. use case) beschreibt die Anforderungen mit<br />

klarem Fokus auf die Zielgruppe. Hierbei können die unternehmerischen<br />

Zielsetzungen bzw. Businesskonzepte mit berücksichtigt werden.<br />

Wenn z. B. unterschiedliche Service-Stufen (z. B. interne/externe<br />

Servicemitarbeiter) angeboten werden sollen, hat dies einen direkten<br />

Einfluss auf den Detaillierungsgrad der Information. Die Definition des<br />

Anwendungsfalles sollte immer die Sichtweise des Anwenders widerspiegeln<br />

und dessen Erwartungen erfüllen. Dies wirkt sich auf die Wahl<br />

der Umsetzungsvarianten eines Ersatzteilkataloges (Print – On/Offline<br />

– Webshop) aus. Da beispielsweise für einen Außendienstmitarbeiter in<br />

einer Produktionsanlage keine konstante Internetverfügbarkeit vorausgesetzt<br />

werden kann, wird eine reine Onlinelösung die Bedürfnisse des<br />

Anwenders nicht erfüllen!<br />

Neben der Anwendungs- und Benutzerbetrachtung hat auch das Produkt<br />

selber einen entscheidenden Einfluss auf den Ersatzteilkatalog.<br />

Folgende Produktklassen können hierzu unterschieden werden:<br />

−−<br />

Massenprodukt (MTS – Make to Stock) z. B. Elektronikgeräte<br />

−−<br />

Konfigurierbares Produkt (MTO – Make to Order) z. B. PKW<br />

−−<br />

Kundenspezifisches Produkt (ATO – Assemble to Order) z. B. Werkzeugmaschinen<br />

−−<br />

Einzelprodukt (ETO – Engineer to Order) z. B. Kraftwerk<br />

Jede Produktklasse weist unterschiedliche Strukturcharakteristiken auf,<br />

die sich wiederum auf den Umfang und die Komplexität der Ersatzteilliste<br />

auswirken. Allgemein kann gesagt werden, dass der Aufwand zur<br />

Erstellung eines Ersatzteilkataloges vom Massenprodukt zum Einzelprodukt<br />

zunimmt. Zur Abbildung eines Massenproduktes bedarf es einer<br />

Abbildung der Ersatzteile basierend auf den vorliegenden Stammdaten.<br />

Da das Produkt in einer großen Stückzahl hergestellt wird, bedarf es somit<br />

pro Produktausprägung nur EINES klar strukturierten Ersatzteilkataloges.<br />

Der heute im Maschinenbau häufig anzutreffende Produkttyp ist<br />

aber als kundenspezifisches Produkt ausgeprägt. D. h., die Basismaschine<br />

existiert bereits zu einem großen Prozentsatz, aber der Kunde kann beliebige<br />

Zusatzanforderungen einbringen, die jede Maschine im Prinzip<br />

zum Unikat machen. Für die Struktur des Ersatzteilkataloges bedeutet<br />

dies, dass neben den vorhandenen Stammdaten der Basismaschine kundenspezifische<br />

„Bewegungsdaten“ (Bauteile, die nur für diese spezifische<br />

Maschine gelten) mit aufgenommen werden müssen.<br />

Als letzter Kernaspekt zum Erstellungsprozess eines Ersatzteilkataloges<br />

ist die Organisation zu nennen. Da der ETK auf den Daten der Produktentwicklung<br />

basiert, aber häufig in der Dokumentationsabteilung<br />

erstellt wird, kann schnell eine Verantwortlichkeitsproblematik entstehen.<br />

Während die Definition der Ersatz-/Verschleißteile sowie die Pflege<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

157


Katalogerstellung<br />

dieser Listen in der Regel der Produktentwicklung vorbehalten ist, liegen<br />

dem Dokumentationsverantwortlichen die Hintergründe und Umfänge<br />

einer Änderung zumeist nur teilweise vor. Wenn die ETK-Erstellung aber<br />

für jede gelieferte Maschine durchlaufen werden muss, sollten die Verantwortlichkeiten<br />

und Aufgabenteilungen klar definiert sein.<br />

Vorstellung eines möglichen Basiskonzeptes<br />

Die verschiedenen Aspekte zum Erstellungsprozess eines ETK und die<br />

damit verbundenen Anforderungen müssen in einem Umsetzungskonzept<br />

berücksichtigt werden. Im nachfolgenden Kapitel wird ein mögliches<br />

Basiskonzept vorgestellt, das für den Produkttyp eines kundenspezifischen<br />

Produktes ausgelegt ist. Zudem wird davon ausgegangen, dass<br />

die Stücklisteninformationen in einem ERP-System vorliegen und die<br />

zu referenzierenden Zeichnungen in einem PDM-System vorgehalten<br />

werden.<br />

PDM/PLM<br />

1012.3<br />

1012.3<br />

S:1012.3 VIS Model<br />

(vereinfacht oder nicht)<br />

1001.4<br />

1002.4<br />

Model<br />

Aktuelle Stammdatensicht<br />

150%<br />

1012.3<br />

1001.4<br />

1003.4<br />

1002.4<br />

ERP<br />

Auftrags-/Servicestückliste<br />

100%<br />

1012.3<br />

ZN: S1000.7.001<br />

1001.4<br />

1003.4<br />

1002.4<br />

Generische<br />

Katalogstruktur<br />

1012.3<br />

S:1012.3<br />

Katalog<br />

Pos ET<br />

1 1002.4<br />

2 1003.4<br />

Abb. 2: Mögliches Basiskonzept zur ETK-Erstellung<br />

Entsprechend Abb. 2 basiert das Konzept auf einer vollständigen Abbildung<br />

der Produktstruktur im ERP-System. In den Stammdaten ist eine<br />

150-%-Maschine abgebildet, d. h. die Basismaschine inkl. aller verfügbaren<br />

Varianten und Optionen, aus der die spezifische Kundenmaschine<br />

für einen Auftrag abgeleitet wird. In der Auftragsstückliste werden<br />

im Weiteren die kundenspezifischen Anpassungen vorgenommen und<br />

alle relevanten Ersatz- und Verschleißteile markiert (falls nicht schon<br />

aus den Stammdaten übernommen). Eine generische/allgemeingültige<br />

Katalogstruktur wird zudem auf Seite des Katalogsystems pro Maschinenbaureihe<br />

oder -sparte vorausgesetzt.<br />

Bei der Katalogerstellung werden dann die folgenden Schritte<br />

durchlaufen:<br />

1. Aus dem ERP System wird die aktuelle Auftragsstückliste übertragen<br />

und nach den relevanten Ersatz- und Verschleißteilen gefiltert<br />

2. Die gefilterte Stückliste wird in die generische Struktur des Kataloges<br />

eingeordnet (z. B. Differenzierung nach Hauptbaugruppen)<br />

3. Entsprechend den Attributen der Artikel aus der Stückliste werden<br />

die im PDM-System hinterlegten Zeichnungen oder vereinfachten<br />

Visualisierungsmodelle geladen und im Katalogsystem verknüpft.<br />

158<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

Bei diesem Konzept gilt es, verschiedene Herausforderungen zu meistern.<br />

Der wesentlichste Punkt obliegt der Strukturbetrachtung! Das zuvor<br />

genannte Konzept bezieht die gesamten Strukturinformationen aus<br />

dem ERP, wobei die technischen Daten im PDM System abgelegt sind.<br />

Um alle Informationen korrekt zuordnen zu können, bedarf es eines<br />

Strukturabgleiches zwischen PDM- und ERP-System.<br />

Ein weiterer Punkt betrifft die Definition der generischen Struktur. Diese<br />

ermöglicht eine schnelle und einheitliche Navigation zum gewünschten<br />

Ersatzteil und stellt den übergeordneten Zugriff auf die Ersatzteilliste<br />

dar. Komplex wird dieses Thema mit einer steigenden Abbildung<br />

von Varianten, deren Synchronisation mit dem ERP-System erhebliche<br />

Aufwendungen generieren kann. Daher ist zu empfehlen, die generische<br />

Struktur so allgemein wie möglich zu halten.<br />

Als letzter Punkt ist die Modell-/Zeichnungseinbindung zu nennen.<br />

Insbesondere bei Katalogsystemen mit integrierter 3D-Visualisierung<br />

ist die Darstellungsperformance ein gewichtiger Faktor für die Userakzeptanz.<br />

Auch mit modernster Technik lassen sich vollständige Maschinen<br />

oder Anlagen nur mit großem Aufwand in akzeptable Visualisierungen<br />

umsetzen. Deutlich unproblematischer hingegen ist eine<br />

3D-Darstellung auf Baugruppen- oder Einzelteilebene, die im Einklang<br />

mit der generischen Struktur stehen müssen.<br />

Ebenfalls im Zusammenhang mit einer 3D-Darstellung steht die Frage<br />

nach dem Know-how-Schutz. Sobald Baugruppenmodelle dargestellt<br />

werden, kann es schnell zu einer unbeabsichtigten Veröffentlichung von<br />

Firmenwissen kommen. Um diesem entgegenzuwirken, müssen Möglichkeiten<br />

der „Modellabstrahierung“ (Verringerung der Darstellungsgenauigkeit)<br />

oder Zugriffsbeschränkung in Betracht gezogen werden.<br />

Die professionellen Softwaresysteme bieten hierzu verschiedene technische<br />

Lösungsmöglichkeiten an.<br />

Zusammenfassung<br />

Der ETK nimmt eine Sonderstellung gegenüber anderen Informationsprodukten<br />

ein, womit sein Erstellungsprozess separat betrachtet werden<br />

muss. Die wesentlichsten Anforderungen zur Umsetzung eines<br />

entsprechenden Vorhabens werden durch den zu dokumentierenden<br />

Produkttyp (Strukturvorgabe) und den Anwendungsfall definiert. Eine<br />

zentrale Stellung über verschiedene Aspekte behält die Strukturbetrachtung<br />

und deren Abgleich in den eingesetzten Systemen. Das Umsetzungskonzept<br />

muss diesen Aspekten Rechnung tragen und darüber<br />

hinaus die Themenstellungen der Datenaufbereitung, Organisation und<br />

Verantwortlichkeiten klären. Da jedes Unternehmen eine spezifische<br />

Zusammensetzung von Produkttyp, Unternehmensstrategie und -kultur<br />

hat, gibt es kein allgemeingültiges Konzept zur Umsetzung eines Ersatzteilkataloges.<br />

Das vorgestellte Basiskonzept hat auf die Kernpunkte<br />

aufmerksam gemacht und soll Unternehmen helfen die richtigen Fragestellungen<br />

und Vorgehensweisen zur Umsetzung zu finden. Die Technologie<br />

ist heute kein limitierender Faktor mehr! Die Kosten für einen<br />

Ersatzteilkatalog werden vielmehr durch die Aufwände zur Datenaufbereitung<br />

und den Erstellungsprozess definiert. Daher ist eine solide Konzeption<br />

dieses Prozesses der Schlüssel zum Projekterfolg.<br />

dierssen@dinovum.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

159


Katalogerstellung<br />

KAT 2<br />

Fachvortrag<br />

Von PLM zum Katalog – Integrationsszenarien<br />

Peter Pfalzgraf, PROSTEP AG, Darmstadt<br />

PLM-Systeme und -Prozesse sind mittlerweile in vielen Unternehmen<br />

etabliert und werden intensiv, vor allem in Engineering-Prozessen,<br />

genutzt. An das Engineering angeschlossene Unternehmensbereiche,<br />

auch die Technische Dokumentation oder Bereiche wie der Service, sind<br />

häufig nicht in das Unternehmens-PLM integriert und nutzen in vielen<br />

Fällen eigene Systeme und Prozesse. Der Vortrag stellt vorhandene<br />

Integrationslösungen und Technologien vor, die eine nahtlose Weiterverwendung<br />

von PLM-Daten in anderen Unternehmensbereichen und<br />

auch außerhalb des Unternehmens ermöglichen.<br />

Anforderungen<br />

Eine Hauptforderung ist: „Die richtigen Informationen, zur richtigen<br />

Zeit am richtigen Ort, sei es für Service Dokumentation, Katalogerzeugung<br />

oder als Input für die Angebotserstellung.“ Eine aktuelle, systemübergreifende<br />

Bereitstellung und Filterung von Informationen bezogen<br />

auf spezifische Aufgaben stellt immer höhere Anforderungen an<br />

Mensch und Maschine. Der Vortrag zeigt einen Ansatz zur Vermeidung<br />

von Informations-Redundanzen durch die applikationsneutrale Verknüpfung<br />

von Informationen aus Systemen wie ERP und PLM auf Basis<br />

offener Standards wie SOAP, REST und XML. Am Beispiel einer Katalogerzeugung<br />

1: Weboberfläche wird gezeigt, zur wie Darstellung<br />

leicht Änderungen an den Quelldaten<br />

Bild<br />

automatisch geänderter in Informationen<br />

aktualisierte Dokumente überführt werden können.<br />

Preview - Katalog Update<br />

Aktualisieren<br />

Abbrechen<br />

Icons:<br />

© PROSTEP AG - <strong>2012</strong><br />

Abb. 1: Weboberfläche zur Darstellung geänderter Informationen<br />

PH 18/09/12 – Page 1<br />

Einsatz von Standards<br />

Die Verwendung von XML erlaubt die einfache Unterstützung eines<br />

einheitlichen Katalogdatenaustausches auf Basis unterschiedlicher<br />

Formate wie BMEcat, openTRANS oder anderer genormter und spezifischer<br />

XML-Datenformate. Die Unterstützung offener Web Service Standards<br />

wie REST und SOAP erlaubt die Wiederverwendung, Abstraktion<br />

160<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

von Diensten und Daten sowie die lose Kopplung unterschiedlichster<br />

Unternehmenssysteme.<br />

Viele Systeme zur Verknüpfung unterschiedlicher Informationsdomänen<br />

realisieren dies über die Duplikation der Information in eigenen<br />

Datenbanken, mit allen dadurch geschaffenen Problemen wie Datenaktualität,<br />

Speicherplatzbedarf und Zugriffs- bzw. Rechtemanagement.<br />

Link Engine<br />

Im Vortrag wird eine „Link Engine“ vorgestellt, die in Kombination<br />

mit leistungsfähigen und performanten Konnektoren zu nahezu allen<br />

marktüblichen PLM- und ERP-Systemen diese Probleme verhindert<br />

und Use-Case-spezifische Sichten auf Unternehmensdaten bereitstellen<br />

kann. Es können z. B. für die Katalogerzeugung Daten aus ERP<br />

und PLM als BMEcat-konformes XML-Schema bereitgestellt werden,<br />

über dasselbe System können aber auch PLM-Informationen wie zum<br />

Beispiel Stücklisten oder Materialinformationen in weitere Unternehmensprozesse<br />

wie Angebotsanfragen oder auch Änderungsprozesse<br />

einfließen.<br />

Die Link Engine als Basis einer domänen- und systemübergreifenden<br />

Informationslandschaft Bild 2: Link Engine ist die Basis für die erfolgreiche, automatisierte<br />

Erzeugung und Bereitstellung von Katalogdaten.<br />

Domänenübergreifende Daten- und Prozessintegration<br />

Funktionsprinzip<br />

Daten werden verlinkt<br />

(und nicht kopiert)<br />

Anwender und Prozesse<br />

können auf Fremddaten<br />

online zugreifen<br />

Requirements-<br />

Management<br />

PLM / ERP<br />

Vorteile und Nutzen<br />

Die Zusammenhänge<br />

zwischen den Domänen<br />

werden sichtbar und<br />

kontrollierbar<br />

(Stichwort: Traceability)<br />

Die Konsistenz der Daten<br />

wird kontrollierbar, Fehler<br />

werden vermieden und<br />

komplexe Zusammenhänge<br />

beherrschbar<br />

E/E<br />

Link Engine<br />

Abb. 2: Link Engine<br />

© PROSTEP AG 2011<br />

PH 18/09/12 – Page 2<br />

Kommunikation<br />

Die Kommunikation der erzeugten Katalogdaten kann über verschiedene<br />

Medien erfolgen. Ein Beispiel dafür kann das PDF-Format sein.<br />

Durch Verwendung interaktiver PDF-Dokumente mit 3D-Inhalten ergeben<br />

sich zusätzliche Vorteile in der Kommunikation von komplexen<br />

Informationen. Die strukturierte Erfassung von Daten in PDF-Formularen<br />

erlaubt die sichere, asynchrone Integration interner und externer<br />

Anwender in Unternehmensprozesse und -systeme. Dies ermöglicht es<br />

beispielsweise, direkt im PDF-Dokument mit den Katalogdaten einen<br />

Bestellprozess für die ausgewählte Produktvariante zu initiieren und<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

161


Katalogerstellung<br />

Bild 3: Einsatz von PDF zur<br />

die Kommunikation<br />

entsprechenden Daten zu kommunizieren und automatisiert in das<br />

Bestellsystem zu übernehmen.<br />

Abb. 3: Einsatz von PDF zur Kommunikation<br />

© PROSTEP AG 2011<br />

für Rückfragen: peter.pfalzgraf@prostep.com<br />

© PROSTEP AG <strong>2012</strong><br />

PH 18/09/12 – Page 3<br />

162<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

KAT 3<br />

Fachvortrag<br />

Print-Katalog, Homepage und Online-Shop aus<br />

einer Quelle?! – Erfahrungen aus der Praxis<br />

Rainer Börsig, Fischer Computertechnik GmbH, Radolfzell<br />

Bürkle<br />

Die Firma Bürkle GmbH entwickelt, produziert und vertreibt manuelle<br />

Proben nahme systeme, Abfüllgeräte für aggressive Flüssigkeiten sowie<br />

Laborgeräte und Laborbedarf aus Kunststoff. Über 2.000 Produkte werden<br />

über Handelspartner weltweit verkauft. Wichtigstes Verkaufsinstrument<br />

sind der Versandkatalog und der Internet-Shop sowie die Expertise<br />

und das umfangreiche Know-how beim Umgang mit schwierigen<br />

chemischen Substanzen.<br />

Gegründet 1950 als Handelsvertretung für pharmazeutische Produkte<br />

und Kunststofflaborgeräte bietet Bürkle heute das europaweit umfangreichste<br />

Sortiment an manuellen Probennehmern und Abfüllgeräten.<br />

Sicherheit beim Abfüllen von aggressiven Flüssigkeiten und zuverlässige<br />

Aussagen über Qualität, Beschaffenheit oder Zusammensetzung bei<br />

der Probennahme stehen dabei im Vordergrund. Bürkle Produkte werden<br />

ausschließlich in Deutschland hergestellt.<br />

Ausgangssituation<br />

Aufgrund der Expertise stellt der gedruckte Katalog von Bürkle ein<br />

Referenzwerk dar, sowohl für Kunden als auch für Bürkle-Spezialisten<br />

selbst. Die Erstellung und Pflege des Katalogs war allerdings bereits in<br />

der Ausgangssprache Deutsch sehr aufwändig und schon die Übersetzung<br />

nach Englisch war sehr anspruchs voll hinsichtlich Kosten- und<br />

Termineinhaltung. Der Online-Shop lief komplett eigenständig über<br />

eine Agentur, die alle Änderungen auf Anweisung von Bürkle manuell<br />

durchführte. Das Layout musste komplett überarbeitet werden, um<br />

modernen Ansprüchen gerecht zu werden. Die Unterstützung weiterer<br />

Sprachen war auf dieser Plattform zu vertretbaren Kosten nicht<br />

möglich.<br />

Ziele<br />

Die wichtigsten Ziele:<br />

−−<br />

Komplette Überarbeitung des Internetauftritts<br />

−−<br />

Zentrale Pflege aller Produktdaten für Print und Online<br />

−−<br />

Direkte Ausgabe für Shop-Aktualisierung<br />

−−<br />

Automatisierte Erstellung des Print-Katalogs<br />

−−<br />

Schnittstelle zum Translation-Memory-System Trados<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

163


Katalogerstellung<br />

Weitere Randbedingungen:<br />

−−<br />

Verwalten des kompletten Internet-Auftritts im CMS<br />

−−<br />

Flexible Seitenlayouts im Katalog<br />

−−<br />

Ausgabe im BMEcat-Format<br />

−−<br />

Extrem angespannte Terminsituation<br />

Vorgehensweise<br />

PHASE 1: Online-Shop und Homepage<br />

−−<br />

Konzeption: Definition Prozesse, Datenmodell, Schnittstellen (Shop)<br />

−−<br />

Bereitstellung des Pflegesystems: Installation, Schulung<br />

−−<br />

Unterstützte Umsetzung für Sortimentsbereich 1 (von 4)<br />

−−<br />

Inbetriebnahme der Schnittstelle zu Shop / Homepage<br />

−−<br />

Umsetzung der Bereiche 2 bis 4 und Übersetzungen<br />

PHASE 2: Print-Katalog<br />

−−<br />

Anpassung der Vorlagen<br />

−−<br />

Definition der Seitenlayouts<br />

−−<br />

Aufbau des Print-Katalogs (kapitelweise)<br />

−−<br />

Übersetzung der Beschreibungsseiten<br />

−−<br />

Kataloggenerierung und Finishing<br />

Datenmodell<br />

Produkthierarchie<br />

−−<br />

Abstimmung mit Online-Shop<br />

−−<br />

Produktbereich, Zwischenkategorie, Produktgruppe, Produkt,<br />

Variante<br />

−−<br />

Weitere: Zubehöre, Ersatzteile<br />

Merkmale<br />

−−<br />

Typen: Daten (Unicode), Textbausteine (XML), Bilder, Dokumente<br />

Sprachen<br />

−−<br />

Deutsch, Englisch, Spanisch, Französisch, Russisch<br />

Referenzen<br />

−−<br />

Zubehör<br />

−−<br />

Ersatzteile<br />

Objekte<br />

−−<br />

Grafikverwaltung<br />

−−<br />

Module: strukturierte Texte, Text/Grafik-Kombinationen<br />

−−<br />

Dokumentenverwaltung<br />

Schlüssel: Eindeutige Nummer<br />

164<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

Schnittstelle Online-Shop / Homepage<br />

Aufbau Homepage / Online-Shop:<br />

Aktualisierung des Online-Shops<br />

−−<br />

1 x pro Tag (nachts)<br />

− − „auf Knopfdruck“<br />

Übertragung per XML (gezippt)<br />

Print-Katalog<br />

Aufbau<br />

−−<br />

Produktfamilien<br />

Seitentypen<br />

−−<br />

Beschreibungsseiten<br />

−−<br />

Produktseiten<br />

Flexible Seitenlayouts<br />

−−<br />

PageEditor-Plugin: Seitenlayouts in InDesign<br />

−−<br />

Zuordnung: Produktdaten / Rahmentyp<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

165


Katalogerstellung<br />

Finishing in InDesign<br />

Fazit / Erkenntnisse<br />

Online und Print aus einer Quelle!<br />

Schauen Sie es sich an: www.buerkle.de, Print-Katalog bestellbar in<br />

derzeit 5 Sprachen<br />

−−<br />

Anspruchsvolle Terminsituation erfordert klare Prioritäten<br />

−−<br />

Konsistenz der Daten erfordert klare Prozesse<br />

−−<br />

Aktualisierung Online nur bei Bedarf (auf Knopfdruck)<br />

−−<br />

Flexibilität für zu individuellen Seitenlayouts<br />

−−<br />

Umsetzungsdauer Shop/Homepage: 3 Monate (inkl. Schulung, ohne<br />

Befüllung der Daten)<br />

−−<br />

Umsetzungsdauer Print-Katalog: 2 Monate (inkl. Schulung, ohne Katalogerstellung)<br />

−−<br />

Aufwand (extern) für Beratung, Anpassung, Bereitstellung ca.<br />

40 Manntage<br />

−−<br />

Gute Koordination mit Agentur erforderlich<br />

Ausblick<br />

−−<br />

Weitere Sprachen (Türkisch, osteuropäische Sprachen)<br />

−−<br />

Technische Dokumentationen<br />

−−<br />

Online-Blätterkatalog<br />

boersig@fct.de<br />

166<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

KAT 4<br />

Partnerpräsentation<br />

Ersatzteilkataloge automatisiert erstellen<br />

mit SAP ERP und CATALOGcreator ®<br />

Bernd Neugebauer, SAP Deutschland AG & Co. KG, Walldorf<br />

Robert Schäfer, TID Informatik GmbH, Inning<br />

Ersatzteilkataloge stellen in der Kundenkommunikation und der Kundenbindung<br />

im Aftersales sowohl in der Print- als auch in der Onlineoder<br />

Offline-Fassung das zentrale Medium dar. Der Zwang zur Automation<br />

und damit zur Kosteneinsparung steigt auch in diesem Bereich<br />

des Produktlebenszyklus. Der Vortrag zeigt auf Basis von erfolgreichen<br />

Kundenprojekten die Prozesse zur automatischen Ersatzteilerstellung<br />

auf unter Einsatz von Standard-Software wie SAP ERP und CATALOGcreator®.<br />

Neben den Voraussetzungen für die ETK-Automation werden<br />

die Lösungen vorgestellt und ihre Integration erläutert.<br />

Prozessdarstellung<br />

Die automatische Erzeugung von Ersatzteilkatalogen für die Publikationskanäle<br />

Online, Print und DVD startet im SAP ERP mit der notwendigen<br />

Stammdatenpflege am Materialstamm, respektive den Stücklisten<br />

bzw. Equipments. Klassifikationsmerkmale, Hotspot-Grafiken oder<br />

Einbauanleitungen sind mit den SAP-Datenstrukturen verknüpft und<br />

werden in den hierarchisch geordneten „Verwendern“ wie der Auftragsstückliste<br />

referenziert. Sind manuelle Eingriffe an der Hierarchie<br />

notwendig, kann zusätzlich ein Katalog im SAP ERP aufgebaut werden.<br />

Dazu wird die Lösung „CatManSuite“ als Redaktionswerkzeug im SAP<br />

ERP genutzt, mit der auf Basis von Materialstamm oder Stücklisten<br />

Ersatzteilkataloge aufgebaut werden. Eine definierte Schnittstelle überträgt<br />

die SAP ERP nach einer Datenqualitätsprüfung in die Ersatzteil-<br />

Lösung CATALOGcreator®, die die einheitliche Versorgung der Publikationskanäle<br />

Online, Print und DVD sicherstellt.<br />

Egal ob Stücklisten aus der Konstruktion, dem Vertrieb oder aus SAP<br />

SD Aufträgen für Ersatzteilkataloge genutzt werden: für die Automation<br />

muss die Datenqualität stimmen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

167


Katalogerstellung<br />

Beispiele Kundenprojekte<br />

Typische Ersteller von Ersatzteilkatalogen sind Maschinen- und Anlagenbauer,<br />

die aus SAP ERP Stücklisten Ersatzteilkataloge produzieren.<br />

−−<br />

Szenario 1: Direkt an den Baugruppen und Materialstämmen der<br />

Stückliste werden Zeichnungen, Dokumente und Merkmale hinterlegt.<br />

Über einen Datenextraktor werden die Stücklisten regelmäßig<br />

aus dem SAP ERP exportiert und der CATALOGcreator® Lösung<br />

bereitgestellt.<br />

−−<br />

Szenario 2: Das häufigste Szenario setzt eine Redaktion von Stücklisten<br />

voraus, da diese nicht direkt für Ersatzteilkataloge und damit<br />

die Endkunden genutzt werden können. In der Redaktionslösung<br />

„CatManSuite“ können Ersatzteilkataloge aus Stücklisten und Materialstämmen<br />

aufgebaut und mit Zusatzdaten versehen werden. Über<br />

einen Datenextraktor werden die Kataloge regelmäßig nach einer<br />

Datenqualitätsprüfung aus dem SAP ERP exportiert und der CATA-<br />

LOGcreator® Lösung bereitgestellt.<br />

−−<br />

Szenario 3: Als Nutzer von Anlagen und Maschinen können mit Hilfe<br />

von „CatManSuite“ eigene Ersatzteilkataloge aufgebaut werden, entweder<br />

aus eigenen Materialstammdaten oder z. B. Technischen Platz<br />

Strukturen. Dies kann dann sinnvoll sein, wenn die jeweiligen Hersteller<br />

keine elektronischen Ersatzteilkataloge liefern können oder<br />

diese redaktionell für die Nutzung bearbeitet werden müssen. Über<br />

einen Datenextraktor werden die Kataloge regelmäßig nach einer Datenqualitätsprüfung<br />

aus dem SAP ERP exportiert und der CATALOGcreator®<br />

Lösung bereitgestellt.<br />

Ersatzteilkatalog-Redaktion im SAP ERP<br />

Das SAP-ERP-basierte Katalog-Werkzeug „CatManSuite“ dient seit<br />

2005 zur Redaktion von Katalogen im SAP ERP. Über Kundenprojekte<br />

wird die Lösung von SAP Consulting seitdem kontinuierlich ausgebaut.<br />

Kataloghierarchien können automatisch aus Stücklisten erzeugt<br />

oder manuell hinzugefügt werden. Hotspot-Grafiken und 3D-Modelle<br />

können ebenso verwaltet werden „einfache“ Produktbilder oder PDFbasierte<br />

Einbauanleitungen.<br />

Anpassbare Prüfroutinen liefern Informationen über die Stammdatenqualität<br />

und stellen so die Akzeptanz und Zufriedenheit der Katalognutzer<br />

sicher. Qualitätsprüfungen sind z. B. auf Pflichtfelder am<br />

Materialstamm, auf Klassifikationsmerkmale oder auch auf Dokumente<br />

möglich.<br />

Der Datenextraktor der „CatManSuite“ sammelt alle relevanten Daten<br />

zum Ersatzteilkatalog im SAP ERP inkl. der Dokumente ein und stellt<br />

eine XML-Datei zur Verfügung, die als Datenbasis für die Publikationen<br />

in CATALOGcreator® dient.<br />

Ersatzteilkataloge publizieren mit CATALOGcreator ®<br />

Der CATALOGcreator® ist eine deutsche Standardsoftware zur Publikation<br />

von Ersatzteilkatalogen und strukturierten Zusatzinformationen.<br />

Dabei werden aus einer Datenbasis sowohl Papierkataloge als auch<br />

interaktive HTML-Kataloge zur Nutzung im Inter-/Intranet oder offline<br />

von CD, DVD, USB-Memorystick oder von der Festplatte generiert. Je<br />

168<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

nach Qualität der Ausgangsdaten erfolgt die Produktion der Kataloge<br />

manuell bis vollautomatisch.<br />

Beliebige Sprachversionen, Warenkorbfunktionalität für die Bestellung,<br />

eine Benutzerverwaltung und eine konfigurierbare Suche gehören<br />

ebenso zum Standard wie auch die Nutzung der Kataloge von mobilen<br />

Endgeräten, wie z. B. iPad oder Android.<br />

Die Integration in die Online-Verkaufsprozesse mit SAP E-Commerce<br />

für SAP ERP wird über das standardisierte Open Catalog Interface<br />

(OCI) realisiert.<br />

Zusammenfassung<br />

Für eine automatisierte Erzeugung von Ersatzteilkatalogen werden<br />

korrekte und vollständige Stammdaten im SAP ERP vorausgesetzt. Das<br />

Redaktions-/Stammdatenteam überwacht den Prozess-Ablauf. Die involvierten<br />

Werkzeuge setzen ihre jeweiligen Stärken ein: SAP ERP und<br />

„CatManSuite“ stellen perfekte Stamm- und Katalogdaten zur Verfügung<br />

und CATALOGcreator® übernimmt die professionelle Darstellung<br />

der Ersatzteile in den Publikationskanälen Online, Offline und Print.<br />

für Rückfragen:<br />

bernd.neugebauer@sap.com<br />

robert.schaefer@tid-informatik.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

169


Katalogerstellung<br />

KAT 5<br />

Partnerpräsentation<br />

In einem System alle Katalogbestandteile<br />

erstellen: System-Cockpit für PIM<br />

und Technische Kommunikation<br />

Mike Fischer, Berker GmbH & Co. KG, Schalksmühle<br />

Kevin Johnson, Noxum GmbH, Würzburg<br />

Der Vortrag zeigt, wie die Idee zu einem neuen Systemkonzept für Product<br />

Information Management und Technische Kommunikation gereift<br />

und umgesetzt worden ist. Dabei werden die Rahmenbedingungen in<br />

dem mittelständischen Unternehmen Berker, einem der führenden<br />

Hersteller im Bereich der Elektroinstallation mit über 850 Mitarbeitern,<br />

bzgl. der personellen Ressourcen und der Vielzahl eingesetzter Software-Tools<br />

für das Erstellen von elektronischen und Print-Formaten<br />

beleuchtet.<br />

Am Beispiel des Print-Katalogs wird erläutert, wie einzelne Systembestandteile<br />

unter einer gemeinsamen Benutzeroberfläche ineinander<br />

greifen, um sowohl Produktinformationen als auch mit „Funktionsdesign“<br />

erstellte redaktionelle und Marketinganteile zu pflegen und in<br />

einer Publikationsstruktur zusammenzuführen. Über für den Redakteur<br />

kaum spürbare Schnittstellen zu SAP, einem Print-Publisher und einem<br />

Translation-Memory-System (TMS) kann der Katalog komplett aus<br />

einer Redaktionsumgebung produziert werden.<br />

Ziele und Projektaufgaben<br />

Berker definierte seine Erwartungen und Ziele an das zukünftige PIMund<br />

Redaktionssystem unter Berücksichtigung der personellen und<br />

IT-Rahmenbedingungen. Die Nutzer des Systems werden neben den<br />

Redakteuren der Technischen Dokumentation z. B. auch Mitarbeiter im<br />

Produktmanagement, Marketing, Service, Außendienst oder Lektoren<br />

sein. Es sollte also ein System mit definierten Rollen und Rechten und<br />

mit integrierten Schnittstellen zu Drittsystemen sein.<br />

Um nach der ersten Projektphase das Ziel zu erreichen, einen kundenorientierten<br />

Katalog in mehreren Sprachen erstellen zu können,<br />

setzte Berker zunächst auf die Entwicklung eines Konzepts, mit dem die<br />

„heterogenen“ Bestandteile eines Print-Kataloges aus Produktinformationen,<br />

Marketingseiten, technischem Anhang und Indexverzeichnis in<br />

einem Redaktionssystem zusammengeführt werden können. Weiterhin<br />

sollte ein Übersetzungsmanagement integriert werden, um Kosten<br />

durch die genaue Abgrenzung zu übersetzender Inhalte zu reduzieren.<br />

Übersetzungsaufträge sind über Strukturen und Strukturbestandteile<br />

in beliebiger Größe zu generieren und an ein TMS zu übergeben.<br />

Abschließend sollten alle erforderlichen Informationen redaktionell<br />

strukturiert und automatisch publiziert werden – als Druck-pdf und<br />

InDesign-Format.<br />

Entwicklung des „Cockpit-Konzepts“<br />

Für die Entwicklung des „Cockpit-Konzepts“ mussten die klassischen<br />

Bestandteile eines PIM-Systems und eines Redaktionssystems kombiniert<br />

werden. Das Gerüst dazu bilden verschiedene Editoren und<br />

Strukturbäume. In einer baumartig strukturierten Merkmalverwaltung<br />

170<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

werden Merkmale und Vorgabewerte sowie spezielle Datentypen<br />

definiert und abgelegt. Der Portfoliobaum bildet das Herzstück der<br />

medienneutralen Datenpflege. In ihm werden den Produkten nach<br />

dem Prinzip der größtmöglichen Vererbung Merkmale und Werte<br />

zugeordnet.<br />

Redaktionelle Katalogstrukturen werden im Publikationsstruktur-Editor<br />

angelegt. Nützliche Features wie ein Editor zur Massenpflege von<br />

Daten, eine Schnellansicht, die wie ein Datenblatt je Artikel gepflegte<br />

Inhalte übersichtlich darstellt oder der Medienbaum zur Verwaltung<br />

von Bildern und Grafiken unterstützen den Redakteur bei seiner täglichen<br />

Arbeit enorm. Schnittstellen für den Import und Export der Daten<br />

von/nach SAP und dem Print-Publisher sowie Datenexporte/-importe<br />

für Übersetzungsaufträge komplettieren das Gesamtkonzept.<br />

Projektumsetzung und Arbeiten im PIM-System<br />

Zu Beginn der Umsetzung stand der Aufbau einer Merkmalverwaltung.<br />

Dazu wurden die Daten im vorhandenen Altsystem von Berker bereinigt<br />

und ins neue System migriert. Produktmerkmale und -werte sind<br />

nach maximaler Wiederverwendbarkeit angelegt worden. Die SAP®<br />

Warenwirtschaftsdaten werden tagesaktuell dem PIM-System zugeführt<br />

und neue Datentypen haben weitere Möglichkeiten eröffnet, Daten zu<br />

den Produkten noch „sauberer“ und kohärenter pflegen zu können.<br />

Die Erstellung, Verwaltung und Pflege der Artikel und Artikelmerkmale<br />

erfolgt nun in einer gegliederten Portfoliostruktur nach den Prinzipien<br />

maximaler Merkmalsvererbung. Auf diese Weise kann der Pflegeaufwand<br />

für neue Produkte deutlich reduziert werden. Im Prinzip ist die<br />

Vererbung von Merkmalen und Merkmalswerten der erste Schritt zur<br />

Massendatenpflege, der durch die Möglichkeiten eines zusätzlich verfügbaren<br />

Datenblatteditors noch weiter vereinfacht wird. Mit Konditionierungsobjekten<br />

kann die Gültigkeit von Artikeln und Merkmalen auf<br />

Märkte und Zeitpunkte eingeschränkt werden, was beim Publizieren<br />

entsprechend automatisch berücksichtigt wird.<br />

Das Systemkonzept ist auf die Verknüpfung des Product Information<br />

Management und des Redaktionssystems ausgelegt. In einem System-<br />

Cockpit wird der Übergang vom relationalen PIM-Datenbanksystem<br />

zum objektorientierten XML-System vollzogen, und zwar genau zwischen<br />

Produktportfolio und der Verbauung von Artikeln in einer Redaktionsstruktur.<br />

Denn nachdem alle Artikel ihre Merkmale und Werte<br />

erhalten haben aus dem relationalen Teil des Systems, werden alle Informationen<br />

in ein Artikelobjekt überführt und erhalten den weiterverarbeitbaren<br />

Objektcharakter. Darüber hinaus können auch relationale<br />

Produktdaten in Fließtexten als technische Variable verbaut werden.<br />

Die erste Bewährungsprobe für das System bestand im Neuaufbau<br />

einer Publikationsstruktur für den neuen Berker Hauptkatalog. Hierzu<br />

galt es, die vorhandenen Produktinformationen mit redaktionellen Inhalten<br />

und Marketingseiten in einer Publikationsstruktur zu verbauen.<br />

Dazu wurden alle Artikel in einer Struktur sortiert und gruppiert sowie<br />

die zu publizierenden Merkmale und Merkmalwerte definiert. Besonderen<br />

Wert legte Berker auf die Darstellung von Relationen zwischen<br />

zusammenpassenden Artikeln und die entsprechenden Seitenverweise.<br />

Die Fließtext-Inhalte technischer Informationen und Marketingtexte<br />

wurden in der abgeschlossenen Projektphase 1 als fertige pdf-Seiten in<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

171


Katalogerstellung<br />

den Katalog integriert, damit sie für die Generierung von Seitenverweisen<br />

mitgezählt werden. Diese Seiten wurden abschließend vor der Fertigstellung<br />

im InDesign-Format durch die Originalseiten wieder ersetzt.<br />

Das Gesamtkonzept sieht aber vor, in einer späteren Projektphase auch<br />

diese Inhalte im System-Cockpit anzulegen.<br />

Im anschließenden Publikationsprozess, bei dem zunächst eine xml-<br />

Datei generiert wird, werden aktuelle Daten aus der SAP-Schnittstelle,<br />

wie Preise und Rabattgruppen, zugespielt. Das fertige xml wird dann<br />

an den Publisher übergeben, der den gesamten Katalog inklusive<br />

einem Indexverzeichnis automatisch als pdf- oder InDesign-Dokument<br />

erzeugt.<br />

Projektergebnis und Ausblick<br />

Die Umsetzung der Anforderungen gelang: Das PIM- und Redaktionssystem<br />

stellt die zentralen Systemfunktionen wie Benutzerverwaltung,<br />

Rechte-, Versionsmanagement und Datenpflege sowie die Kopplung von<br />

Drittsystemen wie SAP und TMS bereit. Aktuell ist mit der Projektphase<br />

1 der PIM-Anteil bereits umgesetzt. Die Projektziele im Bereich der<br />

Technischen Dokumentation hinsichtlich der Marketing- und Technikseiten<br />

des Kataloges sowie die Pflege von Bedienungsanleitungen im<br />

gleichen System-Cockpit, die nach Funktionsdesign aufzubauen sind,<br />

werden im Rahmen des Gesamtkonzepts in weiteren Projektphasen<br />

angestrebt.<br />

Aus einem System können dann die Aufgaben des Product Information<br />

Management und der Technischen Redaktion umgesetzt werden. Mit<br />

der Anbindung des Übersetzungsmanagements über ein TMS ist dies<br />

in jeder Sprache möglich, was bereits heute im aktuellen Projektstatus<br />

Zeit und Kosten spürbar reduziert. Die Vision vom Katalog auf „Knopfdruck“<br />

ist real geworden.<br />

Weitere Optionen im Rahmen des Gesamtkonzeptes sind die Umsetzung<br />

eines Dokumenten-Managementsystems, die Integration eines<br />

Grafik-Editors, um Texte in Grafiken übersetzbar zu machen, die Optimierung<br />

des Lektoratsprozesses sowie die Generierung elektronischer<br />

Datenformate für den Online-Katalog und für die Warenwirtschaftssysteme<br />

des Großhandels (BMEcat, Eldanorm).<br />

Für Rückfragen<br />

mike.fischer@berker.de<br />

johnson@noxum.com<br />

172<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

KAT 6<br />

Partnerpräsentation<br />

Ein Atlas statt mehrerer Kataloge –<br />

eine Wegbeschreibung zum Erfolg<br />

Susanne Löhrer, Interroll AG, S. Antonino, Schweiz<br />

Karsten Schrempp, PANTOPIX GmbH & Co. KG, Bodnegg<br />

Das Ziel dieses Projekts bestand darin, das Unternehmen Interroll über<br />

ein hochwertiges Marketingprodukt – den „Atlas“ – und einen komplett<br />

neu gestalteten Webauftritt inklusive eines Online-Katalogs als einen<br />

globalen Player am Markt zu platzieren. Wir berichten hier, wie wir auf<br />

der Basis eines bestehenden Redaktionssystems für Technische Dokumentation<br />

und einer Produktdatenbank dieses Ziel erreicht haben.<br />

Das Unternehmen<br />

Die Interroll Group ist ein weltweit führender Spezialist zur Herstellung<br />

hochwertiger Komponenten und Module zum Fördern, Sortieren<br />

und Lagern von Gütern. Diese reichen von leichten Gütern wie Lebensmittel<br />

bis hin zu Paletten mit schweren Lasten. Das Unternehmen<br />

ist über die vergangenen Jahre aus verschiedenen Einzelunternehmen<br />

zusammengewachsen.<br />

Betriebsanleitungen und Kataloge<br />

Aus einer Übersetzungsanfrage vor ca. 7 Jahren entstand ein Standardisierungs-<br />

und Outsourcing-Projekt für die Technische Dokumentation<br />

von Interroll. Ein Dienstleister (Dokuwerk KG) übernahm die Erstellung<br />

der Betriebsanleitungen auf seinem hauseigenen Standard CMS<br />

(Ovidius TCToolbox), verschlankte und standardisierte die Inhalte und<br />

erreichte einen Anteil von über 60 % mehrfach verwendbarer Module.<br />

Auf dieser Basis entwickelte sich zwei Jahre später ein Katalogprojekt.<br />

Für die einzelnen Niederlassungen entstanden Produktkataloge,<br />

die von der Gesamtstruktur des Katalogs, der Grundstruktur der Produktseiten<br />

und vom äußeren Erscheinungsbild standardisiert waren,<br />

und deren Inhalte aus dem Redaktionssystem und einer Produktdatenbank<br />

(MySQL) zusammenflossen. Im Rahmen einer automatisierten<br />

Publikationsstrecke entstanden und entstehen über Adobe Indesign®<br />

die Printpublikationen.<br />

Ziele<br />

Inhaltskonzept Print<br />

Der Atlas<br />

Mit dem Atlas sollte nun ein übergreifendes Dokument entstehen, das<br />

die Gesamtheit des Unternehmens Interroll repräsentiert und die Produktpalette<br />

zusammenführt. Der Schwerpunkt lag weniger auf den<br />

Detailinformationen, die drastisch reduziert werden sollten. Vielmehr<br />

sollte der Aspekt der gemeinsamen und übergeordneten Produkte der<br />

verschiedenen Standorte im Vordergrund stehen. Um möglichst wenig<br />

Aufwand zu generieren, sollte der Atlas komplett auf der bestehenden<br />

Datenbasis aufsetzen. Der Produktteil des Atlas sollte gleichzeitig die<br />

Datenbasis des Online-Katalogs für den neuen Webauftritt ergeben.<br />

Und dies alles am besten so, dass außer Filterung nichts an den Daten<br />

und vorhandenen Informationsmodulen geändert werden musste.<br />

Der erste Schritt bestand in der Entwicklung eines Inhaltskonzepts<br />

für den gedruckten Atlas. Als Hauptstruktur entstanden drei Kapitel,<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

173


Katalogerstellung<br />

Inhaltskonzept Web<br />

Grundstruktur<br />

Produktzuordnung<br />

Produktinformationen<br />

Rahmenbedingungen<br />

in denen über Applikationen, hervorgehobene Bestseller und einen<br />

katalogartigen Produktteil das gesamte Interroll-Portfolio dargestellt<br />

werden sollte. Verschiedene Zugriffswege (Inhaltsverzeichnis, direkter<br />

Schnellzugriff) und Verweise auf das Internet sollten die übergreifende<br />

Nutzung ermöglichen. Eine direkte Verlinkung der Informationen über<br />

QR-Code soll in einer zweiten Stufe umgesetzt werden – da die Website<br />

zeitgleich neu aufgebaut wurde, erschien uns das als zu riskant.<br />

Ein klare Vorgabe gab es für das Gesamtdesign: Nur die Produktinformationen<br />

sollten aus dem CMS zugeliefert werden. Der Atlas als Ganzes<br />

– auch das finale Layout der Produktseiten – sollte in einer Werbeagentur<br />

gestaltet werden.<br />

Die Neukonzeption des Webauftritts, die nicht Bestandteil unseres Vortrags<br />

ist, sollte nachhaltig dadurch unterstützt werden, dass die Grundstruktur<br />

des Online-Katalogs für die Produkte parallel der Struktur des<br />

Atlas im betreffenden Kapitel ist. Damit wird übergreifende Einheitlichkeit<br />

hergestellt. Da die Informationen aus einer Quelle stammen, sind<br />

sie auch konsistent. Die Verlinkung auf Datenblätter, die aus den bestehenden<br />

Katalogen extrahiert werden, rundet das Informationsangebot<br />

in acht Sprachen ab.<br />

Das Projekt – Inhaltsstrukturen und Daten<br />

Der erste, aufwändigere Schritt bestand in der Entwicklung einer gemeinsamen<br />

Grundstruktur für die einzelnen Produktbereiche. Entstanden<br />

ist eine Reihenfolge von Kapiteln, die von der einfachen Rolle, die<br />

eines der am häufigsten verkauften Produkte darstellt, über die Antriebe<br />

zu Fördermodulen und zur Lagertechnik führt. Für den Online-<br />

Katalog besteht die Hauptnavigationsstruktur aus wichtigen Rubriken,<br />

untergeordnete Kategorisierungen ergeben die zweite Ebene. Die einzelnen<br />

Produkte findet man (klar!) auf der untersten, dritten Ebene.<br />

Im gedruckten Atlas ist der Produktteil in Kapitel weitgehend analog<br />

zum Web aufgebaut. Die Darstellung der Kategorien und der Zugriff auf<br />

die einzelnen Produkte erfolgt mittels Übersichtsseiten, die den einzelnen<br />

Kapiteln vorangestellt werden.<br />

Die Zuordnung der Produkte war einfacher. Auf Grund der Navigationsstruktur<br />

des gedruckten Werkes, die wir als nicht-linear ansetzten, sind<br />

einige (wenige) Produkt mehrfach enthalten.<br />

Dies war der schwierigste Punkt, da manchem Produktmanager erst<br />

hier das Grundkonzept des Atlas wirklich und fühlbar klar wurde. Für<br />

jedes Produkt sollte der Darstellungsumfang, der in den Katalogen<br />

bei zwei bis acht Seiten lag, auf eine Seite reduziert werden: Bild, produktdifferenzierende<br />

Merkmale oder eine Kurzbeschreibung, technische<br />

Daten! Unabhängig von der scheinbaren Komplexität oder der<br />

Größe des Produkts Informationen auf das Wesentliche zu reduzieren<br />

entpuppte sich als eine harte Aufgabe, die am Ende einvernehmlich und<br />

aus dem übergeordneten Ziel heraus erfolgreich gemeistert wurde.<br />

Erfassung und Publikationsstrecken<br />

Im Idealfall, und da uns kein PIM zur Verfügung steht, hätten wir nur<br />

mit Filtern auf den bestehenden Katalog-Modulen arbeiten wollen,<br />

um die bestehenden Publikationsstrecken nicht antasten zu müssen.<br />

Das haben wir nicht ganz erreicht, da wir z. B. Produktvarianten<br />

174<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Katalogerstellung<br />

Aufbau der<br />

Publikationsstrecken<br />

Aktueller Status<br />

Nächste Schritte<br />

zusammengefasst haben, die bisher einzeln in den Katalogen dargestellt<br />

wurden. Dies bedeutete Veränderungen in den Werteangaben einzelner<br />

Merkmale. Aus Sicht des Redaktionssystems: wir haben Varianten zu<br />

den existierenden Modulen angelegt.<br />

Da wir schon bisher über XML nach Indesign publiziert haben, gab<br />

es hier keine umfangreichen Anpassungen. Für den Druck nutzen wir<br />

weiterhin die Indesignstrecke mit einem angepassten Template, um die<br />

Agentur bedienen zu können.<br />

Für die Internetagentur reichern wir bei der Erfassung das XML<br />

um Informationen an, die den Import in das Web-CMS vereinfachen<br />

(IDs für alle Navigationsebenen, passende URLs für Downloads). Zudem<br />

werden die Bilder einer Konvertierung in webtaugliche Formate<br />

unterzogen.<br />

Wo stehen wir?<br />

Das Projekt ist den Kinderschuhen entwachsen. Der gedruckte Atlas<br />

wird für Interroll ein einzigartiges Imageprodukt.<br />

Die Belieferung des Webs erfolgt regelmäßig, wir sind bereits in den<br />

Pflegestatus übergewechselt.<br />

Gegenwärtig verfolgen wir zwei Ziele:<br />

−−<br />

Eine vollständige Automatisierung der Datenpflegeprozesse für das<br />

Web.<br />

−−<br />

Die Optimierung der Produktdatenpflege.<br />

Fazit<br />

Es ist uns in diesem Projekt gelungen, viele unterschiedliche Interessen<br />

unter einen Hut zu bringen. Mitunter bedurfte es viel Geduld, und die<br />

Hindernisse sind meist nicht technischer Art. Dank der nachhaltigen<br />

Unterstützung des Produktmanagements und der intensiven Mitarbeit<br />

aller Beteiligten ist es uns gelungen, ein neues, übergreifendes Marketingwerkzeug<br />

höchster Qualität zu entwickeln.<br />

für Rückfragen:<br />

s.loehrer@interroll.com<br />

karsten.schrempp@pantopix.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

175


Lokalisierung und<br />

Übersetzung / Localization


Lokalisierung und Übersetzung / Localization<br />

LOC 1<br />

Partnerpräsentation<br />

Tanz der Doubletten<br />

Skriptgestützte Analyse und Optimierung<br />

von Translation Memorys<br />

Daniel Busch, Köln<br />

Thomas Wedde, TID Informatik GmbH, Bonn<br />

Über Jahre der Benutzung können sich in Translation Memorys verschiedene<br />

Fehler einschleichen. Mit einer skriptgestützten TM-Optimierung<br />

lassen sich diese Fehler aufspüren und korrigieren – außerhalb<br />

des TMS und unabhängig von Drittanbieterlösungen.<br />

Translation-Memory-Systeme (TMS) ermöglichen die Wiederverwendung<br />

bereits übersetzter Textelemente, die meist zentral im so genannten<br />

Translation Memory (TM) gespeichert werden. Eine einmal erstellte<br />

Übersetzungseinheit (ÜE) muss dann nie wieder angefasst werden,<br />

wodurch Übersetzungen schneller, günstiger und konsistenter werden –<br />

so zumindest die Idealvorstellung.<br />

In der Praxis wird dieses Ideal – auch bei sorgfältiger Handhabung –<br />

aber nicht immer erreicht, denn in der Historie eines TM kann eine<br />

ganze Reihe von Faktoren zu inhaltlichen oder technischen Mängeln<br />

in der Datenbank führen, darunter Importe von TMs und alignierten<br />

Übersetzungen aus Fremd- oder Altbeständen, Programm- oder<br />

Bedienfehler des verwendeten TMS oder technisch unsaubere<br />

Ausgangsdokumente.<br />

Einige der dadurch entstehenden Mängel sind:<br />

−−<br />

Doubletten und ungewünschte Übersetzungsvarianten<br />

−−<br />

Inkonsistente Verwendung von Attribut- und Textfeldern<br />

−−<br />

Satzfragmente durch Layout- oder Segmentierungsfehler<br />

−−<br />

Sprachspezifische Typografie- und Zahlenfehler<br />

−−<br />

Abweichungen vom Kunden-Styleguide<br />

Werden auf Basis solcher historisch gewachsener TMs neue Übersetzungen<br />

angefertigt, besteht das Risiko, dass alte Fehler in neue Texte<br />

gelangen. Dieses Risiko wird verstärkt, wenn der Kunde für die Prüfung<br />

von 100%-Matches nicht mehr zahlt. Ein Abfangen möglicher Fehler<br />

führt zu steigendem Aufwand für Übersetzer, EDV, DTP und QS. Darüber<br />

hinaus können durch unsaubere oder inkonsistente Textelemente in<br />

einem TM auch die Matchwerte sinken und der Übersetzungsaufwand<br />

damit steigen. Es besteht also allgemein das Risiko, dass Übersetzungen<br />

weniger schnell, weniger günstig und weniger konsistent ausfallen, als<br />

es das Ideal vorsieht.<br />

Skriptgestützte Lösung für Kontrolle und Korrektur<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

179


Lokalisierung und Übersetzung / Localization<br />

Bei der TM-Optimierung geht es nun darum, TMs zunächst auf mögliche<br />

Probleme zu untersuchen und diese dann, soweit möglich automatisiert,<br />

zu beseitigen. Das Ziel ist also ein TM, aus dem Übersetzern<br />

höherwertige Matches in besserer Qualität angeboten werden können.<br />

Für die Analyse und Korrektur von Fehlern in TMs bieten die Bordmittel<br />

der TMs aber nur sehr eingeschränkte Möglichkeiten, die bei TMs<br />

mit Tausenden ÜE kaum praktikabel verwendbar sind. Daneben gibt es<br />

am Markt zwar verschiedene kommerzielle und Open-Source-Werkzeuge.<br />

Diese bringen allerdings eine Reihe von Nachteilen mit sich, darunter<br />

eingeschränkten Funktionsumfang, reduzierte Kontrolle über die<br />

Definition von Fehlern sowie mangelnde Integrierbarkeit in bestehende<br />

Prozesse.<br />

Vor diesem Hintergrund wurde bei beo Gesellschaft für Sprachen und<br />

Technologie mbH eine eigene Lösung für die TM-Optimierung entwickelt.<br />

Diese Lösung basiert auf Skripten (also logischen Befehlsabfolgen)<br />

in der freien Skriptsprache PHP, anhand denen komplette Exportdateien<br />

aus dem TMS in unterschiedlichster Weise verarbeitet werden<br />

können.<br />

Beispiel Übersetzungsvarianten<br />

Ein Beispiel für typische Mängel in einem TM ist das Auftreten von<br />

ungewünschten Übersetzungsvarianten, also mehreren, inkonsistenten<br />

Übersetzungen für einen Ausgangssatz. Anhand eines entsprechenden<br />

Skripts kann zunächst untersucht werden, ob Übersetzungsvarianten<br />

im TM vorkommen. Dabei ist eine Unterscheidung nach identischen<br />

oder abweichenden Attributfeldern möglich. Vom Skript gefundene<br />

Varianten der beiden Typen werden dann mit den relevanten Metadaten<br />

der betroffenen ÜE in einer Liste ausgegeben, die bequem in einem<br />

Portal dargestellt und bearbeitet werden kann. Anhand dieser Listen<br />

können die ungewünschten Varianten manuell ausgewählt werden und<br />

die entsprechenden ÜE anhand einer zuvor vergebenen ID automatisch<br />

aus dem TM entfernt werden.<br />

Mit einem weiteren Skript ist eine automatische Bereinigung der Varianten<br />

auf Basis der Metadaten der ÜE möglich: So kann beispielsweise<br />

angenommen werden, dass es sich bei der zuletzt angelegten oder geänderten<br />

Übersetzungsvariante um die aktuellste und damit bevorzugte<br />

Variante handelt; alle anderen Varianten mit demselben Ausgangssatz<br />

werden automatisch entfernt. Die Berücksichtigung weiterer Metadaten,<br />

wie Attribut- oder Textfelder, ist ebenfalls möglich.<br />

Als Ergebnis der teil- oder vollautomatischen Bereinigung entsteht ein<br />

TM, in dem ausschließlich gewünschte Übersetzungsvarianten enthalten<br />

sind. Dadurch verbessert sich nicht nur die inhaltliche Konsistenz<br />

von Übersetzungen, auch die Matchwerte werden erhöht und der Aufwand<br />

sinkt.<br />

Beispiel Satzfragmente<br />

Ein weiteres Beispiel ist das Auftreten von Sätzen, die fragmentiert in<br />

den Segmenten mehrerer ÜE gespeichert sind – ein Phänomen, das<br />

entsteht, wenn Absatzmarken im Ausgangsdokument als Mittel zum<br />

Zeilenumbruch verwendet werden. Bei der Segmentierung des Textes<br />

durch das TMS führen diese Absatzmarken dazu, dass ganze Sätze in<br />

180<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Fragmente geteilt werden, die vom Übersetzer nicht wieder zusammengeführt<br />

werden können, sondern einzeln übersetzt werden müssen.<br />

Weichen die Lauflängen der Fragmente in Ausgangs- und Zielsprache<br />

aber voneinander ab, und damit die Positionen der Absatzmarken, kann<br />

es zu Layout-Fehlern im Zieltext kommen. Diese müssen mit erhöhtem<br />

Aufwand seitens QS/DTP abgefangen werden.<br />

Um herauszufinden, ob dieses Problem in einem TM bzw. beim Ausgangs-DTP<br />

besteht, sucht ein Skript zunächst nach Segmenten im TM-<br />

Export, bei denen es sich wahrscheinlich um Satzendfragmente handelt.<br />

Diese Segmente werden zur manuellen Kontrolle in einer Liste ausgegeben<br />

und erlauben zudem eine gezielte Nachforschung zum DTP-<br />

Problem mit ggf. folgender Kundenberatung. Parallel fügt das Skript die<br />

fragmentierten Sätze mit einer Trefferquote von 70–80 % automatisch<br />

zusammen, stellt also den eigentlich gewünschten Zustand „eine Übersetzungseinheit<br />

pro Satz“ wieder her. Damit werden reduzierte Matchwerte,<br />

die aus der Beseitigung des Problems in Ausgangsdokumenten<br />

resultieren können, weitgehend verhindert.<br />

Standardprozess für TM-Optimierung<br />

Für die häufigsten Mängel in TMs empfiehlt es sich, einen kundenneutralen<br />

Standardprozess für die TM-Optimierung zu entwickeln: auf Basis<br />

eines Exportes aus dem TMS wird dabei eine Reihe von aufeinander<br />

aufbauenden Skripten in logischer Abfolge durchlaufen. Manuelle Kontrollen<br />

der einzelnen Schritte stellen ein sauberes Endergebnis sicher.<br />

Potentielle Kandidaten für eine solche TM-Optimierung können dabei<br />

zunächst über eine kurze Stichprobe in ausgewählten TMs identifiziert<br />

werden. Der wichtigste Indikator sind aber die gesammelten Erfahrungswerte<br />

von Projektmanagement und EDV-Abteilung. Es hat sich<br />

dabei gezeigt, dass jüngere und kleinere TMs von weniger Problemen<br />

betroffen sind als „gut abgehangene“ TMs, die bereits seit vielen Jahren<br />

eingesetzt werden und in denen sich eine Vielzahl von Tools und<br />

Formaten niedergeschlagen haben. Aus diesem Grund empfiehlt sich<br />

neben der grundlegenden Optimierung älterer und umfangreicher TMs<br />

auch eine turnusmäßige Kontrolle und Bereinigung, um ein „historisches<br />

Wachstum“ ungewünschter Daten zu verhindern.<br />

für Rückfragen:<br />

thomas.wedde@beo-doc.de<br />

daniel.busch@email.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

181


Lokalisierung und Übersetzung / Localization<br />

LOC 2<br />

Fachvortrag<br />

Automatische Autorenunterstützung für das<br />

Postediting in der Maschinellen Übersetzung<br />

Melanie Siegel, Hochschule Darmstadt<br />

Einleitung<br />

Die Maschinelle Übersetzung (MÜ) ist in den letzten Jahren so weit<br />

fortgeschritten, dass eine Übersetzung Technischer Dokumentation<br />

sinnvoll ist, wenn die Ergebnisse einen Postediting-Prozess durchlaufen.<br />

Das Postediting der Ergebnisse von MÜ ist daher eine häufig angewandte<br />

Methode, um die gewünschte Übersetzungsqualität zu erhalten.<br />

In unserem Vortrag stellen wir Verfahren der MÜ vor und zeigen,<br />

welchen Einfluss die Verfahren auf den Postediting-Prozess haben. Wir<br />

stellen unterschiedliche Postediting-Prozesse vor, wie monolinguale<br />

und multilinguale Prozesse. Wir zeigen dann, wie das Postediting durch<br />

automatische Prüf- und Korrekturverfahren effizient unterstützt werden<br />

kann, die auf Experimenten mit Übersetzern basieren.<br />

Verfahren der MÜ und deren Einfluss auf den Postediting-Prozess<br />

Zwei grundsätzliche Verfahren liegen den heutzutage häufig genutzten<br />

MÜ-Systemen zugrunde: Statistische Verfahren zur MÜ und regelbasierte<br />

Verfahren zur MÜ (siehe Koehn 2010 und Somers 2003).<br />

Die statistischen Verfahren (SMT) basieren auf einer großen Menge<br />

von bereits übersetzten Sätzen. Diese Daten stehen erst in den letzten<br />

Jahren in großem Maße, z. B. als Translation Memorys, zur Verfügung.<br />

Aus den Sätzen werden in der Trainingsphase mit statistischen Methoden<br />

Phrasen und ihre Übersetzungen in den Sätzen der Zielsprache<br />

extrahiert. Diese Phrasen sind dann die Grundlage für die maschinelle<br />

Übersetzung neuer Sätze. Wenn die Trainingsdaten aus einer ähnlichen<br />

Domäne stammen wie die Sätze, die übersetzt werden sollen, haben die<br />

statistischen Verfahren hier einen klaren Vorteil in der Terminologieübersetzung.<br />

Zum Beispiel wird Bank dann im Kontext der Geldwirtschaft<br />

ins Englische mit „bank“ übersetzt und nicht etwa mit „bench“.<br />

Linguistische Information wie z. B. Grammatik spielt jedoch keine Rolle<br />

in diesen Verfahren. Daher muss der Postediting-Prozess sich bei statistischen<br />

Verfahren auf grammatische Korrektheit der zielsprachlichen<br />

Sätze konzentrieren. Ein wichtiges Problem ist auch der Negationsskopus.<br />

Da keine Satzanalyse gemacht wird, kann es passieren, dass Negation<br />

nicht richtig übersetzt wird. Ein Beispiel aus einem Experiment mit<br />

dem SMT-System Moses (Google Translate gibt ähnliche Ergebnisse):<br />

DE: „Ich habe meinen Computer neu gestartet, aber ich kann weiterhin<br />

Websites mit kompromittierendem Inhalt öffnen.“<br />

EN: “I have restarted my computer, but I still can not open websites with<br />

content kompromittierendem.”<br />

Die regelbasierten Verfahren (RBMT) basieren auf einer linguistischen<br />

Analyse des Ausgangssatzes und einer abstrakten Repräsentation der<br />

Bedeutung. Diese Repräsentation wird in einem Transfer-Prozess in<br />

eine Repräsentation der Zielsprache überführt. Mit der Grammatik<br />

der Zielsprache wird daraus dann ein Satz generiert. Der Vorteil dieses<br />

Verfahrens ist, dass grammatisch korrekte Sätze in der Zielsprache<br />

182<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

generiert werden. Das Verfahren ist satzbasiert und hat keinen Zugriff<br />

auf Information aus voranstehenden Sätzen. Das Postediting muss daher<br />

Kontextinformation berücksichtigen, wenn z. B. im englischen Satz<br />

„it“ steht und in der deutschen Übersetzung „es“, was aber im Kontext<br />

„sie“ sein sollte. Die Terminologie wird hier mit einem Lexikon übersetzt,<br />

was zu Terminologie-Übersetzungsfehlern führen kann.<br />

Monolinguales und multilinguales Postediting<br />

Grundsätzlich ist es sinnvoll, beim Postediting sowohl den Satz der<br />

Ausgangssprache als auch den der Zielsprache zu berücksichtigen.<br />

Dies ist jedoch nicht immer möglich, wenn die posteditierende Person<br />

die Ausgangssprache nicht kennt oder wenn automatische Postediting-<br />

Verfahren angewendet werden, die nur auf den zielsprachlichen Sätzen<br />

operieren. Daher können einige Probleme der MÜ mit monolingualem<br />

Postediting nicht gelöst werden. Dazu gehören Probleme in der Terminologie,<br />

aber auch der Negationsskopus. Monolinguales Postediting<br />

kann aber grammatische Probleme der SMT wie Kongruenz oder<br />

Kommasetzung gut lösen. Auch andere Probleme wie die Korrektur<br />

von Tempus können gut monolingual gelöst werden: Das Futur wird<br />

im Deutschen häufig mit Präsensformen ausgedrückt, aber durch die<br />

MÜ entstehen Futur-Formen (die in der Ausgangssprache verwendet<br />

werden).<br />

Unterstützung des Postediting-Prozesses durch<br />

automatische Prüf- und Korrekturverfahren<br />

Automatische Prüf- und Korrekturverfahren sind aus der Autorenunterstützung<br />

für Technische Dokumentation entstanden, wie sie z. B. von<br />

Acrolinx angeboten wird. Sie arbeiten auf dem zielsprachlichen Text,<br />

sind also monolingual. Dennoch gibt es eine Reihe von automatisch<br />

prüfbaren Regeln zum Postediting, die hier aufgelistet werden:<br />

−−<br />

Artikellose Nominalphrasen vermeiden: Gerade bei der Übersetzung<br />

aus Sprachen, die keine Artikel verwenden (wie z. B. Japanisch) müssen<br />

Artikel im Postediting-Prozess häufig eingefügt werden.<br />

−−<br />

Futur vermeiden: Im Deutschen werden häufig Präsensformen verwendet,<br />

um Ereignisse, die in der Zukunft stattfinden, zu beschreiben.<br />

Das ist in anderen Sprachen nicht der Fall, so dass die Futur-Formen<br />

übersetzt werden.<br />

−−<br />

Imperativ-Korrektur: Im Spanischen wird z. B. der Konjunktiv für den<br />

Imperativ verwendet. Ein RBMT-System überträgt die Konjunktiv-<br />

Form, die im Deutschen falsch ist.<br />

−−<br />

Nominalkomposita zusammenschreiben: Im Englischen werden Nominalkomposita<br />

mit Leerzeichen gebildet, was im Deutschen nicht<br />

korrekt ist und im Postediting-Prozess korrigiert werden muss.<br />

−−<br />

umständliche Formulierungen vermeiden: Durch die Übersetzung<br />

entstehen im Deutschen umständliche Formulierungen wie z. B. „eine<br />

Einstellung vornehmen“. Diese Formulierungen können im Postediting-Prozess<br />

vereinfacht werden.<br />

−−<br />

veraltete Wörter vermeiden: Abhängig von den Trainingsdaten im<br />

SMT und den Lexika im RBMT werden Wörter wie „vermögen“ oder<br />

„mittels“ übersetzt, die im Postediting-Prozess geändert werden.<br />

−−<br />

Verbkorrektur: Einige systematische domänenbasierte Übersetzungsfehler<br />

von Verben können auch monolingual korrigiert werden. Z. B.<br />

wurde in unseren Übersetzungsexperimenten im Software-Kontext<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

183


Lokalisierung und Übersetzung / Localization<br />

häufig das Verb „schleppen“ übersetzt, das systematisch mit „ziehen“<br />

korrigiert werden konnte.<br />

−−<br />

von-Serie vermeiden: Durch die Übersetzung entstehen im Deutschen<br />

komplexe Nominalphrasen, die besser durch ein Kompositum<br />

ersetzt werden. Z. B.: „Adresse von 32 Bit von Internet“ – „32-Bit-<br />

Internet-Adresse“.<br />

Zusammenfassung<br />

Maschinelle Übersetzung hat in den letzten Jahren große Fortschritte<br />

gemacht und ist daher auch in der Technischen Dokumentation nutzbar.<br />

Dennoch ist Postediting notwendig, um einen ausreichenden Qualitätsstandard<br />

der Übersetzungen zu erreichen. Es ist notwendig, sich vor<br />

dem Postediting über das MÜ-Verfahren zu informieren, um die Probleme<br />

des gewählten Verfahrens gezielt anzugehen. Auch wenn multilinguales<br />

Postediting wünschenswert ist, kann man mit einem Blick auf<br />

den zielsprachlichen Text viele Korrekturen durchführen. Automatische<br />

Prüf- und Korrekturverfahren sind hier hilfreich – wie bei der Autorenunterstützung<br />

der Technischen Dokumentation durch automatische<br />

Tools.<br />

Literatur<br />

Koehn, P. (2010): Statistical Machine Translation. Cambridge University<br />

Press, New York.<br />

Somers, H. (2003): Machine translation: Latest developments. In: R. Mitkov<br />

(Hrsg.), The Oxford Handbook of Computational Linguistics, Chapter<br />

28, S. 512–528. Oxford University Press.<br />

für Rückfragen: melanie.siegel@h-da.de<br />

184<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 3<br />

Partnerpräsentation<br />

Siemens Online Verification Tool: IT-Lösung<br />

zur Optimierung des Verifizierungsprozesses<br />

bei Siemens Healthcare<br />

Dr. Brigitte Herrmann, Siemens AG, Healthcare Sektor, Erlangen<br />

Michael Oettli, nlg GmbH, Regensburg<br />

Kundendokumentation in der Medizinindustrie<br />

Die Erstellung und Übersetzung der Kundendokumentation zu Medizinprodukten<br />

ist ein qualitativ hochwertiger und regulierter Prozess.<br />

Für Europa definiert die Medizinproduktrichtlinie (MPR) 93/42/EEC,<br />

Anhang 1, die wesentlichen Anforderungen zu Gebrauchsanweisungen,<br />

Warn- und Sicherheitshinweisen von Medizinprodukten zum „sicheren<br />

und bestimmungsgemäßen Gebrauch durch deren Anwender“. Jeder<br />

Hersteller von Medizinprodukten ist verpflichtet gemäß MPR, dem Produkt<br />

eine Kundendokumentation beizulegen, die die Anforderungen der<br />

Richtlinie erfüllt. Zulassungsbehörden innerhalb wie auch außerhalb<br />

des europäischen Marktes überprüfen die Einhaltung der MPR-Anforderungen<br />

oder der länderspezifischen Anpassungen der MPR.<br />

Wird die Kundendokumentation in die je Einfuhrland gesetzlich festgeschriebene(n)<br />

Landessprache(n) übersetzt, prüft der Hersteller durch<br />

den Prozessschritt „Verifizierung von Übersetzungen“, dass die Übersetzung<br />

der Kundendokumentation in allen Aspekten mit den Informationen<br />

der Ausgangssprache übereinstimmt. Der Verifizierungsprozess<br />

ist ein notwendiger Schritt zur Qualitätssicherung vor Produktfreigabe<br />

in andere Länder.<br />

Probleme und Herausforderungen des<br />

herkömmlichen Verifizierungsprozesses<br />

Der Verifizierungsprozess erfordert, dass ein Muttersprachler eine ihm<br />

vorgelegte Übersetzung der Kundendokumentation mit der ausgangssprachlichen<br />

Version Wort für Wort überprüft und damit sicherstellt,<br />

dass unternehmensspezifische Produktterminologie wie auch länderspezifische<br />

Kundenterminologie in die Übersetzungen einfließen.<br />

Medizinprodukte-Verifizierer kennen das entsprechende Produkt aus<br />

eigener Anwendung, sind deshalb in der Regel Ärzte, Produktmanager,<br />

Applikationsspezialisten oder im Vertrieb des Unternehmens tätige<br />

Personen.<br />

Verifizierer sind andererseits keine Linguisten oder verifizieren mitunter<br />

nicht regelmäßig die gleiche Produktlinie – was darin resultiert, dass<br />

eingeführte kundenspezifische Glossare und Übersetzungen von Produktvorversionen<br />

unbekannt sind und nicht berücksichtigt werden.<br />

Der Verifizierungsprozess ist in vielen Fällen sehr zeitaufwändig und<br />

für andere Prozessteilnehmer häufig nicht transparent. Die Übersicht<br />

über den gesamten Prozess und damit auch die Kontrolle fehlen meist<br />

vollständig.<br />

Der Prozess ist selten standardisiert: Die Art und Weise, wie Korrekturen<br />

von den Verifizierern zurückkommen, hängt sehr oft von deren IT-<br />

Infrastruktur ab sowie davon, wie und wo die jeweiligen Verifizierer die<br />

Verifizierungen durchführen. Dadurch lassen sich große Variationen auf<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

185


Lokalisierung und Übersetzung / Localization<br />

Seiten der Übersetzungsdienstleister beobachten, deren Aufgabe es ist,<br />

die zurückgemeldeten Verifizierungsänderungen einzuarbeiten:<br />

−−<br />

gescannte PDF-Dateien mit handschriftlich verfassten Kommentaren<br />

und Korrekturen<br />

−−<br />

Word-Dokumente mit oder ohne track changes<br />

−−<br />

xls-Listen mit verschiedenen Spalten (ursprüngliche Übersetzung,<br />

korrigierte Übersetzung)<br />

−−<br />

PDF-Dateien mit eingefügten Kommentaren in Notizen<br />

Eine Einarbeitung der Korrekturen ist somit zum Teil sehr schwierig<br />

und außerordentlich zeitaufwändig: Die Kommentare und Korrekturen<br />

werden an die jeweiligen Übersetzer geschickt, um diese auf linguistische<br />

Korrektheit zu prüfen. Nach erfolgter Prüfung werden die Korrekturen<br />

in die finalen Übersetzungsdateien und -formate eingefügt.<br />

Die Übersetzungsdatenbanken werden aktualisiert. In Zweifelsfällen<br />

müssen die Verifizierer erneut kontaktiert werden, und zwar unter Einhaltung<br />

der Kommunikationskette und Prozessverantwortlichkeiten wie<br />

beispielsweise: „Übersetzer Übersetzungskoordinator Auftraggeber<br />

der Medizinprodukt-Übersetzung Verifizierer im jeweiligen Land“.<br />

Neuer Ansatz: webbasierte Portallösung<br />

Um den Verifizierungsprozess von Übersetzungen zu optimieren<br />

und zu automatisieren, hat Siemens in Zusammenarbeit mit dem<br />

Übersetzungspartner nlg GmbH das Siemens Online Verification Tool<br />

(SOVT) entwickelt. SOVT ist eine Web-basierte Portallösung mit Anbindung<br />

an die Siemens TMS und CMS-Umgebung, die alle am Verifizierungsprozess<br />

teilnehmenden Parteien verbindet und es Siemens erlaubt,<br />

zu jedem Zeitpunkt die Übersicht und vollständige Kontrolle über<br />

den Verifizierungsprozess zu behalten.<br />

Jeder Prozessschritt wird dokumentiert, der „Audit Trail“ ist klar ersichtlich,<br />

und alle relevanten Daten können einfach und schnell aus<br />

dem System abgerufen werden. SOVT umfasst beispielsweise eine digitale<br />

Sign-off-Funktion, mit der die Verifizierer nach Vollendung des Jobs<br />

die Vollständigkeit und Richtigkeit ihrer Verifizierung belegen.<br />

Die Verifizierer können sowohl online als auch offline arbeiten. Zudem<br />

ermöglicht ein fortschrittliches Synchronisationssystem, dass mehrere<br />

Verifizierer gleichzeitig an dem gemeinsamen Verifizierungsprojekt<br />

arbeiten.<br />

SOVT unterstützt verschiedene Dateiformate, Ausgangs- und Zieldokumente<br />

werden durch moderne Parserfunktionen formatiert dargestellt,<br />

so dass die Verifizierer die Korrekturen direkt in die Zieldokumente<br />

einbringen können.<br />

Das System stellt dem Verifizierer projektspezifische Glossare zur Verfügung<br />

und erlaubt eine automatische Aktualisierung der übersetzten<br />

Dateien sowie der angebundenen Übersetzungsdatenbanken.<br />

Durch SOVT hat sich der Verifizierungszyklus bei Siemens Healthcare<br />

signifikant reduziert. Die Koordination von Verifizierungsprozessen und<br />

die Zuteilung von Verifizierungsprojekten wurde erheblich vereinfacht.<br />

Die Kontrolle über Prozesse und Verifiziererverfügbarkeit ist zu jedem<br />

Zeitpunkt gegeben.<br />

für Rückfragen: brigitte.herrmann@siemens.com,<br />

moettli@nlgworldwide.com<br />

186<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 4<br />

Fachvortrag<br />

Der Widerspenstigen Zähmung:<br />

Abteilungsübergreifender QM-Prozess<br />

Dr. Robert Wenzel, Panasonic Electric Works Europe AG, Holzkirchen<br />

„Die Übersetzung beginnt mit der Texterstellung“, itl Kundenmagazin<br />

Ausgabe 10 07/12 „Übersetzungsmanagement 3.0 – neue Wege, neue<br />

Herausforderungen“, S. 3<br />

„Insgesamt sollten Technische Redakteure sich verstärkt überlegen, ob<br />

sie weiterhin ein Schattendasein als Schreibprofi fristen wollen oder ob<br />

sie über die Dokumentationsabteilung hinaus Verantwortung für das Informations-<br />

und Wissensmanagement übernehmen möchten.“ Dr.-Ing.<br />

Wolfgang Sturz., technische kommunikation Ausgabe 4/<strong>2012</strong>, „Wissen<br />

teilen macht Unternehmen wertvoller“, S. 30.<br />

Technische Redakteure kümmern sich seit jeher um verständliche Inhalte<br />

und nicht selten um deren Übersetzung. Wir sind oft die ersten,<br />

die Übersetzungswerkzeuge in einem Unternehmen einsetzen, und so<br />

kommt es, dass auch Aufträge anderer Abteilungen auf unseren Tischen<br />

landen. Spätestens dann muss für effektive Abläufe zwischen den beteiligten<br />

Abteilungen gesorgt werden.<br />

Technische<br />

Dokumentation<br />

E-Business<br />

Historisch gewachsene Abläufe<br />

Seit mehr als 10 Jahren arbeitet die Abteilung Technische Dokumentation<br />

mit einem Content- und Lokalisierungsmanagementsystem (CMS).<br />

Mit einer Fachübersetzerin an Bord, die für Ordnung sorgt und der ich<br />

unsere Abläufe zum größten Teil verdanke, waren aber gute Übersetzungsabläufe<br />

schon vorher etabliert. Eine „Kontrollübersetzung“ erwies<br />

sich als unabdingbar und war mit dem CMS, dessen Topics und einer<br />

ausgefeilten Statusverwaltung auch leicht zu steuern. Wir hatten die<br />

multisprachliche, multimediale technische Dokumentation im Griff.<br />

Im Jahre 2006 wurde eine Abteilung für E-Business im Unternehmen<br />

aufgesetzt und wir waren plötzlich für einen abteilungsübergreifenden<br />

Übersetzungsprozess zuständig.<br />

Es dauerte ein gutes halbes Jahr, bis der Ablauf funktionierte. Die<br />

Produktmanager wollten, dass wir „einfach nur übersetzen“. Dass<br />

grundlegende Terminologiearbeit besonders bei Produkteinführungen<br />

schon vor der Übersetzung erforderlich war, war den meisten lästig. E-<br />

Business hatte wenig Verständnis für das notwendige Hin und Her und<br />

musste lernen, eine gewisse Vorlaufzeit einzuplanen. Erfreulicherweise<br />

funktioniert der Ablauf nun seit fünf Jahren fast reibungslos.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

187


Lokalisierung und Übersetzung / Localization<br />

Abteilungsübergreifender Arbeitsablauf für Webinhalte<br />

Werbung<br />

Von 2009 bis <strong>2012</strong> wurden im Rahmen einer europäischen Umstrukturierung<br />

die bisher eigenständigen Tochterunternehmen zu Vertriebsbüros<br />

umgebaut, was zu einer Schließung der einzelnen Werbeabteilungen<br />

führte. Die Werbeabteilung der Zentrale stand vor der ungeheuren<br />

Aufgabe, Werbemittel für ganz Europa bereitzustellen. Unser Expertenwissen<br />

war schon wieder gefragt, aber die Zusammenarbeit hat sich<br />

alles andere als einfach erwiesen. Hier stoßen zwei Welten mit unterschiedlichen<br />

Ansichten aufeinander.<br />

Technische Redakteure sind vom Mars, Werbefachleute von der Venus<br />

Wir hatten den Eindruck, es ist den Werbefachleuten egal, was geschrieben<br />

stand. Hauptsache, der Text sah schön aus. Dass Text „gelayoutet“<br />

wurde, was zu verseuchten Formatvorlagen und unzähligen Tags<br />

und deshalb zu deutlich weniger Übereinstimmungen im Translation<br />

Memory führte, sorgte immer wieder für Ärger. Auf der anderen Seite<br />

ernteten wir Häme und Spott für unser „schwarzes Gekritzl“ und rigide<br />

Vorgaben. Es war klar, dass ein abteilungsübergreifender Arbeitsablauf<br />

ausgearbeitet werden musste.<br />

Warum der erste<br />

Ablauf versagte<br />

Der erste Arbeitsablauf für die Erstellung von Werbemitteln<br />

Nach Monaten diverser Überlegungen und Verhandlungen trat der erste<br />

Ablauf im Januar 2011 in Kraft. Leider hatte er kaum Erfolg.<br />

Für das Scheitern des ersten Ablaufs gibt es mehrere Gründe. Sie seien<br />

zur Warnung hier genannt:<br />

−−<br />

Es war nicht klar definiert, ob die Werbeabteilung oder das Produktmanagement<br />

bei der Auftragserteilung das Kickoff-Meeting<br />

einberufen sollte. Dies führte dazu, dass wir erst von einem Projekt<br />

erfuhren, wenn wir den Übersetzungsauftrag erhielten. Das ist jedoch<br />

zu spät.<br />

188<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

−−<br />

Die Harmonie zwischen der Werbeabteilung und der Technischen<br />

Dokumentation war gestört. Jeder wollte seine alten Kompetenzen<br />

verteidigen und keine Verantwortung abgeben.<br />

−−<br />

Die Werbefachleute erhielten keine gemeinsame Schulung für die<br />

übersetzungsgerechte Texterstellung.<br />

−−<br />

Der Ablauf war zu kompliziert.<br />

−−<br />

Das Produktmanagement wurde nicht ausreichend informiert und<br />

geschult.<br />

Der zweite Anlauf, Prozessmanagement<br />

Ende 2011 führte die Technische Dokumentation eine Schulung zur Erstellung<br />

von Text in Adobe InDesign und Illustrator für alle Mitarbeiter<br />

der Werbeabteilung durch.<br />

Auszug aus der Checkliste für Adobe Design<br />

Die Texte wurden daraufhin besser, aber bei weitem nicht optimal. Es<br />

fehlte zum einen das Grundverständnis für übersetzungsgerechtes<br />

Schreiben und übersetzungsgerechte Struktur, aber es fehlte auch jemand,<br />

der den Prozess durchsetzen konnte.<br />

Im Sommer <strong>2012</strong> wurde der bestehende ISO-Ablauf in einen Prozess<br />

nach der „Business Process Modeling Notation“ (BPMN) umgestellt und<br />

modifiziert. Im Gegensatz zu den bisherigen ISO-Abläufen, die grundsätzlich<br />

von den einzelnen Abteilungen aufgesetzt wurden und die<br />

eigenen internen Prozesse teilweise sehr oberflächlich dokumentierten,<br />

wurden dabei alle Beteiligten zusammengerufen, um die einzelnen<br />

Schritte durchzusprechen, Unklarheiten zu beiseitigen und Prozessverantwortliche<br />

klar zu definieren.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

189


Lokalisierung und Übersetzung / Localization<br />

Übersicht des Ablaufs nach BPMN<br />

In meinem Vortrag möchte ich diesen mehrseitigen abteilungsübergreifenden<br />

Prozess vorstellen, der von der Abteilung Quality Management<br />

abgenommen wurde. Die sich ergebenden Synergieeffekte zwischen<br />

den Abteilungen Technische Dokumentation, Werbung und Produktmanagement<br />

werden dargestellt. Insbesondere wird der Nutzen von Terminologiemanagement,<br />

Translation Memorys und Freigaben erläutert.<br />

Ich hoffe, bis zur <strong>tekom</strong> eine positive Bilanz ziehen zu können.<br />

für Rückfragen: robert.wenzel@eu.panasonic.com<br />

190<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 5<br />

Fachvortrag<br />

MTM: Wie sollte eine echte Integration<br />

zwischen MT und TM aussehen?<br />

Jörgen Danielsen, Eule Lokalisierung GmbH, Kiel<br />

Harald Elsen, Delta International CITS GmbH, Bonn<br />

Sowohl für die professionelle Nachbearbeitung von maschinell vorübersetzten<br />

Texten (das Post-Editing) als auch für die Verbesserung einer<br />

vollautomatisch erstellten Informationsübersetzung ist die Verknüpfung<br />

der maschinellen Übersetzung (MT) mit einem Translation Memory<br />

(TM) sehr sinnvoll.<br />

Auf den ersten Blick ist alles sehr einfach: Entweder lässt man alles von<br />

der MT vorübersetzen und fügt das Ergebnis dem TM hinzu oder man<br />

veranlasst das TM, jedes Segment an die MT zu schicken und die so<br />

erhaltene Übersetzung als (weiteren) Vorschlag zu nutzen.<br />

Wo ist also das Problem und warum gibt es einen Fachvortrag darüber?<br />

Bei genauerer Betrachtung sieht man Fallstricke und Details, die eine<br />

qualitativ hochwertige und wirtschaftlich vorteilhafte Lösung erschweren<br />

oder verhindern. Wir beschreiben in diesem Vortrag verschiedene<br />

Problemkreise und zeigen exemplarisch Lösungen auf. Zu diesen Problemkreisen<br />

gehören:<br />

−−<br />

Formatfragen<br />

−−<br />

Quellformate der zu übersetzenden Texte und deren Behandlung<br />

−−<br />

Segmentierung<br />

−−<br />

Segmentinterne Formatierungen<br />

−−<br />

Eigennamen, Funktionswörter etc.<br />

−−<br />

Ablauffragen<br />

−−<br />

Ausführung der MT-Vorarbeiten<br />

−−<br />

Steuerung der MT-Einstellungen (Sprachen, Fachgebiete usw.)<br />

−−<br />

Integration der MT-Ausgabe in das TM<br />

−−<br />

Übersetzungs-/Post-Editing-Umgebung<br />

−−<br />

Nicht-disruptive Änderung des Arbeitsplatzes und der Arbeitsweise<br />

des Übersetzers<br />

−−<br />

Erleichterung der Entscheidungsfindung<br />

−−<br />

Vorbereiten des Post-Editings<br />

−−<br />

Memory Pollution<br />

−−<br />

Verknüpfung von TM & MT im vollautomatischen Prozess<br />

Zu all diesen Fragen liefern wir Beispiele, um damit konkrete Probleme<br />

und (mögliche) Lösungen herauszuarbeiten.<br />

Berücksichtigt man den Kostendruck in der Übersetzung und die daraus<br />

resultierenden kleinen Margen, kann nur ein vollständig optimierter<br />

Prozess zu einer Verbesserung führen. Daher sind eine genaue<br />

Überprüfung der obigen Fragen und die entsprechende Prozessanpassung<br />

für den Erfolg oder Misserfolg der MT-Anwendung entscheidend.<br />

Am Ende des Vortrags führen wir eine vorhandene Integration zwischen<br />

einem MT-System (Lucy LT) und einem TM (SDL Studio 2011)<br />

vor und zeigen anhand dieses Beispiels, welche Herausforderungen und<br />

Lösungsmöglichkeiten es gibt.<br />

für Rückfragen: jdanielsen@eule-l10n.com, harald.elsen@dicits.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

191


Lokalisierung und Übersetzung / Localization<br />

LOC 6<br />

Fachvortrag<br />

Möglichkeiten und Grenzen<br />

computerunterstützter Qualitätssicherung –<br />

ein Praxisvergleich<br />

Andreas Ljungström, euroscript Deutschland GmbH, Berlin<br />

Computergestützte Qualitätssicherung ist aus dem Alltag professioneller<br />

Übersetzer nicht mehr wegzudenken. Die Prüfmethoden in den<br />

CAT-Tools haben sich den immer anspruchsvolleren Übersetzungsprozessen<br />

angepasst und bieten dem Übersetzer mittlerweile eine Vielzahl<br />

an unterschiedlichen Einstellungsmöglichkeiten und Prüfszenarien.<br />

Der korrekte Umgang mit den Qualitätssicherungsmethoden will jedoch<br />

gelernt sein, denn durch falsche Bedienung oder lückenhafte Einstellungen<br />

können Übersetzungsfehler unentdeckt bleiben. Ein Blick in die<br />

Qualitätssicherung aus Sicht des Übersetzers mit Beispielen aus der<br />

Technischen Dokumentation in Across, Transit NXT und SDL Studio.<br />

Die folgenden Fragestellungen werden betrachtet:<br />

−−<br />

Welche Möglichkeiten der Qualitätssicherung bieten die Systeme?<br />

−−<br />

Wo liegen ihre Grenzen?<br />

−−<br />

Welche sprachspezifischen Probleme ergeben sich aus welchen Prüfmethoden<br />

und wie kann der Benutzer mit ihnen umgehen?<br />

Wer entscheidet über die Qualitätssicherung?<br />

Nicht immer kann der Übersetzer über die Qualitätssicherung seiner<br />

Übersetzung frei verfügen. Viele Auftraggeber geben Prüfeinstellungen<br />

zur Qualitätssicherung vor, mit der Absicht, die Validität jedes Dokuments<br />

über die gesamte Übersetzungskette hinweg zu gewährleisten<br />

– wie im Falle von XML-Übersetzungen. Dies ermöglicht zwar eine<br />

einheitliche und nachvollziehbare Qualitätssicherung auf Auftragnehmerseite,<br />

kann dem Übersetzer jedoch in der Praxis auch ein Bein stellen,<br />

falls diese Einstellungen Prüfkriterien vorgeben, die ihn zu Workarounds<br />

zwingen oder mit irrelevanten Meldungen bombardieren. Ein<br />

sogenanntes Pflichtkriterium in der Qualitätsprüfung, das bei Verletzung<br />

einen Abschluss der Übersetzung verhindert, sollte entsprechend<br />

wohlüberlegt eingesetzt werden: Ist die Terminologieprüfung oder gar<br />

die Überprüfung der Inline-Objekte als obligatorisch eingestuft, wie das<br />

zum Beispiel in Across möglich ist, muss der Übersetzer für jede vermeintliche<br />

Verletzung solcher Pflichtkriterien durch das Einfügen eines<br />

Kommentars eine zusätzliche Bestätigung der Korrektheit der Übersetzung<br />

angeben, um den aktuellen Übersetzungsauftrag überhaupt abschließen<br />

zu können.<br />

In den neuesten Versionen der drei hier behandelten CAT-Tools werden<br />

Übersetzungsaufträge grundsätzlich in Form von Projekten verwaltet,<br />

die je nach Übersetzungsprozess auf Auftraggeber- oder auf Auftragnehmerseite<br />

entstehen. Ein bedeutender Vorteil dieses Vorgehens im<br />

Hinblick auf die Qualitätssicherung liegt darin, dass globale Projekteinstellungen<br />

gleichzeitig für alle Projektsprachen definiert werden und<br />

somit erheblichen Einstellungsaufwand auf Übersetzerseite einsparen.<br />

Außerdem sorgen sie dafür, dass dem Übersetzer ein Mindestmaß an<br />

Prüfkriterien vorgegeben wird, auch wenn der Übersetzer sie in zum<br />

Beispiel SDL Studio oder Transit NXT durchaus umgehen kann. Der<br />

192<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

moderne technische Übersetzer muss demnach sehr anpassungsfähig<br />

sein, sich mit den unterschiedlichen Qualitätssicherungsprozessen auskennen<br />

und stets projektorientiert denken.<br />

Terminologieprüfung<br />

Der Teufel steckt in den Optionen<br />

Egal ob vorgegeben oder vom Übersetzer definiert, vielfältige Prüfoptionen<br />

in den CAT-Tools ermöglichen sehr unterschiedliche Prüfszenarien,<br />

weshalb ein sprachspezifischer Ansatz oftmals der richtige Weg ist. Im<br />

Folgenden werden ausgewählte Prüfkriterien näher beleuchtet.<br />

Vom Prinzip her ist die Terminologieprüfung eine klare Sache: Wird ein<br />

Terminus im Ausgangssegment bis zu einem definierten Unschärfegrad<br />

erkannt, wird geprüft, ob ein im Wörterbuch vorgegebener Zielterminus<br />

in der Übersetzung enthalten ist. Bei den statistisch arbeitenden CAT-<br />

Tools wird dabei oftmals selbst ein Terminologieeintrag mit einem Ausgangsterminus<br />

und einem eindeutig zugewiesenen Zielterminus nicht<br />

erkannt, wenn der morphologische Unterschied zwischen Terminus im<br />

Wörterbuch und im Ausgangstext zu groß ist. Besonders häufig ist dies<br />

bei agglutinierenden Sprachen wie Finnisch oder Türkisch der Fall. Ein<br />

weiterer Stolperstein sind Komposita, bei denen die einzelnen Wortglieder<br />

nicht erkannt und damit das Kompositum als vermeintlicher Fehler<br />

eingestuft wird. Aus demselben Grund werden deklinierte Substantive<br />

im Zieltext als abweichend von der vorhandenen Terminologie vom<br />

Prüfalgorithmus bewertet wie im folgenden Beispiel für Türkisch:<br />

Die Deklination des Zielterminus im Türkischen führt zu einem<br />

Terminologiefehler<br />

Tag-Prüfung<br />

Bei Übersetzungen aus agglutinierenden Sprachen muss folglich der<br />

Übersetzer den Unschärfegrad entsprechend erhöhen, damit deklinierte<br />

Termini überhaupt erkannt werden. Im Systemvergleich ist SDL<br />

Studio toleranter als Across in Hinblick auf die morphologische Abweichung<br />

im Zielsegment.<br />

Alle drei CAT-Tools bieten zumindest für MS Office-Formate die<br />

Möglichkeit, im Zielsegment oder gar im Ausgangssegment Formatierungstags<br />

für beispielsweise fett, kursiv oder unterstrichen einzufügen.<br />

Arbeitet der Übersetzer dabei nicht sorgfältig oder ist die<br />

Tag-Ansicht minimiert, läuft er Gefahr, eine schlecht formatierte Übersetzungseinheit<br />

im Translation Memory zu hinterlassen, da das TM<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

193


Lokalisierung und Übersetzung / Localization<br />

Formatierungsunterschiede abspeichert, auch wenn sie für den Zieltext<br />

irrelevant sein können. In der Folge kann dies zu unnötigem Bearbeitungsaufwand<br />

in zukünftigen Übersetzungsaufträgen führen. In diesem<br />

Sinne ist die Überprüfung von Formatierungstags nicht nur im Zieltext<br />

von Wichtigkeit.<br />

Oben minimale Tag-Ansicht (WYSIWYG), unten dieselbe Übersetzungseinheit<br />

mit Formatierungsfehlern<br />

Für Dateien mit Formatierungstags bieten die drei Tools vergleichbare<br />

Prüfmöglichkeiten. Across und SDL Studio können sämtliche Prüfkriterien<br />

in Echtzeit beim Bestätigen eines Segments prüfen, was in Transit<br />

NXT nicht möglich ist.<br />

Für den fortgeschrittenen Benutzer stellen Prüfkriterien basierend auf<br />

regulären Ausdrücken eine interessante Erweiterung der computerunterstützten<br />

Qualitätssicherung dar. Zum Beispiel lassen sich mittels<br />

eines selbst geschriebenen regulären Ausdrucks in SDL Studio oder<br />

in Transit NXT E-Mails oder Internetadressen sowie Sonderzeichen<br />

oder bestimmte Buchstaben- und Zahlenkombinationen auf Konsistenz<br />

(Vergleich zwischen Ausgangs- und Zieltext) oder auf korrekte Lokalisierung<br />

(http://...co.uk vs. http//...de) überprüfen.<br />

Weil es kein mustergültiges Prüfverfahren gibt, das zu allen Übersetzungsworkflows<br />

passt, sollten auch bestehende Prüfverfahren bei jedem<br />

neuen Übersetzungsauftrag kritisch betrachtet werden. Erst wenn<br />

sämtliche Eckdaten für das Projekt vorliegen, wie sprachspezifische<br />

und dokumentspezifische Anforderungen sowie Konventionen für<br />

Zahlen und Maßeinheiten, können die optimalen Einstellungen für die<br />

Qualitätssicherung vorgenommen werden.<br />

andreas.ljungstroem@euroscript.de<br />

194<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 7<br />

Fachvortrag<br />

Datenqualität –<br />

Anforderungen<br />

Datenqualität im Ausgangstext:<br />

Formatierungsqualität unter der Lupe<br />

Johann Plennert, STAR AG, Ramsen, Schweiz<br />

Das Ziel der Betrachtungen ist die Vereinfachung des Übersetzungsprozesses<br />

und die Kostenbegrenzung beim Einsatz von Translation<br />

Memory.<br />

Gute Datenqualität, gut formatierte Dokumente, haben einen erheblichen<br />

Einfluss auf die Aufwände, wie die Daten nach Übersetzung mit<br />

Translation Memory weiterverarbeitet werden müssen.<br />

Um die Datenqualität zu definieren, sollten vorab Fragen über Verwendung<br />

und Wiederverwendung der zu erstellenden Daten geklärt sein.<br />

−−<br />

Welche Information wird zu welchem Zeitpunkt von wem benötigt?<br />

Zuverlässigkeit und Wahrheitstreue der Datenkommunikation zwischen<br />

Konstruktion und Redaktion.<br />

−−<br />

Informationsqualität ist nicht gleichzusetzen mit Datenqualität, sondern<br />

die Informationsqualität ist Teil der Datenqualität.<br />

−−<br />

Wie ist die Prozessabfolge der Informationsverwertung?<br />

−−<br />

Sind die Informationen zur Qualitätssicherung allen Prozessbeteiligten<br />

zugänglich und bekannt? Verfügen sie auch über das Wissen<br />

dazu und besitzen sie die entsprechenden Fähigkeiten?<br />

−−<br />

Welche Risiken birgt der Prozess und lassen diese sich ermitteln und<br />

vermeiden?<br />

−−<br />

Existiert ein Leitfaden zu dem Prozess und sind die Qualitätsvorgaben<br />

für jeden Prozessschritt in einem Guide festgehalten?<br />

Was sind Daten?<br />

Diese Frage ist nur in ausführlichen Darstellungen zu beantworten<br />

und kann hier auf einen sehr kleinen Bereich eingegrenzt werden. Die<br />

Daten, die hier behandelt werden, beziehen sich auf die Technische<br />

Dokumentation, auf Datenblätter, Ersatzteilkataloge usw. Diese Daten<br />

enthalten Wissen, also eine Menge von Aussagen, die als Wahrheit angenommen<br />

werden und auch wahr sind.<br />

Dieses Wissen soll vermittelt werden, und zwar in Form von<br />

Fachliteratur.<br />

Da von Ausgangsdaten gesprochen wird, liegt es auf der Hand, dass<br />

diese übersetzt werden, also weiterverarbeitet werden. Wovon hängt die<br />

Datenqualität ab?<br />

−−<br />

Die Anforderungen an die Datenqualität hängen von der eingesetzten<br />

Technologie ab.<br />

−−<br />

Die damit eingesetzten Prozesse beeinflussen die Datenqualität.<br />

−−<br />

Die Prozess ausführenden Mitarbeiter haben größten Einfluss auf die<br />

Qualität der Daten.<br />

Zur Sicherung der Datenqualität haben wir also einen Kreislauf, bei<br />

dem eine Technologie Prozesse bestimmt, die von Mitarbeitern ausgeführt<br />

werden.<br />

Eine Definition allein reicht aber nicht aus. Es muss ein klar definierter<br />

Plan, eine klar definierte Vorgehensweise vorliegen. Andernfalls<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

195


Lokalisierung und Übersetzung / Localization<br />

können eventuell Qualitätsmängel entstehen, z. B. verursacht durch<br />

übergangene bzw. nicht beachtete Prozessschritte, gar durch doppelt<br />

ausgeführte Tätigkeiten.<br />

Des Weiteren sind zur Sicherung der Datenqualität der bzw. die Verantwortlichen<br />

zu benennen und mit den entsprechenden Kompetenzen<br />

auszustatten. Den Verantwortlichen muss stets klar sein, welche Auswirkungen<br />

schlechte Datenqualität haben kann.<br />

So viel Layout wie<br />

nötig und so viel<br />

Layout wie möglich<br />

Dabei müssen die<br />

Gesetze der Gestaltung,<br />

Typografie- und<br />

Layoutvorgaben<br />

beachtet werden.<br />

Ansätze<br />

−−<br />

Kann ich die Formatierungsqualität messen?<br />

−−<br />

Wie kann ich die Formatierungsqualität messen? Habe ich Werkzeuge<br />

dazu?<br />

−−<br />

Gibt es einen Standard? Wer kann mir helfen?<br />

−−<br />

Brauche ich dafür ein Qualitätsmanagement?<br />

Bei der Arbeit des Redakteurs oder des Layouters sind Zwänge und<br />

Freiheiten zu beachten und einzuhalten. Sind Normen einzuhalten oder<br />

darf man sie umgehen?<br />

Die Aufgabe, mit deren Ergebnis wir uns beschäftigen, lautet demnach,<br />

aus Text und Grafiken ein Dokument zu schaffen.<br />

Darstellung des Formats und des Aussehens entspringen subjektiven<br />

Beurteilungen und Darstellungen.<br />

Gute Typografie lädt zum Lesen ein, schlechte Typografie kann verheerende<br />

Folgen haben in der Technischen Dokumentation.<br />

Vor allem ist nicht außer Acht zu lassen, dass es bei der Formatierungsqualität<br />

auf Punkt, Komma und Strich ankommt.<br />

Argumente für gute Formatierungsqualität<br />

Durch konsequente Vorgehensweise kann neben der Vermeidung von<br />

Fehlern die Qualität erheblich verbessert werden. Dazu sollten im Ansatz<br />

folgende Punkte beachtet werden:<br />

−−<br />

Firmenstandards, Parameter zur Formatierung und Qualität sowie der<br />

Arbeitsweise sollten klar definiert sein.<br />

−−<br />

Ein Outsourcing diverser Aufgaben der Formatierung an kompetente<br />

Partner, die über das entsprechende Know-how verfügen, kann sinnvoll<br />

und kosteneffizient sein.<br />

−−<br />

Es müssen Gesetze, Normen eingehalten und Richtlinien sowie Styleguides<br />

definiert werden.<br />

−−<br />

Die Styleguides sollen in die Redaktionsleitfäden integriert sein und<br />

es müssen entsprechende Arbeitsanweisungen erteilt werden.<br />

−−<br />

Die praktische Erfahrung und der Ausbildungsstandard der Mitarbeiter<br />

spielen eine erhebliche Rolle bei der Formatierungsqualität.<br />

−−<br />

Die Ersteller der Ausgangsdokumente müssen Kenntnis über die<br />

Styleguides für Fremdsprachen haben und diese schon von Anfang<br />

an beachten.<br />

Formatierungsqualität als Endziel?<br />

Nein! Formatierungsqualität ist nicht das Endziel unserer Arbeit in<br />

der TD. Und das darf man nicht aus dem Auge verlieren. Die Formatierungs-<br />

bzw. die Datenqualität hilft dem Unternehmen bessere<br />

196<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Als Empfehlung<br />

Dokumentation zu erstellen und finanzielle Konsequenzen niedrig zu<br />

halten.<br />

Die Formatierungsqualität sollte daher eine geplante Maßnahme sein,<br />

die nur dann effektiv ist, wenn sie dauerhaft und gewissenhaft angewandt<br />

wird.<br />

Die Eignung und die Qualität der Daten kann eine andere zum Zeitpunkt<br />

der Erfassung der Daten sein und zum Zeitpunkt der Weiterverwendung<br />

können andere Qualitätsansprüche gelten.<br />

Demnach sind Datenqualität und Formatierungsqualität, einfach gesagt,<br />

die Korrektheit der Daten aufgrund von individuell definierten Anforderungen,<br />

die als Ziel Zeit- und Kostenreduktion haben sollen.<br />

Prüfen hat sich immer gelohnt und zusätzliche Kosten gespart.<br />

Es kann nur empfohlen werden, in die Styleguides oder Richtlinien<br />

Checklisten aufzunehmen, die eine Formatierungsqualität sichern<br />

und die Bearbeitung der Daten mit einem TM effektiver und leichter<br />

machen.<br />

für Rückfragen: johann.plennert@star-group.net<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

197


Lokalisierung und Übersetzung / Localization<br />

LOC 8<br />

Presentation<br />

Highlights, Holes in and Hopes<br />

for the “Multilingual Web”<br />

Richard Ishida, W3C<br />

Christian Lieske, SAP AG<br />

Jan Nelson, Microsoft<br />

Felix Sasaki, DFKI<br />

Introduction<br />

Lead by the World Wide Web Consortium (W3C), and funded by the European<br />

Commission, participants from many areas relevant to content<br />

provisioning (content producers, browser vendors, localizers, language<br />

technology experts etc.) ran four W3C Workshops as part of the “Multi-<br />

LingualWeb” Thematic Network. Their goal was to spread information<br />

about what best practices, standards and implementations for multilingual<br />

information on the web currently exist, and what gaps need to<br />

be filled. The aim was to touch on all aspects of creating, localizing and<br />

deploying the Web multilingually. The following paragraphs sketch the<br />

Thematic Network, the workshops, and some highlights. These include<br />

translation-related changes to HTML5, in-situ browser-based translation,<br />

and enhanced standard support in mainstream development<br />

tools. In addition, tangible results from the network’s activity will be<br />

mentioned.<br />

The Thematic Network<br />

Today, the World Wide Web (WWW) is fundamental to communication<br />

in all walks of life, and many technology stacks. As the share of English<br />

web content decreases and that of other languages increases, it is vitally<br />

important to ensure the multilingual success of the World Wide Web. In<br />

addition to English content becoming a smaller percentage, the geopolitical<br />

boundaries of language are also crumbling in many cases (see for<br />

example http://thewebindex.org/ which describes the usage of the internet<br />

in various countries). This further drives a need for multilingual<br />

capabilities.<br />

In order to address these language-related developments, the European<br />

Commission (EC) funded a so-called Thematic Network as part<br />

of the COMPETITIVENESS AND INNOVATION FRAMEWORK PRO-<br />

GRAMME ICT Policy Support Programme (ICT PSP) EU Initiative.<br />

The primary goal of the network – coordinated by the World Wide Web<br />

Consortium (W3C) – was to examine how the multilingual Web can be<br />

improved through standards and best practices. The core vehicle for the<br />

network – in which software players such as Microsoft, Facebook, Opera,<br />

and SAP as well as language service providers and language technology<br />

researchers participated – was a series of four events that were spread<br />

over two years.<br />

The Workshops<br />

The workshops brought together a very diverse set of people – attracted<br />

browser developers, content developers large and small, language technology<br />

experts, localizers, policy makers, standards developers and others.<br />

This holistic approach to discussing the issues of the multilingual<br />

198<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Web lead to many networking contacts and initiatives that would not<br />

have been possible before and to a much wider exposure to dependencies<br />

and synergies than most attendees had previously known.<br />

Each of the 1.5–2 days workshops (held in Madrid, Pisa, Limerick and<br />

Luxembourg; one of them co-located with a conference) attracted more<br />

attendees and speakers as foreseen – on average 100 attendees and 30<br />

speakers. The format aimed at presentations with accessible length with<br />

a lot of room for interaction. Topics were clustered under headings such<br />

as developers, creators, localizers, machines, users, and policy. Over time,<br />

the format was slightly adapted. In particular, Open Space discussion<br />

forums were introduced. A sponsorship program introduced by W3C<br />

helped amongst others to run social events for additional networking.<br />

The network made ample use of social media for disseminating news<br />

about the workshops. Besides the multilingualweb.eu site (450,000 hits<br />

during the first half of <strong>2012</strong> for home page) and mailing lists, it used<br />

dedicated Twitter, Facebook, LinkedIn and RSS feeds. Furthermore, the<br />

presenters were video recorded or even streamed live over the Web. In<br />

addition, minutes were taken instantaneously via Internet Relay Chat<br />

(IRC). The workshop reports have already proven to be a valuable resource.<br />

Each report links to slides, videos and the real-time IRC log of<br />

the event. Server logs indicate that around 180,000 page views per year<br />

per workshop report can be expected.<br />

Notable Aspects of the Workshops<br />

−−<br />

Importance of interoperability<br />

−−<br />

Talks from several of the major browser implementers<br />

−−<br />

Issues with multilingual Web technologies in various parts of the<br />

world<br />

−−<br />

Need to better use emerging technologies<br />

−−<br />

Need to work with users<br />

−−<br />

Presentations from several producers and users of very large content<br />

−−<br />

Discussions about the Semantic Web and Linked Open Data<br />

−−<br />

Standards for production processes<br />

−−<br />

User experience<br />

−−<br />

User generated content<br />

−−<br />

Special environments<br />

−−<br />

Content-related initiatives and trends<br />

−−<br />

Language Technology<br />

Tangible Results<br />

As indicated, the individual reports of the workshops (see http://multilingualweb.eu/documents)<br />

– summary, link to videos, slides and notes –<br />

have been proven to be a valuable resource.<br />

The recently started MultilingualWeb-LT (MLW-LT) project and the<br />

affiliated W3C Working Group grew out of the network, and maintained<br />

the policy of inclusiveness with the breadth of its stakeholder participation.<br />

MLW-LT took over the branding, processes and dissemination<br />

channels of the MultilingualWeb network, and has continued to run<br />

workshops in the same format.<br />

The project provided the opportunity for partners to discuss or become<br />

involved with a number of practical developments at the W3C. They<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

199


Lokalisierung und Übersetzung / Localization<br />

included an internationalization checker (to help developers/authors<br />

find information about HTML pages and spot issues; see http://validator.w3.org/i18nchecker),<br />

and information development of a test framework<br />

that allows the public to participate in reporting issues for browser<br />

support of internationalization features (based on the W3C internationalization<br />

test suite; see http://w3c-test.org/framework).<br />

The network on several occasions cross-fertilized the Network of the<br />

Multilingual Europe Technology Alliance (META-NET), a Network of<br />

Excellence that is dedicated to building the technological foundations<br />

of a multilingual European information society (see for example http://<br />

www.meta-net.eu/events/meta-forum-<strong>2012</strong>/report). The same holds<br />

for the Multilingual Semantic Web event in Dagstuhl (see http://www.<br />

dagstuhl.de/en/program/calendar/semhp/?semnr=12362) which originated<br />

from the EU project Monnet on Multilingual Ontologies for Networked<br />

Knowledge (see http://www.monnet-project.eu). The event was<br />

positioned at the intersection of natural language processing, machine<br />

translation, multilingual information and knowledge access and intensified<br />

the contact between various communities.<br />

Contact<br />

ishida@w3.org<br />

christian.lieske@sap.com<br />

Jan.Nelson@microsoft.com<br />

felix.sasaki@dfki.de<br />

200<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 11<br />

Presentation<br />

Almost all translation<br />

projects are urgent<br />

Treating translation<br />

as an integral part<br />

of an organization’s<br />

communication strategy<br />

High-speed translation<br />

is not a commodity<br />

Get service providers<br />

on-board early<br />

The need for speed: How to ensure<br />

the completion of your most urgent<br />

translation projects within three days<br />

Uwe Muegge, CSOFT International, Carmel, USA<br />

Today, almost all product-related translation projects are time sensitive.<br />

In the case of life sciences companies, some documents absolutely must<br />

be translated in the shortest amount of time and at the highest possible<br />

level of quality to prevent patients from coming to harm. This article illustrates<br />

how CSOFT International works with some of their large corporate<br />

clients to develop processes that, among other things, eliminate<br />

in-country translation review, and result, typically, in turn-around times<br />

of three days from receipt of source files to delivery of publishable<br />

documents.<br />

Making translation part of the overall communication<br />

plan results in streamlined translation<br />

Planning for translation from the outset of a project can be the single<br />

most important factor for speeding-up translation. Many of the steps<br />

discussed below (e.g. developing project-specific glossaries, style guides,<br />

document templates, etc.) are typically too complex, time-consuming<br />

and expensive to be performed on an ad-hoc basis for a single highpriority<br />

translation project. However, if maintaining multilingual glossaries<br />

and style guides is part of a global communication strategy, updating<br />

these resources, where necessary for a specific project, is generally<br />

much more feasible.<br />

Today, many corporate translation buyers treat translation as a commodity,<br />

and, consequently, use a transactional business model where individual<br />

translation projects are awarded via reverse auction to the lowest<br />

bidder. In an e-auction environment, depending on the size and duration<br />

of a project, it may be difficult to align processes, schedules, and<br />

resources between the translation buyer and language service provider.<br />

If, on the other hand, the buyer and the provider of translation services<br />

form a strategic partnership, it is much easier for the service provider to<br />

establish and maintain client-specific resources and workflows. In this<br />

type of environment, a language service provider typically uses a team<br />

of professionals who, based on continuous exposure and – ideally –<br />

product training, knows the client’s products and/or services inside out.<br />

For many projects, it’s not uncommon for language service providers<br />

to learn about a new translation project the day it shows up in their<br />

inbox. If that project has a tight deadline, the only option available to<br />

most translation service providers is to distribute the work to many linguists<br />

simultaneously, which might negatively impact the quality of the<br />

deliverables.<br />

However, if a translation buyer coordinates his or her efforts with the<br />

language service provider early in the project stage, additional options<br />

for early delivery become available. For instance, linguists may successively<br />

translate text as authors create it or revise translations in sync<br />

with changes in the source. In this scenario, even a single translation<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

201


Lokalisierung und Übersetzung / Localization<br />

professional may be able to not only complete a large project but deliver<br />

the final translation mere hours after the source text has been finalized.<br />

Up-to-date, projectspecific<br />

termbases<br />

are a must<br />

Client review of<br />

glossaries is as<br />

underutilized as<br />

it is powerful<br />

Translation style guides<br />

are as important as style<br />

guides for the source<br />

Controlled terminology helps translators getting it right the first time<br />

Few factors have a more detrimental effect on the timely completion of<br />

a translation project than discussions about the correct use of terminology<br />

that often occur without the availability of a comprehensive glossary.<br />

The translator uses ‘USB stick’, the editor prefers ‘USB drive’ and the<br />

reviewer insists on ‘flash drive’. With a comprehensive, project-specific<br />

glossary, these unnecessary, expensive and, above all, time-consuming<br />

controversies are a thing of the past. While every translation project (in<br />

fact, every communication project) benefits from the availability of a<br />

glossary, the advantages are most apparent in rush jobs: translators can<br />

focus on translating, thereby maximizing the translators’ productivity<br />

instead of spending valuable time on terminology research.<br />

Having a project-specific, multilingual glossary available in electronic<br />

form early in the project is good; having such a glossary with the client’s<br />

stamp of approval is even better. For terminology matters in particular,<br />

the old adage applies: the customer is always right! No matter how wellresearched<br />

a glossary the service provider creates, if the client prefers<br />

other terms, changes will have to be made in the translation. To avoid<br />

these types of change requests, the best course of action is to create and<br />

update the glossary early in the project, have the client sign-off on it,<br />

and make that glossary available to translators as soon as possible. Following<br />

this strategy ensures that translators not only use terminology<br />

consistently, but that they use the ‘right’ term every time, which reduces<br />

time spent editing and reviewing. For clients who have a recurring need<br />

for fast turnaround and high-quality translations, playing an active role<br />

in creating and continuously updating multilingual glossaries is a must.<br />

Detailed style guides help avoid unnecessary corrections<br />

One of the overarching goals in every rush project is to eliminate repetitive<br />

work and the risk of corrections – in other words, enable team<br />

members to do it right the first time. So how do you make sure a translation<br />

meets the client’s expectations? By using the client’s approved<br />

translations (via a translation memory system), by using the client’s<br />

approved terminology (via a terminology management system), and by<br />

following the client’s translation style guide. But wait: most clients don’t<br />

have a style guide for each language for which they buy translation services!<br />

That is typically not a problem, as, in the absence of a formalized<br />

set of rules, reviewers on the client side are usually happy to come up<br />

with one of their own. If speed is of the essence, however, a languagespecific<br />

style guide is an effective tool for avoiding post-translation<br />

changes concerning capitalization, representation of numbers and the<br />

like. Who should write these style guides? Ideally, the person or people<br />

who typically perform translation review on the client side. If that is not<br />

an option, creating client-specific translation style guides is a service<br />

many language service providers offer. And while the creation of a style<br />

guide does cost money, it is typically a minor investment that has a high<br />

pay-off, especially in terms of time savings.<br />

uwe.muegge@csoftintl.com<br />

202<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 12<br />

Presentation<br />

An Organic Mechanism: Effective Localization<br />

QA in Agile Development Environments<br />

Alberto José Viralhadas Ferreira, Avira Operations GmbH & Co. KG, Germany<br />

Agile development environments pose their own set of problems. The<br />

continuous delivery, even with maintenance projects, pushes localization<br />

departments to the forefront of the development cycle process and<br />

can quickly expose problems in the localization chain and pose new<br />

challenges that can compromise the validity of the methodology process<br />

in your current organization.<br />

Environments that do not enforce collaboration can be hindered by<br />

localization frequently being linked to the end-of-chain stage, interspersing<br />

time constraints with role diffuseness, leading to severe quality<br />

compromises in most cases. Since Agile demands constant proactiveness,<br />

responsiveness and the ability to adapt to changing situations,<br />

testing is a critical part of localization and the entire product internationalization<br />

process. The production process is effectively never over<br />

as long as the project is on-going, which means that late requirement<br />

change is an expected and even desirable cog in a chain that relies on<br />

communication and stable interchange of information. While monolithic<br />

development and requirement unspecificity often compromise results<br />

in traditional development structures, Agile’s focus on productivity and<br />

decomposable work items enables a richer and more quality-oriented<br />

development process. Testing is often regarded as the most complex<br />

process in localization implementation, but Agile can actually ease this<br />

burden as long as preparation and integration are emphasized.<br />

Designing Agile<br />

User Stories as engine<br />

of adaptation<br />

Localization Testing Pre-Planning<br />

Any User Story implemented in a product has several components that<br />

demand different expertise from a multi-specialized team, which can<br />

be either contained in different departments or, optimally, working exclusively<br />

together on given parts of the product. In this setting, product<br />

localization is a concern from the get-go thanks to constant involvement<br />

with the core development team and product stakeholders. Project management<br />

duties are distributed and the Product Owner’s vision is instrumental<br />

in the whole process.<br />

From a design point of view, localization must be one of the stakeholders<br />

in the User Story if it is determined that it affects any kind of<br />

text resources in the application, either directly (i.e. text changes) or<br />

indirectly (i.e. impact on UI design or graphic arrangement). From a<br />

maintenance point of view, this relies on pre-planning and resource assignment<br />

from an early stage. Localization is the primary link between<br />

a software application and its international marketability, and should<br />

be taken into account as early as possibly in the software development<br />

process.<br />

For companies in transition from waterfall to Agile, User Stories can follow<br />

an acceptance criteria and function like small, manageable requirements.<br />

In these cases, ensure that localization is well represented in<br />

the final constellation of the project specs submitted and that usability<br />

assessments are taken in account. In case your User Stories follow the<br />

INVEST model (Independent, Negotiable, Valuable, Estimable, Small,<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

203


Lokalisierung und Übersetzung / Localization<br />

Testable) or similar, localization must be a negotiable, continuously<br />

responsive and evolved department in line with the corporate culture.<br />

For all the emphasis on de-regulation and adaptivity, Agile is actually<br />

a fairly well-bound field with a set of principles that can be replicated<br />

throughout projects.<br />

Why is this important? Partly, because a better representation will aid<br />

in the integration of accurate localization QA services in the software<br />

development mainline and save effort at an early stage that would<br />

eventually go in the test pipeline and allows you to establish a good test<br />

strategy that involves all four levels of software development: planning,<br />

implementation, regression and deployment.<br />

User Stories as engine<br />

of adaptation<br />

Integrating automated<br />

and manual testing<br />

Asserting Test Strategy and Matrixes<br />

When creating a test strategy, you have to accurately define the QA processes<br />

and their integration in the lifecycle. An early involvement and<br />

understanding of specs, requirements and the product scope will feed<br />

the production of an accurate test matrix, complete with pre-assumed<br />

configurations and locales, starts at the User Story creation level, where<br />

the product scope actually materializes.<br />

At its drafting, the User Story already needs to integrate localizability<br />

and internationalization concerns, by way of specific linguistic and<br />

functional testing. These criteria are an integral part of the final acceptance<br />

process and the successful implementation of the User Story must<br />

be predicated on its fulfilment.<br />

The test strategy also has to take into account the responsibility when<br />

decentralizing that comes with Agile practice: the contact points can<br />

be multiple and, in case of dedicated testing teams, the syncing between<br />

the localization functionality testing team and other functionality<br />

teams must be carefully established in order to avoid discrepancies or<br />

redundancy.<br />

Localization Testing Methodologies<br />

Another issue is that regression must be mitigated through unit testing<br />

and automation as early as possible. Given the tight timelines involved<br />

in Agile development, preliminary localizability testing must be done in<br />

advance before the implementation of the User Story in order to reduce<br />

effort with later regression and workflow adjustments.<br />

The implementation of different testing methodologies depends on the<br />

resource availability and the project needs. On the tool level, an integrated<br />

test and development environment, as well as common issue<br />

tracking systems, is a pre-requirement for valid reporting, as well as the<br />

configuration and implementation of specific automatic testing.<br />

Specifically, automation is essential on the source code level, where<br />

the semantics of string implementation are initially checked. In a testdriven<br />

development environment, development unit tests are routinely<br />

run during program compiling and building, and can already provide<br />

reports on missing and incorrectly implemented application strings.<br />

Automation can also assist with specific user interface issues, as well as<br />

functional text issues such as script rendering, blacklists and hotkeys.<br />

204<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Hybrid testing with automated and manual approaches can also highlight<br />

specific problems in the user interface, where the control layout is<br />

somehow flawed or incorrect, or the rendering of the character locale,<br />

especially on bidirectional languages. This method is particularly suitable<br />

to in-context review, unlike the more typical screenshot review.<br />

Moreover, it avoids the time-wasting meanderings of exploratory testing.<br />

Test coverage and test<br />

plan optimization<br />

Types of testing<br />

Continuous deployment<br />

and testing<br />

Localization Testing Domains<br />

An optimal test coverage can only be achieved with the replicability of<br />

test cases and integrational strategies between all departments involved<br />

with software ergonomics, localization and development. It is also critical<br />

that all testing effort is linked to correctly prioritized User Stories<br />

with their own specific test cases. This will enable the testing to concentrate<br />

and focus on user-critical areas of the application. It will also allow<br />

for more effective effort management.<br />

Test cases should be preferably structured according to the priority of<br />

the User Stories but, in the context of an iteration development, they<br />

should reflect primarily the localization acceptance tests for the User<br />

Stories ranging from three basic domains: cosmetic, functional and<br />

linguistic.<br />

Linguistic testing relies mainly on prescriptive reference materials<br />

(such as glossaries and style guides) and checks for typographical,<br />

grammatical, and contextual errors. Given that text in the application is<br />

just one more element of its visual design, special attention should be<br />

given to cosmetic guidelines that are shared amongst the team, and especially<br />

between design and development-oriented staff. These guidelines<br />

can include the optimal distance between elements, color combination<br />

palettes (which are also culturally determined) and fonts. Testing<br />

should commence as soon as possible on the new strings, which implies<br />

that a tight integration with your LSP and automatic machine translation<br />

are also solutions to be carefully assessed in order to fulfil multilingual<br />

requirements in the context of a 2 or 4 week iteration.<br />

Solidifying the Testing Loop<br />

Agile focuses on usability that brings value to the end-user, so localization<br />

testing should primarily focus on helping to deliver this value, as<br />

it is defined in the product scope by the stakeholders. In a continuous<br />

deployment environment, the emphasis should rely on preventing the<br />

occurrence of problems and reducing regression costs, so pre-planning,<br />

early engagement and a solid communication flow are key to the testing<br />

process. Testing is not a separate focus, but rather an essential component<br />

of everyday methodology, and the organic feedback loop between<br />

result, assessment and adjustment enforced by Agile can be a powerful<br />

tool for producing quality multilingual software prepared for the demands<br />

of a global market.<br />

If you have any questions please contact: alberto.viralhadas@gmail.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

205


Lokalisierung und Übersetzung / Localization<br />

LOC 15<br />

Presentation<br />

What constitutes a healthy<br />

localization department?<br />

Shirley Yeng, EC Innovations, Inc., Singapore<br />

There are tools out there and also readily available blogs these days to<br />

share ideas, concepts, stories of successful experiences to guide localization<br />

departments in their usage of resources and time in project management,<br />

resource management and finance management. The question<br />

is then how do the current localization departments stay focus on their<br />

purpose in achieving clarity of where they are going, which stage they<br />

are in, and whether they have attained their desired goals.<br />

To avoid being swamped by the abundance of solutions and thereby<br />

blurring the line of wants and needs, it is therefore crucial to have clarity<br />

into what really matters in the localization department.<br />

This presentation will touch on the following key major areas:<br />

−−<br />

Design of the localization department<br />

−−<br />

Purpose of the different roles within – why they would fit nicely together<br />

−−<br />

What keeps the department together<br />

−−<br />

Watch out for the likely challenges that might affect the unity of the<br />

team<br />

−−<br />

Methods to overcome the challenges – how to walk in unity<br />

−−<br />

Building a strong and growing department<br />

If you have any questions please contact: shirleyy@ecinnovations.com.<br />

206<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 17<br />

Presentation<br />

Automated monolingual term extraction<br />

through spelling check: a case study<br />

Uta Kreimeier, Olympus Soft Imaging Solutions GmbH, Münster<br />

Olympus Soft Imaging Solutions GmbH is a global supply unit for microscope<br />

image processing products within the Olympus group. It is<br />

based in Münster, Germany. The software solutions are produced in<br />

English and localized into several European and Asian languages.<br />

Regarding software localization, the company faces the following challenges:<br />

first, as the software solutions are used in science and research,<br />

e.g. life sciences and material sciences, a high percentage of specialized<br />

terminology from different areas has to be translated. In addition, each<br />

software product is highly customizable and many dialogs are created at<br />

run-time. As a result, many strings are difficult to translate because the<br />

localization tool cannot display sufficient context information (e.g. dialog<br />

preview). This leads to specialized terminology which is displayed<br />

in string lists in the localization tool.<br />

Second, the software is developed by an international and interdisciplinary<br />

development team. This can lead to language problems in the<br />

source language, which in turn can cause translation problems. The<br />

situation could be mitigated by using an adapted source language. In<br />

the localization tool, the English strings could be edited, and the resulting<br />

adapted source language could then be translated. However, this<br />

approach is not possible. Due to the number of people involved in each<br />

project, every string change has to be reflected in the software, the specification<br />

and the test plan. Furthermore, simship requires that software<br />

localization starts early, and source strings are still being changed during<br />

the localization stage. Consequently, language problems have to be<br />

reported with a bug tracking tool, even if there is just a simple spelling<br />

mistake.<br />

This situation is very inconvenient for both, software development and<br />

software localization. The specialized terminology without context leads<br />

to translators’ questions and translation problems. Spelling mistakes are<br />

often fixed at the end of the development phase and generate additional<br />

late string changes.<br />

A solution for the above challenges, the specialized terminology without<br />

context information and the spelling mistakes, is an automated spelling<br />

check with term extraction.<br />

A prerequisite for this approach is a localization tool that offers a functionality<br />

to mark whether a string is translatable or technical. The process<br />

of marking strings is automated through rules such as keywords<br />

that software developers supply in technical strings. These rules are the<br />

base of a nightly string build process, which separates translatable and<br />

technical strings and sends the results of a spelling check on translatable<br />

strings to the software developers.<br />

An automated spelling check is not acceptable unless it hardly returns<br />

any false positives. It is therefore of paramount importance to create<br />

and maintain a custom dictionary for the spelling check. The custom<br />

dictionary is generated from the terminology database. This results in<br />

a terminology database which contains entries that do not represent<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

207


Lokalisierung und Übersetzung / Localization<br />

terms but are needed for the spelling check. This is, however, no problem<br />

since terms and spelling check entries can be marked and filtered.<br />

The spelling check compares all translatable strings against the builtin<br />

dictionary and the custom dictionary and returns error messages for<br />

unknown strings. There are three kinds of unknown strings: first, a technical<br />

string which was not marked accordingly; second, a spelling mistake;<br />

and third, a new term. The first two error messages can be fixed by<br />

the software developers alone. The third error message is fixed by the<br />

software developers, who provide context information for the new term,<br />

and the localization team, which enters the new term with a definition<br />

into the terminology database. The term definitions help the translators<br />

to establish the correct target language equivalents, but is also used as<br />

dictionary by in-house staff.<br />

Of course, there is room for further development. For example, certain<br />

new terms such as homonyms and compounds cannot be found automatically.<br />

This means that additional manual work is still necessary.<br />

Overall, the solution can be realized with existing tools, namely the<br />

localization tool and the terminology database. The introduction of the<br />

automated spelling check means less manual work for software localization,<br />

and the responsibility is pushed upstream to the software developers.<br />

Software developers receive feedback directly after committing<br />

their string changes. The software localization team adds new terms to<br />

the terminology database as soon as they appear. The corresponding<br />

context information is delivered automatically through a clear process<br />

to software localization.<br />

This way of processing strings is advantageous, because it highlights<br />

problems early and reduces the workload in the last project phases.<br />

In addition, it encourages the maintenance of a terminology database<br />

which is used for context information and terminology management.<br />

Last, due to automation and clear workflows, manual work is reduced to<br />

a minimum.<br />

Literature<br />

Childress, Mark D. (2007) Terminology work saves more than it costs.<br />

MultiLingual April/ May 2007, p. 43–46<br />

ISO 704:2009 Terminology work – Principles and methods. Geneva: ISO<br />

Karsch, Barbara Inge (2011) Terminology Survey Results. MultiLingual<br />

April/ May 2011, p. 45–50<br />

Straub, Daniela/ Schmitz, Klaus D. (2009) Successful Terminology Management<br />

in Companies. Practical tips and guidelines: Principles, implementation,<br />

cost-benefits analysis, overview. Wiesbaden: tcworld<br />

If you have any queries please contact: uta.kreimeier@olympus-sis.com<br />

208<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 18<br />

Presentation<br />

Business Intelligence<br />

and Multilingual<br />

Chat at Honda<br />

Motor Europe U.K.<br />

Case 1: Warranty<br />

Claim project<br />

Case 2: Multilingual chat<br />

Snapshot of Machine Translation<br />

Tiene Vertriest, Eef Blommaart, Yamagata Europe N.V., Gent, Belgium<br />

This article describes two Machine Translation projects that Yamagata<br />

Europe has realised with Honda Motor Europe. For each project, we<br />

describe the specific hurdles that had to be taken and the results that<br />

were achieved. The first project is a project where data is translated into<br />

English within a 12 hour scale, the second project is a sample of an instant<br />

multilingual chatting service. Both systems are for in-house use at<br />

Honda Motor Europe only and fully integrated in the Honda IT systems.<br />

To handle the data, Yamagata designed a combination of semi-automated<br />

pre-editing, TM-integrated machine translation based on Systran<br />

server, and ultra-light post-editing.<br />

Over the years, Honda has built up a database with valuable information<br />

about all kinds of warranty-related quality issues: whenever a Honda<br />

dealer (car, bike, power equipment) is confronted with a problem about<br />

a device part that is still in warranty, the dealer is requested to fill in all<br />

information about this warranty issue into Honda’s warranty database<br />

(problem description, problem diagnosis, reparation details, etc.). The<br />

dealers can input this information as free text in their own language. In<br />

July 2009, we were asked by Honda to create a ‘translation system’ to<br />

generate English translations for text from this warranty claim database.<br />

The request for translation came from the Honda Product Improvement<br />

center in the UK: they wanted to make more and better use of the information<br />

in the warranty database. Three languages were selected to be<br />

translated into English with Machine Translation: German, Italian and<br />

Russian, because these languages represent the three major European<br />

markets (over 50% of all warranty issues). In the future more languages<br />

might follow.<br />

Even before going ‘live’ with the first project, Honda was enthusiastic<br />

about the MT potential and organised an internal brainstorming to see<br />

if other projects could link to this new ‘translation highway’. The result<br />

of this brainstorm fitted well into a planned restructuring of the Honda<br />

Motor Europe service support to the local dealers. This support service<br />

used to exist in each European country, but was not affordable anymore<br />

giving the growing number of new markets (countries) and engine technologies.<br />

Honda was already planning a web-based communication and<br />

chat interface between the centralised support service center in Germany<br />

and the in-country dealers. Honda also decided to add a “translation<br />

request button” to the interface in order to allow users to request a<br />

translation into English or into their native language.<br />

MT backup: Human translation button<br />

The Honda requirements on this project are very high: translation delivery<br />

within 2 seconds with 90% understandability. This is because the<br />

Honda dealers used to have immediate telephone support in their own<br />

language for most of the issues they encountered. At this moment, we<br />

have reached an average understandability level of 79,5% – so we still<br />

need to do better. But in the meantime, we have integrated a human<br />

translation system to the MT flow: if the MT output is not satisfying, the<br />

engineer in the Technical Support center can press a button to request a<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

209


Lokalisierung und Übersetzung / Localization<br />

human translation. The request is sent to Yamagata over the translation<br />

highway and the human translation will be delivered back to Honda.<br />

Full speed on the translation highway:<br />

The main difference between the online chat project and the warranty<br />

project is speed: while the warranty project requires same day delivery<br />

of the translations, the online chat project requires immediately delivery<br />

(within 2 seconds). This means there is no time for human intervention<br />

at all: no pre-processing, no post-processing. On top of this, Honda set<br />

an ambitious target and requested a 90% understandability.<br />

Quality Measurement<br />

The warranty project went ‘live’ in December 2010. During the technical<br />

developments, we also worked out a methodology to measure the quality<br />

of the MT-output based on understandability levels.<br />

Conclusion:<br />

Technology<br />

Next to the development of pre- and post-editing tools and the training<br />

of the MT engines, we worked on IT integration with the Honda team, to<br />

ensure smooth and automatic file transfer via web services: the ‘translation<br />

highway’. Through thorough automation both by Honda and Yamagata<br />

Europe the machine translation module plugs seamlessly into the<br />

bigger Honda Motor Europe systems.<br />

The biggest challenge for both Honda projects was the unstructured<br />

source content. With a large user group as in the Honda case, it is almost<br />

impossible to control and manage the data and text input. On the<br />

other hand, we have experienced that controlling the source is crucial<br />

to obtain understandable MT output. This means that training the MT<br />

engines was only a small part of this quite complex project: controlling<br />

or upgrading the input was the biggest challenge.<br />

For more information please contact:<br />

Eef Blommaart – eef.blommaart@yamagata-europe.com<br />

Tiene Vertriest – tiene.vertriest@yamagata-europe.com<br />

210<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 20<br />

Tutorial<br />

Einführung von maschinellen Übersetzungsprozessen<br />

in einer mittelständischen<br />

Übersetzungsagentur<br />

Michael Carl Enderstein, ditto KG, Reinfeld (Holstein), Deutschland<br />

Pavel Schick, MemSource Technologies, Prag, Tschechische Republik<br />

Einführung<br />

Anfang <strong>2012</strong> taten sich ditto KG und MemSource Technologies auf der<br />

Suche nach Möglichkeiten zusammen, maschinelle Übersetzungstechnologie<br />

so zum Einsatz zu bringen, dass freiberufliche Übersetzer diese<br />

nutzen können, ohne dass die Qualität der Arbeitsergebnisse darunter<br />

leidet.<br />

MemSource Technologies bietet robuste, benutzerfreundliche Übersetzungs<br />

um gebungen, in denen die Funktionalitäten von Translation<br />

Memory und Machine Translation kombiniert werden.<br />

ditto KG ist eine Agentur, die seinerzeit die Einführung von Translation<br />

Memory lancierte und zu den „Early Adopters“ der maschinellen Übersetzung<br />

gehört.<br />

Überblick<br />

Es ergibt keinen Sinn, die Augen vor der wachsenden Verbreitung von<br />

Machine Translation (MT) zu verschließen. Womit nicht bestritten werden<br />

soll, dass man trotz kostenintensiver F&E-Bemühungen ob der<br />

Qualität der Ergebnisse noch häufig den Blick abwenden möchte. Die<br />

wachsende Akzeptanz von MT ist dem aktuellen ökonomischen Klima<br />

(Geiz ist geil, gratis noch geiler!) und der alarmierenden Gleichgültigkeit<br />

gegenüber sprachlichen Auflösungserscheinungen geschuldet.<br />

Die insgesamt aber noch zaghafte Implementierung von MT in der<br />

Übersetzungs branche liegt u. a. daran, dass MT oft als Jobkiller betrachtet<br />

wird. In wirtschaftlich unsicheren Zeiten neigen Unternehmen in<br />

Europa dazu, sich mit einem „weiter so wie bisher“ durchzuwursteln,<br />

bei gleichzeitiger Vermeidung von Streit mit den Lieferanten, sofern<br />

dies überhaupt möglich ist.<br />

Doch wollen wir optimistisch nach vorne schauen auf eine Zeit, in der<br />

die Euro-Krise vergessen, MT-optimierte Durchlaufzeiten und Margen<br />

hingegen eine Dimension erreicht haben, die Agenturen, Kunden und<br />

Freiberufler dazu bringt, sich gegen seitig an die Gurgel zu gehen.<br />

Wir sind der Überzeugung, dass sich die Erfolgsaussichten eines MT-<br />

Einsatzszenarios in dem Maße verbessern, in dem es gelingt, die verschiedenen<br />

Interessen gruppen am Implementierungsprozess zu beteiligen.<br />

Ferner glauben wir, dass eine transparente Methode zur Bewertung<br />

der MT-Qualität unentbehrlich ist, um Konfliktpotential zu entschärfen.<br />

Einführung von maschinellen Übersetzungsprozessen<br />

Kleine, agile Agenturen sind zumeist ganz vorn dabei, wenn es um gutes<br />

Projekt management, effiziente Nutzung von Translation Memory<br />

(TM) und schnelle Auslieferungen geht, sind jedoch bisher nicht als<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

211


Lokalisierung und Übersetzung / Localization<br />

Standartenträger der MT-Technologie in Erscheinung getreten. Die<br />

Mehrheit der Agenturen hat noch keine Möglichkeit gefunden, die Produktivität<br />

ihres Workflows durch MT zu steigern, ohne die Freiberufler<br />

zu vergraulen oder die Qualität der Arbeitsergebnisse zu verwässern.<br />

Im Gegensatz dazu haben viele große Unternehmen das Geld zur Implementierung<br />

selbst hochwertiger MT-Technologie quasi in der Portokasse.<br />

Umso erstaunlicher, dass viele Führungskräfte keinerlei Bedenken<br />

haben, selbst wichtigste Geschäfts dokumente, von der Präsentation<br />

bis zur Spezifikation, mit Google Translate oder Microsoft Translator<br />

erstellen zu lassen. Echtes Geld für eine im Internet kostenlos abrufbare<br />

Leistung zu bezahlen, scheint ihnen vermutlich lächerlich.<br />

Bei Freiberuflern könnte man große psychologische Barrieren gegenüber<br />

fort schritt licher MT-Technologie vermuten. Doch ist ihre Haltung<br />

gegenüber MT, vorsichtig formuliert, widersprüchlich. Kaum ein Freiberufler<br />

findet sich bereit, MT-Material geringer Qualität nachzuarbeiten;<br />

und doch erlebten wir auch, dass trotz geringer Qualität Online-Übersetzungsdienste<br />

zur Steigerung der eigenen Produktivität zum Einsatz<br />

kamen, sobald das Gefühl aufkam, nicht überprüft zu werden.<br />

Herausforderungen der Machine-Translation-Implementierung<br />

Im Jahr <strong>2012</strong> unterstützte MemSource Technologies die ditto KG bei<br />

der Durch führung eines TM+MT-Workflows. Unter Einsatz von Google<br />

Translate und Microsoft Translator (Bing Translator), den beiden<br />

während der Start-Up-Phase verwendeten MT-Technologien, befolgte<br />

ditto KG den von MemSource vorgegebenen Ansatz zur Messung der<br />

MT-Qualität.<br />

Bei der Implementierung ergaben sich viele Herausforderungen, die<br />

wir mit Fokus auf die wichtigsten Themen ansprechen möchten:<br />

Den MT-Spaßfaktor verbessern<br />

Jede qualitätsbewusste Agentur hat i. d. R. einen praxisbewährten Workflow,<br />

an dem über Jahre gefeilt wurde. Diesem Workflow einfach MT<br />

hinzuzufügen wäre so, als würde man eine unbekannte Menge Lachgas<br />

in den Tank schütten: das Fahr zeug fährt wie mit Raketenantrieb, aber<br />

nur bis die Zylinderköpfe abgesprengt werden!<br />

Um Katastrophen zu vermeiden, muss der TM-MT-Workflow vor der<br />

Umsetzung im großen Maßstab in einer Reihe kleiner Testläufe optimiert<br />

werden.<br />

Unzureichende Quelltexte MT-tauglich machen<br />

Wurden alle Hürden bei der TM-MT-Verzahnung erfolgreich genommen,<br />

werden viele sich fragen, ob der Aufwand angesichts der oft enttäuschenden<br />

MT-Ergebnisse reine Zeitverschwendung war.<br />

Doch sollte dies angesichts ständig schwächer werdender Ausgangstexte<br />

keine große Überraschung sein. Es ist einfach so, dass selbst in Bestform<br />

MT nicht über trägt, was der Autor zum Ausdruck bringen wollte,<br />

sondern nur das übersetzt, was geschrieben steht.<br />

212<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Alle Beteiligten rechtzeitig ins Boot holen<br />

Die meisten Menschen lieben den Fortschritt, haben aber wenig für<br />

den damit verbundenen Wandel übrig, so dass es nur menschlich ist,<br />

Veränderung jeglicher Art zu scheuen. Zum Glück erzählt jeder gerne<br />

über sich selbst, und warum sollte man diesen Impuls nicht nutzen, um<br />

Freiberufler an einer laufenden Diskussion zu beteiligen, wie sich MT<br />

in den Workflow einführen lässt?<br />

Preisnachlässe gemeinsam aushandeln<br />

Heute könnte ein typischer TM+MT-Workflow wie folgt aussehen:<br />

Erstens wird die Quelldatei unter Verwendung eines TMs vorübersetzt.<br />

Zweitens werden die Segmente ohne geeigneten TM-Match mit MT<br />

übersetzt. Drittens wird die nun komplett vorübersetzte Datei an einen<br />

Übersetzer zur Nachbearbeitung geschickt.<br />

Aber während es genaue Preisabsprachen für TM-Matches gibt, gibt<br />

es für „MT-Matches“ i. d. R. nichts Vergleichbares, und damit ist Ärger<br />

praktisch vor pro grammiert.<br />

Es ist nicht einfach, faire Preise für eine Nachbearbeitung festzulegen,<br />

wenn es keinen Maßstab für eine MT-Qualität gibt, die von einem Segment<br />

zum nächsten stark variieren kann.<br />

Die Sache wird unangenehm, sobald ein Übersetzungskunde vermutet,<br />

dass er am Ende mehr als nötig zahlte, da die MT-Qualität hoch war,<br />

während jedem Frei berufler die MT-Qualität suspekt erscheinen wird,<br />

was zu der Annahme führt, dass die Entlohnung weniger als fair sein<br />

wird.<br />

Deshalb brauchen wir eine genaue, faire und transparente Methode zur<br />

Berechnung von Preisnachlässen.<br />

Schlussfolgerungen<br />

Am Ende des Tutorials werden die Teilnehmer eine gute Vorstellung<br />

davon haben, welchen Herausforderungen sich Unternehmen angesichts<br />

des Einsatzes von MT ausgesetzt sehen. Sie werden verschiedene<br />

Messmethoden für MT-Qualität kennen lernen und in der Lage sein, ein<br />

MT-Geschäftsszenario zu entwickeln. Dies wird bei der Entscheidung<br />

helfen, ob bzw. wie MT-Technologie innerhalb der eigenen Firma zum<br />

Einsatz kommen sollte.<br />

Bei Fragen oder Anregungen stehen wir Ihnen gerne zur Verfügung:<br />

pavel.schick@memsource.com oder enderstein@ditto-trans.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

213


Lokalisierung und Übersetzung / Localization<br />

LOC 22<br />

Tutorial<br />

Post-Editing maschineller<br />

Übersetzung in der Praxis<br />

Ingo Schumann, Eule Lokalisierung, Kiel<br />

Mathan Sivaloganathan, Delta, Bonn<br />

Geschichtlicher Überblick<br />

Während das Langzeitziel des „Post-Editierens“ von maschinell erzeugten<br />

Übersetzungen bereits 1949 im sog. Weaver-Memorandum definiert<br />

wurde, brauchte es weitere 50 Jahre, bis Ende der 90er eine Definition<br />

in der Fachwelt akzeptiert war: die von Tony Veale (USC Dublin) und<br />

Andy Way (DCU Dublin, EAMT President) postulierte „Korrektur der<br />

MT-Ausgabe durch Übersetzer und Editoren aus Fleisch und Blut“.<br />

Allerdings war keine große Akzeptanz des eigentlichen Prozesses vorhanden.<br />

Unter der Gleichung MT+TM+QA prognostizierte Alan Melby<br />

1995, dass schon in fünf bis zehn Jahren TM und MT-Systeme konvergieren<br />

werden und der Übersetzer die Steuerungshoheit über dieses<br />

„integrierte System“ besitzt. Diese Gleichung ist bis heute noch nicht<br />

aufgegangen, aber die Zeit dafür ist reif. Im neuen Jahrtausend hatten<br />

empirische Untesuchungen von Hans P. Krings (2001) wesentlich dazu<br />

beigetragen, dass man es nun verstand, Texte mit zielführender Herangehensweise<br />

zu reparieren.<br />

In diesem Tutorial werden wir nachweisen, dass sich die Nachredaktion<br />

von maschinellen Übersetzungen inzwischen mit einigen Erfahrungswerten<br />

so gut organisieren lässt, dass mit richtig angewendeten<br />

Arbeitssschritten und -methoden der Einsatz von MÜ wirtschaftlich<br />

sinnvoll wird.<br />

Typen von Post-Editing<br />

In der Expertenwelt unterscheidet man drei Spielarten des<br />

Post-Editings.<br />

−−<br />

Beim konventionellen Post-Editing (CPE) geht es darum, einen Text<br />

zu erzeugen, der so stark wie möglich einer vom Menschen erstellten<br />

Übersetzung ähnelt (auch Full PE, FPE)<br />

−−<br />

Beim schnellen Post-Editing (RPE) soll ein korrekter Text auf sprachlicher<br />

und inhaltlicher Ebene mit minimalen Anpassungen erzeugt<br />

werden (auch Gist PE, GPE).<br />

−−<br />

Beim integrierten Post-Editing kommt die von Melby prognostizierte<br />

Variante ins Spiel: der Schritt von a) einem TM-System, das Textteile<br />

automatisch sucht und ihre Trefferrelevanz auf einer Skala bewertet<br />

und b) einem MT-System, das diese Textteile zu einem Satz in der<br />

Zielsprache zusammensetzt zu c) einem TMT-System, das, im Idealfall<br />

noch mit einem Terminologiemanagement-System ausgerüstet,<br />

dem Übersetzer Segmente präsentiert, die durch möglichst kleine Bearbeitungsschritte<br />

zu einer finalen Übersetzung geschliffen werden.<br />

Vorstellung von Post-Editing-Umgebungen<br />

Einige Anbieter von CAT-Tools haben bereits damit begonnen, Post-<br />

Editing-Module in ihre Systeme zu integrieren, z. B. MemSource. Post-<br />

Editing-Analysen vergleichen darin die MT-Ausgabe mit der posteditierten<br />

Übersetzung. Auf ähnliche Weise wie bei Translation Memory<br />

214<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Matches werden Treffer gewichtet, allerdings mit dem Unterschied,<br />

dass dies in den Post-Editing-Umgebungen in Echtzeit passiert: 100 %<br />

bedeutet zum Beispiel, dass der Post-Editor nichts an der MT-Ausgabe<br />

verändern musste, während 0 % bedeutet, dass der Post-Editor den MT-<br />

Match aufgrund schlechter Qualität komplett löschen und neu übersetzen<br />

musste. Im Tutorial werden diese Umgebungen vorgestellt.<br />

Typen von Fehlern<br />

unter Beachtung der<br />

Herkunft der MÜ<br />

(SMT oder RBMT)<br />

Fehlertypen/<br />

Kategorien SMT<br />

Fehlertypen/<br />

Kategorien RBMT<br />

Praktische Guidelines<br />

für das Post-Editing<br />

Praktische Beispiele<br />

Je nach verwendetem MT-System unterscheiden sich die Fehler in der<br />

MT-Ausgabe beträchtlich. Mit richtiger Herangehensweise können<br />

diese also schneller aufgefunden werden. Während ein RBMT-System<br />

(durch fehlende Kodierung) falsche Wörter oder Begriffe auswählt,<br />

falsche grammatikalische Bindungen erzeugt (z. B. durch Präpositionalphrasen)<br />

und Bedeutungen nicht ausreichend differenziert, fügt<br />

ein SMT-System Wörter hinzu, lässt diese aus, ignoriert Groß-/Kleinschreibung,<br />

macht Interpunktionsfehler und lässt manche Sätze völlig<br />

unverständlich.<br />

Evaluationen von SMT-Systemen haben ergeben, dass die häufigsten<br />

Fehler in den Kategorien fehlende Wörter, falsche Satzstellung und Flexion<br />

bei Verben (falsch gebildete Verben) liegen. Es war zu beobachten,<br />

dass Verben beim SMT-System häufig nicht nur falsch übersetzt wurden,<br />

sondern auch fehlten, wodurch sich die hohe Anzahl an Fehlern<br />

bei fehlenden Wörtern und Verben erklären lässt. Mit zunehmender<br />

Komplexität von Sätzen muss das SMT-System weit auseinander liegende<br />

Dependenzen verarbeiten und macht damit noch mehr Fehler bei<br />

den Verben. Führende Softwarehersteller wie Microsoft, die SMT einsetzen,<br />

gingen dazu über, MT-Übersetzungen ausschließlich auf Sätze<br />

mit bis zu 30 Wörtern anzuwenden.<br />

Beispiel:<br />

Input: There are no editable properties for this filter.<br />

Output SMT: Es sind keine bearbeitbaren Eigenschaften für diesen<br />

Filter.<br />

Output Post-Editing: Es sind keine bearbeitbaren Eigenschaften für<br />

diesen Filter vorhanden.<br />

Nahezu alle Untersuchungen an RBMT-Systemen belegen, dass diese<br />

Systeme beim Fehlertyp „Kategorie“ ihre größte Schwäche haben. Kategoriefehler<br />

treten auf, wenn das MT-System eine falsche Vokabel oder<br />

eine falsche Wortart auswählt (zum Beispiel Verb statt Nomen). Auch in<br />

den Kategorien Nomen und Verben bestehen Schwächen, so wird das<br />

RBMT versuchen, feststehende Begriffe und Eigennamen zu übersetzen,<br />

was zu einer hohen Anzahl an Fehlern in dieser Kategorie führt.<br />

Diesem Fehler wird in der Regel mit noch mehr Kodierungsaufwand<br />

begegnet. Weitere häufige Fehlertypen bei RBMT sind Präpositionsfehler,<br />

d. h. falsche oder gar nicht übersetzte Präpositionen.<br />

Anhand von beispielhaften Segmenten Post-Editing vorführen<br />

In unserem Tutorial werden wir einen Text mit 20 Segmenten als<br />

Grundlage beleuchten und auf die individuellen Fehler eingehen.<br />

Im Schlussteil unseres Tutorials werden wir anhand der „live“ post-editierten<br />

Segmente die 6 goldenen Regeln aufstellen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

215


Lokalisierung und Übersetzung / Localization<br />

Produktivitätskennzahlen<br />

1. Lies zuerst die Quelle.<br />

Lies dann die MT-Übersetzung und entscheide, ob es wert ist, sie aufzubewahren<br />

oder zu verwerfen. Vergeude nicht deine Zeit, indem du<br />

versuchst, Segmente, die eindeutig von minderer Qualität sind, zu reparieren.<br />

Setze deine Bearbeitung nur fort, wenn die MT-Ausgabe brauchbar<br />

für die Nachbearbeitung ist. Wenn die Ausgabe nicht brauchbar ist,<br />

korrigiere sie. Verwirf das Segment und übersetze es neu.<br />

2. Das Ziel ist es, mit möglichst wenigen Bearbeitungen einen richtigen<br />

Satz zu kreieren.<br />

Es gibt mehrere Möglichkeiten, um einen rohen MT-Satz zu korrigieren.<br />

Das Ziel ist es, manuell so wenig wie möglich zu bearbeiten – und trotzdem<br />

immer eine korrekte Übersetzung herzustellen.<br />

3. Die endgültige Übersetzung muss eine vollständige Übersetzung sein.<br />

Die bearbeitete Version sollte die gleiche Bedeutung haben wie die<br />

Quelle, es sollte nichts hinzugefügt oder weggelassen werden, alle Informationen<br />

im Vergleich zur Quelle müssen vorhanden sein.<br />

4. Versuche nicht, die endgültige Übersetzung verständlicher als die<br />

Quelle zu machen.<br />

5. Ändere nicht korrekte maschinelle Übersetzungen, nur weil du etwas<br />

anderes bevorzugst.<br />

6. Beachte die Terminologie.<br />

Die MT-Engine greift die häufigste Übersetzung des Begriffs in einem<br />

bestimmten Kontext auf, die nicht unbedingt die für das Produkt bezogene<br />

(korrekte) Übersetzung ist. Halte dich eng an die Software-Bundles<br />

und die Begriffe der Datenbank und lasse dich nicht durch scheinbar<br />

korrekte Übersetzungen in die Irre führen.<br />

Wenn wir uns an den Leitfaden des Posteditings halten, ist dadurch eine<br />

Steigerung der Produktivität sichtbar. Als Ausblick soll anhand von einigen<br />

Produktivitätskennzahlen veranschaulicht werden, inwieweit sich<br />

das Postediting in einem Unternehmen lohnt. Ist die technische Wirtschaftlichkeit<br />

bzw. Produktivität auf Grund von Postediting kalkulierbar<br />

und demzufolge erfolgversprechend?<br />

mathans@dicits.com<br />

ischumann@eule-l10n.com<br />

216<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 23<br />

Workshop<br />

Übersetzer und Softwareentwickler verändern<br />

gemeinsam die Übersetzungsbranche<br />

Thomas Imhof, localix.biz – language technology consulting<br />

Vielschichtige Arbeitsabläufe, enge Zeitrahmen und eine Vielzahl von<br />

Dateiformaten machen die Komplexität der Übersetzungsbranche aus,<br />

die es zu bewältigen gilt. Sollen Übersetzungsverantwortliche enger mit<br />

Softwareentwicklern zusammenarbeiten, um die Herausforderungen<br />

der Branche zu meistern? Können kundenspezifische Erweiterungen<br />

und das Einbinden von Technologie dabei helfen, die kontinuierlich<br />

voranschreitenden Anforderungen an den Umgang mit Informationen<br />

in den Griff zu bekommen?<br />

Schon heute ist Übersetzungstechnologie wie Translation Memory und<br />

Terminologieverwaltung bei der Erstellung multilingualer Dokumentation<br />

kaum noch wegzudenken. Allerdings decken die von den Softwareherstellern<br />

zur Verfügung gestellten Funktionen längst nicht alle<br />

Anwendungsfälle ab und bzgl. der Unterstützung von Eingangsdateiformaten<br />

wird man als Hersteller bei der Priorisierung immer zu Kompromissen<br />

gezwungen sein. Es ist klar, dass die Unterstützung einer neuen<br />

Office- oder Adobe-Version eine höhere Priorität erhält als die Unterstützung<br />

speziellerer Formate, die vom Markt nicht so oft nachgefragt<br />

werden.<br />

Eine weitere Herausforderung ist die Einbindung in bestehende Arbeitsabläufe<br />

bzw. die Anbindung des TM-Systems an ein CMS: Was<br />

nützt ein besonders funktionsreiches Übersetzungsinstrument, wenn es<br />

umständlich manuell mit Dokumenten gefüttert werden muss? Und was<br />

nützen die besten Reports, wenn ich die Preise hinterher doch wieder<br />

mit dem Taschenrechner ausrechne?<br />

Wie die o. g. Situationen verdeutlichen, stellt die Möglichkeit, die vorhandene<br />

Software mit Drittsystemen zu integrieren, bzw. ihre Funktionalität<br />

zu erweitern, ein wichtiges Alleinstellungsmerkmal einer modernen<br />

Übersetzungslösung dar.<br />

Die Funktionserweiterung von Hardware- und Softwareprodukten<br />

durch zusätzliche Programme ist dabei so alt wie die Computerbranche<br />

selbst. Nur wegen seiner offenen Programmier- und Hardwareschnittstellen<br />

haben es Windows und der PC in den 90er Jahren geschafft, sich<br />

gegenüber dem ansonsten weit mächtigeren Betriebssystem Unix bzw.<br />

leistungsfähigeren Plattformen wie dem Macintosh durchzusetzen.<br />

Das gleiche Prinzip hat erst in den letzten Jahren und speziell durch<br />

den Siegeszug der Smart-Phones und der zugehörigen Apps noch einmal<br />

massiv an Bedeutung gewonnen, denn die Hersteller erlauben<br />

durch die Bereitstellung von Programmierschnittstellen und spezieller,<br />

auf die Programmierung ausgelegter Dokumentation die nahezu unbegrenzte<br />

Erweiterbarkeit ihrer Produkte und erreichen damit eine<br />

bislang unerreichte Flexibilität. Was wären iPhone, iPod und iPad ohne<br />

iTunes, den App-Store und die vielen tausend Apps, die die Grundfunktionen<br />

der Geräte und der darauf vorinstallierten Betriebssysteme erweitern?<br />

Nicht umsonst gilt mittlerweile das geflügelte Wort: “There’s an<br />

app for that.”<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

217


Lokalisierung und Übersetzung / Localization<br />

Durch das Schaffen von Vertriebskanälen und die Moderation spezieller<br />

Foren, auf denen sich Software-Entwickler und Mitarbeiter der Hersteller<br />

austauschen können, schaffen die Hersteller so eine Umgebung, die<br />

es für Entwickler attraktiv macht, eben diese Erweiterungen und Lösungen<br />

zu schaffen und zu vertreiben und die den Anwendern die fehlenden<br />

Funktionen zur Verfügung stellt, um das Hauptprodukt nahtlos<br />

in jeden Arbeitsablauf einzupassen, jedes Dateiformat zu unterstützen<br />

und an jedes CMS dieser Welt anzubinden.<br />

Solche eine mächtige Umgebung hat SDL mit OpenExchange geschaffen<br />

– schon heute werden hier viele z. T. kostenlose Erweiterungen zu<br />

der marktführenden Übersetzungsumgebung SDL Trados Studio und<br />

SDL Multiterm über OpenExchange bereitgestellt.<br />

Zusätzlich zu einem zentralen Vertriebskanal für ihre Tools erhalten<br />

SDL OpenExchange-Entwickler außerdem Zugang zu den SDKs und<br />

dem bereits erwähnten Forum und natürlich Zugriff auf die neuesten<br />

Versionen der SDL Software, um ihre Apps vor der Veröffentlichung<br />

neuer Versionen auf Kompatibilität testen zu können.<br />

SDL OpenExchange ist in der Übersetzungsbranche einzigartig – kein<br />

anderer Hersteller von Übersetzungstechnologie hat bislang ein vergleichbares<br />

Angebot für Entwickler und Anwender ins Leben gerufen.<br />

Kein anderer Hersteller legt bei der Entwicklung seiner Lösungen so<br />

viel Wert auf die konsequente Ausstattung seiner Produkte mit Schnittstellen<br />

und damit auf Integrierbarkeit und Erweiterbarkeit.<br />

Dass dieses Angebot von den Software-Entwicklern angenommen wird,<br />

verwundert nicht. Allerdings fehlt nach wie vor der Dialog zwischen<br />

Entwicklern und Übersetzern, denn nur die Übersetzer können durch<br />

ihre Erfahrung in der Anwendung der Software die notwendigen Anforderungen<br />

definieren. Diesen Dialog anzustoßen wäre der nächste wichtige<br />

Schritt hin zu einer optimalen Übersetzungsumgebung.<br />

für Rückfragen: tom@localix.biz<br />

218<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

LOC 24<br />

Tutorial<br />

The steps are:<br />

To succeed with quality<br />

management, you need<br />

a committed team!<br />

But you also need your<br />

manager’s approval<br />

About fulfilling<br />

requirements and<br />

getting satisfied<br />

customers<br />

Why goals?<br />

Eight steps to get in control of quality<br />

Susanne Dahlén, IAR Systems, Sweden, chair of the Swedish Society for Technical<br />

Communication (FTI)<br />

Are you in control of the quality aspects of your user documentation?<br />

This tutorial works through a practical method in eight steps that can<br />

help documentation departments take control of everything from defining<br />

quality requirements, quality assurance mechanisms and quality<br />

controls. It also sketches various approaches to measuring quality.<br />

−−<br />

Get a “buy-in” from your co-workers<br />

−−<br />

Come up with your quality definition<br />

−−<br />

Set your strategic goals<br />

−−<br />

Define your quality requirements<br />

−−<br />

Specify quality assurance mechanisms and controls<br />

−−<br />

Set priorities and rate your requirements<br />

−−<br />

Build your quality plan<br />

−−<br />

Measure the quality<br />

These steps might sound simple but are carefully chosen to guide your<br />

work by setting a foundation and a vision for quality, and to get in-depth<br />

practical methods in place. The focus lies on building a robust process,<br />

where quality assurance and controls are integrated in the production<br />

of documentation and where all quality aspects are collected in a quality<br />

plan.<br />

This quality plan gives you an overview and can help you identify gaps<br />

and potential improvements in your process and help you prioritize<br />

between them.<br />

Each step will be elaborated with principles and examples and for many<br />

of the steps, time to work on your own and group discussions will be<br />

included in the tutorial.<br />

Get a “buy-in” from your co-workers<br />

When it comes to documentation, you and your co-workers are the subject<br />

matter experts and you probably have a very good idea about what<br />

works when it comes to your procedures etc, and what does not. If the<br />

documentation team is committed and part of developing the “quality<br />

plan”, you are more likely to get a success story.<br />

You need time and resources set aside for this type of work, so you must<br />

get your manager’s approval for it. Try to make it as simple as possible<br />

for your manager to approve your request. In other words, this is what<br />

we want to achieve, these would be the benefits, and these are the costs.<br />

Come up with your quality definition<br />

It is important that you have YOUR definition clear to you. Because the<br />

definition is a starting point, a principle that you can lean on, a base for<br />

your work on and a guiding light.<br />

Set your strategic goals<br />

A quality definition is not sufficient; you must also know what to aim at.<br />

The goals simply clarify the scope and purpose of your documentation.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

219


Lokalisierung und Übersetzung / Localization<br />

It is especially necessary to identify the user groups, who will be reading<br />

your documentation. What goals should you set to meet their requirements?<br />

You must identify whether you have any external parts to<br />

consider, such as the machinery directive 2006/42/EC, S1000D, or any<br />

medical or safety regulations. It is also important to balance the quality<br />

of the documentation with the rest of the product and to know whether<br />

the product is aimed at a low-cost or a high-cost market.<br />

Clear goals are your guiding light when you make decisions on details<br />

and set priorities. They are also necessary for measuring the level of<br />

fulfilment.<br />

First vaguely<br />

Then more specifically<br />

Take the opportunity<br />

to identify your<br />

weaknesses<br />

Define your quality requirements<br />

When it comes to requirements, you often hear that user documentation<br />

should be correct, complete, and concise. This is not very specific!<br />

So for each requirement you should specify what the requirement can<br />

be applied to. For example: User documentation shall be correct can be<br />

applied to technical facts, grammar, images, code examples, cross references,<br />

hyperlinks, variables, text conditions, etc.<br />

Specify quality assurance mechanisms and controls<br />

For each applied requirement, you should specify your:<br />

−−<br />

Methods for quality assurance: the methods by which you secure<br />

quality. In practice, either an activity part of your process or a tool or<br />

utility.<br />

−−<br />

Quality controls: the inspections you perform to verify that the result<br />

is correct. In practice, this is also either an activity part of your process<br />

or a tool or a utility.<br />

As you create an overview of all the methods and inspections that you<br />

usually perform, you have an opportunity to also identify weaknesses in<br />

this area—methods and inspections that you think are necessary but for<br />

some reason you currently don’t have.<br />

Set priorities and rate your requirements<br />

How important is it that you fulfil the various requirements? Set priorities<br />

based on, for example, whether it is important to fulfil a requirement<br />

and even collect metrics for it, or perhaps whether deviations are<br />

allowed.<br />

It can also be useful to consider which requirements are, in practice,<br />

more important than others.<br />

Having this analysis is a basis for finding the right balance between cost<br />

and quality.<br />

Build your quality plan<br />

It can be useful to collect all material in a spreadsheet, which then<br />

would provide you with an overview of all your quality aspects:<br />

−−<br />

Requirements, assurance, and controls.<br />

−−<br />

Lists of identified areas that can be improved, such as missing tools<br />

for assurance and lack of controls.<br />

220<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

The quality plan can be used as:<br />

−−<br />

A tool to check your quality against<br />

−−<br />

A base for arguing for certain resources<br />

−−<br />

A help when balancing between cost and quality<br />

The quality plan contains many details and can be gradually fine-tuned<br />

over time. Note that it should be considered a “living document” as you<br />

constantly improve your work and processes.<br />

Measure the quality<br />

Many aspects can be measured and it might be tempting to cover too<br />

much. However, measuring is difficult and requires resources. You need<br />

to collect data, maybe over a longer period of time. You need to evaluate<br />

data and draw conclusions. If the result does not come to practical use,<br />

people might lose confidence and stop producing data.<br />

For these reasons, it is highly important that the aspects you decide to<br />

measure are relevant. You should carefully consider:<br />

−−<br />

What is relevant to measure in your case.<br />

−−<br />

Whether there are any external requirements on measurement.<br />

Various methods for measuring quality will be briefly discussed in the<br />

tutorial and one real-life example will be presented. The result and the<br />

conclusions will also be presented.<br />

If you have any questions please contact: susanne.dahlen@iar.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

221


Lokalisierung und Übersetzung / Localization<br />

LOC 25<br />

Partner presentation<br />

Multimodal Texts: Reading, comprehension<br />

and writing, in Brazil and in Germany<br />

Prof. Ana Elisa Ribeiro, Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-<br />

MG), Brazil<br />

Sabrina Bauer, Hochschule Karlsruhe – Technik und Wirtschaft, Germany<br />

Reading, multimodal texts and technical documentation<br />

This work starts from some ideas about reading, multimodal text and<br />

technical documentation. We understand that reading is essentially a<br />

hypertextual and multisemiotic process, but it depends on activations<br />

given by the texts we have access to. Therefore, hypertextuality is constitutive<br />

of texts, as pointed out by Coscarelli (2003, 2006, 2009). Texts<br />

are always composed of several languages, since they are at least visual<br />

and verbal, simultaneously. Therefore, multimodality seems an inherent<br />

element of texts, as claimed by Kress and Van Leeuwen (1998),<br />

when dealing with newspapers: «All texts are multimodal». In technical<br />

documentation, several languages are also applied in compositions that<br />

strive to make sense to a reader who wants, for example, follow instructions<br />

or perform a task. These were the cases we analyzed, especially in<br />

our studies with Sabrina Bauer (2011) and Marta Costa (<strong>2012</strong>).<br />

The participants<br />

Types and distribution<br />

of technical documents<br />

Technical documentation in Brazil and in Germany<br />

The master thesis “Qualitative research interview in the context of<br />

intercul tural communication – using the example of the research project<br />

’Technical communi cation in Brazil’“gives an insight on status, development<br />

and processes in technical communication of companies based in<br />

Brazil.<br />

Besides quality and status of the technical documentation, the research<br />

focuses on internal and external knowledge management and information<br />

structures.<br />

Participants with different background knowledge and from various<br />

work areas took part in this research project. A very heterogeneous<br />

group of specialists had to complete either an on-line questionnaire or<br />

attend a personal interview. The participating professions ranged from<br />

Technical Translators, Product Managers, Electrical Engineers to Technical<br />

Writers coming from different industries such as software, manufacturing<br />

and service business.<br />

The main document types developed by the participants are user and<br />

service manuals as well as training material and process documentation.<br />

Multimedia technical documentation like animations, apps, videos<br />

as well as graphics are seldom. The most common visual content that is<br />

developed in the participants’ departments are photographs and illustrations.<br />

The same classic approach can be applied to output formats<br />

which basically consist of PDF, DOC and PowerPoint presentations.<br />

The main platform to share documentation is the company’s website.<br />

Alternatives like YouTube, social networks and wikis are mentioned but<br />

not preferred. Thus, classic documentation and classic communication<br />

channels still remain first choice.<br />

222<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Documentation<br />

workflow<br />

Awareness of Technical<br />

Documentation in Brazil<br />

Information exchange between the person in charge of the documentation<br />

and the technician ranges from a simple meeting to a complex<br />

workflow system that controls the status of the documentation. All of<br />

the respondents emphasize the importance of technical documents and<br />

name methods and processes that focus on different aspects like quality<br />

management, communication and translation.<br />

However, the general awareness on the advantages of standardization,<br />

publication techniques, variation management and basic technical<br />

documentation processes, like working with text modules in a content<br />

management system, is missing.<br />

Due to the fact that there are no comparable study programs at<br />

universi ties or comparable education programs for technical writers,<br />

people are not sensitized for the wide work environment and the expectations<br />

of a technical writer. Some of the respondents had never heard<br />

of the profession “Technical Writer” although they develop technical<br />

documents in their everyday work life.<br />

To strengthen the individual opinions that result from a questionnaire<br />

and the first interview, to connect and to check the meaning of answers,<br />

a personal face-to-face interview with all of the respondents could be a<br />

further step in this research project.<br />

Food labels in Brazil: who writes, who reads?<br />

Marta Costa’s work, unlike Sabrina Bauer’s, has focused on reading food<br />

labels, specifically on cake mixes packages. In Brazil, these texts are<br />

produced by engineers or other professionals not specialized in technical<br />

documentation.<br />

We selected four cake mixes: the two most expensive brands and the<br />

two cheapest brands in the Brazilian market. All packages had instructions<br />

to make the cake written for the product consumers (p. ex., like<br />

Figure 1).<br />

Although cake mixes instructions are short and seemingly easy texts,<br />

besides being helped by drawings that mostly bring redundant information<br />

in relation to the verbal text, many types of knowledge are required<br />

to handle such compositions.<br />

Besides the linguistic knowledge required when one reads the package,<br />

numeracy skills are required (or math literacy) such as proportion idea,<br />

measurements, weights, and patterns popularly named as “cup of tea’”,<br />

“tablespoon”, among others.<br />

In order to check the quality of interaction between readers / consumers<br />

of the cake and the label texts that guided on how to prepare the<br />

cake, an usability-tests-inspired fake kitchen was set up so people could<br />

simulate the food preparation.<br />

Twenty undergraduate students of Linguistics and six students of Materials<br />

Engineering were invited to participate in the simulation of preparing<br />

the cake as instructed on the label. The results indicate difficulties<br />

in understanding related to the design of the labels, i.e. the layout<br />

of the text, to the choice of typography and font size, and also to issues<br />

related to the colors and drawings used on the package.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

223


Lokalisierung und Übersetzung / Localization<br />

Figure 1: Instructions to prepare a cake.<br />

Crossing our results<br />

The research results of Bauer (<strong>2012</strong>) and Costa (<strong>2012</strong>) may be related.<br />

Bauer demonstrates that the technical documentation is incipient (even<br />

unknown) in Brazilian companies; Costa, on the other hand, shows the<br />

difficulties of understanding of Brazilian readers interacting with instructional<br />

texts probably written by professionals not specialized in<br />

technical writing. Therefore, it seems a fertile area for further studies in<br />

Brazil.<br />

Thanks<br />

Prof. Martin Schober (Germany); Prof. Inês Gariglio (Brazil); Pollyanna<br />

Vecchio (Brazil); Marta Costa and sons (Brazil); Denio Costa (Brazil);<br />

CEFET-MG Brazilian students.<br />

References<br />

Bauer, Sabrina (<strong>2012</strong>): Qualitative interview research in the context of<br />

intercultural communication – using the example of the research project<br />

“Technical communication in Brazil”. Master thesis. Hochschule<br />

Karlsruhe – Technik und Wirtschaft, Karlsruhe.<br />

Coscarelli, Carla V. (2003) Espaços hipertextuais. II Encontro Internacional<br />

Linguagem, Cultura e Cognição: reflexões para o ensino. Belo<br />

Horizonte, Brasil, 16–18 julho 2003. .<br />

Acesso em 10 ago. <strong>2012</strong>.<br />

224<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Lokalisierung und Übersetzung / Localization<br />

Coscarelli, Carla V. (2006) Os dons do hipertexto. Pedro Leopoldo, Brasil,<br />

Littera: Linguística e Literatura. .<br />

Acesso em 10 ago. <strong>2012</strong>.<br />

Coscarelli, Carla V. (2009) Textos e hipertextos: procurando o equilíbrio.<br />

Brazil, Linguagem em discurso, v. 3, n. 9. .<br />

Acesso<br />

em 10 ago. <strong>2012</strong>.<br />

Costa, Marta A. R. (<strong>2012</strong>): Leia as instruções: Uma análise de textos<br />

multimodais em rótulos de alimentos. Dissertação de mestrado. Centro<br />

Federal de Educação Tecnológica de Minas Gerais, CEFET-MG, Belo<br />

Horizonte.<br />

Kress, Gunter; Van Leeuwen, Theo. (1998): Front Pages: (The critical)<br />

analysis of newspaper layout. In: Bell, Allan; Garret, Peter. (Eds.) Approaches<br />

to media discourse. Blackwell Publishing, p. 186–219.<br />

e-mail: anadigital@gmail.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

225


Sprachtechnologie /<br />

Language Technology


Sprachtechnologie / Language Technology<br />

LT 1<br />

Kurztutorial<br />

Deutschland sucht den Super-Workflow<br />

Binke Fiedler, CFM/LM, Daimler AG, Esslingen<br />

Kerstin Berns, berns | language | consulting, Düsseldorf<br />

Das Corporate Language Management verantwortet die Gestaltung,<br />

Integration und Steuerung der multilingualen Kommunikation aller<br />

Informationsprozesse im gesamten Daimler Konzern. Dafür hat<br />

CFM/LM besonders für die Übersetzungsprozesse im automobilen<br />

Kerngeschäft seit Jahren Erfahrung bei der Automatisierung von<br />

Übersetzungsprozessen.<br />

Die Challenge<br />

Ziel des Vorhabens war es, die über die Jahre entstandene Vielfältigkeit<br />

radikal zu standardisieren, von den Synergie-Effekten einer zentralen<br />

Übersetzungs- und Verwaltungsumgebung zu profitieren sowie die<br />

internen Prozesse schneller, einfacher und effektiver zu gestalten. Um<br />

diese Umstellung möglich zu machen, mussten die bestehenden Übersetzungsprozesse<br />

konsolidiert werden, so dass sie mit einer kleinstmöglichen<br />

Anzahl von Übersetzungsworkflows auf das neue System übertragen<br />

werden können.<br />

Es war klar, dass sich manche Prozesse ideal für die neue Umgebung<br />

eignen würden, andere jedoch erst angepasst werden müssen.<br />

Corporate Language<br />

Management (CFM/<br />

LM) bei Daimler<br />

IT-Projektleitung (ITM/<br />

FC) bei Daimler<br />

Systemhersteller STAR<br />

Prozessberater-Team<br />

berns|language|<br />

consulting<br />

Das Ensemble<br />

Eine der großen Herausforderungen war, die Anforderungen des Corporate<br />

Language Management und der beauftragenden Fachbereiche<br />

auf Plausibilität zu prüfen und zu analysieren, ob und wie diese im<br />

neuen System abgebildet werden können. Nicht alle bestehenden Anforderungen<br />

konnten in der neuen Umgebung ohne Weiteres technisch<br />

implementiert werden. Außerdem stand das Ziel, alle Prozesse mit einer<br />

Mindestanzahl an Workflow-Varianten umzusetzen.<br />

Fachliche Projektleitung. Definition der Anforderungen, Konsolidierung<br />

der eigenen Prozesse, Test und Abnahme der Ergebnisse auf der neuen<br />

Umgebung.<br />

Gesamtleitung des Projekts. Prüfen der Umsetzung aller Daimler IT-<br />

Anforderungen, Hard- und Software-Betrieb.<br />

Technische Umsetzung aller Prozesse mit der Produktfamilie James,<br />

Transit und TermSTAR und Beratung bei der Neuprozess-Gestaltung.<br />

Verlängerte Werkbank für CFM/LM zur Unterstützung bei der Projektarbeit<br />

und der Definition der Prozesse.<br />

Automatische Auftragsanlage ist nicht gleich automatische Auftragsanlage<br />

Bei der Umsetzung der automatischen Workflows war die Umsetzung<br />

der Schnittstellen zum Erstellsystem ein Kernthema. Mit jeder weiteren<br />

Schnittstelle gab es neue Herausforderungen zu meistern: Zum einen<br />

hat jedes Erstellsystem seine eigenen Anforderungen an die Datenübermittlung,<br />

zum anderen sollten die vom CFM/LM-Team erstellten<br />

Standards möglichst breitflächig eingesetzt werden, um spätere Weiterentwicklungen<br />

und auch den Betrieb so einfach wie möglich zu gestalten.<br />

In diesem Spannungsfeld wurden sowohl Schnittstellen als auch<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

229


Sprachtechnologie / Language Technology<br />

Übersetzungsworkflows umgesetzt, nicht selten musste man trotz aller<br />

guten Vorsätze vom gemeinsam definierten Standard abweichen, um<br />

den Anforderungen der Erstellsysteme gerecht zu werden.<br />

Universal-Workflow – der Name ist Programm<br />

Der Universal-Workflow muss genau das leisten, was sein Name vermuten<br />

lässt – universal einsetzbar sein für alles, was in einem weltweit<br />

agierenden Unternehmen ohne Content-Management-Systeme abgewickelt<br />

wird. Die Aufträge werden von den Daimler-internen Kunden<br />

online beauftragt und können alles umfassen: Von TMS-fähigen Dokumenten<br />

im Office-, XML-, InDD- etc. Format bis zu nicht automatisch<br />

verarbeitbaren Formaten wie eingescannte Textseiten, Bilder und<br />

PDF-Dokumente.<br />

Auch alle Sprachvarianten können zum Einsatz kommen sowie alle<br />

möglichen Arbeitsschritte, ob Übersetzung, Review, Layout, Marktprüfung<br />

– der Variantenvielfalt sind keine Grenzen gesetzt.<br />

Zu alledem sollte das Handling von Universal-Aufträgen auf Projektmanager-Seite<br />

trotz der unendlichen Auftragsmöglichkeiten beherrschbar<br />

bleiben und Arbeitserleichterung und Zeitersparnis bringen.<br />

Dolmetschen: Workflow ja, Übersetzung nein<br />

Die Idee war, die Dolmetsch-Aufträge auf der gleichen Umgebung wie<br />

die Übersetzungsaufträge zu steuern, so dass die gesamte Auftragsverwaltung<br />

zentral in einem System abgewickelt wird, um doppelte Datenhaltung<br />

zu vermeiden und eine bessere Vernetzung und Wartung zu gewährleisten.<br />

Das Dolmetsch-Management hat andere Anforderungen an<br />

die Auftragsverwaltung als das Übersetzungsmanagement: Es werden<br />

hier keine Daten übersetzt, sondern lediglich Dokumente mitgeschickt,<br />

die den Dolmetschern Informationen über ihren Einsatz liefern.<br />

Die Kunst lag darin, die Anforderungen des Dolmetsch-Managements<br />

umzusetzen, ohne das Übersetzungsmanagement zu beschneiden und<br />

umgekehrt, indem man einen kleinsten gemeinsamen Nenner für Verwaltungs-<br />

und Ansichtsanforderungen definiert.<br />

Last but not least – die betriebswirtschaftliche Komponente<br />

Damit die Zahlen stimmen, wurde die Auftragsdatenbank mit allen<br />

Stammdaten und kaufmännischen Prozessen in das Übersetzungsmanagement-System<br />

integriert. Es musste möglich sein, über alle Workflowund<br />

Auftragsarten mit Lieferanten abzurechnen und die Daten für das<br />

Controlling auf Kosten-, Erlös- und Volumenseite korrekt auszuwerten.<br />

And the winner is …<br />

Letztlich entscheidet der Beitrag zum Unternehmenserfolg, ob dieses<br />

Vorhaben erfolgreich ist.<br />

Welcher Workflow es am Ende in den ‚Recall‘ geschafft hat und ob die<br />

Jury den Super-Workflow küren kann, verraten wir in unserem Vortrag.<br />

Für Rückfragen:<br />

Binke.Fiedler@daimler.com<br />

Kerstin.Berns@berns-language-consulting.de<br />

230<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 2<br />

Fachvortrag<br />

Integration von MT in den<br />

LSP‐Workflow: Eine Pilotstudie<br />

Aljoscha Burchardt, DFKI GmbH, Berlin<br />

Michael Schneider, beo GmbH, Stuttgart<br />

Diese Anwenderstudie berichtet über ein Pilotprojekt, das sich zum<br />

Ziel gemacht hat, maschinelle Übersetzung (MT) in großen Umfang für<br />

Übersetzungen in der Technischen Dokumentation für einen weltweit<br />

agierenden Automobilzulieferer (BOSCH) anzuwenden. Das Pilotprojekt<br />

wurde von einem Sprachdienstleister (beo) und einem Forschungsinstitut<br />

(DFKI) durchgeführt. Erste Ergebnisse haben die Erwartungen<br />

übertroffen.<br />

Vom TM zu MT: Die Ausgangssituation für LSPs<br />

Über den ständig steigenden Preis- und Kostendruck in der Sprachdienstleistung<br />

ist genug geschrieben worden: Die letzte große Innovation,<br />

TM-Technologie, ist ausgereift und ausgereizt und de facto<br />

wollen immer weniger Kunden noch für 100%-Matches bezahlen.<br />

Dennoch soll die Übersetzungsqualität nicht schlechter, die Bearbeitungszeit<br />

aber sogar noch kürzer werden. Dies stellt den LSP vor ein<br />

Ressourcenproblem.<br />

Das MT-System<br />

trainieren<br />

Ergebnisse<br />

Das Pilot-Projekt<br />

Im Bereich der Trainingsmaterialien (hier: Folien) ist die Situation oftmals<br />

sogar noch schlechter gelagert, da solche In-House-Materialien<br />

mitunter gar nicht in den professionellen Überseztungsworkflow kommen<br />

und somit ein Wildwuchs von Materialien in den verschiedenen<br />

Sprachen entsteht. Der Wunsch des BOSCH Automotive Aftermarket<br />

Departments (AA), Materialien in den verschiedenen Sprachversionen<br />

konsistent zu halten, hat den hier vorgestellten Piloten ermöglicht. Als<br />

Trainingsmaterial standen große Mengen mehrsprachiger Schulungsunterlagen<br />

zur Verfügung, die alle eine ähnliche Struktur aufwiesen<br />

sowie inhaltlich repräsentativ für den Fachkontext waren. Außerdem<br />

mussten die Trainingsunterlagen automatisiert verarbeitbar sein.<br />

Im Rahmen des Piloten wurden als erster Schritt eine Vorverarbeitungskette<br />

und eine MT Engine aufgesetzt und die Übersetzungsqualität<br />

bestimmt.<br />

Das MT-System wurde auf vorhandenen Übersetzungen in den Sprachrichtungen<br />

DE-EN und DE-ES trainiert. Die maschinelle Übersetzung<br />

erfolgte auf Satzbasis, d. h., die Folien in der Ausgangssprache DE wurden<br />

automatisch in Sätze gesplittet und dann re-aligniert, also jeweils<br />

die entsprechenden Sätze einander zugeordnet. Danach wurden doppelte<br />

Sätze entfernt und bestimmte Kategorien wie Zahlen, Referenzen<br />

(z. B. „siehe Tabelle X”) oder Formatierungsinformationen markiert, die<br />

direkt übersetzt werden konnten. Schließlich wurden die Daten per Zufall<br />

in das sogenannte Trainings-, Development- und Testset aufgeteilt.<br />

Erstere Sets werden zum Trainieren und Optimieren der MT Engine<br />

verwendet, letzteres zum Testen.<br />

Die erreichte Übersetzungsqualität hat alle Erwartungen übertroffen.<br />

Gemessen mit dem automatischen BLEU Score ergaben sich hierbei<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

231


Sprachtechnologie / Language Technology<br />

Werte um 64 %, während bei internationalen Wettbewerben die besten<br />

MT-Systeme lediglich einen Score von rund 35 % erreichen (menschliche<br />

Übersetzer erreichen einen BLEU Score um 70 %). Diese hohe<br />

Qualität ist der technischen Domäne geschuldet, die sich offensichtlich<br />

bestens für MT eignet.<br />

Der geplante<br />

Produktionsablauf<br />

(Workflow)<br />

Aufwand im Vergleich<br />

zu „traditioneller“<br />

Produktion<br />

Wirtschaftliche Betrachtung<br />

Um zu einer Abschätzung der Wirtschaftlichkeit zu gelangen, musste<br />

zunächst ein Workflow definiert werden, der maschinelle und traditionelle<br />

Übersetzung kombiniert (Grafik 1). Der normalerweise gewählte<br />

Ansatz – das Post-Editing von maschinell übersetzten Segmenten – erschien<br />

dabei aus mehreren Gründen als nicht geeignet:<br />

−−<br />

Ausgebildete Übersetzer sind für reines Post-Editing eigentlich überqualifiziert.<br />

−−<br />

Es werden spezielle Werkzeuge/Oberflächen verwendet, die nicht die<br />

technische Reife wie kommerzielle TM-Systeme besitzen und wichtige<br />

Funktionen vermissen lassen, wie z. B. Terminologie-Unterstützung,<br />

Rechtschreib/Grammatik/Format-Kontrollen etc.<br />

−−<br />

Die Bezahlung für Post-Editoren ist i. d. R. unattraktiv.<br />

Dies alles führt im Extremfall dazu, dass diese für die Qualitätssicherung<br />

wichtige Tätigkeit nicht von den besten möglichen Fachkräften<br />

ausgeführt wird. In diesem Piloten wurde daher der Weg gewählt, die<br />

Ergebnisse der MT wie einen Translation-Memory-Match dem Übersetzer<br />

in seiner vertrauten Arbeitsumgebung, dem TM-System, anzubieten.<br />

So kann, wie bei einem sog. „Fuzzy-Match“, das Post-Editing im Rahmen<br />

eines normalen Übersetzungsprojektes vom Übersetzer geleistet<br />

werden.<br />

Eine Voraussetzung für das sinnvolle Funktionieren ist daher, dass zum<br />

einen das MT-System nicht zu 100 % alle Segmente übersetzt, zum anderen<br />

der Übersetzer erkennen kann, aus welcher Quelle ein vermeintlicher<br />

TM-Match kommt: TM oder MT. Das MT-System muss also einen<br />

Schwellenwert berücksichtigen, unterhalb dessen kein Übersetzungsergebnis<br />

abgeliefert wird, und im TM-System müssen Segmente aus<br />

dem MT- entsprechend markiert werden. Die markierten Segmente<br />

können nach dem Übersetzen/Editieren dann dem MT zum fortlaufenden<br />

Training zurückgeliefert werden.<br />

Die technische Realisierung des o. g. Workflows, insbesondere die Anbindung<br />

von MT und TM-System, findet zur Zeit statt. Bis diese automatische<br />

Anbindung in Betrieb genommen werden kann, werden die<br />

Übersetzungsprojekte und -Dokumente noch manuell für die jeweiligen<br />

Systeme vorbereitet und konvertiert.<br />

Da der geplante Workflow als Erweiterung des Standard-Übersetzungsprozesses<br />

gesehen werden kann, lässt sich der Vergleich auch als<br />

zusätzlicher Aufwand darstellen, dem eine Effizienzsteigerung des TM-<br />

Systems gegenübergestellt wird.<br />

Genauere Daten hierzu sowie eine Break-Even-Analyse werden zum<br />

Zeitpunkt des Vortrages zur Verfügung stehen und präsentiert werden.<br />

232<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

Zusammenfassung und Ausblick<br />

Das hier vorgestellte Pilotprojekt hat gezeigt, dass maschinelle Übersetzung<br />

(MT) von Technischer Dokumentation in Form von Trainingsmaterialien<br />

erstaunlich gut funktioniert. Als nächster Schritt soll MT<br />

in den eigentlichen Übersetzungs-Workflow integriert werden, d. h.,<br />

Nicht-100%-Matches werden durch eine MT übersetzt und dem Übersetzer<br />

als Vorschlag – wie die 100%-Matches vom TM – vorgelegt (siehe<br />

auch Grafik 1) und entsprechend bearbeitet. Als letzter Schritt im<br />

Workflow sollen dann alle Übersetzung wieder in Folien transformiert<br />

werden.<br />

Unser Ziel ist es, durch weitere Experimente die wirtschaftlich sinnvollen<br />

Einsatzmöglichkeiten von MT im Übersetzungsprozess systematisch<br />

zu bestimmen.<br />

Grafik 1: Workflow<br />

für Rückfragen:<br />

aljoscha.burchardt@dfki.de<br />

michael.schneider@beo-doc.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

233


Sprachtechnologie / Language Technology<br />

LT 3<br />

Fachvortrag<br />

Regelbasiertes Schreiben –<br />

sprachübergreifender Ansatz oder<br />

sprachabhängige Regelwerke<br />

Ursula Reuther, Congree Language Technologies GmbH, Karlsbad<br />

Immer häufiger trifft man in Redaktionen, die Technische Dokumentation<br />

erstellen, auf mehr oder weniger verbindliche Regelwerke, die die<br />

sprachliche, zum Teil auch die damit verbundene formale Ausgestaltung<br />

der zu erstellenden Informationen regeln sollen. Diese Regelwerke<br />

firmieren unter verschiedenen Bezeichnungen, wie Style Guide, Redaktionshandbuch,<br />

Redaktionsleitfaden, Schreibregeln etc.<br />

Alle haben sie zum Ziel, sprachliche Vorgaben zu definieren, um die<br />

Erschließung und die Verständlichkeit – und somit auch die Übersetzbarkeit<br />

– der Informationen zu erleichtern. Diese Regelwerke sind oft<br />

unternehmens- oder abteilungsspezifisch, es gibt jedoch auch Regelwerke,<br />

die eher generischen Charakter haben und auf die Technische<br />

Kommunikation allgemein anwendbar sind. Allerdings beziehen sie sich<br />

immer nur auf eine Sprache.<br />

Deutsch<br />

Englisch<br />

Andere Sprachen<br />

Sprachen<br />

So gibt es für das Deutsche eine Vielzahl von Regelwerken, die innerhalb<br />

eines Unternehmens entwickelt wurden und auch nur dort zum<br />

Einsatz kommen. Ein allgemein verfügbares und anleitendes Regelwerk,<br />

um einen redaktionellen Leitfaden zu erstellen, gibt es in Form<br />

der <strong>tekom</strong>-Leitlinie „Regelbasiertes Schreiben.“ Daneben existieren<br />

auch andere öffentliche Publikationen, die sich des Themas Sprachregelung<br />

annehmen, jedoch eher unter dem Aspekt des „übersetzungsgerechten<br />

Schreibens“. Des Weiteren allgemein verfügbar sind Richtlinien<br />

zu formal-funktionalen Vorgaben (z. B. Funktionsdesign, Information<br />

Mapping), die kombiniert mit sprachlichen Regelungen in der Technischen<br />

Dokumentation Anwendung finden.<br />

Das nach wie vor bekannteste Regelwerk für Englisch im Bereich der<br />

Technischen Dokumentation sind die Spezifikationen des ASD100 STE<br />

für die Branche der Luft- und Raumfahrt. Für die Software-Branche<br />

stehen der MS Style Guide und der IBM Style Guide zur Verfügung.<br />

Aber auch andere Unternehmen wie z. B. Boeing, Caterpillar, Ericsson,<br />

General Motors, Kodak, Nortel und Xerox haben schon in den 90er Jahren<br />

ihre firmenspezifische (Kontrollierte) Sprache definiert. Allgemeiner<br />

gehalten hingegen, und für alle schreibenden Berufe intendiert, ist<br />

das Chicago Manual of Style und der Global English Style Guide, wobei<br />

letzterer in seiner Regelsammlung auch sprachverarbeitenden Systemen<br />

wie Controlled Language Checker und MÜ-Systemen sowie dem<br />

Übersetzungsaspekt allgemein explizit Rechnung trägt.<br />

Für andere Sprachen wie beispielsweise für Französisch, Spanisch etc.<br />

gibt es durchaus Bestrebungen, eine regelbasierte Kontrollierte Sprache<br />

zu entwickeln, aber dies jedoch immer in Anlehnung an die Regeln<br />

des Simplified English (SE). Sowohl für Französisch (GIFAS Français<br />

rationalisé) als auch für Spanisch (STS – Simplified Technical Spanish)<br />

wurden hierfür die SE-Regeln auf ihre Anwendbarkeit in der jeweils<br />

anderen Sprache überprüft und je nach Tauglichkeit übernommen oder<br />

234<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

Aufbau und Zielgruppe<br />

verworfen. Ein weiterer Ansatz, fürs Französische eine Kontrollierte<br />

Sprache zu entwickeln, entstammt dem Bereich der technischen Übersetzung<br />

und versteht sich – ähnlich der <strong>tekom</strong>-Leitlinie – als praxisorien<br />

tierte Sammlung von so genannten Best-Practice-Regeln.<br />

Jedem dieser Regelwerke liegt eine Klassifikation zugrunde, die dem<br />

Anwender den Zugang erleichtern soll. In deutschen Handbüchern orientiert<br />

sich diese entweder an sprachlich-linguistischen Kriterien und<br />

Phänomenen (z. B. Passiv) oder aber an strukturellen Gegebenheiten<br />

(z. B. Warnhinweise).<br />

In englischsprachigen Werken fällt auf, dass formalen Themen wie<br />

Schreibnormen, Abkürzungen und Interpunktion viel Raum und Gewicht<br />

beigemessen wird und sprachliche Phänomene eher oberflächlich<br />

und wenig granular behandelt werden.<br />

In verfügbaren deutschen Regelwerken wird oftmals detaillierter auf<br />

sprachlicher Ebene und/oder funktionaler Ebene gegliedert. Dies mag<br />

daran liegen, dass durch Normen (z. B. DIN 5008) und andere Standardregelwerke<br />

für Deutsch (z. B. Duden) bereits ein Standard verfügbar<br />

ist, der für bestimmte Themen, wie z. B. Interpunktion, vorausgesetzt<br />

wird.<br />

Übertragbarkeit der Regeln<br />

Wenn man die Methode der Übertragung von Regeln wählt, um Vorgaben<br />

für eine andere Sprache zu definieren, müssen zwei wesentliche<br />

Punkte betrachtet werden.<br />

−−<br />

Welches Regelwerk bzw. welche Sprache wird als Ausgangsbasis herangezogen?<br />

Auf diese Entscheidung hat sowohl der intendierte Anwendungsbereich<br />

als auch der Grad der Sprachverwandtschaft einen<br />

Einfluss.<br />

−−<br />

Sollen „nur“ so genannte Meta-Regeln übertragen werden oder auch<br />

konkrete sprachliche und/oder formale Regelungen?<br />

In der Regel ist die Übertragbarkeit von Meta-Regeln weniger<br />

schwierig, da es sich hierbei um allgemein gültige Regeln, wie z. B.<br />

„Vermeiden Sie Mehrdeutigkeiten“ handelt. Wohingegen Regeln,<br />

die auf bestimmte sprachliche Phänomene, wie z. B. Gerundium-<br />

Konstruktionen, abzielen, je nach Sprache durchaus unterschiedlich<br />

bewertet werden können.<br />

Bei dieser Methode werden alle Ausgangsregeln auf ihre Anwendbarkeit<br />

für die „neue“ Sprache überprüft und gegebenenfalls übernommen<br />

und eventuell auf Basis von vorliegendem Textmaterial um weitere<br />

Regeln ergänzt.<br />

Die Quote der Regeln, die übertragbar sind, richtet sich stark nach deren<br />

Granularität und danach, ob es sich um Meta-Regeln oder um Phänomen-orientierte<br />

Regeln handelt. Bei letzteren kann das Phänomen<br />

durchaus auch übertragbar sein, jedoch unterscheidet sich die sprachliche<br />

Realisierung.<br />

Generische vs. sprachspezifische Regeln<br />

Gemäß vorgenannten Kriterien lassen sich drei Arten von Regeln<br />

unterscheiden:<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

235


Sprachtechnologie / Language Technology<br />

Sprachunabhängige<br />

Regeln<br />

Meta-Regeln<br />

Sprachspezifische<br />

Regeln<br />

Allgemein gültige Regeln, die sprachunabhängig gelten können und<br />

auch in Style Guides für unterschiedliche Sprachen zu finden sind, wie<br />

z. B.<br />

−−<br />

Satzlängenbeschränkungen<br />

−−<br />

Ziel der Handlung vor der Handlung selbst nennen<br />

−−<br />

Anzahl der Klammereinschübe pro Satz beschränken<br />

−−<br />

Zahlen immer durch Ziffern darstellen<br />

So genannte Meta-Regeln, die sich auf sprachübergreifende Phänomene<br />

beziehen, deren sprachliche Realisierung aber sprachspezifisch ist.<br />

Dazu zählen z. B. folgende Regeln:<br />

−−<br />

unpersönliche Formulierungen vermeiden<br />

– Mehrdeutigkeiten vermeiden<br />

−−<br />

komplexe Attribute vermeiden<br />

Sprachspezifische Regeln, die ausschließlich für eine Sprache relevant<br />

sind. Beispiele fürs Deutsch sind:<br />

−−<br />

elliptische Kompositakonstruktionen vermeiden (Ein- und Ausbau)<br />

−−<br />

Distanz zwischen Verb und abgetrenntem Präfix minimieren<br />

−−<br />

Substantivform ohne Schwa-Auslaut verwenden (Tür vs. Türe)<br />

Umsetzung in Sprachprüfsoftware<br />

Sofern kein Weltwissen und kein textpragmatisches Wissen vorausgesetzt<br />

wird, können alle Regeln von Sprachprüfwerkzeugen überprüft<br />

werden. Manche Regeln können mit rein statistischen Verfahren überprüft<br />

werden, so dass die Überprüfung auch sprachunabhängig stattfinden<br />

kann. Dies gilt vor allem für die Regeln der ersten Kategorie, bei<br />

denen kein sprachliches Wissen nötig ist.<br />

Der Großteil der Regeln kann jedoch nur mit linguistisch basierten<br />

Programmen überprüft werden, die auf sprachspezifischen Analysekomponenten<br />

basieren. So muss für eine maschinelle Überprüfung der<br />

Vorgaben zumindest pro Sprache ein Prüfprogramm zur Verfügung stehen.<br />

Unterschiedliche Regelausprägungen und -zusammenstellungen,<br />

die unterschiedlichen Anwendungsszenarien geschuldet sind, können<br />

im Einzelnen über eine entsprechende Konfigurationskomponente der<br />

Prüfsoftware verwaltet und gepflegt werden.<br />

für Rückfragen: ureuther@congree.com<br />

236<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 4<br />

Fachvortrag<br />

Komplexität des Lifecycle-Managements<br />

multilingualer Inhalte<br />

Harald Elsen, DELTA International CITS GmbH, Bonn<br />

Dr. Andrew Bredenkamp, Acrolinx GmbH, Berlin<br />

Für jede Lifecycle-Stufe (Bearbeitungsstufe) multilingualer Inhalte<br />

stehen unterstützende Systeme zur Verfügung (Autoren-, TM-Systeme<br />

etc.). Diese Systeme werden meist für ihre jeweiligen Bearbeitungsstufen<br />

optimiert eingesetzt und für den intendierten Einsatz angemessen<br />

gepflegt.<br />

Aber die inhaltlichen Ressourcen verändern sich mit der Zeit, so dass<br />

z. B. Terminologien, Style Guides, CMS-Inhalte und TM-Datenbanken<br />

nicht mehr den aktuellen Vorgaben und sprachlichen Entwicklungen<br />

der aktuellen Inhalte entsprechen.<br />

Betrachtet man eine exemplarische Darstellung der Bearbeitungsstufen<br />

zur Erstellung multilingualer Inhalte und skizziert die in den jeweiligen<br />

Bearbeitungsstufen verwendeten Tools und Ressourcen, dann schafft<br />

man sich einen ersten Überblick über die komplexen Zusammenhänge<br />

der Aufgaben, Tools und Ressourcen (s. Abbildung 1: Exemplarischer<br />

Überblick: Bearbeitungsstufen, Tools und Ressourcen). Man erkennt<br />

schnell, dass jede Veränderung, die die sprachlichen Inhalte betreffen,<br />

weitreichende Auswirkungen auf alle Bearbeitungsstufen mit sich ziehen,<br />

wie z. B.:<br />

−−<br />

Entscheidet das Produktmanagement eine Veränderung des sprachlichen<br />

Stils, dann sind alle sprachlichen Ressourcen betroffen und<br />

müssen angepasst werden. Es stellt sich zudem die Frage, ob vorhandene<br />

Inhalte früherer Produkte angepasst werden müssen, um wiederverwendet<br />

werden zu können.<br />

−−<br />

Stellt die Entwicklung von zyklischen Veröffentlichungen (Release)<br />

auf kontinuierliche Verteilung um, dann müssen für die kleineren<br />

Inhaltsmengen die Prozesse maximal optimiert werden, damit der<br />

Prozessaufwand für die geringen Inhaltmengen nicht zu hoch wird.<br />

Solche Änderungen haben weitreichende Auswirkungen auf Kosten<br />

und Zeitaufwände, die bei der Planung zu berücksichtigen sind. Zudem<br />

nimmt die Prozesskomplexität mit einer steigenden Anzahl von Zielsprachen<br />

zu. Die Erstellung multilingualer Inhalte ist keine sequentielle<br />

und vorwiegend kreative Tätigkeit mehr, sondern sie gleicht immer<br />

mehr einer komplexen und hocheffizienten industriellen Fertigung.<br />

Somit geht es auch nicht mehr nur um das Management und die Optimierung<br />

des zentralen Produktionsprozesses, sondern auch um das<br />

Management und die kreative Optimierung der verwendeten Ressourcen<br />

und Tools, wie z. B.:<br />

−−<br />

Wie hält man die Terminologie für die verschiedenen Tools möglichst<br />

synchron?<br />

−−<br />

Gibt es Tools, die schon ab der Konzeptionsphase eines neuen Produkts<br />

das Sammeln von neuer Terminologie unterstützen?<br />

−−<br />

Warum wird das Autorensystem nicht in der zielsprachigen Qualitätssicherung<br />

oder zur Pflege von Translation-Memory-Datenbanken<br />

(Memory Pollution) eingesetzt?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

237


Sprachtechnologie / Language Technology<br />

Abb. 1: Exemplarischer Überblick: Bearbeitungstufen, Tools und<br />

Ressourcen<br />

238<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

−−<br />

Gibt es Qualitätsprüfungssysteme, die vielleicht die schlechten maschinell<br />

vor-übersetzten Segmente herausfiltern können, damit dem<br />

Übersetzer nur qualitativ gute maschinell vor-übersetzte Segmente<br />

als Übersetzungsvorschlag angeboten werden?<br />

−−<br />

Fließen Erkenntnisse aus späten Bearbeitungsstufen in frühere Bearbeitungsstufen<br />

zurück, um so möglichst früh negative Einflüsse auf<br />

die Prozesskette zu vermeiden?<br />

In dem Vortrag werden Beispiele aus 20 Jahren Erfahrung aus Forschung<br />

und Praxis gezeigt und diskutiert, in denen z. B. die Bearbeitungsstufen<br />

nicht optimal aufeinander abgestimmt waren oder<br />

aufgrund fehlender Ressourcenpflege unnötige Aufwände betrieben<br />

wurden.<br />

Aber es werden auch Anregungen gegeben, wie mit vorhandenen<br />

Sprachtechnologien nicht nur am „Produkt“ gearbeitet werden kann,<br />

sondern auch die verwendeten Ressourcen aus anderen Bearbeitungsstufen<br />

effizient und kreativ gepflegt sowie erweitert werden können.<br />

Rückfragen an ...<br />

Harald Elsen, harald.elsen@dicits.com<br />

Dr. Andrew Bredenkamp, andrew.bredenkamp@acrolinx.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

239


Sprachtechnologie / Language Technology<br />

LT 5<br />

Fachvortrag<br />

Informationssicherheit in<br />

Übersetzungsprozessen<br />

Stefan Kreckwitz, Across Systems GmbH, Karlsbad<br />

Informationen sind Werte<br />

Informationen stellen echte Werte dar. Ihr Besitz kann uns einen Wettbewerbsvorteil<br />

verschaffen oder die Kenntnis kann uns vor Schaden<br />

bewahren. In Übersetzungsprozessen werden nicht selten sehr wertvolle<br />

Werte wie neue Produktideen, anzumeldende Patente oder Handbücher<br />

für Messeneuheiten verarbeitet. Jeder, der derartige Dokumente<br />

weitergibt oder zur Übersetzung zur Verfügung gestellt bekommt, hat<br />

eine nicht zu unterschätzende Verantwortung.<br />

Informationssicherheit allgemein<br />

ISO/IEC 20000 ist eine international anerkannte Norm zum IT-Service-<br />

Management. In Teil 2 dieser Norm wird Informationssicherheit wie<br />

folgt definiert:<br />

„Informationssicherheit ist das Ergebnis eines Systems von Strategien<br />

und Verfahren zur Identifizierung, Kontrolle und zum Schutz von Informationen<br />

und Geräten, die im Zusammenhang mit ihrer Speicherung,<br />

Übermittlung und Verarbeitung genutzt werden.“<br />

Auf Basis dieser Definition können drei Grundwerte der Informationssicherheit<br />

abgeleitet werden:<br />

−−<br />

Verfügbarkeit: Hardware, Software, Daten<br />

−−<br />

Integrität: Nicht autorisierte Änderungen verhindern oder erkennen<br />

−−<br />

Vertraulichkeit: Sensitive Daten vor unerwünschtem Zugriff schützen<br />

Das Ziel der Informationssicherheit ist es, die Grundwerte vor Bedrohungen<br />

zu schützen. Im Groben kann man hier fünf verschiedene Arten<br />

der Bedrohung unterscheiden:<br />

−−<br />

Höhere Gewalt: Feuer, Wasserschaden, Blitzschlag, …<br />

−−<br />

Organisatorische Mängel: Fehlende Verantwortlichkeiten, mangelnde<br />

Zutrittskontrolle, …<br />

−−<br />

Menschliche Fehlhandlungen: Benutzerfehler, Verwechslung von<br />

Daten, …<br />

−−<br />

Technisches Versagen: Stromausfall, Festplattenfehler, …<br />

−−<br />

Vorsätzliche Handlungen: Diebstahl, Manipulation, Computer Viren,<br />

…<br />

Übersetzungsprozesse<br />

Übersetzungsprozesse sind heutzutage hochgradig verteilt. Selbst für<br />

die Übersetzung eines einzelnen Dokuments in mehrere Sprachen werden<br />

verschiedene Personen oder Firmen eingebunden:<br />

−−<br />

Mitarbeiter vor Ort<br />

−−<br />

Landesgesellschaften<br />

−−<br />

Freie Mitarbeiter<br />

−−<br />

Dienstleister<br />

Nicht selten ergibt sich mit oder ohne Wissen des Auftraggebers eine<br />

Kette von Dienstleistern und freien Mitarbeitern, die die Aufträge<br />

240<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

entweder nur weiterreichen oder partiell bearbeiten. Die Projektbeteiligten<br />

arbeiten über die ganze Welt verteilt und in aller Regeln mit einer<br />

unterschiedlichen Infrastruktur.<br />

Informationssicherheit heißt somit für den Auftraggeber, nicht nur<br />

innerhalb seines Einflussbereichs entsprechende Risiken zu identifizieren<br />

und Maßnahmen zu ergreifen. Es muss vielmehr berücksichtigt<br />

werden, wie bei jedem einzelnen Prozessbeteiligten, bei den Übergängen<br />

zwischen den Prozessbeteiligten und im Gesamtprozess Informationssicherheit<br />

gewährleistet wird.<br />

Verfügbarkeit in Übersetzungsprozessen<br />

Um die Verfügbarkeit zu gewährleisten oder zu erhöhen, kommen vor<br />

allem allgemeine Maßnahmen der Informationstechnologie zum Tragen.<br />

Stichworte sind hier: Regelmäßige Datensicherung, Wiederherstellungspläne,<br />

Virenschutz, Monitoring kritischer Systeme, Blitzschutz, …<br />

In Szenarien, in denen wichtige Inhalte extern übersetzt werden, ist es<br />

empfehlenswert, dass der Auftraggeber seinem Dienstleister Vorgaben<br />

macht oder auf einen zentralen Ansatz setzt.<br />

Integrität in Übersetzungsprozessen<br />

Integrität sicherzustellen heißt vor allem, nicht autorisierte Änderungen<br />

zu verhindern oder zumindest zu erkennen. Der Schutz der Integrität<br />

beginnt mit dem Schutz durch Passwörter, sollte aber nicht darauf beschränkt<br />

werden. Oftmals sind es Fehlbedienungen autorisierter Benutzer,<br />

die ein Risiko für die Integrität darstellen. Hier sind zum einen<br />

die Hersteller der verwendeten Programme gefordert, Fehlbedienungen<br />

durch entsprechende Bedienbarkeit und Prüfmechanismen zu vermeiden.<br />

Andererseits sind aber auch die Benutzer gefordert, sich mit<br />

den Werkzeugen auseinanderzusetzen und regelmäßig Schulungen zu<br />

besuchen.<br />

Im Kontext von Integrität spielt des Weiteren Nachvollziehbarkeit eine<br />

wichtige Rolle. Wurde eine unerwünschte Änderung bemerkt, ist es<br />

wichtig festzustellen, wer diese Änderung durchgeführt hat und wann<br />

sie gespeichert wurde. In verteilten und heterogenen Umgebungen mit<br />

vielen externen Akteuren ist dies in manchen Fällen unmöglich, wenn<br />

nicht entsprechende Vorkehrungen getroffen wurden. Wenn Nachvollziehbarkeit<br />

für ein Unternehmen eine wichtige Rolle spielt, sollte das<br />

System, das den Übersetzungsprozess steuert, die Nachvollziehbarkeit<br />

sicherstellen und es ermöglichen, jede Änderung einem namentlich<br />

bekannten Benutzer zuzuordnen.<br />

Vertraulichkeit in Übersetzungsprozessen<br />

Unter den oben beschriebenen Rahmenbedingungen von Übersetzungsprozessen<br />

ist es eine große Herausforderung, Vertraulichkeit zu<br />

wahren. Organisatorische Maßnahmen sind hier definitiv nicht ausreichend.<br />

Vertraulichkeit muss durch Prozesse und Werkzeuge gewahrt<br />

werden. Nur so lässt sich Missbrauch ausschließen.<br />

Je offener und heterogener ein Prozess ist, desto mehr Risiken ergeben<br />

sich durch die Anzahl der verschiedenen Umgebungen und die<br />

Übergänge zwischen den Prozessbeteiligten. Im Vorteil sind hier geschlossene<br />

Systeme, denn nur sie können für alle Prozessbeteiligten die<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

241


Sprachtechnologie / Language Technology<br />

Zugriffsrechte steuern und somit verhindern, dass Daten unkontrolliert<br />

gespeichert oder weitergegeben werden. Darüber hinaus können derartige<br />

Systeme die Verschlüsselung von Daten zwischen Prozessbeteiligten<br />

erzwingen und somit ein unerwünschtes Mitlesen der Daten<br />

verhindern.<br />

Wenn sensible Daten für die Übersetzung das eigene Haus verlassen<br />

müssen, sollte sichergestellt sein, dass die Daten nach Bearbeitung<br />

durch den externen Übersetzer nicht auf dessen Rechner<br />

verbleiben. Dies gilt sowohl für Translation Memorys als auch für<br />

Terminologielisten.<br />

Zusammenfassung<br />

Informationssicherheit wird bei Übersetzungsprozessen nicht ausreichend<br />

Beachtung geschenkt. Selbst in hochsensiblen Bereichen wie der<br />

Pharmaindustrie und der Finanzwirtschaft werden vertrauliche Inhalte<br />

oft in offenen Dokumentenformaten und in unkontrollierbaren Prozessen<br />

an eine Vielzahl von Übersetzern herausgegeben. Während einerseits<br />

Werksbesucher einer intensiven Sicherheitskontrolle unterzogen<br />

werden, werden andererseits hochsensible Inhalte in offenen Textdokumenten<br />

oder in offenen Excel-Dateien per E-Mail an Übersetzungsdienstleister<br />

versendet, die ihrerseits – vom Auftraggeber unkontrollierbar<br />

– an freiberufliche Übersetzer subdelegieren. Die in der Praxis<br />

gelebten Prozesse setzen wertvolle Informationen Risiken aus, die über<br />

personelle, organisatorische oder technische Maßnahmen minimiert<br />

werden können. Die dringliche Empfehlung des Autors ist es, sich mit<br />

dem Thema zu befassen und ein Bewusstsein für die Risiken im aktuellen<br />

Prozess zu gewinnen.<br />

für Rückfragen: skreckwitz@across.net<br />

242<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 6<br />

Fachvortrag<br />

Mehrwerte ohne mehr Worte:<br />

Terminologie im synergetischen<br />

Kontext von Maschine und Mensch<br />

Horst Liebscher, text + form, Berlin<br />

Vorab<br />

Eine firmenspezifische Terminologie prägt das kulturelle Antlitz eines<br />

Unternehmens. Früher war ihre Erstellung vor allem teuer. Heute ist sie<br />

in einer Fülle von Kontexten verankert.<br />

Aber gerade dieser Umstand macht die Sache besonders kompliziert.<br />

Denn Inhalte gleicher Intention in verschiedenen Systemen geraten<br />

leicht zu konkurrierenden Datenbeständen. Genau das gilt für Terminologiebestände<br />

oder Daten, die strikten terminologischen Vorgaben<br />

folgend aufgebaut sind oder das sein sollten.<br />

Im Folgenden werden drei neue Begriffe eingeführt und es wird beschrieben<br />

[und im Fachvortrag selbst wird direkt gezeigt], wie man mit<br />

den Komponenten aus der Welt von Autorenunterstützung und Maschineller<br />

Übersetzung<br />

−−<br />

den Konfliktgrad eines Terminologiebestandes ermittelt,<br />

−−<br />

den Repräsentanzgrad gezielt erweitert<br />

−−<br />

und den Terminologiebedarf bestimmt.<br />

Dabei wird zwischen den verschiedenen Anwendungsfällen vermittelt,<br />

um maximale Synergien zu erschließen.<br />

„Aufgelöste“<br />

Terminologie<br />

Aktiv, ungenutzt,<br />

vermisst<br />

Die Terminologie und ihre Abbilder<br />

Ob eine Firmenterminologie per Deklaration existiert oder nicht – in<br />

den verschiedensten Datenbeständen werden Termini verwendet, die<br />

in ihrer Gesamtheit jener Begriffsschatz sind, der das firmenspezifische<br />

Etwas eines Unternehmens ausmacht.<br />

Unabhängig von selbsterstellten Excel- oder Wordlisten, Access- und<br />

anderen Datenbanken oder auch unter Tastaturen festgeklebten Notizzetteln<br />

befinden sich diese Benennungen „quasi aufgelöst“ in den<br />

vielfältigsten Presales- und After-Sales-Dokumentationen, Content-<br />

Management-Systemen, direkt in der Software, im ERP-System und<br />

noch hier und noch da und noch dort – aber auch in den Beständen der<br />

jemals involvierten Translation-Management-Systeme.<br />

Dieser Benennungsschatz ist „sowieso vorhanden“. Er muss nur noch<br />

gehoben und zu einem Begriffsschatz erhoben werden.<br />

Wenn eine solche Datenlage gegeben ist – und auch wenn es sich bereits<br />

um eine begrifflich organisierte Terminologie handelt –, sollte man<br />

sich irgendwann die Frage stellen: Was ist die denn wert?<br />

Welche Terme werden tatsächlich aktiv genutzt, welche werden vermisst,<br />

welche klingen interessant und nützlich – werden in der Praxis<br />

aber gar nicht verwendet?<br />

Wir zeigen nun anhand konkreter Beispiele, wie man eine solche Klassifizierung<br />

vornehmen kann.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

243


Sprachtechnologie / Language Technology<br />

Zwei sinnvolle<br />

Begrifflichkeiten<br />

Der Terminologiebedarf<br />

einer Textmenge<br />

Der<br />

Repräsentationsgrad<br />

einer Terminologie<br />

Im Folgenreich<br />

Heikle Entscheidungen<br />

Um den Wert eines Terminologiebestandes beziffern zu können, führen<br />

wir zwei Begriffe ein – den Begriff des Terminologiebedarfs einer Textmenge<br />

und den Begriff des Repräsentationsgrades einer Terminologie.<br />

Beide Parameter beschreiben das Verhältnis von Terminologie und<br />

Inhalt: einen Terminologiebestand aus Sicht einer betrachteten Textmenge<br />

bzw. eine Textmenge aus Sicht eines in Beziehung gesetzten<br />

Terminologiebestandes.<br />

„Der Terminologiebedarf einer Textmenge ist die Differenz aus der Anzahl<br />

der darin enthaltenen sinnvollen Termkandidaten und der Anzahl<br />

aktiver Terme in einem Terminologiebestand.“<br />

Das klingt ganz einfach. Aber die notwendigen Werte muss man praktisch<br />

erst einmal ermitteln.<br />

„Der Repräsentationsgrad einer Terminologie ist das numerische Verhältnis<br />

aus der Anzahl der darin enthaltenen aktiven Terme und der<br />

Anzahl sinnvoller Termkandidaten, jeweils aus Sicht einer betrachteten<br />

Textmenge.“<br />

Wenn alle potenziellen Terme in einer Textmenge tatsächlich auch<br />

schon aktive Mitglieder in der verwendeten Terminologie sind, ist der<br />

Repräsentationsgrad 100 %. Wenn dagegen kein ermittelter Termkandidat<br />

im aufgebauten Terminologiebestand vorhanden ist – unabhängig<br />

davon, wie groß der inzwischen geraten ist –, ist das Verhältnis 0 %.<br />

Auch das klingt simpel, ist aber folgenreich.<br />

Was nützt einem die größte Terminologie, wenn sie nicht die Bedürfnisse<br />

der betrachteten Inhalte trifft? Und wenn es hier ein Missverhältnis<br />

gibt – was folgt daraus?<br />

Ist dann die Terminologie – erwachsen aus verschiedenen Teilbeständen,<br />

deren Vorgeschichte ohnehin „schon immer ganz mysteriös“ schien<br />

– kaum etwas wert, oder schreiben die Autoren „falsch“ bzw. ungenau?<br />

Eine solche Situation ist nicht frei erfunden. Nicht alle Anwender können<br />

sich sicher sein, dass der enorme Aufwand, den sie in die Erstellung<br />

des Terminologiebestandes gesteckt haben, tatsächlich eine effektive<br />

Investition war bzw. ist. Vor allem jene, die verschiedene Datenbestände<br />

zusammenführen mussten, ahnen oft kaum, wie die zusammengeführte<br />

Datenmenge nun ihre terminologischen Grundbedürfnisse<br />

widerspiegelt.<br />

Das zu wissen, ist aber wichtig für die konkrete Ausgestaltung des Prozesses<br />

der Erstellung und Lokalisierung von Terminologie.<br />

Ein hoher Terminologiebedarf kann bedeuten, dass man sich aus pragmatischer<br />

Sicht zunächst auf einzelne Inhaltsarten fokussiert und nicht<br />

versucht, einen repräsentativen Gesamtbestand aufzubauen.<br />

Ein niedriger Repräsentationsgrad kann es sinnvoll erscheinen lassen,<br />

dass man aus pragmatischer Sicht zunächst den aktuellen Terminologiebestand<br />

außer Acht lässt.<br />

Eine solche Entscheidung muss immer auch mit Rücksicht darauf getroffen<br />

werden, welche Folgen etwaige Änderungen haben werden:<br />

Auch inkonsistente Datenbestände können nicht ohne Weiteres harmonisiert<br />

werden, wenn es sich um aktive Begriffe in sensiblen Bereichen<br />

(im ERP-System / aktive, haftungsrelevante Dokumente) handelt.<br />

244<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

Die unterschiedlichen<br />

Blickwinkel<br />

verschiedener<br />

Werkzeuge<br />

Das Konfliktpotenzial<br />

serieller Einzelbestände<br />

Methodik zur Ermittlung<br />

des Konfliktpotenzials<br />

Konsolidierung von<br />

Teilbeständen zu einem<br />

Gesamtbestand<br />

Hier müssen Inkonsistenzen unter Umständen temporär hingenommen<br />

werden. Das wiederum sollte bei der Ausgestaltung der Struktur des<br />

Terminologiebestandes bedacht werden.<br />

Das Heben des Terminologieschatzes ist in der Regel eine mühselige<br />

Angelegenheit, wenn man versucht, die robusten Werkzeuge aus der<br />

Welt der Translation-Memory-Systeme oder andere, ähnlich gestrickte<br />

Komponenten zu verwenden, die mit Linguistik nicht viel am Hut<br />

haben.<br />

Effiziente Terminologieprozesse können tatsächlich nur mit linguistischen<br />

Werkzeugen abgebildet werden, mit deren Hilfe zum Beispiel die<br />

Grundformen in der Terminologiedatenbank recht verlässlich mit den<br />

oft flektierten Formen in einem Text abgeglichen werden können.<br />

Auf diese Weise können auch der Repräsentationsgrad einer Terminologie<br />

und der Terminologiebedarf einer Textmenge sinnvoll ermittelt<br />

werden.<br />

Wir zeigen das im Fachvortrag an konkreten Beispielen in einer exemplarisch<br />

gestalteten Arbeitsumgebung.<br />

Ein Eintrag und seine Konkurrenten<br />

Wie kommt man zu einem notwendigen, harmonisierten Gesamtbestand,<br />

wenn Terminologie bislang separat, an verschiedenen Orten<br />

entstand?<br />

Es kann interessant sein zu wissen, welche potenziellen Konflikte in<br />

einem zusammengeführten Terminologiebestand oder zwischen verschiedenen<br />

betrachteten Einzelbeständen vorliegen.<br />

Die Kenntnis der Anzahl möglicher Konflikte kann dabei helfen, den<br />

Aufwand für die Herstellung einer konsolidierten Gesamtterminologie<br />

zu beziffern.<br />

Wir zeigen in unserer exemplarischen Arbeitsumgebung, nach welcher<br />

Methodik Konfliktmatrizen berechnet werden können, die einerseits<br />

ein Bild von der Diffusität eines Terminologiebestandes zeichnen und<br />

die andererseits auch als Brille genutzt werden können, um potenzielle<br />

Konflikte aufzulösen oder Benennungen innerhalb eines Konzepts als<br />

sinnvolle Synonyme zu bestimmen.<br />

Um jedoch eine effiziente Vorgehensweise festzulegen, sollten zunächst<br />

der Repräsentationsgrad der einzelnen Bestände für besonders relevante<br />

Textmengen und zweitens der Terminologiebedarf dieser Textmengen<br />

bezogen auf den jeweiligen Terminologie-Teilbestand ermittelt<br />

werden.<br />

Bei einer solchen Vorgehensweise kann oft schon die Spreu vom Weizen<br />

getrennt und ermittelt werden, für welche Datenbestände man welche<br />

Mühe sinnvoll aufwenden sollte.<br />

Und das macht man dann.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

245


Sprachtechnologie / Language Technology<br />

Die heilige Dreifaltigkeit<br />

der Terminologie<br />

Sehnsucht nach<br />

Synergie …<br />

… und linguistische<br />

Intelligenz<br />

Mehrwerte ohne mehr Worte<br />

Klassischerweise spielt Terminologie in drei zentralen Anwendungsfeldern<br />

eine tragende Rolle:<br />

−−<br />

Terminologie im Kontext der Autorenunterstützung<br />

−−<br />

Terminologie im Übersetzungsprozess<br />

−−<br />

Terminologie im Kontext maschineller Übersetzung<br />

Zudem sollte man auch alle weiteren denkbaren Nutzungsmöglichkeiten<br />

bedenken, wie die ganz profane Veröffentlichung im Web, das Ausspielen<br />

von spezifisch strukturierten Extrakten für spezielle Anwendungsfälle<br />

etc.<br />

In den unterschiedlichen Arbeitsprozessen folgen aus unterschiedlichen<br />

Funktionalitäten und Konzepten der unterstützenden Systeme<br />

differierende Anforderungen an terminologische Strukturen.<br />

Es ist schon allein mit Blick auf limitierte Ressourcen im Sinne von<br />

Zeit- und Geldbudgets sinnvoll, sich im beschriebenen Anwendungsdreieck<br />

zentral zu bewegen, dabei redundante Tätigkeiten möglichst<br />

zu vermeiden, stattdessen die tangierten Komponenten sinnvoll zu<br />

verdrahten.<br />

An Werkzeugen zur Verfügung stehen die linguistisch arbeitenden<br />

Komponenten aus der Welt der Textanalyse und Autorenunterstützung<br />

sowie regelbasierte Systeme aus der Welt der Maschinellen<br />

Übersetzung.<br />

Wir zeigen in unserer exemplarischen Arbeitsumgebung, wie diese<br />

Systeme in unsere Analyse- und Konsolidierungsprozesse eingebunden<br />

werden können.<br />

Welcher praktische, synergetische Nutzen dabei erschlossen werden<br />

kann, ist sicher von Fall zu Fall verschieden. Dass aber die beschriebene<br />

Herangehensweise von fundamentalem Nutzen sein kann – das ist allen<br />

Szenarien gleich.<br />

für Rückfragen: horst_liebscher@textform.com<br />

246<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 7<br />

Fachvortrag<br />

Problemstellung<br />

TMs werden<br />

immer größer<br />

Reif für die Prüfung? – Linguistische Verfahren<br />

zur Kontrolle von Translation Memorys<br />

Prof. Dr. Christoph Rösener, Institut der Gesellschaft zur Förderung der Angewandten<br />

Informationsforschung (IAI), Saarbrücken / Studiengang Internationale<br />

Fachkommunikation (IFK), Fachhochschule Flensburg<br />

Immer mehr Firmen sind zunehmend mit dem Problem konfrontiert,<br />

dass ihre mittlerweile über Jahre hinweg angewachsenen Übersetzungsspeicher<br />

zwar eine Vielzahl von wertvollen Übersetzungseinheiten<br />

enthalten, in gleichem Maße jedoch auch unbrauchbare bzw. fehlerhafte<br />

Segmente. Der Beitrag versucht, Möglichkeiten aufzuzeigen, wie<br />

mit Hilfe von linguistisch intelligenten Verfahren existierende Translation<br />

Memorys überprüft und von unbrauchbaren und fehlerhaften<br />

Übersetzungseinheiten „gereinigt“ werden können.<br />

Ausgangssituation<br />

Translation Memory Systeme sind aus dem Arbeitsalltag von Übersetzern,<br />

sei es im freiberuflichen Kontext oder in Übersetzungsagenturen,<br />

nicht mehr wegzudenken. Der Einsatz hat sich, nicht nur in großen<br />

Unternehmen, als sehr sinnvoll und effizient erwiesen. Da jedoch einige<br />

der Nutzer von Translation-Memory-Systemen diese mittlerweile<br />

schon über einen längeren Zeitraum einsetzen, treten nun interessante<br />

Phänomene auf, die zu Beginn der Nutzung nicht offensichtlich waren:<br />

die wachsende Größe der Translation Memorys und die teilweise immer<br />

schlechter werdende Qualität derselben.<br />

Aktuelle Zahlen zeigen, dass die von Übersetzern genutzten Translation<br />

Memorys (TMs) in ihrer Größe stetig wachsen. Dies belegen beispielsweise<br />

Größenangaben der Fa. SDL Trados, die diese auf Anfrage<br />

übermittelte [1]. Demnach kann man zwar schwer eine durchschnittliche<br />

Größe von TMs bestimmen, da diese je nach Kunde – Freiberufler,<br />

Übersetzungsagentur, Unternehmen – bzw. der Art der TM-Organisation<br />

(Produktbereiche, Marketing, Fachgebiete etc.) sehr stark variieren<br />

kann. Nichtsdestotrotz gibt die Firma aber folgende Näherungswerte für<br />

die durchschnittliche Größe von TMs an:<br />

−−<br />

Freiberufler – ca. 20.000 bis 50.000 Übersetzungseinheiten<br />

−−<br />

Übersetzungsagenturen – ca. 80.000 bis 100.000 Übersetzungseinheiten<br />

−−<br />

Unternehmenskunden – ca. 50.000 bis 250.000 Übersetzungseinheiten<br />

Die Bandbreite insbesondere bei den Unternehmenskunden erklärt<br />

sich dadurch, dass jeweils zu unterscheiden ist, wie viele Sprachpaare<br />

und welche Themenbereiche mit dem TM abgedeckt werden. U. U. können<br />

dadurch die TMs teilweise enorme Größen erreichen. Als größter<br />

Umfang eines Kunden-TMs wurden in der Anfrage 3,5 Millionen Übersetzungseinheiten<br />

(Nur-Lese-Zugriff) bzw. 1,5 Millionen Übersetzungseinheiten<br />

(Lese- und Schreibzugriff) genannt.<br />

Zugleich lässt die Qualität solcher Translation Memorys oft über die<br />

Jahre nach. Die Gründe hierfür sind mannigfaltig. An dieser Stelle seien<br />

nur beispielhaft fehlende anfängliche Qualitätskontrollen, System- und<br />

Formatänderungen, Zusammenführung von Beständen etc. genannt.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

247


Sprachtechnologie / Language Technology<br />

Manuelle Wartung/<br />

Pflege großer TMs<br />

Automatische Prüfungen<br />

an der Textoberfläche<br />

Linguistisch intelligente<br />

Softwarewerkzeuge<br />

Auf diesem Hintergrund ist klar, dass die Bearbeitung bzw. Pflege solcher<br />

Translation Memorys – insbesondere im Hinblick auf die Qualität<br />

– nur noch bedingt manuell erfolgen kann. Folglich stehen viele TM-<br />

Nutzer nun vor dem gravierenden Problem, die mittlerweile im Umfang<br />

sehr groß gewordenen TMs „reinigen“ zu müssen, dies aber am besten<br />

ausschließlich maschinell und nur eingeschränkt manuell geschehen<br />

kann.<br />

Fehleranalyse<br />

Die Struktur der Fehler, die in einem großen Translation Memory vorkommen<br />

können, ist sehr heterogen. Neben häufigen Fehlern auf der<br />

formalen Ebene können dies Fehler auf der sprachlichen, inhaltlichen<br />

bzw. auch logischen Ebene sein. Eine Vielzahl der vorkommenden falschen<br />

bzw. fehlerhaften Übersetzungseinheiten/Segmente können<br />

schon mit existierenden Softwarefunktionen der einzelnen Translation-<br />

Memory-Systeme bzw. mit speziell für diese Aufgabe programmierten<br />

Software-Skripten automatisch bereinigt werden. Dies erfolgt zunächst<br />

rein statistisch auf der Basis schlichter String- bzw. Attributvergleiche.<br />

Viele Translation-Memory-Systeme haben schon einige dieser sehr<br />

nützlichen Prüfungen eingebaut. Darüber hinaus bieten ausgesuchte<br />

Übersetzungsdienstleister skriptbasierte TM-Optimierungen an [2]. Die<br />

Bandbreite dieser Prüfungen reicht von der Validierung von Formaten<br />

(TXT, RTF, XML usw.), der Überprüfung von ID-Konsistenz über den<br />

Vergleich von Ausgangs- und Zieltext im Hinblick auf fehlende Übersetzungen,<br />

Zahlenformate etc. bis hin zur automatischen Zusammenführung<br />

von Satzfragmenten bzw. der Filterung von Doubletten und<br />

Varianten.<br />

Alle diese Prüfungen berücksichtigen jedoch ausschließlich die Textoberfläche.<br />

Und indem sie keine Korrekturen in der Quellsprache vornehmen,<br />

setzen sie alle indirekt voraus, dass der Kunde sich an seine<br />

eigenen Vorgaben (Rechtschreibung, Grammatik, spezielle Styleguides<br />

etc.) hält. Die Erfahrung zeigt dagegen, dass in vielen Fällen auch auf<br />

der Seite der Quellsprache verschiedene falsche bzw. fehlerhafte Segmente<br />

im Translation Memory vorkommen können. Diese sind mit einer<br />

automatischen Prüfung an der Textoberfläche nicht mehr zu erfassen.<br />

Mit Hilfe von bereits auf dem Markt vorhandener linguistisch intelligenter<br />

Software ist dies jedoch möglich.<br />

An erster Stelle ist hier der Einsatz von existierenden Rechtschreibund<br />

Grammatikprüfprogrammen sowohl auf quell- als auch zielsprachlicher<br />

Seite möglich. Damit können – über die statistischen Prüfungen<br />

hinaus – weitere falsche bzw. fehlerhafte Übersetzungseinheiten/<br />

Segmente problemlos automatisch entfernt werden, falls solche Prüfungen<br />

nicht schon beim Befüllen des TMs durchgeführt wurden. Ein<br />

weiterer Schritt ist – eine zweisprachige Terminologie vorausgesetzt –<br />

die Evaluierung des TMs anhand dieser Terminologie, d. h. ein Filtern<br />

der Segmente im Hinblick auf die verwendete Terminologie in jeweils<br />

Quell- und Zielsprache. Auch dieser Prozess-Schritt kann automatisch<br />

durchgeführt werden. An dieser Stelle kann die zweisprachige Terminologie<br />

darüber hinaus sehr gut genutzt werden, um eine Variantenreduktion<br />

der Segmente auf der zielsprachlichen Seite durchzuführen.<br />

Dazu werden zielsprachliche Segmente im Vergleich mit quellsprachlichen<br />

daraufhin untersucht, inwieweit die vorgegebene Terminologie<br />

in der Übersetzung verwendet wurde. Dieser Schritt kann – unter<br />

248<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

Berücksichtigung bestimmter Vorgaben und bei entsprechender Qualität<br />

der zweisprachigen Terminologie – ebenfalls automatisch erfolgen.<br />

Linguistische<br />

intelligente<br />

Ähnlichkeitsberechnung<br />

Linguistisch intelligente Verfahren zur Variantenerkennung<br />

Trotz der o. g. fortgeschrittenen linguistischen Verfahren bleibt ein kleiner<br />

Restbestand von Segmenten/Übersetzungseinheiten, die auf formaler<br />

bzw. sprachlicher Ebene völlig korrekt und inhaltlich sehr ähnlich<br />

sind. Sie stellen somit mehrere Varianten eines bestimmten sprachlichen<br />

Ausdrucks dar. Dabei handelt es sich vordergründig zunächst nicht<br />

um fehlerhafte Segmente. Aber innerhalb der Technischen Dokumentation,<br />

bei der besonders die Konsistenz von Terminologie und Stil im<br />

Vordergrund steht, sind auch solche Varianten eher unerwünscht.<br />

An dieser Stelle kommt nun ein weiteres linguistisch intelligentes Verfahren<br />

zum Einsatz, das die o. g. Segmente identifizieren und anschließend<br />

einer manuellen Kontrolle zuführen kann. Dazu werden zunächst<br />

alle quellsprachlichen Segmente des TMs einer linguistischen Analyse<br />

unterzogen. Dabei ist es möglich, Kundenspezifika wie z. B. spezielle<br />

Terminologie, eigene Benutzerwörterbücher etc., bei der Analyse zu<br />

berücksichtigen. Diese zusätzlich gewonnene Information wird im Anschluss<br />

zusammen mit den Übersetzungseinheiten/Segmenten hinterlegt.<br />

Im nächsten Arbeitsschritt werden diese Informationen benutzt,<br />

um eine Ähnlichkeitsberechnung zwischen den einzelnen Segmenten<br />

durchzuführen. Anschließend erfolgt mit Hilfe von bestimmten Parametern<br />

eine Gewichtung der Ergebnisse, so dass schließlich „ähn liche“<br />

Segmente zusammen ausgegeben werden können.<br />

„Sofort eine Vertragswerkstatt kontaktieren.“<br />

„Vertragswerkstatt kontaktieren.“<br />

„Möglichst bald eine Vertragswerkstatt kontaktieren.“<br />

„Umgehend eine Vertragswerkstatt kontaktieren.“<br />

„Schnellstmöglich eine Vertragswerkstatt kontaktieren.“<br />

„Bei nächster Gelegenheit eine Vertragswerkstatt kontaktieren.“<br />

„Kontaktieren Sie sofort eine Vertragswerkstatt.“<br />

„Eine Vertragswerkstatt aufsuchen.“<br />

„Wenden Sie sich an eine Vertragswerkstatt.“<br />

Tabelle 1: Automatisch herausgefilterte „ähnliche“ Segmente<br />

Manuelle Bearbeitung<br />

automatisch<br />

ermittelter Varianten<br />

Die Beispiele aus Tabelle 1 zeigen, welche „ähnlichen“ Übersetzungseinheiten/Segmente<br />

aus einem Translation Memory mit Hilfe von<br />

linguistisch intelligenten Verfahren extrahiert werden können. Dabei<br />

ist zu beachten, dass die Extraktion dieser Varianten durchaus automatisch<br />

erfolgen kann. Die schlussendliche Bearbeitung jedoch, also die<br />

Entscheidung für eine bzw. das Löschen von Varianten muss allerdings<br />

manuell durchgeführt werden.<br />

Fazit<br />

Dem Problem der ständig wachsenden TMs und – damit einhergehend –<br />

der zum Teil immer schlechter werdenden Qualität dieser kann mit verschiedenen<br />

Methoden und Verfahren begegnet werden. Neben statistischen<br />

skriptbasierten Verfahren können dabei linguistisch intelligente<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

249


Sprachtechnologie / Language Technology<br />

Verfahren zum Einsatz kommen. Diese Verfahren extrahieren gezielt<br />

ähnliche Segmente/Übersetzungseinheiten und ermöglichen dadurch<br />

eine Pflege/Wartung auch von großen Translation Memorys über die<br />

formale Ebene hinaus.<br />

Verweise<br />

[1] Anfrage des Autors an die Fa. SDL-Trados vom 28.08.<strong>2012</strong><br />

[2] Wedde, Thomas (<strong>2012</strong>): Tanz der Doubletten. Skriptbasierte TM-Optimierung.<br />

Vortrag im Rahmen der 64. Sitzung des Transforum, Bundessprachenamt,<br />

Hürth.<br />

für Rückfragen: c.roesener@iai.uni-sb.de bzw. roesener@fh-flensburg.de<br />

250<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 8<br />

Presentation<br />

Globalization Business Intelligence<br />

Analysis and Reporting Systems<br />

Richard Sikes and Melissa Biggs, Gatineau, Canada<br />

Historical Development of Business Intelligence<br />

Although the first published reference to “business intelligence” appeared<br />

in an article by IBM researcher Peter Luhn in 1958, the more<br />

commonly used term throughout the 1960s and 1970s was “decision<br />

support systems.” What we think of today as business intelligence systems<br />

really began to evolve from data warehousing and executive information<br />

systems during the 1980s. In 1989, Howard Dresner, who later<br />

became a Gartner Group analyst, proposed “business intelligence” as an<br />

umbrella term to describe “concepts and methods to improve decision<br />

making by using fact-based support systems.” As personal computers<br />

began gaining processing power during the 1990s, and supported by the<br />

evolution of the Internet as a data carrier medium, business intelligence<br />

systems proliferated. Improvements in data organization and storage<br />

methods, as well as structured query languages that could pinpoint data<br />

in databases and quickly extract it for presentation, further aided the<br />

adoption of business intelligence as a cornerstone of business strategy<br />

and tactical planning.<br />

The following graphic shows a timeline of the emergence of BI from decision<br />

support systems. The triangles indicate milestones in the rise and<br />

fall of one company that was a market leader throughout this period.<br />

Business Intelligence (“BI”) should not be confused with “competitive<br />

intelligence,” (“CI”) per se. Whereas both serve the purpose of supporting<br />

the decision-making process at the executive level within organizations,<br />

CI has more of a topical focus on what actions competitors are<br />

adopting, BI uses query technologies to mine primarily internal data for<br />

significant trends or to map internal trends against exogenous ones.<br />

In his book “Climbing the Ladder of Business Intelligence”, the author,<br />

James Cates, uses a ladder model to illustrate the degrees of sophistication<br />

of BI. These steps are presented in the book as a framework in<br />

ascending order of importance:<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

251


Sprachtechnologie / Language Technology<br />

1 Facts No timely retrieval; Disorganized data<br />

2 Data Retrievable organized data<br />

3 Information Information views targeted by role;<br />

Operational collaboration<br />

4 Knowledge Reusable information views<br />

5 Understanding Business modeling; Brainstorming strategic collaboration<br />

6 Enabled Intuition Break-through visionary thinking<br />

As companies evolve through the steps in Cates’ ladder towards the<br />

goal of enabled intuition, usage of BI systems must permeate throughout<br />

the organization. This applies to both the service provider and the<br />

client sides of the globalization and localization industries. To this end,<br />

state-of-the-art TMS systems are being enhanced through addition of<br />

increasingly powerful reporting functionality.<br />

Focus and Uses of Business Intelligence in Globalization<br />

Although analysis and visualization of past and current data can provide<br />

valuable information, the real importance of BI lies in the ability of<br />

users to leverage that information into insightful decisions. Increased<br />

capacity for BI systems to provide easily configurable and repeatable<br />

visualizations of data that may be drawn from diverse and intrinsically<br />

unrelated repositories greatly expands the capability for users and<br />

decision-makers to infer relationships between, for example, business<br />

actions and target customer reactions. This is naturally of great value to<br />

organizations that aspire to extend their reach to geographically farflung<br />

regions through globalization-centric activities. Tracking localization<br />

spend by content type against geolocated hits to Web site pages,<br />

for example, could be a significant indicator of the cost-effectiveness of<br />

translation initiatives.<br />

A predominant attribute of contemporary BI applications is the ability<br />

to present data in dashboard format. The following example demonstrates<br />

the power of a visualized combination of diverse information:<br />

252<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

Data Cubes<br />

A valuable way to conceptualize the gathering of data for BI is the data<br />

cube model. A data cube, also known as an OLAP (Online Analytical<br />

Processing) cube, is an extension into three or more dimensions of the<br />

type of two-dimensional, row and column data captured in spreadsheets,<br />

whereby the third dimension represents an additional variable.<br />

For example, a spreadsheet might capture products sold in rows, and the<br />

locales in which they were sold in columns. Extending this data into a<br />

third dimension would be like stacking the spreadsheet for this year on<br />

top of that from last year, and these two on top of the spreadsheet from<br />

the year before last, and so on.<br />

Applied to the context of the language industry, one may envision a<br />

cube made up of many individual cubes, each of which represents the<br />

intersection of the three dimensions. For simplicity’s sake, the cube in<br />

following example is 3x3x3, but this does not have to be the case. The<br />

top horizontal layers in the cube represent the languages into which<br />

translations were done. The vertical front-to-back layers represent new<br />

words, fuzzy matched words, and repeated words in each language, and<br />

the vertical left-to-right layers represent the years in which translations<br />

were done. Each small cube represents a number at the intersection of<br />

the three dimensions, for example, how many new words were translated<br />

into Arabic in 2011.<br />

Although it is certainly possible to drill down to them, the individual<br />

intersection cubes are not necessarily interesting in and of themselves.<br />

They provide greater insight for management decisions when they are<br />

compared in sequence to other like cubes. In this example, the drilldown<br />

looks at the intersection of fuzzy matched words in Arabic across<br />

all three years, as indicated by the red cubes.<br />

By rotating the cube and eliminating the extraneous data, we are left<br />

with the sequence of numbers across all three years.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

253


Sprachtechnologie / Language Technology<br />

To aid in visualization of the data, the number sequence may now be<br />

displayed in the form of a graph on the BI dashboard.<br />

BI Reporting in TMS Applications for LSPs<br />

The previous example was rather simplistic, and was created just to<br />

show the theory. In the context of LSPs, other types of data combinations<br />

would be more relevant, for example:<br />

−−<br />

Revenue by Customer by Year<br />

−−<br />

Revenue by Language by Month<br />

−−<br />

Cost by Language by Customer<br />

−−<br />

Word count by Language by Match Type<br />

−−<br />

Cost by Match Type by Service Provider<br />

−−<br />

And so on…<br />

The current generation of translation workflow software, primarily solutions<br />

targeted to LSPs, is delivering increased power to generate this<br />

kind of management data. In fact, the ability to deliver a wide variety<br />

of reports is an area in which we will see a great deal of competition as<br />

product publishers strive to win customers. This competition will not<br />

only be in the types of data that can be extracted from the underlying<br />

system databases, but also in the ability to display real-time reports in a<br />

dashboard setting, the capability to create ad hoc reports, and the capacity<br />

for generating and distributing iterative reports on a scheduled<br />

basis.<br />

Globalization BI in Enterprises<br />

Moving the focus from LSPs and some types of localization entities<br />

within organizations to those that inhabit the enterprise environment,<br />

a different set of challenges for localization BI may be found. Here we<br />

may find that BI may be used to develop enabled intuition about other<br />

types of globalization information, for example:<br />

−−<br />

Revenue by Locale by Year<br />

−−<br />

Revenue by Localization Spend by Locale<br />

−−<br />

Localization Spend by Pageviews by Week<br />

−−<br />

Localized Web Pages by Pageviews by Day<br />

−−<br />

Localized Knowledgebase Pages by Support Costs by Month<br />

−−<br />

Support Cases by Locale by Internationalization Spend<br />

One major stumbling block is that information systems implemented<br />

in enterprises that track revenue or pageviews may not be available to<br />

localization entities within those enterprises; localization personnel may<br />

simply not be allowed to view corporate revenue data except in the form<br />

of reports generated by systems to which only employees in Finance<br />

have access. Also, output of localization entities may be bundled with<br />

other products in such a way or subject to other factors that obfuscate<br />

any direct relationship between revenue and localization departmental<br />

concerns such as cost, throughput, and quality, etc. Often, in large enterprises,<br />

if any information that is helpful for determining business cases<br />

or other effects of localization is available at all, it may be only in the<br />

form of reports that are cumbersome to combine with the data stored at<br />

the localization department level.<br />

254<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

Finally, in large enterprises globalization BI often is not just the provenance<br />

of localization departments, but is of use in other parts of the<br />

business such as marketing, support, sales, etc.<br />

This divides business intelligence in the context of localization into two<br />

very different situations: one in which the full information can be obtained<br />

from within a workflow solution, and one in which a larger-scale<br />

solution, most likely a dedicated BI product, is necessary to provide<br />

visualization of fully value-added content.<br />

Whether or not BI components of TMS applications will ever be powerful<br />

enough to reach into other large-scale corporate database solutions<br />

may be a moot point. The most likely scenario, in the short term at least,<br />

is that TMS applications may become more refined at providing data to<br />

larger-scale, corporation-wide systems. At that juncture, the contentious<br />

issue will more likely be whether or not localization personnel will be<br />

able to obtain access to the output of such systems.<br />

Indeed, it seems as if a seachange is afoot in the industry. The growth<br />

of web analytics technologies in recent years, combined with greater<br />

emphasis on social media marketing, has introduced a new element of<br />

measurability into the BI mix. The value of localization that in earlier<br />

years was relegated mostly to the realm of subjectivity and primarily<br />

anecdotal opinion, can now be measured with much greater objectivity<br />

in certain spheres of endeavour.<br />

Interviews with localization service providers have revealed insights<br />

into emerging service models. There is a growing genre of service offerings<br />

that might be acronymed as BIaaS, “Business Intelligence as a<br />

Service,” within the context of localization. Given that it is now relatively<br />

easy to monitor Web pages and other online chatter such as tweets and<br />

forum commentary for locale origin, the effects of localization on customer<br />

cohorts can be much more accurately quantified. But because<br />

localization of Web sites and related content tends to fall more within<br />

the sphere of influence of Marketing departments, service providers are<br />

seeing a shift in buying power away from traditionally organized localization<br />

entities and into Marketing.<br />

Whereas providers of commodity translation services in past years<br />

became used to being stonewalled by traditional localization service<br />

buyers who were infrequently understood or even given focus by C-<br />

level enterprise managers, Marketing departments, which typically have<br />

much more visibility with C-level management, are becoming a more<br />

viable entry point for service providers, especially those who can also<br />

offer accompanying BI services.<br />

If we look into the brave new world of localization BI services, we may<br />

see evolution of the analytical power to include the application of natural<br />

language processing to evaluate details such as the “between the<br />

lines” tone of commentary that is entered in online forums. When this<br />

becomes reality – and it is a matter of when, not if – it may finally become<br />

possible to extend evaluation from cause-and-effect scenarios<br />

such as “does localization in language X result in more sales to that locale”<br />

to real-time evaluations of quality as reported by users of localized<br />

solutions when they post commentary on forums that may be scattered<br />

throughout cyberspace.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

255


Sprachtechnologie / Language Technology<br />

When this happens, we may see localization moving entirely out of the<br />

province of Development departments and into that of Marketing. This<br />

may or may not be a positive evolution; although there are surely exceptions<br />

to the stereotype, Marketing personnel have typically not been<br />

highly cognizant of the lessons about interdependence and downstream<br />

churn learned over the past 20 years by localization personnel. Commentary<br />

by interviewed service providers underscores this perspective;<br />

this leaves the conclusion that we may simultaneously move forward<br />

and backward unless experienced localization personnel rise to the<br />

challenge and proactively encounter and adopt the rapid developments<br />

in localization BI technologies.<br />

Contact: richard.sikes@locflowtech.com<br />

256<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 12<br />

Presentation<br />

Business Intelligence in cloudbased<br />

Translation Environments<br />

Stephan Böhmig, Wordbee, Luxembourg<br />

Dave van den Akker, TVcN Tolk- en Vertaalcentrum Nederland, The Netherlands<br />

Introduction<br />

The success of a translation department highly depends on how good<br />

teams are at optimizing communication, quality, cost and turnaround<br />

times. Decisions that should lead to an optimal result often rely on the<br />

experience and implicit knowledge of individuals rather than factual<br />

historical data. This is not surprising, since the business focus on daily<br />

projects and clients, combined with the use of various technical platforms<br />

simultaneously makes it hard to gather, let alone combine and<br />

analyze data needed.<br />

In Wordbee’s cloud-based TMS/CAT environment collecting data becomes<br />

specifically powerful, because all individuals involved work “online”<br />

in the same environment and each individual action can be tracked<br />

and timestamped. This gave TVcN the unique possibility to gather and<br />

combine data from its clients, internal and external translators and project<br />

managers. In the Wordbee business analytics tool, indicators are depicted<br />

graphically and values can be viewed as they fluctuate, improve<br />

or worsen, over time. We can now see what is really happening in the<br />

translation process. How efficiently are we communicating? How correlated<br />

are delivery times and quality really? What do our clients really<br />

think of the work we do? Which teams work optimally together? How<br />

successful are we at leveraging our TM? We answer these questions<br />

based on actual data from the cloud and use findings as decision-support<br />

to improve our performance. This helps us in optimizing processes<br />

or at least to more objectively base our decisions.<br />

This lecture intends to be hands on. It shows how an LSP or corporation<br />

can make use of data to optimize business processes.<br />

Business Analytics in the Cloud<br />

Business analytics (BA) or intelligence aims at exploring past business<br />

performance to gain insight into processes and use these insights to<br />

drive business planning. In a translation environment, we might expect<br />

a system to automatically create workflows, assign teams and deadlines<br />

under a set of defined constraints and goals. A simple goal might be to<br />

accept a maximum 5% likelihood of failure to deliver after the deadline.<br />

Automation requires the system to gather a maximum of parameters<br />

that potentially influence a business decision in question.<br />

The “classic indicators”, volume per day, deadline and response times<br />

etc. are not sufficient to predict likely client satisfaction (a qualitative<br />

property) and cost efficiency given a specific translator/reviser couple, a<br />

TM, a document and a deadline. Additional data needs to be aggregated<br />

such as ratings, post-edits or revision cycles.<br />

Gathering such data may proof challenging or impossible. This is where<br />

cloud based TMS/CAT systems clearly have some advantages: All the<br />

users from the client to the vendors and the inhouse staff login to a<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

257


Sprachtechnologie / Language Technology<br />

central place and carry out translation and revision work online inside<br />

a web browser. With Wordbee, as one of the cloud based systems, clients<br />

can obtain an extensively complete data set to explore:<br />

−−<br />

Workflow related: Delivery times, response times, durations, teams<br />

−−<br />

Editing related: Post editing details, time spent editing, revision percentage,<br />

actual work time<br />

−−<br />

TM and MT related: Leveraging rates. Post edits of pre-translations as<br />

an indicator of TM/MT quality<br />

−−<br />

User metrics related: Both clients, vendors and managers rate work<br />

results online<br />

− − …<br />

Data can then be related interactively to “see” trends, bottlenecks, vendor<br />

differences or client expectations. It also helps to identify new metrics<br />

to measure business performance. Once correlations between data<br />

are found and tests for statistical significance defined, process automation<br />

is just around the corner.<br />

Overview of Results<br />

The initial results can be used in a wide variety of areas. We have chosen<br />

to use initial findings from the TVcN data to implement action directed<br />

at achieving improvements on two important subjects: Delivery<br />

times and TM Leveraging. At this time we are implementing operational<br />

changes based on our initial findings. We looked at delivery times from<br />

the perspective of the project managers (PM) involved and from that of<br />

the suppliers involved.<br />

Goal: Improving delivery times I<br />

Major findings on the suppliers-side:<br />

−−<br />

Suppliers on average deliver 29.7 hours before deadline.<br />

−−<br />

Average daily volume worked is 633, but only 433 words were assigned.<br />

−−<br />

Average job duration is 4.5 days.<br />

−−<br />

Quality: 8.27% of words had to be corrected during revision.<br />

Based on these findings we decided to:<br />

−−<br />

Shorten deadlines by 20% for selected suppliers.<br />

−−<br />

Adjust capacity figures for selected suppliers.<br />

−−<br />

Request suppliers to rate “allotted time” per job.<br />

Expected results after implementing these actions include:<br />

−−<br />

Actual workload will close down on assigned workload.<br />

−−<br />

Quality: Amount of corrections remains the same.<br />

−−<br />

Quality ratings given by manager, translator and client remain at least<br />

equal.<br />

−−<br />

Average delivery time to client decreases without loss of quality.<br />

Goal: Improving delivery times II<br />

Major findings on the project manager-side:<br />

−−<br />

Comparison between PM’s shows differences of 6.9% vs. 2.7% not<br />

delivered in time.<br />

−−<br />

For one large client these numbers are 3.6% vs. 0.8%.<br />

−−<br />

Average overall response time: 3.3 vs. 3.0 hours.<br />

258<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

−−<br />

Quality rating by PM: 4.4, by Client: 4.6<br />

−−<br />

Both client and PM score an optimal 5 for timeliness.<br />

Based on these findings we decided to:<br />

−−<br />

Identify candidates to improve where volume > 100 projects/month.<br />

−−<br />

Identify candidates to improve where response time < 4 hours.<br />

−−<br />

Identify client rating < 4, check all.<br />

−−<br />

Define KPI’s for PM on Response Times and Client Rating.<br />

−−<br />

Share best practices and manage!<br />

Expected results after implementing these actions include:<br />

−−<br />

Quality ratings given by clients improve.<br />

−−<br />

Improve average response times.<br />

−−<br />

Increased awareness, development possibilities and appreciation for<br />

PM’s.<br />

Goal: Improving TM Leveraging<br />

Major findings:<br />

−−<br />

Average % of pre-translations 3.8%, fuzzy matches 10.6%.<br />

−−<br />

Strong diversity in languages and many small projects.<br />

−−<br />

Highest rate of 71.8% pre-translation for a client.<br />

−−<br />

Leveraging rates differ greatly between languages and domains.<br />

−−<br />

Post-editing on pre-translation: avg. 1.1%<br />

−−<br />

Machine Translation leveraging is 0%.<br />

Based on these findings we decided to:<br />

−−<br />

Identify Clients with >10.000 words/month and Pre-translation below<br />

avg.<br />

−−<br />

Identify PM’s with below-average pre-translation rates.<br />

−−<br />

Improve or deactivate TM’s with >2% correction rate.<br />

−−<br />

Implement systematic consolidation of TM.<br />

−−<br />

Start pilot with leveraging MT.<br />

Expected results after implementing these actions include:<br />

−−<br />

Avg. Quality ratings on TM by Supplier increase, fewer corrections.<br />

−−<br />

Increased pre-translation% resulting in cost savings.<br />

−−<br />

Significant increase in MT leveraging.<br />

Outlook<br />

Business intelligence tools are standard in many areas but relatively<br />

new to the translation business. We believe that with the advent of cloud<br />

translation management systems and a simplified data acquisition, it<br />

will play a key role in the future. The potential applications are numerous:<br />

Cost optimization, controlled implementation of machine translation,<br />

process automation or team selection support.<br />

sbohmig@wordbee.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

259


Sprachtechnologie / Language Technology<br />

LT 13<br />

Presentation<br />

A (terminology) service layer for Moses SMT<br />

Nathalie De Sutter, Joachim Van den Bogaert, CrossLang, Gent, Belgium<br />

Introduction<br />

Moses SMT is finding its way to localization providers thanks to its<br />

promise of cheap (Open Source) and fast Machine Translation (MT).<br />

With the numerous internet sources that walk novice users through<br />

their first steps, setting up and training Moses SMT, has become increasingly<br />

straightforward. An active community of researchers, developers<br />

and professional users provides additional support on Moses SMT’s<br />

mailing list. However, when it comes to deploying Moses in a live production<br />

environment, there is very little documentation to be found.<br />

Very likely, this is due to the proprietary nature of professional thirdparty<br />

Moses SMT-based solutions: people prefer valuable insights to<br />

remain unpublished. There are of course some Open Source one-man<br />

efforts, but the usability of these kinds of solutions is restricted to a<br />

prototyping environment, or at best a human-operated batch system. A<br />

more trivial reason for the lack of information on live Moses SMT systems,<br />

may be that publications on setting up Moses properly tend to get<br />

technical, boring, and without any scientific value: there is no honour<br />

in making a great system behave nicely. A final reason for the lack of<br />

deployment information is that re-engineering Moses SMT is not a hot<br />

topic anymore. A couple of years ago it might have been, but currently,<br />

there are companies out there that sell pre-installed machines ready for<br />

use, so why would users invest in well-engineered solutions, let alone<br />

report on all the well-known technologies integrated in such a system<br />

(load balancing, scheduling, multi-threading, service-oriented architectures,<br />

upscaling, outscaling, decoupling, …)?<br />

Project requirements<br />

Still, we believe that a production and processing framework around<br />

Moses SMT adds value, for two reasons:<br />

−−<br />

Changing market demands: we see that customers are not satisfied<br />

anymore with a solution that actually runs, has a nice front-end or<br />

allows them to execute data training with a user-friendly GUI. Nowadays,<br />

users want difficult languages via hybrid solutions, integrated<br />

terminology management and post-editor friendly output. In the near<br />

future we expect systems combination with real-time quality assessment<br />

to be in demand. Putting all this on top of Moses SMT requires<br />

a well crafted environment.<br />

−−<br />

Flexibility and maintenance: a customized Moses SMT solution needs<br />

to be adaptable to a customer’s demands. If improved translations are<br />

required by adding extra processing or linguistic modules, MT technology<br />

providers need to be able to offer such kind of solutions. At the<br />

same time, changes to a system should be portable to other systems<br />

and remain manageable in terms of maintenance.<br />

To be able to deal with these requirements, we developed a framework<br />

around Moses SMT which facilitates production and the development<br />

of extra processing tasks. In what follows, we will give a brief account of<br />

the design decisions we took to implement this framework.<br />

260<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

A hardened service layer architecture<br />

The first and most important task was to create a stable production environment.<br />

To achieve this, a service layer was put on top of Moses SMT,<br />

providing redundancy, load balancing, asynchronous processing, failover<br />

support, industry-standard document format support, alignment-based<br />

tag-handling, improved normalization and hardened (de)tokenization<br />

and (lower/real)casing.<br />

To achieve a separation of concerns, linguistic processing by Moses SMT<br />

and text-engineering capabilities were strictly separated. As a result,<br />

the hardened Moses SMT set-up allows the deployment of third-party<br />

translation and language models, while still providing the text engineering<br />

capabilities built on top of the translation workflow. Named entity<br />

recognition (NER) and terminology management services, for example,<br />

can be added without disrupting the Moses SMT models. From a technical<br />

point of view, tagging and annotation are considered to be engineering<br />

issues, which are not allowed to interfere with the linguistic issues,<br />

as addressed by the SMT models. From a commercial point of view, clients<br />

can have third parties focus on linguistic quality, while the framework<br />

can still take care of immediate production use.<br />

A pipeline architecture<br />

If we take a closer look at the evolution of Moses SMT and MT in general,<br />

it becomes clear that investing in a consistent design, that follows the<br />

very principles of modern MT, is well worth the effort: it alleviates the<br />

costs related to the implementation of difficult languages and it streamlines<br />

processing workflows.<br />

To clarify this, we need to address a common misunderstanding among<br />

non-academic users: Moses SMT is a toolkit, not a monolithic application<br />

that will reach the 1.0 milestone somewhere in the near future. It<br />

consists of data training scripts and a decoder that can handle so-called<br />

factored input. It is designed to primarily work with phrase alignments<br />

and n-gram models, but it can handle far more information. Up to date<br />

however, the factored model (which may include for example syntactic<br />

information) has not lived up to the expectations, mainly due to the data<br />

sparseness introduced by extra information and the locality issues inherent<br />

to n-gram models.<br />

Still, the original concept of processing other information than phrase<br />

alignment is useful, but it may be more fruitful to incorporate it outside<br />

of the decoder and the training. This is exactly what most researchers<br />

do when developing so-called “hybrid” systems. For agglutinative<br />

languages, for example, morphological analyzers are used to transform<br />

training and input data before they are fed to Moses SMT. In other<br />

words: modelling is executed outside of the training scripts and the<br />

decoder. For this reason, there is a growing consensus in the research<br />

community that MT is more and more evolving towards a pipeline process<br />

in which Moses SMT plays an important role. This is in contrast to<br />

what most people picture when making a Moses SMT buy decision.<br />

With the pipeline architecture, the stage is set for developing difficult<br />

language pairs. In the meantime it can be used to harbour text engineering<br />

tools, which basically also add extra information to the translation<br />

process.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

261


Sprachtechnologie / Language Technology<br />

Conclusion<br />

We presented a production environment for Moses SMT consisting of<br />

a service layer which hardens the MT system and allows it to be used<br />

in a production environment. We also described a pipeline architecture<br />

that is designed to be capable of dealing with future MT challenges. As a<br />

bonus, it can also be used to easily complete text-engineering tasks such<br />

as terminology management and NER.<br />

Contact information: info@crosslang.com<br />

262<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

LT 14<br />

Workshop<br />

MT Post-Editing: the Language<br />

Service Provider perspective<br />

Françoise Bajon, Version internationale, Lyon, France / ELIA – President<br />

Christian Schwendy, Gemino, Munich, Germany / ELIA – VP<br />

Xavier Maza, iDisc, Barcelona, Spain<br />

Raymund Prins, Globaltextware, Groningen, the Netherlands<br />

About ELIA<br />

The European Language Industry Association is a non-profit association<br />

of translation, interpretation and localization companies active in<br />

Europe. ELIA was founded to foster the development and growth of<br />

member companies through the establishment of communication and<br />

business relationships between members and other related international<br />

organizations, providing relevant and practical information and training,<br />

and promoting the concept of ethics and quality standards through<br />

the industry.<br />

ELIA boasts over 130 member companies.<br />

What is Post-Editing?<br />

Post-Editing is the term used to describe the linguistic service that follows<br />

a Machine Translation process. The text is translated by the engine<br />

and the raw output is then handed over to the “post-editor”. It can contain<br />

spelling, grammar, punctuation mistakes, inconsistent terminology,<br />

technical issues related to the coding of the formatting, etc.<br />

This workshop will be presented from the LSP (Language Service Provider/<br />

Translation Company) perspective. Four members of ELIA, all<br />

with extensive experience in Post-Editing, will provide feedback with<br />

examples taken from real projects.<br />

Preparing for Post-Editing<br />

−−<br />

Defining expectations with customer<br />

It is very important to set expectations for/with the customer.<br />

There are different levels of quality that can be achieved through Post-<br />

Editing. It ranges from “acceptable text” to “human translation”. The<br />

choice will be made by evaluating a certain number of factors including<br />

the type of text, the targeted audience, the volume/turnaround time, the<br />

expected life span of the text...<br />

The client has to define these clearly and early enough so that there is<br />

no ambiguity about the service needed. Indeed the selection of the type<br />

of Post-Editing can affect the choice and number of resources committed<br />

to the job, additional checks needed and more.<br />

Examples of these different levels of Post-Editing will be provided, and<br />

what can be expected at each level.<br />

−−<br />

Defining expectations with resources<br />

It is equally important to set expectations and therefore guidelines that<br />

linguists will have to adhere to during the post-editing task.<br />

Clear guidelines must be set in advance, so that the level of expectation<br />

defined upfront with the client can be achieved, but not exceeded.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

263


Sprachtechnologie / Language Technology<br />

Failing to do so can lead to customer dissatisfaction, and spending of too<br />

much time on the project, hence jeopardizing the budget.<br />

−−<br />

Obtaining the best ROI for Post-Editing<br />

Two other factors can have a significant impact on the output resulting<br />

from the MT/P-E process.<br />

The first one is the choice of the MT engine.<br />

Depending on whether a rule-based MT system or a statistics-based MT<br />

system is used, the terminology will be better preserved or the style will<br />

be better rendered. In either case, the linguist or the linguists will have<br />

to make different types of efforts.<br />

Also important is the quality of the source text. The use of controlled<br />

English (or any other language) source text allows MT engines to generate<br />

higher quality translations. In addition the use of shorter, simplified<br />

sentences – especially in technical communication – makes a real difference<br />

in the quality of the MT output, and consequently on the time and<br />

efforts needed at the Post-Editing phase.<br />

The Post-Editing phase<br />

−−<br />

Standardising Post-Editing output<br />

A Production Manager has to consider that Post-Editors can be assigned<br />

to work on Post-Editing jobs corresponding to different quality expectation<br />

levels. Also the timeframe allocated to wrap up a Post-Editing project<br />

can often imply having several linguists working in parallel. In this<br />

respect, it is important that the output is as standardized as possible.<br />

This is a pre-requisite. It is also an on-going process that requires constant<br />

adaptation and decision-making, so that the results are as consistent<br />

as possible.<br />

−−<br />

Managing non-linguistic issues<br />

Post-Editors work on files where the formatting is coded instead of appearing<br />

as it should. It is quite often the case that the TM engines do not<br />

handle these tags properly. It is therefore the responsibility of the Post-<br />

Editors to revert the tags to their correct state and position, in addition<br />

to the linguistic changes.<br />

Depending on the maturity of the MT engine, punctuation can also be<br />

affected.<br />

Finally, according to the settings of the MT engine, there can be significant<br />

impact on number of “non-translatable” texts (such as product<br />

names), that are nevertheless translated.<br />

In those cases, pre-processing can greatly reduce the work of<br />

Post-Editors.<br />

−−<br />

Expected throughputs<br />

Much has been said about this hot topic. While the customer expects<br />

significant discount from a MT/P-E process compared to a TEP process,<br />

the reality for the LSP is often less glorious, especially when it comes to<br />

“human translation” Post-Editing.<br />

Results achieved will be shared.<br />

− − The challenges of the Post-Editor<br />

While some argue that Post-Editors should not be translators, in practice<br />

LSPs still use translators as Post-Editors.<br />

The qualities needed by efficient Post-Editors will be discussed.<br />

264<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Sprachtechnologie / Language Technology<br />

What comes next?<br />

−−<br />

Measuring the efforts needed<br />

Once Post-Editing efforts are completed, they can be measured. So far<br />

no predictive method has been found to forecast the time needed to<br />

Post-Edit, and consequently safely allow to precisely allocate resources.<br />

There are a few already known methods to achieve some kind of measurement<br />

once the Post-Editing task is finished. An insight into a new<br />

type of measure used by one of the LSPs for a big IT company will be<br />

presented.<br />

From such measurements, and provided they are confirmed, projections<br />

can be made for scheduling purposes on similar projects.<br />

−−<br />

Feedback as a crucial aspect of MT Post-Editing improvement<br />

One essential step to be performed after the Post-Editing job is to provide<br />

educated feedback to the people fine-tuning the MT engine. This<br />

requires linguists to have a good understanding of how the engine<br />

works. The quality of the remarks will allow for improvement in the raw<br />

output reducing the amount of Post-Editing work the next time.<br />

Nevertheless, in terms of MT/P-E, changes requested can result into the<br />

introduction of other mistakes. The cycle MT/P-E is therefore a continuous<br />

process of improvement.<br />

Challenges ahead<br />

One of the greatest challenges for LSPs so far is to find a method to<br />

train young translators to rapidly becoming reliable and efficient posteditors.<br />

While in the past, they had sufficient time to receive feedback<br />

from senior translators, young linguists, the universities who train them,<br />

the companies who employ them or sub-contract to them, will have<br />

to find a way to develop into agile reviewers with the leanest learning<br />

curve possible.<br />

ELIA’s survey<br />

The workshop will end with the presentation and distribution of a survey<br />

carried out with ELIA members on the practice of Post-Editing.<br />

The audience will be able to have a clear view of how LSPs throughout<br />

Europe handle Post-Editing.<br />

If you have any questions please contact:<br />

bajon.f@version-internationale.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

265


Mobile Dokumentation /<br />

Mobile Documentation


Mobile Dokumentation / Mobile Documentation<br />

MOB 2<br />

Fachvortrag<br />

Drei Zahlen:<br />

2015, 2020, 2025<br />

Topp oder Flopp<br />

RTFM<br />

RTFM (Real & Touchable Front-end Matter)<br />

Oder: Nutzer bestimmen das Was/Wie/Wann.<br />

Martin Rüegg, maxon motor ag, Sachseln, Schweiz<br />

Innerhalb der nächsten zehn Jahre werden drei Themenbereiche auf<br />

fundamentale Weise ins Geschehen eingreifen: Die fordernde Selbstbestimmung<br />

des Nutzers, der hohe Granularitätsgrad von Information und<br />

die enge Rückkopplung von Nutzer und den verwendeten Systemen.<br />

Dazu drei Thesen:<br />

1. Bis zum Jahr 2015 werden sich mobile Endgeräte als DAS eigentliche<br />

Wissenstransport- und Kommunikationsmittel etabliert haben.<br />

2. Bis 2020 werden zum Zeitpunkt der eigentlichen Benutzung jeweils<br />

nur wenige Prozentteile vom gesamthaft angebotenen/verfügbaren/<br />

erforderlichen Informationsgehalt verwendet.<br />

3. Bis ins Jahr 2025 wird das Nutzer-Verhalten die Auslegung von Betriebssystemen<br />

grundlegend verändern.<br />

Verhalten, Erwartungshaltung und Anspruch der Nutzer werden die<br />

Motoren dieser Veränderungen und vor allem die Realität dieser Thesen<br />

sein. Wer auf der „Senderseite“ dieser Entwicklung mit angezogener<br />

Handbremse begegnet, wird möglicherweise sein blaues Wunder<br />

erleben.<br />

Nicht das, was Sie denken!<br />

Der geflügelte Ausdruck wird wohl eine vollkommen neue Bedeutung<br />

erhalten. Anstelle der ruppigen Aufforderung doch endlich dort nachzuschlagen,<br />

wo alles so fein säuberlich niedergeschrieben steht, könnte<br />

auch Real & Touchable Front-end Matter (die für den Nutzer reale,<br />

tast- und fassbare Angelegenheit) gemeint sein. Noch immer versuchen<br />

wir (als Sender) den Nutzer (als Empfänger) mit einem Übermaß an Informationen<br />

abzufüllen, oftmals mit echt negativen Folgen. Denn diese<br />

Art von Technischer Kommunikation führt potentiell zur Informationsüberflutung<br />

und gipfelt darin, dass sich der Nutzer frustriert abwendet<br />

und höchstwahrscheinlich nicht wieder zurückkehrt …<br />

martin.rueegg@maxonmotor.com<br />

martin@therueggs.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

269


Mobile Dokumentation / Mobile Documentation<br />

MOB 3<br />

Fachvortrag<br />

Techniken, Formate und Möglichkeiten<br />

mobiler Technischer Dokumentation<br />

Claudia Gerhardt, Georg Eck, SQUIDDS e.K., Nürnberg<br />

Einer der entscheidenden Trends in der Technischen Dokumentation<br />

besteht in der Bereitstellung von Inhalten für mobile Geräte. Damit<br />

steigt die Bedeutung der Multiscreen-Fähigkeit von Outputformaten,<br />

des Single-Source-Publishing sowie die Verwendung von Rich-Media-<br />

Inhalten innerhalb von Technischen Dokumentationen. Letztere bezieht<br />

sich vor allem auf die Erstellung von Video-, 3D- oder Bildschirmsimulationen,<br />

die komplexe Inhalte im Sinne des Nutzers reduzieren. Dabei<br />

sind Datenmengen und das jeweilige Update-Verhalten zu beachten.<br />

Outputformate (Auszug)<br />

Outputformate und Anwendungen<br />

Bei der Wahl des richtigen Formats für eine gelungene mobile Technische<br />

Dokumentation spielen verschiedene Aspekte eine Rolle:<br />

−−<br />

Anpassung an verschiedene Displaygrößen (Multiscreen), Geräte und<br />

Betriebssysteme<br />

−−<br />

Möglichkeiten des Einfügens von Rich-Media-Elementen<br />

−−<br />

Kontextsensitivität<br />

−−<br />

Suchfunktionen, Suchmaschinenoptimierung<br />

−−<br />

Social-Media-Komponenten<br />

Die Berücksichtigung all dieser Aspekte findet sich zusammengefasst<br />

im Begriff des Responsive UX Design (siehe nachfolgende Beispiele).<br />

ePub: Das ePub-Format zeichnet sich durch eine hohe Flexibilität hinsichtlich<br />

unterschiedlicher Geräte und Bildschirmgrößen aus. In der<br />

aktuellen Version ePub 3.0 wurden Probleme bei der Darstellung von<br />

Tabellen behoben sowie das Einfügen von Rich-Media-Inhalten optimiert.<br />

Darüber hinaus beinhaltet ePub die Möglichkeit einer Volltextsuche,<br />

des Einfügens von Lesezeichen und die Anpassung von Schriftgrößen<br />

und Helligkeit. Eingebundene Social-Media-Komponenten sind<br />

bislang nicht vorgesehen.<br />

Adobe Folio: Das Adobe-Format Folio wird mit der Adobe Creative<br />

Suite erstellt und ist vor allem für Magazine oder Schulungsunterlagen<br />

gut geeignet. Die Einbindung von Rich-Media-Inhalten erfolgt mittels<br />

Adobe InDesign. Ein deutlicher Nachteil des Formats ist die eingeschränkte<br />

Multiscreen-Tauglichkeit. So ist die Anpassung an Portraitoder<br />

Landscape-Modus nur über die Erstellung separater Layouts möglich,<br />

wodurch sich Aufwand und Datenmenge erhöhen.<br />

HTML5/ WebWorks REVERB: Das Format HTML5/WebWorks RE-<br />

VERB wird den Anforderungen des Responsive UX Design am ehesten<br />

gerecht: Als Multiscreen-Format passt es sich allen Displaygrößen an,<br />

ohne dass separate Quelldateien erstellt werden müssen. Damit bleiben<br />

Aufwand und Datenmenge so gering wie möglich. Die Einbettung von<br />

Rich-Media-Inhalten ist ebenso gewährleistet wie intelligente Suchfunktionen<br />

und Kontextsensitivität. Darüber hinaus werden die z. T.<br />

integrierte Anbindung an Social-Media-Netzwerke wie Facebook, Twitter,<br />

Google+ und DISQUS sowie eine Google Analytics-Unterstützung<br />

immer wichtiger.<br />

270<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Software im<br />

Praxisvergleich<br />

Inputdaten und Werkzeuge<br />

Je nachdem, mit welchen Programmen bei der Erstellung Technischer<br />

Dokumentationen gearbeitet wird, können die Inputdaten variieren.<br />

Daher ist die Aufbereitung der entsprechenden Formate für die mobile<br />

Nutzung ein entscheidendes Kriterium bei der Wahl der passenden<br />

Software. Entsprechend der zunehmenden Verbreitung von strukturierten<br />

Inhalten werden Technische Dokumentationen immer öfter in<br />

DITA, das heißt im XML-Format, erstellt. Darüber hinaus werden Dokumentationen<br />

häufig im unstrukturierten FrameMaker, in Adobe In-<br />

Design oder MS Word erzeugt. Demgemäß ist es sinnvoll, für die Generierung<br />

eines mobilen Outputs Software zu verwenden, die mindestens<br />

diese Inputdaten verarbeiten kann. Bei der Verwendung von Redaktions-<br />

oder Content-Management-Systemen ist außerdem die Automatisierung<br />

der Ausgabeprozesse notwendig.<br />

WebWorks ePublisher<br />

Das Programm WebWorks ePublisher verfügt über eine breite Palette<br />

an möglichen Output-Formaten, z. B. ePub, WebWorks REVERB, MS<br />

HTML Help, Eclipse Help, MediaWiki, Confluence, Oracle Help. Insgesamt<br />

stehen dem Nutzer 15 verschiedene Formate zur Verfügung. Darüber<br />

hinaus kann das Programm als Generator für Redaktions- und<br />

Content-Management-Systeme eingesetzt werden.<br />

Das Format WebWorks REVERB entspricht dem Multiscreen-Format<br />

HTML5 und bietet dieselben Funktionalitäten. Allerdings ist das Format<br />

HTML5 allein kein Garant für eine optimale Darstellung auf allen<br />

mobilen Geräten. Um eine optimierte Ausgabe im Responsive UX Design<br />

zu generieren, bedarf es der zusätzlichen Verwendung von CSS3.<br />

Während dieser Aspekt in anderen Programmen mittels Templates oder<br />

separat zu erstellenden Layouts gelöst wird, ist die automatische Anpassung<br />

an die Anforderungen des Responsive UX Design in WebWorks<br />

ePublisher mit seinem Format REVERB standardmäßig integriert.<br />

Beispiele aus den Bereichen Software, Maschinenbau und Energieversorgung<br />

(unten)<br />

RoboHelp10<br />

Mit der Technical Communication Suite 4 kam im Juli <strong>2012</strong> auch die<br />

neue Version von RoboHelp auf den Markt. Mit deutlichen Funktionserweiterungen<br />

kann RoboHelp10 als einfaches Werkzeug für Single-Source-Publishing<br />

im Multiscreen-Format betrachtet werden. Zahlreiche<br />

Output-Formate stehen den Nutzern zur Verfügung. Dazu zählen ePub,<br />

Adobe AIR Help, FlashHelp, JavaHelp, Oracle Help und weitere. Zudem<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

271


Mobile Dokumentation / Mobile Documentation<br />

ist es mit RoboHelp10 möglich, Inhalte in das Multiscreen-Format<br />

HTML5 zu konvertieren.<br />

Die Bereitstellung von Inhalten für die mobile Nutzung im Format<br />

HTML5 erfolgt über vordefinierte Templates, die im Umfang des Programms<br />

enthalten sind. Unterstützte Geräte sind dabei bisher: Android<br />

Phone und Tablet sowie Apple iPhone und iPad. Die Auswahl mehrerer<br />

Templates ist ebenfalls möglich. Auf diese Weise sind die erzeugten<br />

Ausgaben in HTML5 Multiscreen-Ausgaben.<br />

Umsetzung in Form einer App<br />

Mit der zunehmenden Verbreitung mobiler Inhalte steigt auch die Nutzung<br />

von Apps deutlich an. Nutzt man WebWorks, ist es mittels eines<br />

Servlets und einer App möglich, Dokumentationen innerhalb dieser<br />

App auf Tablets darzustellen. Diese kann dann über den jeweiligen<br />

App-Store für den Download verfügbar gemacht werden.<br />

Entscheidende Vorteile dieser App sind neben der einfachen und<br />

schnellen Erstellung die Möglichkeiten der Offline-Nutzung von Inhalten,<br />

die geringe Datenmenge im Falle eines Updates durch einen Delta-<br />

Abgleich sowie die Einrichtung eines Zugriffsschutzes der App.<br />

für Rückfragen: gerhardt@squidds.de, eck@squidds.de<br />

272<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 4<br />

Partnerpräsentation<br />

Das mobile Bordbuch<br />

Aleš Chyba, ŠKODA AUTO a.s., Mladá Boleslav, Tschechien<br />

Robert Erfle, DOSCO Document Systems Consulting GmbH, Heidelberg<br />

Motivation<br />

Smartphones und Tablet-Computer begleiten immer mehr Menschen<br />

bei ihren täglichen Aktivitäten. ŠKODA entwickelt deshalb Apps, um<br />

auch die Betriebsanleitungen seiner Fahrzeugpalette schnell, bequem<br />

und überall zugänglich zu machen.<br />

Angesichts der Modell- und Sprachvielfalt kann die Datenaufbereitung<br />

der Inhalte für die Apps aus wirtschaftlichen Gründen nur vollautomatisch<br />

erfolgen. Dies wird im vorliegenden Beitrag näher erläutert.<br />

Ausgangsdaten<br />

ŠKODA erstellt die Betriebsanleitungen im Format XML. Die zugrundeliegende<br />

DTD sorgt für klare Strukturen sowie medienneutral und modular<br />

aufgebaute Inhalte.<br />

Die Abbildungen liegen in verschiedenen, vordefinierten Größen und<br />

Formaten vor. Eine Besonderheit bilden die Fahrzeugsymbole, die durch<br />

speziell dafür entwickelte Schriften repräsentiert werden.<br />

Die gedruckten Betriebsanleitungen verfügen über ein Inhaltsverzeichnis<br />

und ein zweistufiges Stichwortverzeichnis, das auf Basis entsprechend<br />

ausgezeichneter Begriffe in den XML-Daten automatisch erzeugt<br />

wird.<br />

In großem Maße werden Querverweise verwendet (z. B. auf Kapitel,<br />

Abbildungen, Tabellen, Warnhinweise).<br />

Anforderungen<br />

ŠKODA strebt eine breite Nutzbarkeit des mobilen Bordbuchs an. Deshalb<br />

werden Apps für Smartphones und Tablet-Computer mit den Betriebssystemen<br />

iOS und Android entwickelt.<br />

Die unterschiedlichen Platzverhältnisse für die Darstellung sind ein<br />

wesentliches Unterscheidungsmerkmal der beiden Geräteklassen<br />

Smartphone und Tablet-Computer. Bei den Smartphones besteht die<br />

besondere Herausforderung, auf einem relativ kleinen Display die Inhalte<br />

einer mehrere Hundert Seiten starken Betriebsanleitung komfortabel<br />

lesbar anzuzeigen.<br />

Die gedruckte Betriebsanleitung hat mit dem Inhalts- und Stichwortverzeichnis<br />

zwei Zugänge oder „Einstiege“. Mindestens diese sollen auf<br />

den mobilen Geräten ebenfalls vorhanden sein. Und selbstverständlich<br />

müssen alle Querverweise verfolgbar sein.<br />

Aufgrund der Menge des Inhalts ist die Navigation und Orientierung<br />

besonders wichtig. Die Datenkonvertierung muss dabei die für die Navigations-<br />

und Orientierungsmechanismen notwendigen Inhalte geeignet<br />

bereitstellen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

273


Mobile Dokumentation / Mobile Documentation<br />

Datenkonvertierung<br />

Eine Betriebsanleitung bei ŠKODA gliedert sich in Teile, Hauptkapitel,<br />

Kapitel und Module. Der eigentliche Inhalt steht stets in einem Modul,<br />

wobei eine Betriebsanleitung ca. 450 Module umfasst.<br />

Für die Anzeige der Inhalte in den Apps wird das XML-Dokument<br />

nach XHTML konvertiert. Jedes Modul ergibt dabei eine eigenständige<br />

XHTML-Datei. Die Anzeige der XHTML-Module erfolgt in einem<br />

WebView genannten Bestandteil („control“) der App-Bedienoberfläche.<br />

Grundlage des WebView ist die WebKit Browser Engine.<br />

Das durch den Konverter erzeugte XHTML ist bewusst einfach und<br />

neutral gehalten. Die XHTML-Elemente werden jedoch abhängig von<br />

Zweck und Kontext der Ursprungselemente im XML-Dokument der Betriebsanleitung<br />

umfangreich klassifiziert. Ein passend für die Anwendung<br />

erstelltes, zentrales CSS-Stylesheet bestimmt alle wesentlichen<br />

Eigenschaften der Darstellung und des Layouts. Das CSS-Stylesheet<br />

nutzt Funktionen aus den CSS2- und CSS3-Standards.<br />

Die Konvertierung stellt technisch gesehen eine XSLT-Transformation<br />

dar, wobei Saxon als XSLT-Prozessor eingesetzt wird. Die Konvertierung<br />

läuft vollständig automatisch ab und ist in den Workflow des Redaktions<br />

systems bei ŠKODA integriert. Sie erzeugt neben den XHTML-Modulen<br />

eine Datei mit der übergeordneten Struktur der Betriebsanleitung<br />

und den Stichworteinträgen im JSON-Format (JavaScript Object Notation),<br />

die im Folgenden „Gliederung“ genannt wird.<br />

Stylesheet (XSLT)<br />

Stylesheet (CSS)<br />

Betriebsanleitung<br />

(XML)<br />

XSLT-Prozessor<br />

(Saxon)<br />

Module (XHTML)<br />

Gliederung (JSON)<br />

Konvertierung einer Betriebsanleitung<br />

274<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Die Gliederung enthält die Titel aller Teile, Hauptkapitel, Kapitel und<br />

Module sowie deren hierarchische Beziehung, z. B. welche Kapitel<br />

in welcher Reihenfolge in welchem Hauptkapitel enthalten sind. Für<br />

die Module speichert sie neben dem Titel auch die Identifikation der<br />

zugehörigen XHTML-Datei. Außerdem enthält die Gliederung die im<br />

XML-Dokument der Betriebsanleitung ausgezeichneten Begriffe für<br />

das Stichwortverzeichnis inklusive deren Zuordnung zu Modul, Kapitel<br />

etc. Die Gliederung dient den Apps als Informationsquelle für die<br />

Organisation und Anzeige der Navigation und der Suche im Stichwortverzeichnis.<br />

Das Format JSON eignet sich durch seine Kompaktheit und<br />

einfache Verarbeitbarkeit besonders gut für diesen Zweck.<br />

Darstellung und Layout der Module folgen dem Styleguide von ŠKODA<br />

für mobile Anwendungen. Die Verwendung zentraler Stylesheets für die<br />

Konvertierung (XSLT) und die Darstellung (CSS) garantiert einheitliche<br />

und durchgehende Erfüllung der CI-Vorgaben (Corporate Identity)<br />

seitens ŠKODA.<br />

Jedes Modul kann bis zu zwei Bilder enthalten, die stets an dessen Anfang<br />

stehen (Vorgabe DTD). Jedes Bild fällt abhängig von seiner Breite<br />

in eine der drei Kategorien: schmal, breit, Übersicht (groß). Schmale<br />

und breite Bilder werden unskaliert dargestellt. Ist das Bild breiter<br />

als das Display, kann es horizontal gescrollt werden. Übersichtsbilder<br />

(z. B. Cockpitbild) werden auf die Displaybreite skaliert. Durch Antippen<br />

erscheint es als unskaliertes Popup-Bild mit horizontalem und ggf.<br />

vertikalem Scrollbar. In diesem Zustand können alle Details betrachtet<br />

werden. Durch Antippen eines entsprechenden Icons wird das Popup<br />

entfernt und die ursprüngliche Darstellung der Seite wieder hergestellt.<br />

Zwei schmale Bilder werden nebeneinander dargestellt. Ansonsten<br />

erscheinen Bilder untereinander.<br />

Darstellung im Smartphone (Navigation nur beispielhaft angedeutet)<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

275


Mobile Dokumentation / Mobile Documentation<br />

Tabellen werden grundsätzlich unskaliert dargestellt. Ist eine Tabelle<br />

breiter als das Display, wird ein horizontaler Scrollbar eingeblendet.<br />

Die Module enthalten Querverweise auf andere Abschnitte (z. B. Kapitel,<br />

Module), Tabellen, Bilder, Sicherheitshinweise. Alle Querverweise<br />

werden bei der Konvertierung zweistufig angelegt: Identifikation<br />

des Zielmoduls und Identifikation des Verweisziels im Zielmodul. Sie<br />

müssen von den Apps geeignet interpretiert werden. Eine Besonderheit<br />

stellen Verweise auf Bilder dar. Das Verfolgen dieser Verweise<br />

führt nicht zu einem „Sprung“ zum Bild im entsprechenden Modul,<br />

sondern das Zielbild wird als Popup-Bild dargestellt, das die aktuelle<br />

Seitenansicht überlagert. Der Leser ist an dem (entfernten) Bild interessiert,<br />

möchte in der Regel aber im aktuellen Modul weiterlesen.<br />

Das „Heranschaffen“ des Bildes erspart ihm das Zurückspringen zum<br />

Ausgangsmodul.<br />

Die Betriebsanleitungen enthalten eine Vielzahl an verschiedenfarbigen<br />

Fahrzeugsymbolen, die in einer Anzeige im Fahrzeug erscheinen oder<br />

mit denen Funktionen an Bedienelementen im Fahrzeug gekennzeichnet<br />

sind. Diese Symbole sind als Zeichen in speziell dafür anfertigten<br />

Schriften (Fonts) realisiert und werden auch auf dieser Basis auf den<br />

mobilen Endgeräten dargestellt. Dies hat den großen Vorteil einer stets<br />

an die umgebende Textgröße angepassten Darstellung in hoher Qualität.<br />

Es muss allerdings dafür gesorgt werden, dass die speziellen Schriften<br />

in die Apps integriert werden.<br />

Es hat sich gezeigt, dass für die unterschiedlichen Geräteklassen<br />

(Smartphones und Tablet-Computer) und Betriebssysteme (iOS und<br />

Android) im Wesentlichen die gleichen XHTML-Daten und CSS-<br />

Stylesheets verwendet werden können. Gründe für notwendige Unterscheidungen<br />

sind z. B. unterschiedliche Platzierungsregeln für<br />

Text und Bilder bei Smartphones und Tablet-Computern oder die<br />

fehlende Unterstützung für horizontales Scrollen im WebView älterer<br />

Betriebssystemversionen.<br />

Darstellung im Tablet-Computer (Navigation nur beispielhaft angedeutet)<br />

276<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Bei der Realisierung der Datenkonvertierung für die Anzeige der Betriebsanleitungen<br />

auf mobilen Endgeräten hat sich wieder bestätigt,<br />

dass die Erstellung Technischer Dokumentation auf Basis gut strukturierter<br />

und layoutfreier XML-Dokumente eine sehr gute Ausgangsbasis<br />

für die unterschiedlichsten Anforderungen ist. Bei der Entwicklung der<br />

zugrundeliegenden XML-Anwendung vor über zehn Jahren war eine<br />

Ausgabe der Dokumente auf mobilen Endgeräten nicht absehbar. Dennoch<br />

lässt sich dies ausgehend von den vorhandenen XML-Dokumenten<br />

heute problemlos umsetzen.<br />

Ausblick<br />

Die hier vorgestellte Datenkonvertierung dient zunächst dazu, die Inhalte<br />

der gedruckten Betriebsanleitung auf mobilen Endgeräten zugänglich<br />

zu machen. Ausgehend davon sind verschiedene Erweiterungen<br />

vorstellbar, um den Kundennutzen zu erhöhen und die Attraktivität<br />

der Anwendung zu steigern:<br />

−−<br />

Zusätzliche und weiterführende Inhalte zu den Themen der Betriebsanleitung.<br />

−−<br />

Videos oder Animationen, die bestimmte Sachverhalte anschaulicher<br />

beschreiben oder erläutern.<br />

−−<br />

Individualisierung der Betriebsanleitung auf das konkrete Fahrzeug,<br />

so dass nur noch die im konkreten Fahrzeug vorhandenen Ausstattungen<br />

beschrieben werden.<br />

− − „Kopplung“ des Fahrzeugs mit der Anwendung, so dass etwa bei Störungen<br />

im Fahrzeug automatisch die zugehörigen Hinweise angezeigt<br />

werden.<br />

In jedem Fall bietet die rasante Verbreitung von Smartphones und Tablet-Computern<br />

eine Fülle an Möglichkeiten, die auch für die Technische<br />

Dokumentation genutzt werden sollte.<br />

Für Rückfragen: erfle@dosco.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

277


Mobile Dokumentation / Mobile Documentation<br />

MOB 5<br />

Fachvortrag<br />

Mobile First – Anforderungen an die Prozesse<br />

zur Erzeugung mobiler Dokumentation<br />

Andreas Volpert, Empolis Information Management GmbH, Rimpar<br />

Die rasant zunehmende Verbreitung von mobilen Endgeräten geht<br />

einher mit veränderten Benutzererwartungen an die Technische Dokumentation.<br />

Benutzer von Tablet-PCs, E-Readern und Smart-Phones erwarten<br />

zunehmend Dokumentationen, die situationsgerecht die genau<br />

passende Information effizient und optimal aufbereitet zur Verfügung<br />

stellen.<br />

Gefragt sind innovative Konzepte zur Erstellung und Pflege von Dokumentationen,<br />

die Hersteller in ihre strategische Planung integrieren.<br />

Diese erfordern auf Schnelligkeit optimierte Redaktions- und Aufbereitungsprozesse,<br />

ohne die vorhandenen Qualitätsziele zu vernachlässigen.<br />

Anforderungen an die Erzeugung und Pflege mobiler, anwendernaher<br />

Information sowie die mögliche Umsetzung mittels optimierter Prozesse<br />

können allgemeingültig und beispielhaft definiert werden.<br />

Zielsetzung<br />

Eines der wesentlichen Ziele ist die schnelle Belieferung von neuen<br />

Publikationswegen mit zielgruppengerecht konfektionierten Informationen,<br />

die auf mobilen Endgeräten verfügbar sind. Eine entscheidende<br />

Rolle spielt dabei, dass die Erstellung der Inhalte sowie deren kontinuierliche<br />

Pflege und Aktualisierung integrativer Bestandteil aller übergreifenden<br />

Prozesse ist.<br />

Die entsprechende Strukturierung der Information selbst in einzelne<br />

Komponenten, die Anreicherung der Informationsobjekte mit zusätzlichen<br />

Informationen (Metadaten), die sowohl für die Weiterbearbeitung<br />

als auch für die Komposition der Dokumentation benutzt werden können,<br />

und die Ausgestaltung der einzelnen Bearbeitungsschritte in definierte<br />

Workflows leisten den wesentlichsten Beitrag für die Effizienz<br />

und Flexibilität der gesamten Lösung.<br />

Voraussetzungen<br />

Die wichtigste Rolle spielt dabei die grundlegende Abkehr von der<br />

Dokument-orientierten Betrachtung der Informationen hin zur Modularisierung<br />

der Informationen in einzelne Objekte bzw. Komponenten, die<br />

verhältnismäßig beliebig, je nach konkreter Anforderung, zu vollständigen<br />

Dokumentationen zusammengefügt werden können. Dabei muss<br />

der Schreibstil so angepasst werden, dass die Module sich in jeden<br />

definierten Kontext nahtlos einfügen.<br />

Die Organisation und Festlegung von Verantwortlichkeiten bei jedem<br />

Bearbeitungsschritt schafft die Gewissheit, dass sich die einzelnen<br />

Informations-Komponenten in den definierten unterschiedlichen Kontexten<br />

immer zu einer harmonischen Einheit zusammenfügen. Änderungen<br />

der Komponenten müssen beschrieben und klassifiziert werden<br />

(z. B. mittels Metadaten) und das System muss die Auswirkungen der<br />

jeweiligen Änderung aufzeigen und erkennbar machen. Für jede relevante<br />

Publikation, an der die bearbeitete Komponente mit beteiligt ist,<br />

müssen die Änderungen identifizierbar sein und zu jedem Zeitpunkt<br />

278<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

sollte im Idealfall auch eine entsprechende (Teil-) Publikationsvorschau<br />

verfügbar sein.<br />

Die Lösung<br />

Der Einsatz von vorhandenen XML-Standards zur Strukturierung der<br />

Informationskomponenten ist dabei unabdingbar. Basierend auf den<br />

methodischen Strukturierungsmechanismen, die XML bietet, existieren<br />

bereits mehrfache Anwendungs-Szenarien (z. B. PI-MOD, DITA, Doc-<br />

Book, etc.), die ohne umfangreiche Vorarbeiten leicht adaptiert werden<br />

können und die von leistungsfähigen Component Content Management<br />

Systemen standardmäßig unterstützt werden.<br />

Component-Content-Management-Systeme bieten dabei spezifische,<br />

optimierte Eigenschaften gegenüber herkömmlichen und im Wesentlichen<br />

Dokument-orientierten Content-Management-Systemen:<br />

Sämtliche Ereignisse werden mit einer Workflow-Management-Systemkomponente<br />

gesteuert. Der Einfluss der Workflows beschränkt sich<br />

dabei idealerweise nicht auf die Prozesse im Component-Content-<br />

Management-System, sondern bezieht alle vor- und nachgelagerten<br />

Produktionsprozesse im Umgang mit den Informationsobjekten mit ein<br />

und steuert diese ebenfalls. Dies beginnt typischerweise bei der Vorverarbeitung<br />

der Informationen (u. a. Daten-Konvertierung) und der<br />

Steuerung des Imports der Daten in das System. Die Workflows steuern<br />

auch die Übergabe der zu publizierenden Einheiten an nachgelagerte<br />

Publikations-Prozesse, die die Informationen für die Darstellung und<br />

Benutzung auf dem jeweiligen Endgerät optimal aufbereiten.<br />

Zusätzlich bietet ein optimales Component-Content-Management-System<br />

darüber hinaus Report-Funktionalitäten zur Planung der Produktionsprozesse,<br />

für Reports zum aktuellen Status von Dokumentationen<br />

und deren einzelnen Komponenten sowie für individuell definierbare<br />

zusätzliche Übersichten.<br />

Die Möglichkeit, das Publikationsergebnis vor der eigentlichen Freigabe<br />

der Publikation zu prüfen, erhöht die Sicherheit und Qualität des<br />

Endprodukts.<br />

Einer der letzten Workflow-Schritte könnte schließlich die Bereitstellung<br />

des Publikationsergebnisses für den Endbenutzer sein. Allerdings<br />

wären hier auch noch weitere nachgelagerte Schritte denkbar: Z. B. das<br />

Einfrieren der publizierten Daten zu einer „Ausgabe“ und die Generierung<br />

einer neuen Version, die dann Gegenstand von künftigen Änderungen<br />

und Ergänzungen sein könnte.<br />

Ausblick<br />

Mobile Endgeräte (iPad, Tablet-PCs) erlauben längst nicht mehr nur Informationen<br />

darzustellen, sondern auch diese interaktiv zu bearbeiten.<br />

Hier eröffnen sich vollkommen neue Möglichkeiten zur Gestaltung von<br />

vollständig in den Redaktionsprozess integrierten Review-Prozessen.<br />

Prüfung und Freigabe kann parallel durch mehrere Benutzer gesteuert<br />

und kontrolliert durch das System erfolgen, mit allen Vorteilen der<br />

zentralen Datenverwaltung (Zugriffssteuerung, Versionenverwaltung,<br />

Änderungshistorie u. v. m.) bis hin zum direkten Rückfluss der Review-<br />

Ergebnisse in den Redaktionsprozess.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

279


Mobile Dokumentation / Mobile Documentation<br />

Fazit<br />

Die Bereitstellung von Technischer Dokumentation auf mobilen Endgeräten<br />

ist in der derzeitigen Praxis meist ein dem normalen Redaktionsprozess<br />

nachgelagerter oder zu diesem parallel laufender Produktionsschritt.<br />

Die Nutzung der Technischen Dokumentation auf<br />

mobilen Endgeräten wird zukünftig rasant zunehmen und vielfältige<br />

neue Anwendungs-Szenarien werden entstehen. Um auf zukünftige<br />

Herausforderungen optimal vorbereitet zu sein, sind kontinuierliche<br />

Prozess optimierungen notwendig. Gefragt sind flexible Component-<br />

Content-Management-Systeme, die in Kombination mit Workflow-<br />

Management-Systemen die gesamte Produktionskette der Dokumentationserstellung<br />

und Bereitstellung unterstützen.<br />

Für Rückfragen: andreas.volpert@empolis.com<br />

280<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 7<br />

Fachvortrag<br />

APPetithappen aus der Praxis: Physical<br />

World Connection und Content-<br />

Aufbereitung für mobile Doku<br />

Ralph Muhsau, TANNER AG, Lindau<br />

Physical World Connection<br />

‚Physical World Connection‘ folgt dem Mega-Trend „Internet of Things“<br />

und verweist auf die direkte und einfache Verbindung der realen Welt<br />

mit ihrer angereicherten Repräsentation im ‚Internet‘. Die ‚Physical<br />

World Connection‘ leistet also zweierlei:<br />

−−<br />

Eindeutige Identifikation eines physischen Objekts<br />

−−<br />

Verbindung des physischen Objekts mit der gewünschten Information<br />

Es bestehen die folgenden Möglichkeiten:<br />

−−<br />

2D-Codes (Bsp.: QR-Code)<br />

−−<br />

Strichcodes (Bsp.: GTIN – ehem. EAN)<br />

−−<br />

Bluetooth<br />

−−<br />

RFID, NFC<br />

−−<br />

Mustererkennung von Bildern und Tönen (Bsp.: Shazaam)<br />

−−<br />

GPS plus Kompass<br />

Der Siegeszug der QR-Codes, den wir aktuell erleben, hat vielfältige Ursachen:<br />

Zum einen sind QR-Codes lizenzfrei nutzbar und entsprechend<br />

viele Generatoren und Reader-Apps – für alle Plattformen – verfügbar.<br />

Zum anderen speichern 2D-Codes mehr Informationen als beispielsweise<br />

Strichcodes.<br />

Physical World Connection in der Praxis<br />

Content-Aufbereitung für mobile Doku<br />

Zunächst stellt sich die Frage, in welcher Form Informationen auf mobile<br />

Geräte kommen können:<br />

−−<br />

Content in Standard-Apps: PDF, ePUB, iBooks<br />

−−<br />

Content in Drittanbieter-Apps: CHM (Compiled HTML Help), Adobe<br />

.folio<br />

−−<br />

Website<br />

−−<br />

Native App<br />

Wir betrachten zunächst die Content-Formate, die mit entsprechender<br />

Software einfach erzeugt und verteilt werden können. Die folgende Tabelle<br />

beschreibt die wesentlichen Eigenschaften aus Benutzersicht:<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

281


Mobile Dokumentation / Mobile Documentation<br />

CHM PDF ePUB .folio iBooks<br />

Plattformübergreifend + + + + -<br />

Look & Feel - + + ++ ++<br />

Flexibles Layout + - + - -<br />

(Reflow)<br />

Inhaltsverzeichnis + + + + +<br />

Links + + + + +<br />

Audio, Video - - + + +<br />

Interaktive Widgets - - (-) + +<br />

Eine ePUB-Datei ist eine ZIP-Datei, die die benötigten Dateien zur<br />

Darstellung des Dokuments in den Web-Standards HTML, CSS, JPEG,<br />

GIF, PNG, SVG und XML enthält. Der wesentliche Vorteil von ePUB ist<br />

das mit diesem Format mögliche flexible Layout. Der Benutzer kann die<br />

Schriftgröße selbst einstellen und das Dokument bricht dann neu um<br />

(Reflow). Dadurch kann ein Dokument auf verschiedenen Bildschirmgrößen<br />

immer optimal lesbar angezeigt werden. Dies ist mit einem PDF<br />

nicht möglich. Wird ein PDF für die Anzeige auf einer kleinen Bildschirmgröße<br />

gezoomt, so bricht es nicht neu um. Der Benutzer muss<br />

dann jede Zeile beim Lesen seitlich scrollen.<br />

ePUB 3, das im Oktober 2011 verabschiedet wurde, bringt eine Reihe<br />

von nützlichen Erweiterungen:<br />

−−<br />

Mehr Layout-Funktionen (HTML-5 und CSS 3)<br />

−−<br />

Audio (mp3)<br />

−−<br />

Video (MPEG-4)<br />

−−<br />

Interaktivität (Javascript)<br />

−−<br />

Eingebettete Fonts (OpenType und WOFF)<br />

Mit ePUB 3 sind multimediale und interaktive E-Books mit mehr Layout-Funktionen<br />

als bisher mit ePUB 2 möglich.<br />

ePUBs lassen sich auf vielfältige Weise erstellen: Direkt mit geeigneten<br />

Layoutprogrammen (Adobe InDesign, Apple Pages, per Plug-in auch<br />

mit Word), Konvertiertools (Calibre, Sigil), mit geeigneten Publikationsstrecken<br />

oder auch „manuell“ mit HTML- und XML-Editoren.<br />

Die beiden proprietären E-Book-Formate können jeweils nur mit den<br />

zugehörigen Autorentools erzeugt werden: Adobe .folio mit der Adobe<br />

Digital Publishing Suite (Bestandteil von InDesign 5.5); iBooks mit Apple<br />

iBooks Author (gratis im Mac App Store). Interaktive Widgets erweitern<br />

diese Content-Formate um zusätzliche Visualisierungsmöglichkeiten.<br />

Dies können je nach Format sein: Bilder-Galerie, Interaktives Bild,<br />

Webview, 3D-Modell, Panoramabild usw.<br />

Website und App<br />

Falls die Möglichkeiten der Content-Formate nicht ausreichend für eine<br />

Kommunikationsaufgabe sind, stellt sich die Frage, ob eine für mobile<br />

Geräte optimierte Website oder eine App das geeignetere Medium ist.<br />

Die folgende Tabelle stellt die wesentlichen Unterschiede und Vorteile<br />

dar.<br />

282<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

App<br />

Look & Feel des Gerätes<br />

funktioniert offline (Roaming!), Mischformen<br />

möglich<br />

Hardware-Features:<br />

GPS, Kamera, Multitouch, Kompass,<br />

Accelerometer<br />

Spezielle Funktionen:<br />

Push-Benachrichtigungen, Adressbuch usw.<br />

Icon auf Homescreen<br />

Website<br />

plattformübergreifend<br />

Daten immer aktuell<br />

Web-Funktionalität:<br />

Verlinkung von anderen Websites und<br />

Suchmaschinen<br />

Icon auf Homescreen<br />

Der Hintergrund des Praxis-Beispiels „Dethleffs Reiseinfo“ ist, dass<br />

ein Handbuch über Jahre im Fahrzeug liegt, Verkehrsregeln und Adressen<br />

sich aber ändern. Bei der Neukonzeption der Handbücher für den<br />

Reise mobil-Hersteller war also eine clevere Lösung für diesen Abschnitt<br />

der Handbücher, der insgesamt ca. 30 Seiten ausmacht, gefragt.<br />

Die Entscheidung für eine App fiel hier leicht, da die Informationen<br />

vor allem auch im Ausland abgerufen werden. Damit keine Roaming-<br />

Gebühren für den Benutzer anfallen, sind alle Daten in der App gespeichert.<br />

Außerdem werden einige Sonderfunktionen benötigt, die nur mit<br />

einer App möglich sind, beispielsweise die Berechnung der Entfernung<br />

zum nächsten Servicepartner – auch ohne Datenverbindung.<br />

für Rückfragen: Ralph.Muhsau@TANNER.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

283


Mobile Dokumentation / Mobile Documentation<br />

MOB 8<br />

Presentation<br />

Creating ePubs and other mobile device<br />

outputs using TCS and its point products<br />

Gyanesh Talwar, Nandini Gupta, Adobe Systems, Noida, India<br />

Kindles, iPads, Android devices and other tablets are fast becoming a<br />

lifestyle statement and a necessity alike. They have found application in<br />

so many diverse ways that can simplify our lives and work; it’ll soon be<br />

difficult to imagine how we have been living without them so far.<br />

The mobile device explosion is turning out to be one of the biggest techtrends<br />

so far. The exponential growth of the mobile device market also<br />

means there is an unprecedented demand for content that could be<br />

delivered in formats compatible with these devices.<br />

In this demo, Gyanesh Talwar and Nandini Gupta showcase the TCS<br />

and its point products’ (FM, RH, and Captivate) capabilities to produce<br />

mobile content, such as text, graphics, video, and help formats.<br />

They also touch upon how writing for the mobile devices is different<br />

from the PC technical communication.<br />

Captivate MP4<br />

and youtube videos<br />

TCS ePubs PDF<br />

FrameMaker <br />

Mobile friendly PDF<br />

Native Mobile<br />

App Generator<br />

Support for Help<br />

integration with iOS<br />

and Android apps<br />

“Built in” – out of the box features to generate mobile outputs<br />

In the following demos, Nandini and Gyanesh show how to create the<br />

various mobile optimized tech comm outputs:<br />

−−<br />

Using Captivate, you can create software simulations and other videos<br />

to share on youtube.com, which mobile device users can access.<br />

Videos may be more time consuming to create, but they help expedite<br />

and optimize users’ learning.<br />

−−<br />

Using the FrameMaker source, you can create ePub PDF using Robo-<br />

Help. An ePub PDF is optimized for reading on mobile devices.<br />

−−<br />

You can create a lighter, no-frills version of your PDF using Frame-<br />

Maker alone.<br />

Extended – you can use the scripts shipped with<br />

RoboHelp to create mobile outputs<br />

You can use this script to package Help content as a native mobile app<br />

for the Android mobile operating system.<br />

RoboHelp provides an API that you can leverage to integrate Multiscreen<br />

HTML5 output with iOS and Android apps. The API ships with<br />

the source code for the included functions as well as sample apps demonstrating<br />

the usage of the exposed API.<br />

Custom: jQuery mobile<br />

jQuery mobile is a JavaScript based, touch-optimized mobile framework.<br />

People familiar with jQuery can quickly learn jQuery. You can use<br />

jQuery to create mobile websites as well as technical communication<br />

content, which are compatible with all major mobile platforms, such as<br />

iOS, Android, Blackberry, and Windows Phone.<br />

This demo includes showcasing the process of generating minimal<br />

jQuery mobile output.<br />

284<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

QRCodes<br />

This demo includes showcasing how QR codes can be used for hardware<br />

documentation and field workers.<br />

QR codes make sense when field workers require JIT information –<br />

specs, alerts instructions.<br />

Documentation sets are very large but the actual information required<br />

at a time is not too detailed.<br />

gtalwar@adobe.com<br />

nandinig@adobe.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

285


Mobile Dokumentation / Mobile Documentation<br />

MOB 9<br />

Presentation<br />

Is Augmented Reality the Future<br />

of Technical Documentation<br />

Juergen Lumera, SPX Service Solutions, Munich<br />

A few years ago, Alan Brandon asked in an article about an Augmented<br />

Reality research project (AMAR) at Columbia University this question:<br />

Is Augmented Reality the future of technical documentation? He did<br />

not really answer the question, but he described the huge potential of<br />

that technology. The research project did not change the technical documentation<br />

world at THAT time. This presentation will describe what has<br />

changed since then and why the answer to his question is now a definitive<br />

YES – this technology is changing the technical documentation<br />

world and we need to be prepared.<br />

Before we start discussing in greater detail the possibilities of Augmented<br />

Reality in context of technical documentation, it is necessary to define<br />

what exactly is Augmented Reality, what is generally required, and<br />

how is it already used for technical documentation.<br />

What is Augmented Reality?<br />

Wikipedia defines Augmented Reality in the following way: “Augmented<br />

Reality (AR) is a live, direct or indirect, view of a physical, real-world<br />

environment whose elements are augmented by computer-generated<br />

sensory input such as sound, video, graphics or GPS data. …“<br />

In other words Augmented Reality:<br />

−−<br />

Combines real and virtual content<br />

−−<br />

Is interactive in real time<br />

−−<br />

Registers in 3D<br />

Samples of Augmented Reality can be found in our normal life – very<br />

often we are not even aware that it is Augmented Reality. Everyone has<br />

seen those overlaid lines in a televised football game to indicate the<br />

position of a player relative to the ball. A more advanced usage of Augmented<br />

Reality is in Smartphone Applications like Wikitude or Layar<br />

which show search results through the view of the camera.<br />

What is required to use Augmented Reality?<br />

The major components of an augmented reality solution are:<br />

−−<br />

A sensor to capture the reality (typically a camera)<br />

−−<br />

3D data about the content to be recognized<br />

286<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

−−<br />

Display to show captured and overlaid (augmented) content, such as a<br />

smartphone, tablet, goggles, or head-mounted display.<br />

−−<br />

Component(s) to interact with AR application – touch screen or microphone<br />

−−<br />

The augmented content (3D data, 2D data, text, audio)<br />

−−<br />

Application to feed content to AR client application<br />

How can Augmented Reality be used for technical documentation?<br />

The above mentioned AMAR project at Columbia University had implemented<br />

a prototype to allow a service technician to execute a repair<br />

guided by augmented information. The technician sees the real world<br />

and additional content through his goggles. This additional content<br />

helps him to find the right position, to use the correct tools and execute<br />

the necessary steps in the right order without being distracted by<br />

consuming and interpreting “classical” technical documentation. Many<br />

variations with other display devices have been built but they all follow<br />

more or less the same basic concept.<br />

Advantages of Augmented Reality<br />

Using Augmented Reality eliminates the need to transfer written content<br />

to the location where it needs to be applied. In a classical environment<br />

a technician or owner typically flips through pages (paper or Web)<br />

to identify the relevant information. This information then needs to be<br />

transferred to the place where the task (repair, operation, etc.) has to be<br />

executed. This requires the technician to interpret the written content<br />

and align existing graphics with the physical object.<br />

In an Augmented Reality world this transformation (and search) step is<br />

not necessary because the information is already displayed at the place<br />

where it is needed. It is information at the point and place of need. It<br />

can even adjust to the current context: a technician can start by himself<br />

and request support from an Augmented Reality application when he<br />

cannot continue based on his own knowledge.<br />

What does this mean for a technical author?<br />

The most important part of an Augmented Reality solution, beside the<br />

software component, is the content used for augmentation. This content<br />

is what a technical author has to produce in the future. He needs to<br />

work in a 3D view of the main object and place the content for augmentation.<br />

The textual part will to a fair degree be replaced by 3D objects<br />

showing activities, tools, parts, etc. New authoring tools for those tasks<br />

are needed and require a different skillset – graphic oriented thinking,<br />

focused on “real” task execution instead of abstract description, aiming<br />

to minimize/eliminate the non-graphical information. It is not enough<br />

to use a new tool; it requires us to change the mental approach of how<br />

to “interact” with the consumers of technical documentation: in an Augmented<br />

Reality world you don’t explain, you SHOW.<br />

What has changed since the original question has been asked?<br />

During the last three years the technology to enable augmented reality<br />

has changed dramatically. All modern smartphones have the required<br />

sensors and display capability already built in. Tablets offer the same<br />

set of functionality and provide a larger area for interaction. Voice<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

287


Mobile Dokumentation / Mobile Documentation<br />

recognition has tremendously improved and can be used in industrial<br />

solutions. Inexpensive goggles to display augmented content are ready<br />

for the mass market.<br />

But not only has the technology changed. The massive use of Augmented<br />

Reality in marketing and extensions to existing applications/media<br />

types (Navigation Systems, Catalogues, Search Engines, and so on) has<br />

paved the street for this technology.<br />

We have reached a state where it is no longer a question if it will happen<br />

because it is already there – it is now a question of how quickly<br />

we can set up a complete process/structure to support Augmented<br />

Reality in the same way as we are doing it for the existing technical<br />

documentation.<br />

To get back to the original question: YES this is the future of technical<br />

documentation because the market has the tools and will demand the<br />

content for it.<br />

Contact: juergen.lumera@spx.com<br />

288<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 10<br />

Presentation<br />

Mark these figures!<br />

2015, 2020, 2025<br />

Success or failure<br />

RTFM<br />

RTFM (Real & Touchable Front-end Matter)<br />

Or: Users decide on What/How/When.<br />

Martin Rüegg, maxon motor ag, Sachseln, Switzerland<br />

Within the next ten years, three topics will be of fundamental impact:<br />

The user’s self-determining demands, the high granularity of information,<br />

and the dynamic interaction of the user with the employed systems.<br />

To this end, three theses:<br />

1. Until 2015, mobile devices will have established as THE in fact method<br />

for knowledge transfer and communication.<br />

2. By 2020, out of the total volume of available/provided/required information,<br />

only a small percentage will be consumed at the actual point<br />

of use.<br />

3. Before 2025, the user behavior will result in radical changes of today’s<br />

known operating systems.<br />

The user’s behavior, expectations, and aspiration will be the motors of<br />

these changes and, in particular, will become the theses’ reality. “Transmitters”<br />

dealing with this challenge by means of an engaged parking<br />

brake will surely face a nasty surprise.<br />

Not what you might think!<br />

The dictum will probably get an entirely new meaning. Instead of a<br />

bumpy invitation to look up where everything has been written down<br />

nice and neat, it could also mean Real & Touchable Front-end Matter.<br />

Even today, we (the transmitter) still flood the user (the receiver)<br />

with an over-the-top amount of bulk information, quite often with truly<br />

negative consequences. This kind of Technical Communication will<br />

presumably result in information overload and, eventually, will peak in<br />

the user suffering from turn away frustration without any motivation of<br />

ever coming back…<br />

martin.rueegg@maxonmotor.com<br />

martin@therueggs.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

289


Mobile Dokumentation / Mobile Documentation<br />

MOB 11<br />

Presentation<br />

The business case for mastering liquid content<br />

Chris Laska<br />

Excelling in one area rather than being all things to all people. Organizations<br />

need to focus on their unique niches and position themselves as<br />

the definitive source for information, products and services related to<br />

the specific places in the markets where they operate.
<br />

Definition of liquid content<br />

Liquid content is next generation information, no longer comprised of<br />

static information, tailored around each unique user, on the basis of<br />

real-time multidimensional profiling.<br />

The value of content is measured by how easy it is to use it. Liquidity<br />

of content is a concept that captures aspects of immediacy, flexibility<br />

and pliability of content. The more liquid content is, the easier it is to<br />

reuse, access, edit and publish. Company-owned and in-company created<br />

content is available in a proprietary format that binds the content<br />

to a particular viewer, editor or content owner. To be liquid, means that<br />

content is freed to better serve customers and prospects in ways and via<br />

channels of their choice, fixed or mobile, interactive and live.<br />

Trends in content management<br />

Content management is a real challenge for all organizations and their<br />

brand portfolio and the awareness that content needs to be managed is<br />

growing. Content governance specifies that content created in the enterprise<br />

belongs to the enterprise as opposed to the person who created<br />

it. That content needs to be findable and available and needs to interact<br />

with content generated by users and communities outside the brand.<br />

Another trend shows that vendors are moving away from the idea of<br />

building a single fix-it-all enterprise content management system towards<br />

designing systems that actually deal with business problems. The<br />

role of a service partner and a long-term engaging and quality-driven<br />

partnership becomes apparent.<br />

Product information at your fingertips<br />

The internet and mobile channels fundamentally changed the way<br />

customers and prospects expect to find and engage with content related<br />

to a company’s products and services. Marketing organizations already<br />

embraced these new mediums (with personalized web experiences,<br />

video, and mobile apps). Technical documentation organizations however<br />

are more hesitant in responding. But the expectations of customers<br />

and prospects did change and the notion of the traditional technical<br />

publication has altered completely.<br />

Traditionally the technical publication is a static one-way deliverable<br />

that is managed, produced – printed – and shipped as part of a new<br />

product introduction or update. This classical supply chain is no longer<br />

relevant for customer experiences today that are increasingly shaped<br />

by the internet, mobile channels and social media. Customers, and even<br />

prospects, expect to rapidly find just the right information, relevant and<br />

personalized, at the right time and at their fingertips via the web or<br />

290<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

mobile device. They expect information to be tailored to their questions,<br />

visually presented, and their interaction with that information needs to<br />

be two-way.<br />

Organizations that are mindful of these changes respond strategically<br />

by moving to product content that is dynamic, interactive and personalized.<br />

Such content can best be described as “liquid”.<br />

Product-related content is critical at most stages of a customer’s journey.<br />

Prospects (both b2b and b2c) want product information when comparing<br />

and buying products. After the purchase, technical documentation<br />

is required to learn how to use a product. During the post-sales process,<br />

if the customer has difficulty using the product or the product is not<br />

working properly; technical documentation is needed for support. To<br />

provide an outstanding customer experience, a company must provide<br />

quick access to relevant, up-to-date technical information in compelling<br />

forms. By doing so, companies can increase revenues, improve out-ofbox<br />

experience, increase self-service, drive down call center calls, and<br />

ultimately increase repeat buying and word of mouth recommendations.<br />

Business case components<br />

Mastering liquid content is realized through structuring content referring<br />

to information or content that has been broken down and classified<br />

using metadata based on standard or proprietary forms of metadata.<br />

However the investment to structure content is likely to be much greater<br />

than the direct costs for a component content publishing system, including<br />

the software licenses and the hardware infrastructure needed in<br />

IT to support the new software. Yet total cost of ownership (TCO) must<br />

also include indirect costs for retraining workers to write stand-alone<br />

topics using new editing tools as well as change management costs. To<br />

make the business case for structuring content, we must align the many<br />

advantages of structured content with specific needs in a business or<br />

organization. A strategic choice for an experienced partner with a track<br />

record in dealing with content may yet be the easier part of the investment<br />

equation.<br />

Structured content has many advantages: modularity, single-sourcing,<br />

content reuse, multiple delivery formats and channels, and it facilitates<br />

translation dramatically. The new DITA structured content standard also<br />

adds benefits like topic-based authoring, conditional processing, taskorientation,<br />

component publishing, information typing, minimalism,<br />

inheritance, specialization, and simplified XML.<br />

Structured content also has some indirect costs that should figure in<br />

ROI calculations. Writers have to adapt their writing style and you need<br />

specialized copy to attend to a number of content needs.<br />

Serving the liquid customer: leverage content to deliver service<br />

In the end the business case comes down to the consumer. Fluid consumers<br />

today use non-linear decision making when purchasing and using<br />

products. When purchasing, customers use multiple channels (web,<br />

company website, mobile, store, call centre and social media) in search<br />

of product information. Product usage is usually determined by call<br />

centers or the company website and sharing is mostly done through the<br />

company website or social media.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

291


Mobile Dokumentation / Mobile Documentation<br />

Brave brands should limit publications to digital formats and produce<br />

publications for individual product configurations. But more importantly<br />

web and social channels now enable organizations to investigate and<br />

measure how users consume and apply content so that the content and<br />

the channels provided can be continuously improved.<br />

Documentation should match specific user experiences or knowledge<br />

profiles and has to be tailored to individual region/language needs.<br />

Contact: chris.laska@blonde.eu<br />

292<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 12<br />

Fachvortrag<br />

Apps für Technische Redakteure<br />

Martin Häberle, Karlsruhe<br />

„Smartphones und Tablets sind teures Spielzeug, fressen bloß Zeit und<br />

bringen nichts Neues!“ Solche Sätze sind zwar nicht ganz unwahr, man<br />

hört sie aber immer seltener. Denn heute nutzt praktisch jeder iPhone &<br />

Co. Insbesondere als Firmengeräte erfreuen sie sich größter Beliebtheit,<br />

ist doch <strong>2012</strong> in Deutschland fast jedes dritte verkaufte Mobiltelefon ein<br />

Smartphone. [1]<br />

Daher ist es Zeit, einmal den Nutzungskontext von kleinen und größeren<br />

Mobilgeräten zu betrachten. In diesem Vortrag wird der Schwerpunkt<br />

auf Tablet- und Smartphone-Anwendungen („Apps“) für iOS und<br />

Android gelegt. Es sollen einige ausgewählte Apps vorgeführt werden,<br />

die Berufstätige im Allgemeinen und Technische Redakteure im Speziellen<br />

optimal bei ihrer täglichen Arbeit unterstützen. Außerdem soll<br />

aufgezeigt werden, welche Tätigkeiten man sich auf einem Touch-Bildschirm<br />

besser erspart.<br />

1. Kommunikation<br />

2. Ideensammlung<br />

3. Notizen<br />

4. Selbstorganisation<br />

5. Recherche und<br />

Nachschlagen<br />

10 Einsatzzwecke für Smartphones und Tablets<br />

Für die kurze E-Mail zwischendurch oder den schnellen Check des<br />

Posteingangs eignen sich Touch-Geräte hervorragend. Mit der Chat-<br />

Funktion von Skype lassen sich schnell Links und Informationen mit<br />

Kollegen austauschen – auch in Besprechungen bleiben sie dezent im<br />

Hintergrund. Außerdem gibt es noch Twitter sowie Kurznachrichtendienste<br />

wie „WhatsApp“ und natürlich die Telefonfunktion im Smartphone,<br />

falls doch noch einer anruft.<br />

Geistesblitze lassen sich über das eingebaute Mikrofon als Sprachnotiz<br />

mit „Notability“ oder „GNotes“ (für Android) aufzeichnen, mithilfe<br />

von „Siri“ als Textnotiz diktieren oder über die virtuelle Tastatur eintippen<br />

und von überall abrufen. In einer Mindmap-Anwendung wie<br />

„Mindjet“ lassen sich zudem Ideen sammeln, Inhalte ordnen oder Informationsarchitekturen<br />

modellieren und mit dem Redaktionsrechner<br />

synchronisieren.<br />

Für Besprechungsnotizen hat der Papierblock ausgedient. Stattdessen<br />

wird der digitale Mitschrieb vom Tablet über den Exchange-Server in<br />

MS Outlook übertragen und die Notiz ist damit sofort auf dem PC verfügbar.<br />

Die Notizen lassen sich durchsuchen und z. B. in MS Word weiterverarbeiten.<br />

Dank der im Mobilgerät integrierten Fotofunktion werden<br />

auch Inhalte von Flipcharts, Whiteboards und Skizzen auf Papier<br />

mit einem Klick dokumentiert.<br />

Eine zentrale Aufgabenverwaltung, beispielsweise „GoTasks“ für Google<br />

Tasks, sowie zeit- und ortsabhängige Erinnerungen (mit der gleichnamigen<br />

iOS-App) sind wohl das wirksamste Hilfsmittel bei „digitaler Demenz“<br />

und schaffen Übersicht und Ordnung. Zeiterfassungs-Apps wie<br />

„mite“ oder „Anytime“ ermöglichen es Freiberuflern, Projektarbeitern<br />

und allen anderen, denen es auf jede Minute ankommt, ihre Aufwände<br />

mit wenigen Fingertipps korrekt zu verbuchen.<br />

Das allzeit verfügbare Web schließt nahezu jede Wissenslücke über<br />

eine einzige Suchanfrage. Wörterbuch-Apps erteilen schnellen Rechtschreib<br />

rat oder „LEO“ liefert die passende Übersetzung. Feed Reader<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

293


Mobile Dokumentation / Mobile Documentation<br />

6. Lektorat<br />

7. Präsentieren<br />

8. Unterwegs auf<br />

Daten zugreifen<br />

9. Lange Texte verfassen<br />

10. Zeit überbrücken<br />

und Spaß haben<br />

wie „Mobile RSS“ informieren über geänderte Seiten im Unternehmens-Wiki,<br />

über neue Aufgaben im Ticket-System oder den jüngsten<br />

Artikel im Lieblings-TR-Weblog.<br />

Im Qualitätssicherungsprozess wird die Vorabversion der bearbeiteten<br />

Dokumentation als PDF-Datei aufs Tablet gesendet und dort bequem<br />

mit „Adobe Reader“ durchgesehen. Anmerkungen und Korrekturen<br />

lassen sich direkt ins Dokument eintragen, speichern und per E-Mail<br />

verschicken.<br />

Apples iOS-Anwendung „Keynote“ lässt den mobilen Nutzer nicht nur<br />

PowerPoint-Foliensätze importieren und einfache Präsentationen auf<br />

Basis von Vorlagen erstellen und beeindruckend animieren, man kann<br />

diese auch komfortabel vortragen – Foliennotizen und Vorschau der<br />

nächsten Folie auf dem eigenen Bildschirm inklusive. Der Videoprojektor<br />

wird dabei – wie in diesem Vortrag – mittels HDMI/VGA-Kabel oder<br />

sogar drahtlos über Apples „AirPlay“ gespeist.<br />

Über Web-Dienste wie Dropbox, iCloud oder Google Docs (Google<br />

Drive) erhält der Nutzer von überall und mit jedem Endgerät Zugriff<br />

auf seine aktuellen Daten. Damit fällt es kaum noch ins Gewicht, dass<br />

iOS-Geräte dem Nutzer kein klassisches Dateisystem mehr bereitstellen.<br />

Auch Dokumente auf (S)FTP- und WebDAV-Servern sind mit der<br />

Alleskönner-App „GoodReader“ kein Hindernis mehr.<br />

Sie haben es vermutlich gleich gemerkt: Dieser Punkt passt nicht so<br />

richtig in die Liste. Touch-Geräte mögen für vieles gut geeignet sein,<br />

aber nicht zum ausführlichen Schreiben, zum strukturierten Erfassen<br />

von Inhalten und zum Organisieren von Textfragmenten – zumindest<br />

nicht ohne teures Zubehör. Denn zum einen ist die Bildschirmfläche<br />

von Tablets und besonders von Smartphones sehr begrenzt, zum anderen<br />

ist die Fingerbedienung viel unpräziser als der Mauszeiger am PC.<br />

Ob auf Reisen oder nach acht Stunden Redaktionsmarathon – Smartphones<br />

und Tablets sind nicht zuletzt tolle Unterhaltungsmaschinen<br />

und bringen Spiele, YouTube, Podcasts und all die anderen Dinge, die<br />

einem den Alltag versüßen, ohne andere zu stören (mit Kopfhörern)<br />

aufs Ohr und kristallklar auf den Bildschirm.<br />

Fazit<br />

Es bleibt festzuhalten, dass Tablets und Smartphones kein Ersatz für<br />

den PC darstellen können und sollen. Vielmehr ergänzen diese Geräte<br />

den Arbeitsalltag von Technischen Redakteuren und vereinfachen Abläufe,<br />

insbesondere wenn der Nutzer unterwegs ist. Zur Organisation<br />

und Kommunikation, zum Festhalten von Ideen und als Informationsquelle<br />

möchte man sein Smartphone oder Tablet bald nicht mehr missen,<br />

sobald man eines verwendet – ganz gleich ob privat oder beruflich.<br />

Weiterführende Links<br />

[1] Smartphone-Statistik: www.thinkwithgoogle.com/mobileplanet/de/<br />

[2] Apps für Technische Redakteure: www.lesegefahr.de/apps<br />

für Rückfragen: mail@lesegefahr.de<br />

294<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 13<br />

Fachvortrag<br />

3D-visualisierte Dokumentation für Wartung,<br />

Training und Verkaufsunterstützung<br />

auf mobilen Endgeräten<br />

Falk Aupers, Corena, Giessen<br />

Aufgrund der heutigen technischen Möglichkeiten ist es problemlos realisierbar,<br />

mobile Endgeräte wie Tablet-Computer oder Sub-Notebooks<br />

für die Darstellung 3D-visualisierter technischer Informationen zu verwenden.<br />

Häufig erwähnte Anwendungsfälle hierfür sind beispielsweise<br />

die Unterstützung des Wartungspersonals bei seiner Tätigkeit sowie die<br />

computerunterstützte Ausbildung.<br />

3D-Modell eines Waggons auf einem Tablet-Computer<br />

Produktstruktur im<br />

Produktdesign<br />

Die Verbindung zwischen Konstruktion und Technischer Dokumentation<br />

Heutiges Produktdesign baut in aller Regel auf Engineering- oder<br />

Konstruktions-Systemen auf, mit deren Hilfe 3D-visualisierte Informationen<br />

erzeugt werden und somit bereits vorhanden sind. Aus einer<br />

prozess-orientierten Sicht ist es wünschenswert, diese 3D-Daten so effizient<br />

wie möglich in die Erzeugung der Technischen Dokumentation mit<br />

einzubeziehen. Ansatzpunkt hierfür ist, die Technische Dokumentation<br />

mit den Augen des Produktdesigns zu betrachten.<br />

Das Produktdesign strukturiert den Gegenstand in Baugruppen oder<br />

Systeme, die wiederum hierarchisch gegliedert sind. Hieraus ergeben<br />

sich Hauptbaugruppen, Baugruppen und Unterbaugruppen, die funktional<br />

oder physikalisch in Bezug zueinander stehen. Als Beispiel sei<br />

genannt ein Dieselmotor, der eine Zylinderkopf-Einheit besitzt, die<br />

wiederum in den eigentlichen Zylinderkopf, ein Einlass-Ventil und ein<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

295


Mobile Dokumentation / Mobile Documentation<br />

S1000D und die<br />

Produktstruktur<br />

Auslass-Ventil gegliedert ist. Orientiert sich die Technische Dokumentation<br />

an dieser Produktstruktur, so lässt sich eine direkte Beziehung<br />

zwischen der Baugruppe im Engineering-System und der entsprechenden<br />

Information in der Dokumentation herstellen. S1000D ist solch eine<br />

Spezifikation für die Erstellung Technischer Dokumentation, die den<br />

Produktzusammenhang durch das Common-Source-Database- (CSDB)<br />

Konzept standardisiert.<br />

Das CSDB-Konzept der S1000D sieht vor, die Technische Dokumentation<br />

zu modularisieren. Die folgende Abbildung zeigt das Inhaltsverzeichnis<br />

einer Publikation aus der Dokumentation des Flugzeugs<br />

Me 262, das sehr schön die Herangehensweise bei der Modularisierung<br />

verdeutlicht.<br />

Inhaltsverzeichnis aus der Dokumentation der Me 262<br />

Die Produktstruktur als<br />

verbindendes Element<br />

Der Inhalt ist unterteilt in Abschnitte, die jeweils eine Baugruppe widerspiegeln,<br />

z. B. die „Randkappe“ oder den „Vorflügel“. Zu jeder dieser<br />

Baugruppen gibt es dann Informationsarten, hier sind es die „Beschreibung“<br />

und Anweisungen für den „Abbau“ und den „Anbau“. Damit diese<br />

Informationsmodule, in S1000D Datenmodule genannt, verwaltet werden<br />

können, klassifiziert das CSDB-Konzept die Produktstruktur und<br />

die Informationsarten und stellt die Kodierung in den Vordergrund. So<br />

bekommt die Randkappe nach S1000D Spezifikation den Kode „57-30-<br />

00“ und die Informationsart Abbau den Kode „520“.<br />

Engineering-Systeme verwalten das Produkt mit Hilfe des Systemaufbruchs<br />

in Analogie zu dem oben beschriebenen Vorgehen. Im Unterschied<br />

zur Kodierung der Datenmodule nach S1000D geht der Systemaufbruch<br />

jedoch runter bis zum letzten Ersatzteil, ist also wesentlich<br />

umfassender. Auch die Methodologie mag je nach eingesetztem System<br />

voneinander abweichen. Springender Punkt ist jedoch, dass in beiden<br />

Welten, dem Design und der Technischen Dokumentation nach S1000D,<br />

die Inhalte kodiert sind. Auf diese Weise lässt sich eine Beziehung zwischen<br />

einem Teil des Designs zum zugehörigen Modul bzw. den zugehörigen<br />

Modulen in der Dokumentation herstellen.<br />

296<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Verknüpfung eines 3D-Modells mit Technischer<br />

Dokumentation zu Trainingszwecken<br />

Die folgende Abbildung zeigt ein interaktives 3D-Modell, das zu Trainingszwecken<br />

mit Anweisungen aus der Technischen Dokumentation<br />

nach S1000D verknüpft wurde.<br />

Verknüpfung einer 3D-Simulation mit Anweisungen aus der Technischen<br />

Dokumentation<br />

Umsetzung<br />

Granularität der<br />

Information<br />

Der Lernende startet die Anwendung mit der Aufgabe, einen Teil des<br />

abgebildeten Motors auszubauen. Dabei wird er Schritt für Schritt mit<br />

den Anweisungen aus der Zerlegungsprozedur begleitet. Er gelangt zum<br />

jeweils nächsten Schritt, sobald er den Gegenstand im Fokus im Modell<br />

identifiziert und per Doppel-Klick entfernt hat oder indem er in der<br />

Prozedur den nächsten Schritt anfordert. Entfernte Teile finden sich<br />

dann im Inventar wieder und können jederzeit eingesehen werden.<br />

Eingebettet in die Anwendung sind kleine Videos, die bestimmte Abläufe<br />

noch einmal visuell verdeutlichen. Es werden in der Prozedur<br />

ebenfalls vorhandene Warnungen oder Hinweise eingeblendet. Hierbei<br />

gilt insbesondere, dass Warnungen vor den entsprechenden Schritten<br />

erfolgen, so wie es die Best Practices der Technischen Dokumentation<br />

vorsehen und es in der S1000D auch umgesetzt ist.<br />

Für die Umsetzung dieser Anwendung ist die Verknüpfung von 3D-<br />

Modell und Technischer Dokumentation über die Produktstruktur<br />

von grundlegender Bedeutung. Ein weiterer wichtiger Aspekt ist die<br />

Granularität der Information in den S1000D-Datenmodulen, die es<br />

erlaubt, einzelne Schritte sowie beispielsweise Warnungen und Teile zu<br />

identifizieren.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

297


Mobile Dokumentation / Mobile Documentation<br />

Zusammenfassung<br />

Ein Standard wie S1000D schafft über die Berücksichtigung der Produktstruktur<br />

bei der Modularisierung eine geeignete Schnittstelle für<br />

die Verknüpfung mit Designdaten. Dies und die benötigte Granularität<br />

der Information ist eine unverzichtbare Voraussetzung, um Anwendungen<br />

zu Trainingszwecken oder für die Unterstützung von Wartungspersonal<br />

zu erstellen.<br />

für Rückfragen: Falk.Aupers@corena.com<br />

298<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 14<br />

Fachvortrag<br />

Abenteuer TecDoc:<br />

Thesen zum Paradigmawechsel in<br />

der Technischen Dokumentation<br />

Georg O. Herriger, herriger & parter gmbh, Bern, Schweiz<br />

Vor 5 Jahren hat sich die kommunikative Welt radikal verändert!<br />

Mit Smartphone und Tablet entstand eine neue mediale Form, die sich<br />

rund um die Welt rasant verbreitet. Das revolutionäre, intuitiv-haptische<br />

Konzept des iPhones stieß 2007 eine explosive Entwicklung an, die seither<br />

an den Grundfesten jeglicher schriftlichen bzw. zeichengebundenen<br />

Kommunikation rüttelt.<br />

Etwas Ähnliches gab es schon einmal: Vor ca. 2.000 Jahren löste das<br />

Buch die antike Schriftrolle ab. Allerdings war jene Umstellung alles<br />

andere als explosiv: sie dauerte fast 400 Jahre, denn festgefügte Traditionen<br />

standen ihr im Weg.<br />

Schließlich setzte sich das Buch aber durch und bewahrte dann über<br />

alle evolutionären Stufen hinweg eine ganz spezifische Eigenart: den<br />

Aufbau in Seiten. Selbst ebooks haben nach wie vor Seiten …<br />

Zwar gibt es seit den Anfängen des Internets mit Hypertext eine gewisse<br />

Auflösung des strikt lineraren Buchverlaufs – das Grundlayout aller<br />

Dokumente blieb aber doch noch die Seite bzw. die „page“.<br />

Kein Wunder also, dass auch Technische Dokumentationen immer und<br />

ganz selbstverständlich aus Seiten bestehen. In modernen Manuals<br />

werden die Texte wohl säuberlich strukturiert und mit anschaulichen<br />

Bildern und Grafiken angereichert – das Ganze bleibt aber der guten<br />

alten Buchform treu – mit Seiten, Inhaltsverzeichnis und Index.<br />

Diese vom Buchdruck stammende, vertraute Form ist so selbstverständlich,<br />

dass sie ohne weitere Überlegung auch für die elektronische Verbreitung<br />

verwendet wird und so als pdf auf dem smarten Endgerät des<br />

itouch-Users landet.<br />

Doch wer schon liest eine pdf-Dokumentation am Handy? Niemand. Sie<br />

passt dort einfach nicht hin: Sie ist zu unhandlich, in der Regel zu technisch<br />

und fast immer mit langweiligen legalen Hinweisen überfrachtet.<br />

Kurz: ein klarer Absteller für User, für die das Handling ihres smarten<br />

Begleiters ein geradezu sinnliches Erlebnis darstellt.<br />

Das ist echt dumm! Denn gerade die mobilen Endgeräte, die doch immer<br />

und überall mit dabei sind, sind DIE optimalen Ausgabemedien<br />

für technische Hilfen aller Art! Zumal sie dank ihren hochauflösenden,<br />

farbigen Displays und den gestiegenen Bandbreiten der Mobilnetze<br />

alle medialen Inhalte wie Text, Bild, Grafik und Video völlig problemlos<br />

darstellen können. Nicht zu vergessen, dass dank LTE die Bandbreiten<br />

weiter und noch kräftiger am Steigen sind.<br />

Wie also sollte mann/frau ans Werk gehen, um eine TecDok so zu gestalten,<br />

dass sie wirklich zu den neuen mobilen Endgeräten passt?<br />

Dazu braucht es den radikalen denkerischen Bruch mit den herkömmlichen,<br />

seitenorientierten Traditionen, ein Umknicken jener Selbstverständlichkeiten,<br />

die bislang Technische Dokumentationen prägten. Wir<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

299


Mobile Dokumentation / Mobile Documentation<br />

sind beim Thema: es braucht den Paradigmawechsel! Nichts wie weg<br />

vom Ernsthaften, vom Beschreiben, vom Tiefgang, vom Befehlen. Und<br />

hin zum Spielerischen, zum Zeigen, zum Begleiten, zur Emotion.<br />

Ausgangspunkt für den solcherart geforderten Gesinnungswandel ist<br />

die simple, grundsätzliche Frage an jeden von uns: Was will ich eigentlich<br />

mit meiner Dokumentation erreichen?<br />

An sich ist die Antwort darauf klar: Eine möglichst einfache, verständliche,<br />

nachvollziehbare Anleitung, mit der der Nutzer das entsprechende<br />

Gerät bedienen und auftretende Probleme lösen kann.<br />

Das Ganze natürlich unter der „Randbedingung“, dass der Nutzer ein<br />

Mensch ist … Wie und was ein Mensch wahrnimmt und versteht, dazu<br />

hat die Multimediapsychologie einige Erkenntsnisse zu bieten.<br />

Informationen, Inhalte und Begriffe werden im Gehirn immer abgeglichen<br />

mit bereits vorhandenen neuronalen Mustern. Das geht umso<br />

leichter, d. h., man versteht diese umso besser, je weniger überraschend<br />

die neuen Inhalte sind, je besser sie unserer natürlichen Intuition entsprechen<br />

und je klarer strukturiert sie in gut verdaulichen Portionen<br />

daherkommen.<br />

Zudem kennt das menschliche Gehirn die Arbeitsteilung, genannt<br />

„Hemi sphärenspezialisierung“. In der linken Hälfte analysiert das verbale<br />

System auf sequentiell-lineare Art die abstrakten Logogene – das<br />

Zuhören und Lesen. Die rechte Hälfte hingegen erfasst die ganzheitlichen<br />

Imagene – die mehrdimensionalen bildhaften Informationen aus<br />

Bildern und Filmen.<br />

Für ein optimales Verstehen spannen beide Seiten zusammen („Doppelkodierung“):<br />

Die rechte Hälfte erfasst Anschauliches und Nachzuahmendes<br />

(via Bild bzw. Video), die linke steuert (via Text) das Erklärende<br />

und Strukturierende bei.<br />

Und genau diese multimedial-psychologischen Zusammenhänge sollten<br />

wir stets im Hinterkopf behalten und uns bei der Gestaltung von mobilen<br />

Dokumentationen immer wieder die Fragen stellen: Was ist meinem<br />

Nutzer vertraut und wie viel Neues kann ich ihm bieten bzw. zumuten?<br />

Mit welchem medialen Mix sollte ich sein Gehirn ansprechen und<br />

anregen?<br />

Wer diese fragende Denkweise als Grundsatz verinnerlicht hat, kommt<br />

via den folgenden 8 Etappen auf fast spielerische Weise zu einer tatsächlich<br />

einfachen, verständlichen und nachvollziehbaren Anleitung:<br />

Etappe 1. Einen generellen Ablauf mit Hilfe eines „Storyboards“ in<br />

einzelne Szenen aufgliedern und dabei ein schlankes und einfaches<br />

Bedien konzept entwickeln („visualize reduced complexity“).<br />

Etappe 2. Ein ansprechendes Design mit einem intuitiv zu erfassenden<br />

„sexy“ Look&Feel (z. B. mit realworld Metaphors) entwerfen, immer mit<br />

Rücksicht auf die Bedienungsrealität des Nutzers, so etwa mit für ihn<br />

gut lesbarer Schriftgröße oder Buttons, die der Größe seiner Fingerkuppen<br />

entsprechen. Beim Einsatz von unterschiedlichen Layoutvorlagen<br />

(Templates für Anzeige-, Auswahl-, Navigationsmodule etc.) gilt es, im<br />

Design die optische Konsistenz zu wahren.<br />

Etappe 3. Den detaillierten Handlungsablauf zielgerichtet in Step-by-<br />

Step-Prozeduren aufgliedern und strukturieren. Dabei ist es wichtig,<br />

300<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

auf das Prinzip „so wenig wie möglich, so viel wie nötig“ zu achten.<br />

Erforderliche Ergänzungsinformationen sollten auf eine tiefere Ebene<br />

ausgelagert werden.<br />

Etappe 4. Für jedes einzelne Modul, also für jeden Handlungsschritt,<br />

den Medienmix (Text, Grafik, Bild, Video) mit Bedacht bestimmen, damit<br />

der Sachverhalt wirklich optimal verständlich wird.<br />

Etappe 5. Eine Navigation anlegen, die die wichtigen Abschnitte übersichtlich<br />

aufzeigt und von jedem Punkt des Manuals aus direkt erreichbar<br />

ist. Zu einem mehrsprachigen Manual gehört auch die Möglichkeit<br />

eines einfachen Sprachwechsels.<br />

Etappe 6. Entscheiden, ob eventuell „special features“ aus der Welt der<br />

Mobilkommunikation in die Dokumentation eingebaut werden sollten.<br />

So etwa der Zugriff und die Integration von lokalen Gerätedaten (z. B.<br />

Ortskoordinaten, Kamerabild etc.) oder externen Daten (via Netzwerk,<br />

Bluetooth etc.).<br />

Etappe 7. Überlegen, wie der Nutzer am besten Zugang zur Dokumentation<br />

findet. Soll er sie über eine natives Applet aufrufen können? Oder<br />

via Google im Netz suchen? Oder gibt es andere Möglichkeiten …?<br />

Etappe 8. Und last but not least: objektiv testen, wie gut der Nutzer mit<br />

der gewählten Dokumentationsform klarkommt, wie schnell und sicher<br />

er den Anleitungen folgt. Kurz: wie gut die Usability tatsächlich ist.<br />

Unterwegs zu sein im Abenteuer, Fuß zu fassen und Präsenz zu zeigen<br />

in der hochspannenden neuen Mobilmedienwelt berechtigt zur<br />

Vorfreude:<br />

−−<br />

Auf die vielen motivierten User, die zu zufriedenen Kunden werden.<br />

−−<br />

Auf den Imagegewinn, sich mit einer State-of-the-art-Dokumentation<br />

von der Konkurrenz abzusetzen.<br />

−−<br />

Und schließlich auf das gute Gefühl, sich den für die Produkthaftung<br />

nicht unwesentlichen Qualitätsanforderungen der ISO-Norm 82079<br />

anzunähern.<br />

Solcherart wird der Paradigmawechsel gelingen!<br />

für Rückfragen: welcome@herrigerpartner.ch<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

301


Mobile Dokumentation / Mobile Documentation<br />

MOB 15<br />

Fachvortrag<br />

Autorensysteme für mobile Anwendungen –<br />

Totgesagte leben länger<br />

Prof. Dr. Michael Bauer, Hochschule Aalen<br />

Autoren – hier verstanden als Produzenten komplexer interaktiver und<br />

multimedialer Inhalte – und die Neuen Medien, das ist und bleibt eine<br />

Hassliebe. Einerseits stößt jede soft- und hardwaretechnische Innovation<br />

stets auf heftige Gegenliebe, bieten sich doch eine Vielzahl neuer<br />

Möglichkeiten. Andererseits finden sich Autoren jedes Mal ein Stück<br />

tiefer im verhassten digitalen Dschungel wieder und jedes Mal scheinen<br />

die Ideale „Cross Media“, „Cross Platform“ oder „Single Source“ etwas<br />

weiter in die Ferne zu rücken.<br />

Jüngstes Beispiel: die mobilen Endgeräte. Vor fünf Jahren machten das<br />

iPhone und später das iPad Computer wirklich mobil und seitdem bestimmt<br />

vor allem Apple die weitere Entwicklung der Technik und des<br />

Marktes. Aus der Verbindung von kleinen Rechnern mit Touch Screens,<br />

eingebautem GPS, Lage-Sensoren oder Kameras lassen sich völlig<br />

neue Anwendungen entwickeln. Verpackt in kleine Apps, angeboten in<br />

App-Stores.<br />

Kontrollierter Häppchenmarkt<br />

Für Autoren ist das auf den ersten Blick eine wunderbare neue Welt.<br />

Endlich haben ihre Produkte ein handliches Format und einen griffigen<br />

Namen: „App“ eben. Endlich liegen diese Anwendungen nicht<br />

mehr so offen im Netz herum. Endlich kann nicht mehr jeder kleine<br />

Pirat den mühsam erarbeiteten Code klauen. Und endlich lassen sich<br />

die Softwärchen wie Wurst und Wecken Stück für Stück verkaufen. Da<br />

tut es nicht besonders weh, wenn Apple jedes Mal ein Drittel vom Erlös<br />

einstreicht.<br />

Umso mehr allerdings, wenn es ans Produzieren geht. Denn dieser<br />

Häppchen-Markt funktioniert für Apple nur, wenn er streng kontrolliert<br />

wird. Deswegen ließen sich iOS-Apps zunächst nur in einer Apple-spezifischen<br />

Entwicklungsumgebung namens Xcode herstellen. Eine App<br />

in Xcode zu schreiben ist reine Programmierarbeit und erfordert gute<br />

Kenntnisse zum Beispiel in Objective-C. Jede einzelne App durchläuft<br />

dann einen mehrstufigen und unter Umständen mehrwöchigen Prüfungsprozess,<br />

bis sie im iTunes Store veröffentlicht wird.<br />

Marktdurchdringung auf Knopfdruck<br />

Nun sind Autoren in der Regel keine Informatiker. Ihre Aufgabe ist es,<br />

eigene Ideen oder die ihrer Auftraggeber zunächst in einzelne Medien<br />

(Texte, Bilder, Grafiken, Animationen, Videos, 3D-Inhalte) umzusetzen<br />

und diese dann mit Hilfe sogenannter Autorensysteme unter ein Dach<br />

zu bringen. Die Arbeit mit solchen Tools ist ein wichtiger, aber eben nur<br />

e i n Schritt in der Produktionskette. Das Ziel: In möglichst nur einer<br />

Autoren-Umgebung möglichst alle denkbaren Medienarten verknüpfen,<br />

beliebige Interaktionen herstellen und am Ende auf Knopfdruck alle<br />

gängigen Medien, Endgeräte und Betriebssysteme erreichen. Also bei<br />

hoher Marktdurchdringung die Entwicklungskosten gering halten.<br />

302<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Lange Jahre hat das ziemlich gut funktioniert. Mit Adobe Director von<br />

Macromedia stand ein Autorensystem zur Verfügung, mit dem auch<br />

solche Menschen Multimedia-Anwendungen herstellen konnten, die<br />

zuvor kein Informatikstudium absolviert hatten. Die Lernkurve war<br />

steil, weil sich Anwendungen auf einer grafischen Oberfläche nach dem<br />

Baukastenprinzip entwickeln ließen. Bei komplexeren Aufgaben half<br />

die Skriptsprache Lingo, mit der sich alle Medienjobs inklusive 3D erledigen<br />

ließen. Und zwar plattformübergreifend fürs Web, als Desktop-<br />

Anwendung auf DVD, als Kiosk-System sowohl für Windows als auch<br />

für Mac-OS.<br />

Steve Jobs und ein offener Brief<br />

Die heile Welt zerbrach 2005: Adobe kaufte Macromedia und schickte<br />

die alte Dame Director geradewegs aufs Abstellgleis. Nur die kleine<br />

Schwester Flash passte ins CS-Konzept und sie sollte fortan im Zusammenspiel<br />

mit der Laufzeitumgebung AIR das zentrale Autorentool sein.<br />

Damit sollte es später prinzipiell möglich sein, auch native Apps zum<br />

Beispiel für iOS und Android zu entwickeln. Mit der Version CS5 (Frühjahr<br />

2010) bot Flash einen iOS-Packager, mit dessen Hilfe sich native<br />

iPhone-Apps (*ipa) erzeugen ließen. Doch Pustekuchen: Solche Apps<br />

blieben mangels Reinrassigkeit prompt in Apples Endkontrolle hängen.<br />

Und im April 2010 erklärte Steve Jobs persönlich in einem viel beachteten<br />

offenen Brief an die Kollegen von Adobe Flash kurzerhand für tot.<br />

Tenor: Flash sei ein proprietäres Format, viel zu träge für die neue mobile<br />

Welt. Die Zukunft gehöre offenen Standards. HTML5 werde Flash<br />

schon bald als Multimedia-Frachter überholt haben.<br />

Doch schon im darauf folgenden September machte Apple eher kleinlaut<br />

eine Rolle rückwärts. Flash als Web-Format blieb für den mobilen<br />

Safari-Browser zwar weiterhin außen vor, mit dem Programm Flash<br />

Professional produzierte Apps hingegen wurden fortan akzeptiert.<br />

Flash bot sich damit als plattformübergreifendes Autorensystem an<br />

und wurde bis zur aktuellen Version CS6 konsequent in diese Richtung<br />

weiterentwickelt. Ähnlich wie Director hat das Tool eine grafische Oberfläche,<br />

unter der sich einfache Aufgaben schnell arrangieren lassen. Für<br />

individuelle Jobs steht die Skriptsprache ActionScript3 zur Verfügung.<br />

Annähernd alle Ziel-Plattformen können laut Adobe so aus einer Entwicklungs-<br />

bzw. Programmierumgebung heraus erreicht werden: Ausführbare<br />

bzw. installierbare Windows- und Mac-OS-Anwendungen für<br />

Desktop, DVD oder Kiosk, Webversionen für Browser mit Flash-Player<br />

und native Apps für Apple (*.ipa) und Android (*.apk).<br />

Mehr Licht als Schatten<br />

Zwei Jahre lang hat der Referent Flash als Autorenwerkzeug genutzt<br />

und dabei plattformübergreifende Applikationen produziert. Sein Fazit:<br />

Viel Licht und ein paar Schatten.<br />

Das Licht: Mit der Kombination AIR und Flash erreicht man tatsächlich<br />

alle wichtigen Ziel-Plattformen. ActionScript3 bietet viele Möglichkeiten,<br />

um auf die gängigsten Schnittstellen zur Hardware (z. B. GPS, Sensoren,<br />

Kameras) und Software (z. B. Dateisystem, Player) der einzelnen<br />

Gerätetypen und Plattformen Zugriff zu haben. Zwar ist der Entwicklungsaufwand<br />

nicht für alle Betriebssysteme zu 100 Prozent identisch.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

303


Mobile Dokumentation / Mobile Documentation<br />

Aber mit circa 80 bis 90 Prozent an plattformneutralen Inhalten kommt<br />

man dem Ideal schon ziemlich nahe. Der Rest sind individuelle Lösungen,<br />

zum Beispiel Video-Player für die verschiedenen Geräte. Ein<br />

Highlight: Seit knapp einem Jahr ist Flash endlich 3D-fähig. Die neue<br />

Stage3D-Schnittstelle sorgt für hardwarebeschleunigtes Rendering.<br />

Die Schatten: Nicht alle Medienformate lassen sich problemlos einbinden.<br />

Überraschenderweise ist es gerade PDF, Adobes eigenes Kind, das<br />

die meisten Zicken macht. Flash und AIR fehlt ein eigener PDF-Player.<br />

Speziell für Android-Geräte braucht’s dann doch fast einen Informatiker,<br />

um lokale PDFs zum Laufen zu bringen. Schatten wirft schließlich<br />

Adobe selbst. Flash CS6 war nach dem Erscheinen im Mai dieses Jahres<br />

mehrere Wochen lang voller schwerwiegender Bugs und die frühen Anwender<br />

fanden sich unversehens in der Rolle von Beta-Testern wieder.<br />

Ist Flash tatsächlich tot? Vielleicht mag das für Flash als Web-Format<br />

gelten. Flash als Werkzeug jedoch setzt die Ära der Alleskönner unter<br />

den Autorensystemen fort. Totgesagte leben manchmal eben etwas<br />

länger.<br />

für Rückfragen: michael.bauer@htw-aalen.de<br />

304<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

MOB 17<br />

Fachvortrag<br />

Mobile Service-Dokumentation<br />

auf iPad, Android & Co.<br />

Werner Hofmeister, Docware GmbH, Fürth<br />

Die rasante Verbreitung flexibler, ultraleichter und einfachst zu bedienender<br />

Smartphones und Tablets legt deren Nutzung im Kundendienst<br />

und im technischen Service nahe. Aus praktischen Erwägungen bietet<br />

sich der Einsatz mobiler Endgeräte insbesondere im Bereich Kundenaußendienst<br />

geradezu an. Doch auch der Aspekt, Fortschrittlichkeit und<br />

Innovationsgeist zu demonstrieren, spielt eine Rolle. Die intelligente<br />

mobile Nutzung von dynamischen, geschäftsrelevanten Informationen<br />

wird zum strategischen Verkaufselement. Aktuelle, fehlerfreie und kundenindividuelle<br />

Informationen, die unabhängig von Ort und Zeit zugänglich<br />

sind, werden zu einem entscheidenden Wettbewerbsfaktor.<br />

Mobile und maßgeschneiderte Service-Dokumentation<br />

als strategisches Verkaufselement<br />

Mobile und maßgeschneiderte Servicedokumentation bedeutet, dass<br />

ein Hersteller alle Informationen zu Wartung und Reparatur eines<br />

technischen Produkts seinen marktrelevanten Zielgruppen orts- und<br />

zeitunabhängig anbietet. Die Dokumentation wird nicht nur vom Endkunden<br />

verwendet, auch Verkäufer, Konstrukteure, Produktions- und<br />

Servicemitarbeiter oder Händler greifen darauf zu. Jede Zielgruppe hat<br />

unterschiedliche Vorstellungen, was die Servicedokumentation betrifft,<br />

und erhält die genau auf sie zugeschnittenen Informationen (und Funktionen).<br />

Moderne Systeme zur Erstellung von elektronischer Serviceliteratur<br />

sowie Ersatzteilkatalogen sind für ein Unternehmen daher eine<br />

wichtige Unterstützung, um die vielfältigen Nutzeranforderungen zu<br />

erfüllen, und die Grundlage, um die mobile ortsunabhängie Informationsbereitstellung<br />

durchzuführen.<br />

Mobile Software, die Service-Innovationen ermöglicht, wird daher immer<br />

wichtiger. Sie liegen auch für elektronische Ersatzteil- und Service-<br />

Informationssysteme voll im Trend. Als moderne Informationsplattformen,<br />

die komplexe Ersatzteil- und Serviceinformationen per Tablet,<br />

Smartphone, CD, DVD, USB-Stick oder via Internet – auch in Service-<br />

Portale oder E-Commerce-Systeme eingebunden – bereitstellen, leisten<br />

diese Systeme einen wesentlichen Beitrag zum Serviceerfolg im Maschinen-<br />

und Anlagenbau. Sie ermöglichen die optimale Versorgung der<br />

Zielgruppen mit Ersatzteil- und anderen Servicefall-relevanten Informationen.<br />

Sie vereinfachen und beschleunigen die Bestellung von Ersatzteilen,<br />

vermeiden Fehlbestellungen, unterstützen die Bereitstellung<br />

der richtigen Werkzeuge und Ersatzteile für den Techniker, reduzieren<br />

Personaleinsätze und ermöglichen kürzere Reaktionszeiten – was letztendlich<br />

in höherer Maschinenverfügbarkeit resultiert.<br />

Als mobile Serviceliteratur und Ersatzteilkataloge können Maschinenund<br />

Anlagenbauer die für Reparatur, Wartung, Instandhaltung und Ersatzeilverkauf<br />

nötigen Daten und Dokumente aktuell, ortsunabhängig,<br />

rund um die Uhr in allen benötigten Sprachen professionell und effektiv<br />

bereitstellen, verteilen und aktualisieren. Ersatzteillisten, Explosionszeichnungen,<br />

Bilder, Preise und Servicedokumente, wie Handbücher und<br />

Bulletins, stehen sinnvoll verlinkt in einem einzigen System bereit.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

305


Mobile Dokumentation / Mobile Documentation<br />

Mobile Service-Dokumentation auf iPad, Android & Co.<br />

Ob groß oder klein: Service-Dokumentation auf Tablets kann via Cloud-<br />

Computing und SaaS von allen Unternehmen genutzt werden<br />

Oft fehlen Klein- und Mittelstandsunternehmen die nötigen IT-Strukturen,<br />

um eine Lösung für die mobile und maßgeschneiderte Servicedokumentation<br />

bereitzustellen. Cloud-Computing bietet sich hier als Lösung<br />

an, übrig bleibt für die Unternehmen die gesicherte Datenpflege.<br />

Den großen Rest – die Bereitstellung von Software, IT-Umgebung, Datensicherung,<br />

Personal-Ressourcen etc. – erledigt die Cloud. Kommerziell<br />

liegen die Vorteile auch auf der Hand: Es sind keine Investitionen<br />

nötig, die Abrechnungen erfolgen meist zeit- oder nutzungsabhängig,<br />

wie heute bei Smartphones und Tablets üblich. Damit passen sich die<br />

Kosten automatisch den aktuellen Wirtschaftzyklen an.<br />

Information und Bestellung vor Ort via Tablet oder Smartphone<br />

Mobile und maßgeschneiderte Servicedokumentation gewährleistet<br />

Kundendienst-Mitarbeitern jederzeit schnellen Zugriff auf umfassende,<br />

komplexe Informationen – passend zum Gerätesystem vor Ort. Passwortgeschützt<br />

können Service-Manuals zu Geräten und Steuerungen,<br />

Bedienungsanleitungen, Installationsrichtlinien, Ersatzteilinformationen<br />

und Softwarebeschreibungen nach Bedarf abgerufen werden. Die<br />

Auswahl erfolgt in der Regel über die Maschine bzw. die Gerä<strong>tekom</strong>ponente<br />

oder die Seriennummer, zu der Informationen benötigt werden.<br />

Eine Volltextsuche ist möglich. Bei diesem Suchmodus wird eine<br />

Trefferliste der Service-Dokumente angezeigt, in denen der gesuchte<br />

Begriff verwendet wird. Beim Anklicken der aufgelisteten Dokumente<br />

erscheint sofort die Textstelle mit dem gesuchten Begriff.<br />

Werden Informationen zu Ersatzteilen benötigt, so können diese via<br />

Explosionszeichnung und zugehöriger Stückliste einfach und schnell<br />

identifiziert werden. Die unmittelbare Bestellung von Ersatzteilen ist<br />

möglich.<br />

306<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Wartungs-und Reparaturliteratur auf iPad, Android & Co.<br />

Online: fast alles ist möglich – offline: die App und ihre Grenzen<br />

Bei der Online-Bereitstellung der Informationen sind Tablet und<br />

Smartphone kaum Grenzen gesetzt. Problematisch wird der reine<br />

App-Betrieb ohne Online-Zugriff auf eine Online-Datenbank, denn die<br />

Hardware-Speichergrenzen sind schnell ausgeschöpft und auch der<br />

Multisession-Betrieb verschiedener Applikationen stößt an seine lokalen<br />

Hardware- und Betriebssystem-Grenzen, d. h., die lokale Speicherung<br />

von Daten und Dokumenten auf einem Tablet ist nur in kleinerem<br />

Umfang möglich, ein Dateisystem wie auf Desktop-PCs üblich existiert<br />

nicht. Denkt man an die Entstehung des Tablets zurück, weiß man,<br />

warum das so ist, denn seitens Apple war und ist das Ziel ganz klar<br />

festgelegt, alles in die Cloud zu verlagern und online abzuwickeln. Die<br />

berühmten Apps sind als kleine Programme konzeptioniert, die online<br />

auf ihre Backbone-Datenbanken zugreifen und erst über diese zu „atmen“<br />

anfangen. Komplexe lokale Tablet-Applikationen sind (bisher)<br />

nur bedingt vorgesehen.<br />

Chancen im Fokus<br />

Wägt man ab zwischen der konservativen Bereitstellung von Serviceliteratur<br />

(via Papier oder PDF) und der mobilen und maßgeschneiderten<br />

Servicedokumentation via Tablet & Co., kann die Entscheidung mit<br />

Blick auf die Chancen nur lauten: jetzt mobil!<br />

für Rückfragen: werner.hofmeister@docware.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

307


Mobile Dokumentation / Mobile Documentation<br />

MOB 19<br />

Tutorial<br />

„Böse Märchen“<br />

„Schöne Märchen“<br />

Technische Dokumentation auf mobilen<br />

Medien: Märchen, Mist und Möglichkeiten<br />

Dieter Gust, itl AG, München<br />

Märchen<br />

iPad, Galaxy und Co. beginnen die Nutzungsgewohnheiten auch bei<br />

Technischer Dokumentation zu revolutionieren und das Märchen der<br />

jederzeit an jedem Ort nutzbaren Online-Dokumentation wird Realität.<br />

Mit Blick auf die kleinen Bildschirmgrößen wird von einigen Experten<br />

allerdings pauschal die Abkehr von vermeintlich „alten Publishing-<br />

Hüten“ gefordert. Nur noch spezielle Apps würden den mobilen Endgeräten<br />

gerecht. Diese Behauptung gehört zum Bereich der „bösen<br />

Märchen“.<br />

Auch manche Juristen argumentieren eher im Bereich der „bösen Märchen“,<br />

indem sie <strong>2012</strong> immer noch behaupten, Anwender wollten lieber<br />

Papier als andere Lösungen. Diese Juristen fragen (etwa in Anlehnung<br />

an das Märchen „Schneewittchen“) den Spiegel nach der bevorzugten<br />

Dokulösung, nehmen aber immer nur den ersten Teil der Antwort wahr,<br />

nachdem Papier „das Schönste im ganzen Land“ sei. Dabei beruhen alle<br />

Umfragen auf den Alternativen DVD oder Papier, was nun 5 Jahre nach<br />

der umjubelten iPhone-Präsentation von Steve Jobs im Jahre 2007 wirklich<br />

überholt ist.<br />

Hyundai wagte 2011 eine Bekanntmachung, die Juristen hierzulande<br />

„die Haare zu Berge stehen lassen“ müsste, die Anwender jedoch „märchenhaft“<br />

erfreute: Für das Luxus-Auto Equus sollte es keine Papieranleitung<br />

mehr geben, sondern „nur“ noch einen iPad mit Bedienungsanleitungs-App.<br />

Es war vermutlich das erste Mal, dass ein technisches<br />

Produkt im Internet über diese neue Form einer Anleitung beworben<br />

wurde (http://www.youtube.com/watch?v=J4hm0eHHQP0).<br />

Die iPad-App umfasst neben einer 3D-Modell-Simulation des Fahrzeugs<br />

und Rundumsichten auch interaktive Animationen und Videos.<br />

Im Vordergrund steht die typische Marketing-orientierte Informationsdarstellung.<br />

Die eigentliche Anleitung ist unspektakulär im klassischen<br />

3-spaltigen Querformat als PDF-Datei integriert. Die ebenfalls PDFbasierte<br />

2-spaltige Kurzanleitung enthält kontextbezogene Verknüpfungen<br />

auf die auch direkt zugänglichen Videos und Animationen.<br />

308<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Equus iPad App Quick Reference Guide<br />

Das Feedback zu dieser App ist bisher recht zwiespältig ausgefallen.<br />

Dass die eigentliche Bedienungsanleitung nur als vermeintlich dröges<br />

PDF zur Verfügung gestellt wird, ist Ursache zahlreicher negativer<br />

Kritiken (siehe z. B. http://www.klaretexte.de/magazin/artikel/<br />

doku-auf-dem-ipad-so/).<br />

Einmal mehr habe ich den Eindruck, dass sich die meisten „Probiernutzer“<br />

von den Marketing-orientierten Informationen leiten lassen, um<br />

dann ein PDF als wenig benutzerfreundlich zu erleben. Entspricht aber<br />

diese Erwartungshaltung und das Vorgehen wirklich der realistischen<br />

Nutzung einer Bedienungsanleitung? Als ein Kollege mich fragte, ob so<br />

ein modernes Auto noch „Sicherungen“ habe, dauerte es wenige Sekunden<br />

und ich konnte ihm anhand der App die Antwort geben: Von der<br />

Startseite aus bietet die App eine hervorragende Volltextsuche in die<br />

Anleitung.<br />

Hyundai Equus Experience iPad App und die Volltextsuche (im PDF)<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

309


Mobile Dokumentation / Mobile Documentation<br />

Die Fundstellen zeigen, dass das Auto Sicherungen besitzt und wie man<br />

sie austauscht. Das PDF ist auf dem iPad perfekt lesbar und man findet<br />

sich relativ schnell im Handbuch zurecht. Klar, man könnte das PDF mit<br />

überschaubaren Mitteln noch besser gestalten und z. B. Instruktions-<br />

Videos mit einbinden (PDF ist multimedialer als die meisten wissen)<br />

oder das Inhaltsverzeichnis per Button oder Gestensteuerung schneller<br />

erreichbar machen.<br />

Der Ruf nach „Augmented Reality“ klingt natürlich viel spannender.<br />

Wer sich jedoch die Audi A1 eKurz-Info http://itunes.apple.com/de/<br />

app/audi-a1-ekurzinfo/id436341817?mt=8 wirklich anschaut, wird nach<br />

ersten „Endlich-mal-was-Cooles-Neues“-Gefühlen sich fragen müssen,<br />

ob der realistische Nutzungsaspekt besser abgedeckt ist. Ich meine<br />

eindeutig: nein!<br />

Die Hyundai Equus-App war für mich die erste App, die Marketing-<br />

Aspekte und eine typische Anleitungs-Nutzung zu einem sinnvollen<br />

Ganzen verbunden hat. Neben der Equus-iPad-App stellte Hyundai<br />

noch vor Mercedes eine weitere App vor, die dem Anspruch gut nutzbarer<br />

Online-Anleitungen durchaus gerecht wird: „Hyundai Centennial<br />

Service“, erhältlich unter http://itunes.apple.com/de/app/<br />

hyundai-centennial-equus-service/id480116475?mt=8<br />

Hyundai Centennial iPhone App mit einem Auszug der Anleitung<br />

Ende eines Märchens<br />

Die iPhone-App bietet einen guten Vergleich zur iPad-App: Ein 3-spaltiges<br />

Querformat-PDF wäre für das iPhone keine passende Lösung.<br />

Und dennoch lassen sich Instruktionsvideos gut in die iPhone-App integrieren.<br />

Die Datenmengen sind zwar in beiden Apps beachtlich, aber<br />

einmal downgeloadet kein Thema mehr (iPad-App über 760 MB Daten,<br />

iPhone-App ca. 200 MB).<br />

Märchen haben in der Realität oft drei Probleme: Es fehlt entweder die<br />

Technik zum Wahrwerden oder das Geld oder man glaubt nicht dran.<br />

Hyundai gab für <strong>2012</strong> bekannt, dass die Equus-Anleitung künftig wieder<br />

auf Papier mitgeliefert würde. Die App ist weiterhin in iTunes<br />

erhältlich, aber die <strong>2012</strong>-Version zeigt, dass sie wohl wenig genutzt<br />

wird: Ausgerechnet die Volltextsuche zeigt teilweise ein fehlerhaftes<br />

310<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Verhalten. Dennoch taugen beide Apps von Hyundai als hervorragende<br />

Referenz und zeigen, dass PDF nicht automatisch als überholt gelten<br />

muss.<br />

Mist<br />

Neben „märchenhaften“ Aussichten spiegelt der aktuelle Stand der<br />

mobilen Technischen Dokumentation auch viel „Mist“ wider. Aus Platzgründen<br />

folgt hier nur eine Liste der wichtigsten negativen Punkte:<br />

−−<br />

Auch die soeben verabschiedete Norm über Bedienungsanleitungen<br />

ISO IEC 82079 und der Guide zur Maschinenrichtlinie (über-) betonen<br />

die Wichtigkeit von Papier. Immerhin sind elektronische Medien<br />

„sinnvolle“ Ergänzungen. Juristen müssen sich „über den Stand der<br />

Stiefmutter in Schneewittchen“ erst noch hinausbewegen.<br />

−−<br />

Technische Dokumentation als native App auf iPhone/iPad oder Android-Geräten<br />

benötigt eine jeweils eigenständige Programmierung.<br />

Bei Kosten für eine „echte“ App von 20.000 EUR und mehr (nach<br />

oben offen!) drohen native Apps für die Technische Dokumentation<br />

jedoch Eintagsfliegen zu bleiben.<br />

−−<br />

Nicht das PDF-Format ist Mist, sondern die dilettantische Beurteilung,<br />

dass PDF für mobile Medien nicht geeignet sei. Leider macht<br />

sich PDF-Erfinder Adobe praktisch diesen Unsinn zu eigen und<br />

liefert bis einschließlich <strong>2012</strong> für Smartphones nur einen Minimal-<br />

PDF-Viewer.<br />

−−<br />

HTML5 und eventuell EPUB-3 sind voraussichtlich die am besten<br />

geeigneten Formate für Technische Dokumentation auf mobilen Medien,<br />

zumindest sobald eine Druckausgabe nicht mehr nötig ist. Aber<br />

sowohl was die Standardisierung der Videoformate anbelangt, als<br />

auch was die Unterstützung von ausgereiften kostenlosen Viewern<br />

insbesondere für E-Pub 3 betrifft, zeigen die Weltmarktführer aus<br />

den USA bisher eher ein chaotisches, kundenunfreundliches Verhalten.<br />

Eine nachvollziehbare Unterstützung der zu HTML5 gehörenden<br />

Standards CSS 3 und JavaScript fehlt jedenfalls. Den Viewer-Markt<br />

bei E-Pub allein den Verlagen zu überlassen geht auch völlig am Bedarf<br />

jenseits der Belletristik vorbei.<br />

Möglichkeiten<br />

Mercedes veröffentlichte Anfang <strong>2012</strong> erstmals die Bedienungsanleitung<br />

für die B-Klasse als App, sowohl für Android Smartphones als<br />

auch für das iPhone. Der „erste Wurf“ zeigte folgende Eigenschaften:<br />

−−<br />

Die Equus-Anleitungen (iPhone und iPad) standen wohl Pate.<br />

Mercedes konzentrierte sich zu Recht verstärkt auf die Use Cases für<br />

Anleitungen und weniger auf das Thema Werbung, wenn auch Werbe-Videos<br />

in das Konzept integriert wurden. Die Umsetzung ist optimiert<br />

für das iPhone und bestätigt so die typische Nutzungssituation<br />

für Technische Dokumentation: Ein iPhone hat man immer dabei, ein<br />

iPad nicht!<br />

−−<br />

Die vollständige Umsetzung der bisher Print-orientierten Auto-Anleitung<br />

in HTML-Seiten bringt eine zum Teil sehr tiefe Verschachtelung<br />

der einzelnen Informationen und eine tendenziell zu kleine<br />

Darstellung der Bilder. Hier wünscht man sich die bei PDF selbstverständliche<br />

(bei HTML-Lösungen aber kaum anzutreffende) Möglichkeit<br />

des freien Zoomens.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

311


Mobile Dokumentation / Mobile Documentation<br />

−−<br />

Die Volltextsuche läuft „nur“ über den redaktionell erzeugten Index,<br />

ein durchaus überlegenswerter Ansatz für die von mir gar nicht hoch<br />

genug einzuschätzende Suchfunktion. Allerdings fehlt so das Highlighten<br />

der Suchbegriffe im eigentlichen Text.<br />

−−<br />

Die zur App weitgehende identische Darstellung der Anleitung im Internet<br />

legt die Vermutung nahe, dass Mercedes auch sein Augenmerk<br />

auf ein effizientes, automatisches Produktionskonzept legte.<br />

Inzwischen liegt die 2. Version der App vor, siehe: http://itunes.apple.<br />

com/de/app/mercedes-benz-guides/id493497188?mt=8<br />

https://play.google.com/store/apps/details?id=com.daimler.moba.kundenapp.android&hl=de<br />

Die neue Version optimiert noch den meiner Meinung nach hervorragenden<br />

Ansatz der neuen Mercedes-Anleitungen.<br />

Neu hinzugekommen sind folgende Eigenschaften:<br />

−−<br />

Katalogkonzept: Man kann in einer App alle zur Verfügung gestellten<br />

Mercedes-Anleitungen verwalten. Die eigentlichen Daten sind also<br />

nicht mehr Bestandteil der App, sondern man kann diese entweder<br />

direkt streamen oder die Anleitung in der gewünschten Sprache lokal<br />

downloaden.<br />

−−<br />

Das Design orientiert sich nun am modernen „schwarzen Trend“, man<br />

könnte allerdings auch sagen, es entspricht nun weitgehend dem<br />

Hyundai Centennial Ansatz.<br />

−−<br />

Endlich funktioniert die App auch unter Android 4.<br />

Spätestens seit der Version 2 sind die Mercedes-Anleitungen die Referenz<br />

schlechthin für mobile Technische Dokumentation. Und nicht<br />

zuletzt der „mutige“ Ansatz, Warnhinweise ein- und ausklappbar zu gestalten,<br />

zeigt, dass man sich hier Gedanken über eine gut produzierbare<br />

und für Anwender dennoch gut nutzbare Dokumentation gemacht hat.<br />

312<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Spannend bleibt die Frage, ob dieses Anleitungskonzept nicht auch über<br />

einen reinen HTML-5-Ansatz oder einen EBUP-3-Ansatz, also ohne<br />

App-Installation umzusetzen wäre.<br />

Steve Jobs ist es wohl zu verdanken, dass Smartphones dank „Finger-<br />

Multitouch“ genial einfach bedienbare und vollwertige multimediale<br />

Informationszentralen geworden sind. Künftig bieten sich daher auch<br />

neue Konzepte an, die die „Dreieinigkeit“ von Technischer Dokumentation,<br />

Training und Service zu einem neuen Ganzen verbinden.<br />

Beispiel Wilo Assistent für eine App, die Pre-Sales-Themen, Service Dokumentation<br />

und Anleitungen integriert (https://play.google.com/store/apps/<br />

details?id=wilo.droid&hl=de)<br />

Märchen werden nur wahr, wenn man daran glaubt. Wie lautet noch<br />

eines der berühmten Zitate von Steve Jobs „Viele Leute wissen nicht<br />

was sie wollen, bis Du es ihnen zeigst“.<br />

für Rückfragen: dieter.gust@itl.eu<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

313


Mobile Dokumentation / Mobile Documentation<br />

MOB 20<br />

Workshop<br />

eBooks in der Technischen Dokumentation<br />

Jörg Ertelt, HelpDesign-technische & elektronische dokumentation, Wendlingen<br />

Die zunehmende Nutzung mobiler Endgeräte (Smartphones und Tablets)<br />

im privaten und beruflichen Alltag führt zu einer steigenden Nachfrage<br />

nach eBooks.<br />

Ob diese Hard- und Software die an sie gestellten Anforderungen erfüllen<br />

und Probleme lösen kann, oder ob sie selber Teile des Problems<br />

sind, muss sich allerdings noch herausstellen.<br />

Für den Einsatz im Bildungssektor, aber auch im Bereich der klassischen<br />

Technischen Dokumentation jedenfalls spielen eBooks zunehmend<br />

eine wichtige Rolle, auch wenn die „Killeranwendung“ noch auf<br />

sich warten lässt.<br />

Mit dem offenen Standard EPUB ist ein normiertes Format verfügbar,<br />

um z. B. Anleitungen zu erstellen. Die Erstellung kann mit Redaktionssystemen<br />

oder spezialisierter Software erfolgen.<br />

Im Workshop werden wir ein kleines eBook in Form einer Betriebsanleitung<br />

mit Sigil von Google erstellen.<br />

Über eBooks<br />

eBook steht für electronic book. Dabei handelt es sich nicht um ein Ausgabeformat,<br />

sondern um den Versuch, das Medium Buch in eine digitale<br />

Form zu übertragen, wobei die buchtypischen Eigenschaften erhalten<br />

bleiben sollen.<br />

Zum Öffnen von eBooks werden eine Soft- und Hardware benötigt.<br />

Die entsprechende Software ist oft mit der Hardware, einem eBook-<br />

Reader, gekoppelt. Allerdings sind auch so genannte Apps verfügbar, die<br />

auf eBook-Readern von unterschiedlichen Herstellern genutzt werden<br />

können.<br />

In diesem Workshop wird das Ausgabeformat EPUB betrachtet.<br />

Über EPUB<br />

EPUB-Logo<br />

EPUB steht für electronic publication. Dabei handelt es sich um ein<br />

Ausgabeformat in einem offenen XML-Standard für eBooks. EPUB<br />

wurde vom International Digital Publishing Forum (IDPF, http://idpf.<br />

org) entwickelt.<br />

EPUB unterstützt das Digitale-Rechte-Management, das allerdings von<br />

der jeweiligen Lesesoftware umgesetzt werden muss.<br />

314<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Mobile Dokumentation / Mobile Documentation<br />

Vorteile / Nachteile<br />

Programm-Beschreibung<br />

−−<br />

Offenes und standardisiertes Format, basierend auf XML, XHTML<br />

und CSS<br />

−−<br />

Kostenfrei<br />

−−<br />

Anpassung der Inhalte und des Layouts an unterschiedliche Bildschirmgrößen<br />

sowie Hoch-/Querformat<br />

−−<br />

Notizen, Lesezeichen, Markierungen sind nicht Bestandteil des Standards<br />

und müssen von der jeweiligen Lesesoftware bereitgestellt<br />

werden<br />

Über Sigil<br />

Sigil ist ein Open-Source-Editor von Google. Im August 2009 ist die erste<br />

Version veröffentlicht worden. Stand September <strong>2012</strong> ist Version 0.5.3<br />

aktuell.<br />

Zweck und Ziel von Sigil ist es, einen benutzerfreundlichen Editor für<br />

die Erstellung von EPUBs bereitzustellen, die sofort genutzt werden<br />

können.<br />

Sigil unterstützt sowohl WYSIWYG (What You See Is What You Get,<br />

Schwäbisch: „Wa de siescht des kriegscht au“) als auch das Editieren<br />

des XHTML-Quellcodes.<br />

−−<br />

Vollständige Unterstützung der EPUB2-Spezifikationen<br />

−−<br />

WYSIWYG- und Quellcode-Editor<br />

−−<br />

Unterstützte Bildformate: JPG, GIF, PNG und SVG<br />

−−<br />

Editor zum Bearbeiten von Metadaten, z. B. Titel und Sprache<br />

−−<br />

Unterstützte Importformate: *.txt, *.html, *.epub<br />

−−<br />

Tool zum Validieren des Quellcodes<br />

−−<br />

Vollständige Unterstützung von Unicode<br />

−−<br />

Reguläre Ausdrücke beim Suchen und Ersetzen<br />

−−<br />

Automatisches Erstellen des Inhaltsverzeichnisses<br />

−−<br />

Neben anderen Sprachen ist Sigil mit deutscher Programmoberfläche<br />

verfügbar (einige Dialoge sind trotzdem in Englisch)<br />

Die Sigil-<br />

Programmoberfläche<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

315


Mobile Dokumentation / Mobile Documentation<br />

Vorteile / Nachteile<br />

1. Der Buch-Browser mit den Ordnern Text (.xhtml-Dateien), Formatierungen<br />

(*.css-Dateien), Bilder (Bild-Dateien), Zeichensätze und<br />

Diverses.<br />

2. Der XML-Editor in geteilter Darstellung. Oben: Der WYSIWYG-Editor.<br />

Unten: Der Quellcode-Editor.<br />

3. Das Inhaltsverzeichnis.<br />

−−<br />

Kostenfrei, Open Source<br />

−−<br />

Schnelles Einarbeiten<br />

−−<br />

Einfaches Anwenden<br />

−−<br />

Komplettes Buch mit Titelblatt, Inhaltsverzeichnis, Impressum, Glossar,<br />

Bildverzeichnis usw.<br />

−−<br />

Ergebnis sofort verfügbar und nutzbar<br />

−−<br />

Keine Versionsverwaltung<br />

−−<br />

Kein Multi-Authoring<br />

−−<br />

Keine Textbausteinverwaltung<br />

−−<br />

Keine Variablen und Bedingungen<br />

Schritt für Schritt zum eBook im EPUB-Format mit Google Sigil:<br />

1. Sigil starten.<br />

2. Ein neues Buch anlegen: Menü Datei > Neu > Neues Buch.<br />

3. Buch speichern: Menü Datei > Speichern als.<br />

4. Neues xhtml-Dokument anlegen oder bestehendes Dokument einfügen:<br />

Auf dem Ordner Text Rechtsklick > Leeren Abschnitt hinzufügen<br />

oder Bestehende Dateien hinzufügen.<br />

5. Im XML-Editor Text einfügen und formatieren, Bilder bei Bedarf<br />

einfügen usw.<br />

6. Semantik hinzufügen, z. B. Titelblatt, Impressum oder Glossar: Auf<br />

einer Datei im Ordner Text Rechtsklick (oder eine neue Datei anlegen)<br />

> Semantik hinzufügen > gewünschte Semantik wählen.<br />

7. EPUB validieren: Menü Datei > EPUB validieren.<br />

8. Wenn Validierung erfolgreich, EPUB veröffentlichen zum Herunterladen<br />

oder direkt auf ein mobiles Endgerät aufspielen.<br />

9. EPUB lesen.<br />

für Rückfragen: joerg.ertelt@helpdesign.eu<br />

316<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien


Gesetze, Normen, Richtlinien<br />

NORM 1<br />

Fachvortrag<br />

CE-Kennzeichnung und CE-Richtlinien –<br />

Mythos und Wahrheit<br />

Jens-Uwe Heuer, Luther Rechtsanwaltgesellschaft, Hannover<br />

Die CE-Kennzeichnung wird in den Unternehmen häufig als lästige<br />

Formalie betrachtet. Nicht selten findet sich auch die Einstellung, dass<br />

die CE-Kennzeichnung ohnehin keiner Kontrolle unterliege und die<br />

Spielregeln nicht durch einen Schiedsrichter kontrolliert werden. Dieser<br />

Eindruck mag auch dadurch entstehen, dass durchaus fragwürdige<br />

Produkte die CE-Kennzeichnung tragen und im europäischen Markt<br />

zirkulieren. In diesem Fachvortrag soll dargestellt werden, wie es sich<br />

mit der CE-Kennzeichnung und der Überwachung tatsächlich verhält<br />

und welche Rolle hierbei die Technische Dokumentation spielt.<br />

Aktueller Stand der CE-Kennzeichnung<br />

Die CE-Kennzeichnung ist ursprünglich entstanden, um sogenannte<br />

technische Handelshemmnisse zu beseitigen: Durch die CE-Kennzeichnung<br />

sollte es möglich sein, dass die einzelnen Mitgliedsstaaten darauf<br />

verzichten können, den Sicherheitsstandard einzelner Produkte vor<br />

Import der Produkte zu überprüfen. Dieser Ansatz hat sich in der Tat<br />

bewährt. Für die der CE-Kennzeichnung unterliegenden Produkte bestehen<br />

in der Praxis kaum noch individuelle mitgliedstaatliche Anforderungen.<br />

Diese sind allenfalls unter dem Gesichtspunkt des Arbeitsschutzes<br />

oder von Feuerschutzanforderungen denkbar.<br />

Tatsächlich hat sich das System der CE-Kennzeichnung von dem Ansatz<br />

„Beseitigung von Handelshemmnissen“ weiterentwickelt. Es dient heute<br />

als Kontrollmöglichkeit für die Sicherheit von Produkten und als wichtiges<br />

Instrument des Produktsicherheitsrechts, das präventiv die Inverkehrgabe<br />

unsicherer Produkte verhindern will. Dieser präventive Ansatz<br />

der Produktüberwachung hat derzeit Vorrang vor dem sogenannten<br />

Haftungsansatz. Ursprünglich sollten Unternehmen durch die Drohung<br />

hoher Schadenersatzforderungen angehalten werden, Produkte sicher<br />

zu gestalten. Dies hat zum Entstehen des Produkthaftungsrechts auch<br />

auf europäischer Ebene mit der EG-Produkthaftungsrichtlinie geführt.<br />

Heute wird allgemein vertreten, dass sich dieser Ansatz nicht als besonders<br />

effizient bewährt hat. Es wird von einem Paradigmenwechsel „von<br />

der Produkthaftung zur Produktüberwachung“ gesprochen.<br />

Die Verstärkung der Produktüberwachung zeigt sich auch in dem Projekt<br />

des „New Legislative Framework“. Mit diesem wurde 2008 auf der<br />

europäischen Ebene ein neuer einheitlicher Rahmen für die CE-Kennzeichnungsrichtlinien<br />

definiert und postuliert, dass die Produktüberwachung<br />

in Europa vereinheitlicht und gestärkt werden soll.<br />

Diese Entwicklung begründet sehr deutlich folgenden Befund in Bezug<br />

auf die CE-Kennzeichnung: Es handelt sich nicht um eine bloße Förmlichkeit.<br />

Die Überwachung von Produkten und damit die Überwachung<br />

der CE-Kennzeichnung wird sich deutlich verschärfen. Die Aufgriffswahrscheinlichkeit<br />

für fehlerhaft gekennzeichnete Produkte ist deutlich<br />

höher als in der Vergangenheit.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

319


Gesetze, Normen, Richtlinien<br />

Technische Redakteure und CE-Kennzeichnung<br />

In Bezug auf die CE-Kennzeichnung ergibt sich beim Blick in die Praxis<br />

nicht selten, dass Technische Redakteure mit der CE-Kennzeichnung<br />

befasst sind. Dies kann sich auf die bloße Darstellung der technischen<br />

Unterlagen beschränken, wie sie z. B. nach Vorgabe der EG-Maschinenrichtlinie<br />

2006/42 für die Marktüberwachungsbehörden aufzubereiten<br />

sind. Es lässt sich allerdings auch beobachten, dass Technische Redakteure<br />

mehr und mehr inhaltliche Verantwortung für den CE-Konformitätsbewertungsprozess<br />

übertragen bekommen. So kann es etwa sein,<br />

dass die Technischen Redakteure bewerten sollen, ob Normen, die der<br />

CE-Kennzeichnung zu Grunde gelegt werden, vom Produkt eingehalten<br />

sind.<br />

Es lässt sich mit Recht intensiv diskutieren, ob dies der richtige Weg<br />

sein kann und ob Technische Redakteure vor ihrem Ausbildungshintergrund<br />

hier überhaupt dazu befähigt sind, sachkundig CE-Konformitätsbewertung<br />

zu betreiben. Diese Diskussion lenkt indessen von einer sehr<br />

wichtigen Tatsache ab:<br />

CE-Konformitätsbewertung versteht sich als Prozess, der unternehmensübergreifend<br />

zu organisieren ist. Eine Konformitätsbewertung<br />

kann nur gelingen, wenn Konstruktion, Herstellung und Technische Redaktion<br />

Hand in Hand arbeiten. Grundlage dafür ist die Risikoanalyse,<br />

die möglichst schon beim Konstruktionsprozess Produktrisiken insbesondere<br />

im Hinblick auf den von der jeweiligen Richtlinie geforderten<br />

Sicherheitsstandard auszuschließen hat. Während der Herstellung<br />

wie auch letztendlich in der Technischen Redaktion bleibt dann diese<br />

Risikoanalyse immer wieder auf ihre Richtigkeit zu überprüfen. Der<br />

Organisationsprozess ist so zu gestalten, dass das Produkt auch jeweils<br />

nachgebessert wird, wenn sich neue Risiken zeigen sollten. Die Technische<br />

Redaktion ist nicht selten hier faktische „Endkontrolle“. Wenn in<br />

der Technischen Redaktion umfangreiche Warn- und Sicherheitshinweise<br />

entstehen, sollte dies Anlass sein, über die Sicherheit des Produktes<br />

nachzudenken. Dies gilt allemal dann, wenn sich für den Technischen<br />

Redakteur abzeichnet, dass das von ihm durch Warnhinweise<br />

abzuschirmende Risiko auch konstruktiv abgeschirmt werden könnte.<br />

Es gilt die Grundregel: Konstruktion vor Instruktion. Erst wenn die konstruktiven<br />

Sicherheitsmaßnahmen ausgeschöpft sind, bleibt Raum für<br />

die Gefahrabwendung mittels Warn- und Sicherheitshinweisen.<br />

Benutzerinformationen und Überwachung der CE-Kennzeichnung<br />

Die Technische Dokumentation ist in zweierlei Hinsicht Nahtstelle zur<br />

Überwachung der CE-Kennzeichnung.<br />

Zum einen entstehen in der Technischen Redaktion häufig auch die begleitenden<br />

Dokumente, wie z. B. die Konformitätserklärungen. Es ist an<br />

dieser Stelle Aufgabe des Technischen Redakteurs, die Richtigkeit der<br />

dort enthaltenen Angaben nachzuhalten. In der Praxis kommt es dabei<br />

immer wieder zu Fehlern, indem z. B. veraltete Richtlinien oder Normen<br />

angegeben werden. Dies gilt es in jedem Fall zu vermeiden. Fehler in<br />

den Konformitätserklärungen würden in jedem Fall eine Marktüberwachungsbehörde<br />

dazu veranlassen, tätig zu werden und den Konformitätsbewertungsprozess<br />

einer genauen Überprüfung zu unterziehen.<br />

320<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

Zum anderen zeigt sich in der Überwachungspraxis, dass die Marktüberwachungsbehörden<br />

die Qualität der produktbegleitenden Dokumente,<br />

insbesondere Benutzerinformationen kontrollieren. Schlechte<br />

Benutzerinformationen indizieren dabei auch durchaus für eine<br />

Marktüberwachungsbehörde Fehler in der Konformitätsbewertung.<br />

Im übertragenen Sinne sind schlechte Benutzerinformationen für die<br />

Marktüberwachung ein „Alarmzeichen“, sich den Konformitätsbewertungsprozess<br />

genauer anzusehen.<br />

Dies lässt sich leicht mit guten Benutzerinformationen verhindern, die<br />

z. B. streng auf Grundlage der IEC 82079 erstellt sind.<br />

für Rückfragen: jens.heuer@luther-lawfirm.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

321


Gesetze, Normen, Richtlinien<br />

NORM 2<br />

Presentation<br />

Fachvortrag<br />

This presentation by Abraham de Wolf will be held in German and English<br />

The Machine and Copyrights<br />

The simple complexity of machine translation<br />

Issues addressed in the presentation are the impact of copyright laws<br />

when a text is translated using software in the form of<br />

−−<br />

Machine Translation such as offered online for free by Google or<br />

other commercial Machine Translation products;<br />

−−<br />

using a Translation Memory or<br />

−−<br />

using and creating a Terminology Database from third party texts.<br />

Important aspects also covered are what role does copyright law play<br />

in the creation of a Translation Memory and of a Terminology Database<br />

using third party texts. Does the claim of “fair use” under US law offer<br />

any protection for those who use third party texts? And why does<br />

it have no legal effect at all for texts originating in EU member states?<br />

What does “work for hire” mean in translation contracts and what role<br />

do contracts play when determining who owns a translation?<br />

The presentation examines these issues of copyright law and translations<br />

using software under English, US and German law.<br />

Die Maschine und das Recht<br />

Die schlichte Komplexität des Urheberrechts bei maschineller Übersetzung<br />

Der Vortrag befasst sich damit, was mit Urheberrechten passiert, wenn<br />

ein Text mit Unterstützung von Software übersetzt wird. Dabei wird<br />

genauer untersucht, welche Folgen die Nutzung hat von<br />

−−<br />

maschineller Übersetzung zum Beispiel von Google oder von anderen<br />

Anbietern;<br />

−−<br />

Translation-Memory-Software;<br />

−−<br />

Terminologie-Datenbank.<br />

Weitere Aspekte des Vortrages sind, welche Rolle das Urheberrecht bei<br />

der Erstellung einer Translation-Memory- und einer Terminologie-Datenbank<br />

spielt, wenn die Texte Dritter verwendet werden. Es wird auch<br />

erläutert, welche Bedeutung Komponenten des US-Urheberrechts in<br />

der EU haben, vor allem die Behauptung des „fair use“ und die Verwendung<br />

des Begriffs „work for hire“ in Verträgen werden näher untersucht<br />

und erklärt. Der Vortrag bezieht das US, englische und deutsche Urheberrecht<br />

ein.<br />

für Rückfragen: abraham.dewolf@lucysoftware.com<br />

322<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

NORM 4<br />

Fachvortrag<br />

Aktuelle Rechtsentwicklungen für<br />

die Technische Dokumentation<br />

Jens-Uwe Heuer, Luther Rechtsanwaltgesellschaft, Hannover<br />

Die <strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong> gibt wieder einmal Anlass, über aktuelle<br />

Rechtsentwicklungen mit Bezug zur Technischen Dokumentation zu<br />

berichten. Dies betrifft sowohl Entwicklungen und einen Überblick zu<br />

Rechtsprechung mit Bezug zur Technischen Dokumentation wie auch<br />

gesetzgeberische Aktivitäten.<br />

Rechtsprechung zur Technischen Dokumentation<br />

Leider bleibt der Wunsch manchen Technischen Redakteurs unerfüllt,<br />

von der Rechtsprechung die universell einsetzbare, alle Aspekte abdeckende<br />

Gerichtsentscheidungen zu erhalten. Vielmehr bleibt es nach<br />

wie vor ein „Puzzlespiel“, aus den unterschiedlichen Gerichtsentscheidungen<br />

die relevanten Passagen herauszulesen.<br />

Insgesamt lässt sich feststellen, dass sich sowohl im Vertragsrecht wie<br />

auch im Produkthaftungsrecht immer wieder Entscheidungen mit Bezug<br />

zur Technischen Dokumentation finden. Dies gilt sowohl für Entscheidungen,<br />

die sich mit aus Bedienungsanleitungen oder ähnlichen<br />

Dokumenten abgeleiteten Beschaffenheiten von Vertragsgegenständen<br />

befassen wie auch für haftungsrechtliche Sachverhalte. Nach wie vor<br />

begründet sich auf unzureichenden sicherheitsrelevanten Informationen<br />

eine Haftung des Herstellers. Häufige Fehlerursache ist dabei eine<br />

unzureichende Analyse des tatsächlichen Gebrauchs des Produktes und<br />

insbesondere der Fähigkeiten der jeweiligen Nutzergruppe, die mit dem<br />

Produkt angesprochen wird. Leider bleibt festzuhalten, dass nur allzu<br />

oft noch mit einer großen und damit groben Messlatte gearbeitet wird.<br />

Viele Haftungsfälle ließen sich tatsächlich vermeiden, wenn eine konkrete<br />

ins Einzelne gehende Auseinandersetzung mit dem Produkt und<br />

seiner Anwendung erfolgen würde.<br />

Auch im Produktsicherheitsrecht finden sich wieder Entscheidungen<br />

mit Bezug zur Technischen Dokumentation. Dahinter versteckt sich<br />

eine Tendenz der letzten Jahre: Produktsicherheitsrechtliche Vorgaben<br />

sind zunehmend relevant als Marktregeln. Dies bedeutet, dass deren<br />

Verletzung durch Mitwettbewerber als Verstoß gegen die Regeln des<br />

guten Wettbewerbs begriffen werden kann. Wer daher eine schlechte<br />

Bedienungsanleitung zur Verfügung stellt und damit Gefahr läuft, gegen<br />

das Produktsicherheitsrecht zu verstoßen, der muss nicht nur mit<br />

Maßnahmen der Marktüberwachung rechnen, sondern auch mit einem<br />

Vorgehen von Marktteilnehmern gegen ihn. Dies kann zu unangenehmen<br />

Situationen führen, wie z. B. Einstweiligen Verfügungen gerade in<br />

dem Moment, wo eine wichtige Messepräsentation des Produktes erfolgen<br />

soll. Diese Art der Vorgehensweise erweist sich in der letzten Zeit<br />

als durchaus erfolgreich, um unliebsame Konkurrenten auszuschalten.<br />

Entwicklung des Produktsicherheitsrechts<br />

Mit dem neuen Produktsicherheitsgesetz (das seit dem 1. Dezember<br />

2011 gilt) hat der Gesetzgeber eine neue Grundlage für die Eingriffe der<br />

Marktüberwachung in den Vertrieb von Produkten geschaffen. Diese<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

323


Gesetze, Normen, Richtlinien<br />

neue gesetzliche Grundlage wirft in der Anwendungspraxis noch eine<br />

Reihe von Fragen auf.<br />

Zu nennen ist hier beispielsweise die Einbeziehung von Komponenten<br />

in den Anwendungsbereich des Gesetzes. Hier bleibt klarzustellen, was<br />

dies in der Praxis tatsächlich bedeutet und inwiefern die Marktüberwachung<br />

tatsächlich beabsichtigt, Produkte zu überwachen, die Bestandteil<br />

anderer Produkte werden.<br />

Eine weitere interessante Fragestellung ist die Anwendung des ProdSG<br />

auf gebrauchte Produkte. Hier ist insbesondere darüber zu berichten,<br />

wie sich der Tatbestand der wesentlichen Veränderung im Rahmen der<br />

Anwendung der EG-Maschinenrichtlinie 2006/42 verändert hat.<br />

Schließlich ist darüber zu berichten, wie sich die Praxis der Gesetzesanwendung<br />

gestaltet.<br />

Neuer europäischer Rechtsrahmen<br />

Unter dem Stichwort „New Legislative Framework“ ist bereits 2008 der<br />

Anstoß gegeben worden, auf der europäischen Ebene die Grundlagen<br />

des Produktsicherheitsrechts neu zu gestalten. Ziel ist es dabei, die<br />

Richtlinien zur CE-Kennzeichnung zu vereinheitlichen, die aufgrund<br />

der historischen Entwicklung teils sehr unterschiedlich gestaltet sind.<br />

Darüber hinaus war es erklärtes Ziel, die Produktüberwachung in Europa<br />

zu intensivieren und zu vereinheitlichen.<br />

Der „New Legislative Framework“ steht nun vor seiner Umsetzung. Die<br />

erste Richtlinie, die nach diesem Konzept gestaltet ist, entstammt nicht<br />

dem „klassischen Bereich“ der CE-Kennzeichnung, sondern befasst sich<br />

mit dem Verbot gefährlicher Stoffe (ROHS). Die Einhaltung der ROHS-<br />

Vorgaben ist nun durch die CE-Kennzeichnung auszuweisen. Dies führt<br />

durchaus zu praktischen Schwierigkeiten und veranlasst, grundsätzlich<br />

den CE-Kennzeichnungsprozess in Unternehmen zu überprüfen.<br />

Weitere Richtlinien sind angekündigt und werden spätestens 2013 entstanden<br />

sein. Regelungsgebiete sind dabei u. a. die Niederspannungsrichtlinie,<br />

die Richtlinie über elektromagnetische Verträglichkeit und<br />

die ATEX-Richtlinie.<br />

Noch unklar ist an dieser Stelle das „Schicksal“ der EG-Maschinenrichtlinie<br />

2006/42. Hier besteht die Auffassung, dass diese Richtlinie<br />

den neuen Vorgaben bereits entspricht, was bei genauerer Betrachtung<br />

jedoch fraglich sein könnte.<br />

Die Richtlinien des „neuen Typs“ enthalten weitgehende Verpflichtungen.<br />

Das Konzept hierzu unterstreicht insbesondere auch die Wichtigkeit<br />

der Benutzerinformation.<br />

Der Fachvortrag wird über die Entwicklungen in der Rechtsprechung<br />

und der Rechtssetzung berichten und praktische Hinweise für die Arbeit<br />

in der Technischen Redaktion geben.<br />

für Rückfragen: jens.heuer@luther-lawfirm.com<br />

324<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

NORM 5<br />

Fachvortrag<br />

Neue ANSI Z535 – vom vernünftigen<br />

Umgang mit Sicherheitshinweisen<br />

Roland Schmeling, Schmeling + Consultants GmbH, Heidelberg<br />

Die ANSI Z535 gibt es, die Vorgängernormen mitgerechnet, seit den<br />

70er Jahren. Was kann bei Sicherheits- und Warnhinweisen noch neu<br />

sein?<br />

In der Tat sind die Änderungen, die die ANSI Z535 im vergangenen Jahr<br />

veröffentlicht hat, überschaubar, beschränken sich jedoch nicht auf die<br />

für die Technische Dokumentation zugeschnittene ANSI Z535.6, sondern<br />

umfassen die gesamte sechsteilige Normenreihe. Zudem ist mit<br />

der neuen IEC 82079-1 „Erstellen von Anleitungen“ eine bedeutende<br />

Norm entstanden, die die Systematik der Sicherheits- und Warnhinweise<br />

international regelt und sich dabei bewusst mit den nötigen Spielräumen<br />

an die ANSI Z535 anlehnt.<br />

Grund genug also, auf dem erreichten Verbreitungs- und Kenntnisstand<br />

die Flughöhe zu erhöhen und mit dem nötigen Abstand die Regeln zu<br />

sondieren, zu bewerten und an eine sinnvolle Praxis anzunähern.<br />

Dabei sollen folgende Standards herangezogen werden:<br />

−−<br />

ANSI Z535.3:2011 “Criteria for Safety Symbols”<br />

−−<br />

ANSI Z535.4:2011 “Product Safety Signs and Labels“<br />

−−<br />

ANSI Z535.6: 2011 “Product Safety Information in Product Manuals,<br />

Instructions, and Other Collateral Materials”<br />

−−<br />

DIN ISO 3864-2:2008 „Graphische Symbole – Sicherheitsfarben und<br />

Sicherheitszeichen – Teil 2: Gestaltungsgrundlagen für Sicherheitsschilder<br />

zur Anwendung auf Produkten“ (ISO 3864-2:2004), einschließlich<br />

der Berichtigung der Übersetzungstabelle für die Signalworte<br />

ISO 38642/Amd 1:2011<br />

−−<br />

ISO 7010:2011 “Graphical symbols — Safety colours and safety signs<br />

— Registered safety signs”<br />

−−<br />

SEMI S1-0708E:2008 “Safety Guideline for Equipment Safety Labels”<br />

−−<br />

IEC 82079-1 (zum Vergleich – zu dieser Norm gibt es ein eigenes<br />

Forum)<br />

−−<br />

VDMA-Leitfaden zu Sicherheitshinweisen in der Landtechnik (noch<br />

nicht veröffentlicht) und der entsprechende Bildzeichen-Katalog<br />

Embedded safety<br />

messages<br />

Piktogramme<br />

Themen<br />

Unter anderem werden die folgenden Themen diskutiert oder<br />

angeschnitten.<br />

Die „integrierten Warnhinweise“ sind Anlass für Diskussionen in den<br />

Unternehmen. Sind integrierte Warnhinweise noch hinreichend deutlich<br />

und auffällig? Oder sind die in Anlehnung an Warnschilder gestalteten<br />

Warnhinweise in Anleitungen schon weit über das Ziel einer wirksamen<br />

Gefährdungskommunikation hinausgeschossen?<br />

Was ist Stand der Dinge bei den Piktogrammen? Wie groß ist der Widerspruch<br />

zwischen ANSI-Piktogrammen und ISO-Symbolen wirklich?<br />

Wann lohnt es sich, eigene Piktogramme zu entwickeln?<br />

Die Folgen bei Nichtbeachtung fehlen in vielen Sicherheitskapiteln. Auf<br />

der anderen Seite haben Sicherheitshinweise grundlegenden Charakter.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

325


Gesetze, Normen, Richtlinien<br />

Sicherheitskapitel<br />

und Folgen bei<br />

Nichtbeachtung<br />

Prozess<br />

Signalworte<br />

Signalworte in der<br />

Übersetzung<br />

Wie können die Folgen bei grundlegenden Sicherheitshinweisen informativ<br />

und mit Nutzen für den Anwender angegeben werden?<br />

Ein VDMA-Projekt zu Sicherheitshinweisen bei Landmaschinen gibt<br />

wertvolle Anhaltspunkte und Beispiele.<br />

Wer im Unternehmen entscheidet über die richtigen Sicherheitshinweise,<br />

Warnhinweise und Warnschilder? Rechtsabteilung, Redaktion, Produktmanagement,<br />

Sicherheitsbeauftrager, die vielen Köche erzeugen<br />

Widersprüche. Zentrale Organisationsstelle sollte die Risikobeurteilung<br />

sein. Doch: Muss jedes Restrisiko in der Risikobeurteilung zwangsneurotisch<br />

zu einem Warnhinweis führen?<br />

Was hat es mit dem „neuen“ Signalwort „SAFETY INSTRUCTIONS“ auf<br />

sich? Sind die Signalworte überhaupt so wichtig, wie die Schärfe der<br />

nicht enden wollenden Diskussion vermuten lassen könnte?<br />

Wie kann man sinnvoll mit den übersetzerischen Mängeln umgehen?<br />

Die SEMI hat in ihrem Standard eine abweichende Übersetzungstabelle<br />

entworfen; wie ist dies zu bewerten, wie kann man mit dem entstehenden<br />

Konflikt umgehen?<br />

Fazit<br />

Häufig gibt es keine eindeutige Antwort auf diese Fragen; vielmehr<br />

müssen unternehmensspezifische Regeln für die Umsetzung vor dem<br />

Hintergrund der Produkte, Märkte, Anwendergruppen, der möglichen<br />

Risiken und wirtschaftlicher Belange festgelegt werden.<br />

für Rückfragen: r.schmeling@schmeling-consultants.de<br />

326<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

NORM 6<br />

Fachvortrag<br />

Der „Guide“ zur Maschinenrichtlinie<br />

2006/42/EG<br />

Gerhard Lierheimer, SL innovativ GmbH, Dinkelsbühl<br />

Die Richtlinie für Maschinen bedarf trotz ihrer strukturellen und inhaltlichen<br />

Neuausrichtung und Überarbeitung immer noch einer fachlichen<br />

Interpretation. Der Guide zur Maschinenrichtlinie versucht diese Lücke<br />

zu schließen. Herausgegeben von der Europäischen Kommission unter<br />

Mitarbeit unterschiedlicher Fachgremien (u. a. des VDMA) zeigt der<br />

Guide/Leitfaden die Originaltexte der Maschinenrichtlinie, die durch<br />

Interpretationen der Kommission ergänzt, verdeutlicht und in ihrer<br />

Ausrichtung präzisiert werden. Der Leitfaden bietet damit eine „Klärungshilfe“<br />

zu diskussionswürdigen Aussagen der Maschinenrichtlinie.<br />

Das Ende aller Diskussionen?<br />

Sicherlich wird über die Inhalte der Maschinenrichtlinie bis zum Ende<br />

ihrer Tage diskutiert werden – und diskutiert werden müssen. Zweck<br />

der Richtlinie war es ja, verbindliche und einheitliche Regelungen zu<br />

treffen. Dass diese Regeln nicht für alle Anwendungen im Geltungsbereich<br />

der Maschinenrichtlinie – und hier gerade in den Randbereichen<br />

– gelten können, ist zu verstehen. Gerade deshalb muss diskutiert und<br />

analysiert werden, um die für die jeweilige Aufgabenstellung passendste<br />

Lösung zu finden.<br />

Zielgruppe<br />

Der Leitfaden richtet sich an sämtliche Parteien, die mit der Anwendung<br />

der Maschinenrichtlinie befasst sind, unter anderem Hersteller,<br />

Importeure und Händler von Maschinen, notifizierte Stellen, Normungsgremien,<br />

Agenturen für Sicherheit und Gesundheitsschutz am<br />

Arbeitsplatz sowie für Verbraucherschutz, ferner Vertreter der zuständigen<br />

nationalen Verwaltungs- und Marktüberwachungsbehörden. Außerdem<br />

ist er für Juristen und für Studierende des EU-Rechts in den Bereichen<br />

Binnenmarkt, Sicherheit und Gesundheitsschutz am Arbeitsplatz<br />

und Verbraucherschutz von Interesse.<br />

Redaktionsteam<br />

Während der Erörterung der überarbeiteten Maschinenrichtlinie im<br />

Rat und im Europäischen Parlament erklärte sich die Kommission bereit,<br />

einen neuen Leitfaden für die Anwendung dieser Richtlinie zu<br />

erarbeiten.<br />

Dieser Leitfaden wurde unter Mitwirkung einer europäischen Redaktionsgruppe<br />

erstellt. Parallel zur Arbeit der Redaktionsgruppe steuerte<br />

eine Kernarbeitsgruppe „Maschinen“, die von ORGALIME eingesetzt<br />

worden war und der Vertreter der wichtigsten Branchen des Maschinenbaus<br />

angehörten, wichtige Beiträge der Industrie zu diesem Leitfaden<br />

bei. Die Entwurfsfassungen der Redaktionsgruppe wurden den<br />

Mitgliedstaaten und Interessengruppen zur Stellungnahme vorgelegt.<br />

Inhalte<br />

Der Vortrag kann nicht alle Inhalte des Leitfadens zur Maschinenrichtlinie<br />

2006/42/EC vorstellen, dazu ist der Umfang mit über 430 Seiten<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

327


Gesetze, Normen, Richtlinien<br />

zu groß. Der Vortrag wird aber die Basis dazu bilden, den Leitfaden<br />

korrekt lesen und interpretieren zu können – um ihn anschließend<br />

korrekt verwenden zu können. Dazu werden folgende Themenbereiche<br />

angesprochen:<br />

−−<br />

Zweck des Leitfadens zur Maschinenrichtlinie<br />

− − „Rechtliche“ Relevanz<br />

−−<br />

Erstellungsprozess und Erstellungsteam<br />

−−<br />

Aufbau und Struktur des Leitfadens<br />

−−<br />

Inhalte und Beispiele<br />

−−<br />

Deutsche Übersetzung<br />

−−<br />

Wie geht es weiter?<br />

Struktur<br />

Der Leitfaden zur Maschinenrichtlinie 2006/42/EG lehnt sich strukturell<br />

an die Abfolge der Maschinenrichtlinie an. Er greift einzelne Abschnitte,<br />

Sinneinheiten oder auch einzelne Begriffe auf und erklärt, verdeutlicht<br />

oder ergänzt die Sichtweise der Autoren der Richtlinie. Die erklärenden<br />

Texte stellen auch thematische Querverbindungen zu anderen Teilen<br />

der Maschinenrichtline oder auch innerhalb des Leitfadens her. Es ergibt<br />

sich daraus eine sehr starke Vernetzung der Inhalte, die sich durch<br />

bloßes Lesen der Maschinenrichtlinie so nicht – oder nur für versierte<br />

Verwender – herstellen lässt.<br />

Beispiele<br />

Anhand einer Sammlung von Beispielen verdeutlicht der Vortrag die<br />

Struktur und die Vorgehensweise des Leitfadens. Der Richtlinientext<br />

wird im Zusammenhang mit den Texten des Leitfadens dargestellt. Ergänzend<br />

dazu werden auch beispielhaft Folgerungen aus den einzelnen<br />

Leitfadentexten gezogen – die dann als eigentliche Lösungsansätze und<br />

Ergebnisse aus den Inhalten des Leitfadens gelten können.<br />

Deutsche Übersetzung<br />

Nach einer langen Wartezeit, in der der Leitfaden nur in englischer<br />

Sprache vorlag, ist jetzt die deutsche Übersetzung auf dem Markt. Sicher<br />

erschließt diese Übersetzung einen zusätzlichen Leserkreis und<br />

verdeutlicht die Begrifflichkeit der englischen Texte. Als Empfehlung<br />

kann aber gegeben werden, was für alle Übersetzungen gilt: In Zweifelsfällen<br />

den englischen Originaltext mit in die Entscheidungen einzubeziehen.<br />

Diese Empfehlung spricht auch die Kommission aus, da nur<br />

die englische Fassung von der Kommission geprüft wird.<br />

Fazit<br />

Mit der Erstellung des Leitfadens zur Maschinenrichtlinie und gerade<br />

auch mit der deutschen Übersetzung hat die Maschinenrichtlinie eine<br />

neue Aufmerksamkeit erreicht. Getroffene Entscheidungen wurden<br />

revidiert oder Entscheidungen erst auf Basis des Leitfadens, oft nach<br />

kontroverser Diskussion, getroffen. Beide Vorgehensweisen tragen zur<br />

Sicherheit der Maschinen bei – und damit ist die ursprüngliche Zielsetzung<br />

der Maschinenrichtlinie 2006/42/EG in einem hohen Maße<br />

erreicht.<br />

für Rückfragen: g.lierheimer@sl-i.de<br />

328<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

NORM 7<br />

Podiumsdiskussion<br />

Podiumsdiskussion:<br />

Technische Redaktion als Normenstelle?<br />

Moderation: Matthias Schulz, ProfiServices, Erkelenz<br />

Die Bedeutung gesetzlicher Anforderungen und Normen für die Erstellung<br />

Technischer Dokumentationen nimmt weiterhin zu. Gleichzeitig<br />

steigt das Bewusstsein für die Bedeutung der Produktsicherheit in weiten<br />

Teilen des Apparate- und Maschinenbaus. Oftmals wird die Menge<br />

verschiedener Vorschriften und Normen als kaum beherrschbare „Flut“<br />

wahrgenommen. Die Unternehmen reagieren darauf sehr unterschiedlich.<br />

Einige gehen organisiert an Rechts- und Normenrecherche heran<br />

und sorgen dafür, dass sog. „Compliance“ mit den Regeln unternehmensweit<br />

erreicht wird. Andere laufen der Entwicklung permanent hinterher,<br />

weil im Unternehmen niemand ausdrücklich die Verantwortung<br />

für die Aktualisierung, Verteilung und Umsetzung von Regeln trägt.<br />

Auf dem Hintergrund von Begriffen wie „Dokumentationsverantwortlicher“<br />

und „CE-Bevollmächtigter“ sind in den letzten Jahren immer<br />

häufiger Redaktionsabteilungen in die Rolle geschlüpft, die früher einer<br />

Normenstelle zugedacht war. Technische Redakteure sind heute oft aufgefordert,<br />

nicht nur die Gesetzestexte und Normen zu beschaffen und<br />

aktuell zu halten, sondern man überträgt ihnen auch Umsetzungsmaßnahmen,<br />

wie z. B. die Risikobeurteilung, Konformitätsnachweise, die<br />

Kommunikation mit Prüf- und Zertifizierungsstellen usw.<br />

Damit einzelne Redakteure oder Redaktionsabteilungen solchen Aufgaben<br />

gewachsen sind und sie erfolgreich meistern können, müssen verschiedene<br />

Voraussetzungen geschaffen werden:<br />

Personell:<br />

−−<br />

Es muss sichergestellt sein, dass die mit Normenrecherche und -verwaltung<br />

beschäftigten Personen fachlich hinreichend qualifiziert<br />

sind, z. B. bezüglich des Aufbaus, Einordnung, Auslegung von Normen.<br />

−−<br />

Wer Risikobeurteilungen moderieren oder mit durchführen soll,<br />

sollte nicht nur eine solide Methodenkenntnis haben (Welche Methoden<br />

eignen sich wozu am besten und wie werden diese eingesetzt?),<br />

sondern sollte auch über fachliches Know-how bezüglich der geforderten<br />

Sicherheitsmaßnahmen verfügen.<br />

Infrastrukturell:<br />

−−<br />

Recherche, Verwaltung, Aktualisierung und Verteilung von Normen<br />

oder speziell aufbereiteten Normeninhalten erfordert technische<br />

Hilfsmittel (z. B. eine Normendatenbank).<br />

−−<br />

Risikobeurteilungen sollten im Anlagenbau modular aufgebaut werden<br />

und sollten daher – vor allem bei häufiger Notwendigkeit neuer<br />

Risikobeurteilungen – datenbankgestützt erstellt und verwaltet werden.<br />

Da besonders kleinere und mittelständische Unternehmen des Maschinenbaus<br />

dieser Entwicklung permanent hinterherhängen, während sie<br />

gleichzeitig an der Auslastungsgrenze operieren, ist die Qualifizierung<br />

des Personals eine der größten Herausforderungen auf diesem Gebiet.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

329


Gesetze, Normen, Richtlinien<br />

Rechts- und<br />

Normenmanagement<br />

in der Dokuabteilung –<br />

Chance oder Last?<br />

In größeren Unternehmen mausert sich „Compliance“ vom Außenseiterthema<br />

zur Modeerscheinung, in die personell und materiell immer<br />

größerer Aufwand investiert wird. Hier stellt sich die Frage, inwieweit<br />

ein firmenweiter „Compliance“-Ansatz für mittelständische Unternehmen<br />

erforderlich und sinnvoll ist.<br />

Während der Podiumsversanstaltung diskutieren Matthias Schulz<br />

(ProfiServices, Erkelenz), Reno Sprater (Dräger Medical, Lübeck) und<br />

weitere Teilnehmer aus Unternehmen unterschiedlicher Branchen und<br />

Größen über die aktuelle Situation, erfolgreiche Konzepte, gescheiterte<br />

Ansätze und die Chancen für Technische Redaktionen. Im Kern geht<br />

es um die Frage, ob zusätzliche Aufgaben im Bereich „Compliance“ und<br />

„Normenmanagement“ für Technische Redaktionen eine Chance darstellen<br />

oder nur eine Last sind. Handelt es sich um einen Irrweg oder<br />

eine sinnvolle Ausweitung/Ergänzung ihres Tätigkeitsfeldes?<br />

Konkret sollen Fragen und Erfahrungen wie die folgenden diskutiert<br />

werden:<br />

−−<br />

Wie funktioniert Normenmanagement in größeren Unternehmen, im<br />

Mittelstand und in Kleinunternehmen?<br />

−−<br />

Ist es für Technische Redakteure überhaupt sinnvoll, solche Aufgaben<br />

zu übernehmen?<br />

−−<br />

Wenn ja, welche Voraussetzungen sind für eine professionelle Umsetzung<br />

erforderlich?<br />

−−<br />

Welche Recherchewerkzeuge werden benutzt und wie verteilt man<br />

die Informationen im Unternehmen? Ist eine spezielle Aufbereitung<br />

erforderlich?<br />

−−<br />

Gibt es hausinterne Schulungsmaßnahmen zu den gesetzlichen Anforderungen<br />

an die Produktsicherheit, interne Dokumentation und<br />

Benutzerinformation? Was ist auf diesem Gebiet erforderlich?<br />

−−<br />

Wie sieht das typische/ideale Mitarbeiterprofil für einen „Normenmanager“<br />

aus?<br />

Nach kurzen Einführungsreferaten möchten die Moderatoren des Podiums<br />

die Erfahrungen und Fragen der Zuhörer diskutieren und zu<br />

einem Erfahrungstausch anregen.<br />

für Rückfragen: mschulz@profiservices.de<br />

330<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Gesetze, Normen, Richtlinien<br />

NORM 8<br />

Workshop<br />

Aufbau eines CE-Managementsystems<br />

Volker Krey, Freier Berater + Trainer, Kassel<br />

Was spricht für ein<br />

CE-Managementsystem?<br />

Normenreihe der<br />

ISO 9000 heranziehen<br />

Grundlegende Anmerkungen zu einem CE-Managementsystem<br />

Fast 30 EG-Richtlinien zur CE-Kennzeichnung gibt es mittlerweile –<br />

diese gesetzlichen Vorschriften nennen vor allem Sicherheitsanforderungen<br />

für Produkte, die auf dem Markt bereitgestellt werden sollen.<br />

Somit sind bei der praktischen Umsetzung der CE-Kennzeichnung in<br />

den Unternehmen zunächst einmal umfangreiche Informationen aus<br />

den jeweils anzuwendenden CE-Richtlinien zu beachten. Aber: das alleine<br />

bringt noch keine effiziente Umsetzung zustande – denn die Anforderungen<br />

der CE-Richtlinien sind überwiegend abstrakt formuliert,<br />

so dass Unternehmen die für sie passenden konkreten CE-Maßnahmen<br />

selbst zu entwickeln und zu gestalten haben, wobei diese Maßnahmen<br />

auch im Zusammenhang aufeinander abgestimmt und in die betrieblichen<br />

Abläufe eingebunden werden sollten.<br />

Für diese organisatorische Aufgabe ist zu empfehlen, die erforderlichen<br />

CE-Maßnahmen systematisch in einem CE-Managementsystem<br />

zusammenzufassen.<br />

In vielen Unternehmen wird die Umsetzung der CE-Maßnahmen auch<br />

mit Veränderungen in den Geschäftsprozessen verbunden sein – das<br />

heißt: betriebliche Prozesse sind neu auszurichten.<br />

Da auch die weitverbreitete Normenreihe der ISO 9000 mit ihrem prozessorientierten<br />

Ansatz darauf ausgerichtet ist, betriebliche Prozesse zu<br />

optimieren, ist es naheliegend, danach zu fragen, inwieweit die Organisation<br />

der CE-Maßnahmen konform zur Normenreihe der ISO 9000<br />

erfolgen kann, so dass ein CE-Managementsystem entsteht, das:<br />

−−<br />

einerseits leicht in ein bestehendes Qualitätsmanagementsystem<br />

einzubinden ist oder<br />

−−<br />

andererseits die Grundlage für ein zukünftiges Qualitätsmanagementsystem<br />

bildet.<br />

Darüber hinaus ergeben sich auch von der Norm DIN EN ISO 9001:2008<br />

unmittelbare Verbindungen zu den CE-Maßnahmen – insbesondere sei<br />

hier der Punkt 5.1 erwähnt, wonach die oberste Leitung nachzuweisen<br />

hat, dass die rechtlichen Anforderungen ermittelt und erfüllt werden,<br />

was ohne Frage CE-Maßnahmen mit einschließt.<br />

Systematischer Aufbau eines CE-Managementsystems<br />

Zum Aufbau eines CE-Managementsystems wird im Workshop ein systematisches<br />

Vorgehen in 4 Schritten vorgestellt:<br />

1. Betrachteten CE-Kontext festlegen<br />

2. Bisherige CE-Maßnahmen erfassen<br />

3. Zukünftige CE-Maßnahmen entwickeln<br />

4. Zukünftige CE-Maßnahmen gestalten<br />

Weiterhin wird bei der Bearbeitung dieser Schritte ein CE-Praxisleitfaden<br />

zugrunde gelegt, in dem alle erforderlichen CE-Maßnahmen handlungsorientierend<br />

zusammengefasst sind.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

331


Gesetze, Normen, Richtlinien<br />

1 Betrachteten<br />

CE‐Kontext festlegen<br />

2 Bisherige<br />

CE‐Maßnahmen erfassen<br />

3 Zukünftige<br />

CE‐Maßnahmen<br />

entwickeln<br />

4 Zukünftige<br />

CE‐Maßnahmen<br />

gestalten<br />

Zunächst geht es darum, sich einen ersten Überblick zum Kontext der<br />

CE-Kennzeichnung zu verschaffen, in den das Unternehmen eingebunden<br />

ist. Es ist also zu fragen, wer beteiligt ist: im eigenen Unternehmen,<br />

bei den Lieferanten, bei den Kunden, Prüfstellen, Behörden, ...?<br />

Jetzt ist zu klären, welche CE-Maßnahmen das Unternehmen – insgesamt<br />

– bisher umsetzt; dabei sind ggf. auch noch nicht durchgeführte<br />

Maßnahmen zu beachten. Auf dieser Grundlage ist eine klare Entscheidung<br />

herbeizuführen, ob man die bisherige Ist-Situation verändern will<br />

und welche Ziele erreicht werden sollen.<br />

Will man also die CE-Kennzeichnung neu ausrichten, so sind nun alle<br />

zukünftig denkbaren CE-Maßnahmen zu ermitteln, wobei man alternative<br />

Maßnahmen in verschiedenen Lösungsvarianten zusammenfassen<br />

sollte, sodass eine Entscheidung für eine Gesamtlösung von aufeinander<br />

abgestimmten Einzelmaßnahmen herbeigeführt werden kann.<br />

Und schließlich sind die CE-Maßnahmen der festgelegten Gesamtlösung<br />

noch weiter zu konkretisieren sowie in die betrieblichen Abläufe<br />

einzubinden. Dabei können die Maßnahmen weiterhin auf die relevanten<br />

Anforderungen der ISO 9001 abgestimmt und entsprechend dokumentiert<br />

werden, sodass ein zertifizierungsfähiges CE-Managementsystem<br />

entsteht.<br />

Im Workshop werden diese vier Schritte mit Hilfe einer Arbeitsvorlage<br />

tiefer gehend behandelt.<br />

Für Rückfragen: info@volker-krey.de<br />

332<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards


Offene technische Standards<br />

OTS 1<br />

Fachvortrag<br />

XML – Standard oder proprietär?<br />

Ulrich Pelster, gds AG, Sassenberg<br />

XML ist das Datenformat von heute und morgen. Die Übersetzung „Erweiterbare<br />

Auszeichnungssprache“ macht deutlich, was das Ziel von<br />

XML ist: Ein standardisiertes, austauschbares Inhalts- und Strukturformat,<br />

das für individuelle Bedürfnisse erweitert werden kann. Aber führt<br />

das denn nicht zu einem Widerspruch? Ist durch eine individuelle Festlegung<br />

das Ergebnis am Ende nicht proprietär?<br />

Wer mit der Erstellung und Pflege strukturierter Inhalte zu tun hat,<br />

kommt um XML nicht herum. D. h. aber nicht zwangsläufig, dass man<br />

sich tiefgreifend mit XML auseinandersetzen oder gar auf geschätzte<br />

Arbeitsweisen, wie z. B. das Arbeiten im WYSIWYG, verzichten muss.<br />

Bei der Entwicklung von Prozessen steht die Sicherstellung von zukunftsorientierten,<br />

effizienten Lösungen im Vordergrund. Dies gilt vor<br />

allem in Verbindung mit Redaktionssystemen. Hier ist das Thema XML<br />

inzwischen gesetzt. Doch herrscht gerade in diesem Bereich eine große<br />

Verunsicherung. Funktional liegen die führenden Systeme gar nicht so<br />

weit auseinander, wie oftmals vermutet, ganz im Gegenteil. Jedoch liegen<br />

ihnen unterschiedliche Verfahrensweisen und Konzepte zugrunde,<br />

die zu unterschiedlichen Systemerscheinungen führen und damit letztlich<br />

auch unterschiedliche Zielgruppen ansprechen.<br />

Es soll erläutert werden, wie sich zwei unterschiedliche XML-basierte<br />

Verfahren darstellen und wo die Vor- und Nachteile liegen. Eine Unterscheidung<br />

der Verfahren kann man durch die Bezeichnung „offenes<br />

XML“ und „standardisiertes XML“ treffen.<br />

„Offenes XML“<br />

Mit der in diesem Beitrag als „offenes XML“ bezeichneten Verfahrensweise<br />

ist die individuell änderbare und die damit meist herstellerbezogene<br />

Vorfestlegung von Inhalts- und Strukturformaten gemeint.<br />

Diese Vorfestlegungen sind Einschränkungen, die in einer DTD (Document<br />

Type Definition) oder einem XML-Schema definiert werden,<br />

wo also der Aufbau der Dokumente festgelegt wird. Praktisch bedeutet<br />

diese Festlegung auch immer eine Einschränkung der strukturellen<br />

Möglichkeiten, die XML generell bietet.<br />

Die Bezeichnung „offenes XML“ bringt zum Ausdruck, dass die Festlegungen<br />

beliebig sind. Da aber ohne Festlegung kein Dokument erfasst<br />

werden kann, sind die Lösungen in der Regel firmenindividuell oder<br />

herstellerspezifisch. Einher mit dem Begriff „offen“ geht also auch der<br />

Begriff „proprietär“, weil konkrete Umsetzungen keinem festgelegten<br />

Standard entsprechen.<br />

Erfasst werden solche XML-Daten meist in „getaggter Darstellung“,<br />

d. h., der Text und die zugehörigen Strukturelemente werden im XML-<br />

Editor als XML-Tags dargestellt. Klassische Editoren sind bspw. XMetaL<br />

oder XMLSpy.<br />

Eine Sicherheitsinformation könnte in einer offenen XML-Struktur so<br />

aussehen:<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

335


Offene technische Standards<br />

Um die Publikationen, die in der Regel als PDF-Dokument oder im<br />

HTML-Format benötigt werden, zu generieren, sind Konvertierungen<br />

der XML-Daten erforderlich. Diese „Transformationen“ werden mittels<br />

Transformationssprachen wie zum Beispiel XSLT definiert.<br />

„Standardisiertes XML“<br />

Neben den offenen XML-Strukturen existieren auch unterschiedliche<br />

Ansätze, die „proprietäre Lage“ durch standardisiertes XML zu umgehen.<br />

Wird XML als Basis genutzt, um daraus ein standardisiertes Austauschformat<br />

zu definieren, kann in diesem Zusammenhang von „standardisiertem<br />

XML“ gesprochen werden.<br />

Während sich Verfahren wie DocBook und DITA dabei auf eine Buchoder<br />

Topic-orientierte Struktur konzentrieren (und dabei den Freiheitsgrad<br />

wiederum eingrenzen), gehen andere Standardisierungsansätze<br />

ungleich weiter. Sie berücksichtigen neben einer möglichst weitreichenden<br />

Abdeckung beliebiger Strukturen auch zusätzlich die XML-Darstellung<br />

aller denkbaren Formatierungsaspekte.<br />

Für den Bereich der Technischen Dokumentation sind hier als relevante<br />

Formate ODF und Open XML zu nennen. Beide Formate sind als<br />

internationale Normen veröffentlicht.<br />

Anders als bei der Erfassung „offener XML-Daten“ erfolgt die Verarbeitung<br />

von Daten mithilfe von Office-Lösungen wie Open Office (ODF)<br />

oder Microsoft Word (OpenXML). Die Festlegung von Layout und Struktur<br />

ist hier integriert und erfolgt nicht über eine DTD oder ein Schema.<br />

336<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

Hierzu werden Templates genutzt, in denen Dokumenteneigenschaften,<br />

Layouts und Strukturen definiert werden. Weiterhin kann mithilfe dieser<br />

Templates die Arbeitsumgebung anwendungsspezifisch eingerichtet<br />

werden.<br />

Die Publikation der auf „standardisiertem XML“ basierenden Inhalte<br />

erfolgt über Standardverfahren, die häufig Editor-seitig ablaufen.<br />

Welches XML für welche Anwendung?<br />

Beide dargestellten Ansätze besitzen ihre Berechtigung und aufgrund<br />

der unterschiedlichen Anforderungen und Konzepte kann das eine oder<br />

das andere Verfahren sinnvoll sein.<br />

Der wesentliche Unterschied bei der Arbeitsweise stellt sich durch<br />

die Validierung der Inhalte gegen die in der DTD bzw. dem Schema<br />

definierten Festlegungen dar. Bei Redaktionssystemen mit offenem<br />

XML-Verfahren wird bei der Erfassung von Daten deren Inhalt auf<br />

Einhaltung der Strukturfestlegungen geprüft. Durch die erzwungene<br />

Einhaltung werden konsistente Strukturen sichergestellt.<br />

Dem Technischen Redakteur sind damit aber auch sämtliche Freiheiten,<br />

die zu Abweichungen der Festlegungen führen würden, genommen.<br />

Aufgrund von sich ändernden Produkttypen, Regelwerken und<br />

Richtlinien sind somit regelmäßige Änderungen bzw. Erweiterungen<br />

der Struktur unumgänglich. Hieraus resultieren dann häufig DTD- bzw.<br />

Schema-Anpassungen, die in aller Regel nicht vom Anwender selbst<br />

durchgeführt werden können.<br />

Bei Redaktionssystemen auf Basis „standardisierter XML-Verfahren“<br />

erfolgt keine Validierung gegen eine DTD bzw. ein Schema. Allerdings<br />

können Strukturprüfungen und eine restriktive Erfassung von Inhalten<br />

mit Programmfunktionalitäten abgedeckt werden. Anpassungen<br />

von definierten Festlegungen und Layouts kann der Anwender selbst<br />

vornehmen.<br />

Grundlegend kann man sagen, dass die eher stringente und starre Arbeitsweise<br />

in Verbindung mit dem „offenen XML-Verfahren“ den Großkonzernen,<br />

bei denen eine Vielzahl von Redakteuren und Dienstleistern<br />

mit der Erstellung von Technischer Dokumentation beschäftigt ist,<br />

entgegenkommt.<br />

Ist hingegen Flexibilität und Dynamik gefragt, wie es häufig bei mittelständischen<br />

Unternehmen der Fall ist, bietet das „standardisierte XML-<br />

Verfahren“ deutliche Vorteile.<br />

für Rückfragen: ulrich.pelster@gds.eu<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

337


Offene technische Standards<br />

OTS 2<br />

Fachvortrag<br />

TBX – ein Standard für den Austausch<br />

terminologischer Daten: Anforderungen,<br />

Probleme, Verbesserungen<br />

Klaus-Dirk Schmitz, Fachhochschule Köln<br />

Die Erarbeitung konsistenter und zuverlässiger Terminologie ist zeitaufwändig<br />

und kostenintensiv. Deshalb wird eine möglichst häufige<br />

Wiederverwendung der Daten angestrebt, die aber nur durch einen<br />

Austausch terminologischer Daten zwischen unterschiedlichen Terminologieverwaltungssystemen<br />

geschehen kann.<br />

Auch im Zusammenspiel zwischen Auftraggebern, Sprachdienstleistern<br />

und Freiberuflern ist die Weitergabe terminologischer Daten in beide<br />

Richtungen durchaus üblich. Unternehmen stellen ihre Terminologie<br />

für den Übersetzungs prozess zur Verfügung und Übersetzer geben<br />

aktualisierte Terminologiebestände wieder zurück. Besonders die Einhaltung<br />

konsistenter Terminologieverwendung in größeren Projekten,<br />

an denen mehrere Parteien beteiligt sind, kann nur dann sichergestellt<br />

werden, wenn alle auf die gleiche Terminologie zugreifen können; unterschiedliche<br />

Terminologiewerkzeuge und individuelle Modellierungen<br />

von Terminologiebeständen erschweren aber den verlustfreien und<br />

konsistenten Austausch von terminologischen Daten.<br />

Als letztes wichtiges Szenario für den Austausch terminologischer Daten<br />

muss noch die Migration von Terminologie von einem System auf<br />

ein anderes genannt werden. Dies kann notwendig werden, wenn ein<br />

Anwender von einem Terminologiever waltungssystem auf ein System<br />

eines anderen Herstellers umsteigt, aber auch, wenn terminologische<br />

Daten in anderen Programmen wie z. B. Content-Management-Systemen<br />

oder (regelbasierten) Maschinellen Übersetzungssystemen oder<br />

auch in anderen Formaten wie z. B. HTML oder XML gebraucht werden.<br />

Anforderungen<br />

Will man terminologische Daten zwischen zwei bestimmten Systemen<br />

austauschen oder Daten aus einem System für eine andere Anwendung<br />

nutzen, so müssen normalerweise individuelle Konvertierungsroutinen<br />

entwickelt werden. Hierzu ist es einerseits erforderlich, die individuellen<br />

Export- und Importformate der beteiligten Systeme zu kennen und<br />

in den Konvertierungen zu berücksichtigen; andererseits muss man<br />

aber auch die „Semantik“ der Datenkategorien und der Datenmodelle<br />

der beiden beteiligten Systeme richtig interpretieren.<br />

Sind mehrere Systeme am Austausch terminologischer Daten beteiligt,<br />

so erhöht sich sehr schnell die Anzahl der notwendigen Konvertierungsroutinen.<br />

Deshalb möchte man gerne auf genormte Austauschformate<br />

zurückgreifen, wobei jedes der beteiligten Terminologieverwaltungssysteme<br />

„nur“ einen Import von Daten aus dem genormten<br />

Austauschformat und „nur“ einen Export in das genormte Austauschformat<br />

bereitstellen muss.<br />

Eines der bekanntesten und oft bereitgestellten Formate für den Datenaustausch<br />

ist das CSV-Format (comma-separated values). Bei diesem<br />

Format werden Informationen durch Kommata oder Tabulatoren und<br />

338<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

Datensätze durch Returns oder Absatzmarken getrennt. Auch wenn die<br />

einzelnen Daten in der Regel sauber voneinander getrennt werden, so<br />

ist doch die Bedeutung und Interpretation der einzelnen Daten unklar<br />

und nicht im Format abgelegt.<br />

Abb. 1: Daten einer spezifischen MultiTerm 2011-Termbank<br />

im CSV-Format<br />

Die Verwendung einer Auszeichnungssprache wie XML (extensible<br />

markup language) umgeht genau diese Problematik. Einer Information<br />

kann nicht nur durch die Markierung mit einem sog. Tag eine Bedeutung<br />

mitgegeben werden, auch die Gruppierung und Zuordnung von<br />

Daten wird mittels XML eindeutig festgelegt.<br />

TBX<br />

Will man jetzt ein genormtes Austauschformat definieren, so muss man<br />

eigentlich nur noch die XML-Auszeichnungselemente in den spitzen<br />

Klammern, die Tags, standardisieren und festlegen, auf welcher Ebene<br />

des Formats diese Elemente auftreten können. Genau dies macht das in<br />

der ISO 30042 (2008) festgelegte Austauschformat TBX (TermBase eXchange).<br />

TBX nutzt das in der ISO 16642 (2003) definierte terminologische<br />

Meta-Modell für die Ebenen und Strukturelemente der XML-Datei<br />

und die in ISOCAT (www.isocat.org) spezifizierten Datenkategorien für<br />

die Auszeichnung der einzelnen Informationswerte.<br />

Abbildung 2 zeigt sehr vereinfacht einen Ausschnitt aus einem terminologischen<br />

Eintrag in TBX.<br />

Abb. 2: vereinfachter Auszug aus einer TBX-Datei<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

339


Offene technische Standards<br />

Zwei grundsätzliche Probleme bei TBX<br />

TBX versucht bei sogenannten geschlossenen Datenkategorien auch<br />

die Werte, die auftreten können, als einfache Datenkategorien festzulegen.<br />

Das mag bei bestimmten Datenkategorien wie Genus zuverlässig<br />

funktionieren (Genus = m., f. oder n.), bei anderen wiederum auch noch<br />

ganz gut möglich sein (der Bearbeitungsstatus kann in unterschiedlichen<br />

Umgebungen unterschiedliche Werte erfordern), muss aber bei<br />

bestimmten Kategorien wie Fachgebiet zum Scheitern verurteilt sein, da<br />

sich keine Fachgebietsklassifikation finden lässt, die allen Bedürfnissen<br />

gerecht werden kann. Deshalb kann ein vollkommen „blinder“ Datenaustausch<br />

mit TBX nicht für alle Datenkategorien sichergestellt werden,<br />

da TBX z. B. keine Werte für die Datenkategorie Fachgebiet spezifiziert.<br />

Idealerweise sollte dem Nutzer marktüblicher Terminologieverwaltungssysteme<br />

seitens des Systemherstellers eine Import- und Exportfunktion<br />

für TBX bereitgestellt werden. Dies ist aber nur dann möglich,<br />

wenn das Terminologiever waltungssystem eine fest vorgegebene Eintragsstruktur<br />

mit festgelegten Daten kategorien hat; nur in diesem Fall<br />

kennt der Systementwickler die Semantik der Datenkategorien und<br />

kann sie adäquat in TBX abbilden. Hat man aber Terminologieverwaltungssysteme,<br />

bei denen der Nutzer die Datenmodellierung selbst vornehmen<br />

muss/kann (z. B. MultiTerm) oder eine vorgeschlagene Datenmodellierung<br />

modifizieren kann (z. B. bei cross-Term, qTerm oder auch<br />

TermStar), so kann der Systementwickler keine saubere TBX-Schnittstelle<br />

bereitstellen, da er die Bedeutung der vom Benutzer angelegten<br />

Datenkategorien nicht kennen kann. In diesen Fällen kann entweder<br />

nur ein spezielles Mapping-Tool helfen, durch das der Nutzer seine<br />

eigenen Datenkategorien auf die genormten ISOCAT-Datenkategorien<br />

abbildet (mappt), oder der Nutzer orientiert sich gleich beim Anlegen<br />

oder Modifizieren von Termbanken an den genormten Datenkategorien<br />

in ISOCAT.<br />

Fazit<br />

Auch wenn derzeit an einer Aktualisierung der TBX-Norm gearbeitet<br />

wird, können grundsätzlich nicht alle Probleme eines sauberen Terminologieaustauschs<br />

durch eine Norm gelöst werden. Hilfreich ist es in<br />

jedem Fall, seine eigene Terminologieverwaltung unter Berücksichtigung<br />

einschlägiger Normen zu konzipieren und die Daten entsprechend<br />

einzupflegen. Nur so kann ein Austausch terminologischer Daten vernünftig<br />

und verlustfrei funktionieren.<br />

Bibliographie<br />

ISO 12620 (2009). Terminology and other language and content resources<br />

– Specification of data categories and management of a Data Category<br />

Registry for language resources. Genf: ISO.<br />

ISO 16642 (2003). Computer applications in terminology – Terminological<br />

markup framework. Genf: ISO.<br />

ISO 30042 (2008). Systems to manage terminology, knowledge and content<br />

– TermBase eXchange (TBX). Genf: ISO.<br />

klaus.schmitz@fh-koeln.de<br />

340<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

OTS 3<br />

Fachvortrag<br />

3.0-Updates von XSLT und<br />

XPath auf einen Blick<br />

Dr. Thomas Meinike, Hochschule Merseburg<br />

Motivation<br />

Die 1999 vom W3C etablierte Transformationssprache XSLT gehört zu<br />

den ältesten und produktivsten Technologien im „XML-Universum“. Mit<br />

der 2007 erschienenen Version 2.0 wurden die Möglichkeiten wesentlich<br />

erweitert [1]. Fünf Jahre später stehen die 3.0-Spezifikationen von<br />

XSLT und der zum Zugriff auf XML-Strukturen und -Inhalte verwendeten<br />

Abfragesprache XPath sowie vom zusätzlich entwickelten XQuery<br />

vor der finalen Veröffentlichung. Die zum Entstehungszeitpunkt dieses<br />

Beitrages vorliegenden Arbeitsentwürfe [2–4] wurden zuletzt im Juli<br />

<strong>2012</strong> bzw. Dezember 2011 aktualisiert.<br />

Schwerpunkte<br />

An dieser Stelle wird nur ein formaler Überblick zu den wesentlichen<br />

Erweiterungen gegeben, da es sich insgesamt um eher kleinteilige und<br />

in der praktischen Anwendung codelastige Details handelt:<br />

−−<br />

Streaming soll vor allem die Arbeit mit sehr großen Ausgangsdokumenten<br />

verbessern. XML-Daten in der Größenordnung von mehreren<br />

hundert Megabytes oder gar Gigabytes bringen jeden noch so<br />

performanten Rechner schnell an seine Grenzen. Die Streaming-<br />

Technik erlaubt den sequenziellen Zugriff auf Teile des jeweiligen<br />

Dokuments. Dazu dienen die neuen XSLT-Elemente xsl:stream und<br />

xsl:iterate in Kombination mit xsl:next-iteration, xsl:break und xsl:oncompletion<br />

sowie xsl:fork und xsl:merge.<br />

−−<br />

Funktionen höherer Ordnung (Higher-Order Functions, HOF) ermöglichen<br />

die Nutzung von Funktionen als Parameter und / oder<br />

Rückgabewerte innerhalb eigener Funktionen. Zum Aufbau komplexerer<br />

Logik dienen die neuen XPath-Funktionen fn:filter, fn:fold-left,<br />

fn:fold-right, fn:map und fn:map-pairs.<br />

−−<br />

Informationen über (existierende) Funktionen und ihre Argumente<br />

lassen sich über fn:function-lookup, fn:function-name und<br />

fn:function-arity auswerten.<br />

−−<br />

Weitere neue Funktionen vereinfachen den selektiven Zugriff<br />

auf Knoten und Sequenzen: fn:head, fn:tail sowie fn:innermost,<br />

fn:outermost und fn:has-children. Diese lassen sich zwar auch durch<br />

andere Abfragen abbilden, sind jedoch bei passender Gelegenheit<br />

durchaus nützlich.<br />

−−<br />

Inline-Funktionen können direkt in Variablen vorgehalten und z. B.<br />

innerhalb von xsl:value-of wie vordefinierte oder mittels xsl:function<br />

deklarierte Funktionen aufgerufen werden. Die Erweiterungen zur<br />

funktionalen Programmierung erlauben ebenfalls das so genannte<br />

Currying.<br />

−−<br />

Im Kontext des Streamings, aber auch darüber hinaus, erscheint die<br />

in Aussicht gestellte Nutzung von Akkumulatoren sehr interessant.<br />

Mittels xsl:accumulator lassen sich während des Prozessierens Werte<br />

auf der Basis vorhergehender Schritte berechnen, ohne dafür separate<br />

Rekursionen schreiben zu müssen. Die Spezifikation enthält ein<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

341


Offene technische Standards<br />

für die Dokumentationspraxis taugliches Beispiel zur fortlaufenden<br />

Nummerierung von Abbildungen innerhalb eines Kapitels.<br />

−−<br />

Direktes Parsen und Serialisieren von XML- oder JSON-Daten wird<br />

durch die neuen Funktionen fn:parse-xml, fn:parse-xml-fragment,<br />

fn:parse-json, fn:serialize und fn:serialize-json vereinfacht.<br />

−−<br />

Maps stellen einen neuen Datentyp zur Verfügung, der die Ablage<br />

von Informationen vergleichbar mit assoziativen Arrays in anderen<br />

Sprachen erlaubt (Key-/Value-Paare). Neben dem Konstruktor map<br />

{…} existieren spezielle Funktionen mit map-Namensraumpräfix wie<br />

u. a. map:get und map:remove.<br />

−−<br />

Mathematische Funktionen: Bisher war Numerik auf die Grundrechenarten<br />

beschränkt, die prinzipiell auch zur Formulierung komplexerer<br />

Algorithmen ausreichen (siehe die Umsetzung von Sinus<br />

und Cosinus unter [1]). Nun sind 14 Funktionen mit math-Präfix zur<br />

komfortablen Ermittlung von Exponential-, Logarithmus-, Wurzelund<br />

Winkelfunktionswerten vordefiniert. So lassen sich beispielsweise<br />

der Sinus von 1 (Argument im Bogenmaß) über math:sin(1)<br />

= 0.479425538604203 und die Potenz 2^5 als math:pow(2,5) = 32 berechnen.<br />

−−<br />

XPath-Abfragen auf konkrete Knoten können mit xsl:evaluate dynamisch<br />

aus Zeichenketten konstruiert werden.<br />

−−<br />

Zur erweiterten Fehlerbehandlung dienen die neuen XSLT-Elemente<br />

xsl:try, xsl:catch und xsl:fallback.<br />

−−<br />

Den Zugriff auf Umgebungsvariablen des zugrunde liegenden Betriebssystems<br />

und darauf laufenden Anwendungen gestatten die<br />

Funktionen fn:environment-variable und fn:available-environmentvariables<br />

(etwa nützlich für die Abfrage temporärer Verzeichnisse wie<br />

TEMP oder TMP).<br />

−−<br />

Mit Paketen und Modulen sollen sich künftig umfangreiche Transformationen<br />

besser verwalten lassen. Dazu ergänzen xsl:package und<br />

weitere Elemente das bisherige Konzept der Einbindung externer<br />

Ressourcen über xsl:include bzw. xsl:import.<br />

−−<br />

Die bisherige, eher formale Unterscheidung von XSLT- bzw. XPath-<br />

Funktionen wird aufgehoben. Funktionen wie format-date, formatdateTime,<br />

format-time, format-number, generate-id, unparsed-text<br />

können ebenfalls mit dem fn-Präfix aufgerufen werden.<br />

−−<br />

An einigen Stellen wird Feinschliff sichtbar: xsl:copy erhält ein optionales<br />

select-Attribut, fn:unparsed-text-lines erleichtert den Umgang<br />

mit unstrukturierten Informationen wie CSV-Dateien (fn:unparsedtext<br />

aus XPath 2.0 benötigte noch die Angabe der systemabhängigen<br />

Zeilenumbruchnotation), inzeilige Zeichenkettenverknüpfung mit<br />

dem „||“-Operator, Ganzzahlformatierung mit fn:format-integer und<br />

mehr.<br />

−−<br />

Die neue Funktion fn:analyze-string gibt eine XML-Struktur zurück<br />

und ist eher für den Einsatz unter XQuery 3.0 konzipiert [4].<br />

342<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

Abb. 1: Prototypisches XSLT-3.0-Grundgerüst<br />

Insgesamt handelt es sich mehr um evolutionäre als revolutionäre Neuerungen.<br />

Für ambitionierte Entwickler dürfte aber längerfristig kein<br />

Weg an den 3.0-Versionen der genannten Technologien vorbeiführen.<br />

Abbildung 1 zeigt ein Grundgerüst mit den relevanten Namensräumen.<br />

Die Unterstützung durch Software ist noch unvollständig und hauptsächlich<br />

auf die kommerziellen Ausgaben des Prozessors Saxon 9.3/9.4<br />

beschränkt [5]. Letztere ist bereits in der aktuellen oXygen-Version<br />

14.0 integriert [6]. Im Vortrag werden die beschriebenen Facetten durch<br />

Codebeispiele untersetzt und praktisch demonstriert. Zur Vorbereitung<br />

wird das Studium der 2.0-Vortragsfolien empfohlen [1].<br />

Literaturangaben und Links<br />

[1] Meinike, T.: XSLT 2.0 und XPath 2.0 für Praktiker – Neuerungen im<br />

Überblick. In: <strong>tekom</strong>, Gesellschaft für technische Kommunikation e. V.,<br />

Tagungsband zur <strong>Jahrestagung</strong> 2007 in Wiesbaden, S. 212–215 (Folien<br />

unter http://www.<strong>tekom</strong>.de/upload/2284/INF_114_Meinike_Vortrag.pdf)<br />

[2] W3C: XSL Transformations (XSLT) Version 3.0,<br />

http://www.w3.org/TR/xslt-30/<br />

[3] W3C: XML Path Language (XPath) 3.0,<br />

http://www.w3.org/TR/xpath-30/<br />

[4] W3C: XPath and XQuery Functions and Operators 3.0,<br />

http://www.w3.org/TR/xpath-functions-30/<br />

[5] Saxon Product/Feature Matrix:<br />

http://www.saxonica.com/feature-matrix.html<br />

[6] XML Editor:<br />

http://www.oxygenxml.com/<br />

für Rückfragen: thomas.meinike@hs-merseburg.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

343


Offene technische Standards<br />

OTS 4<br />

Fachvortrag<br />

DITA für die multilinguale, modulare, multimodale<br />

Produktion von SAP-Lerninhalten<br />

Dr. Thilo Buchholz, SAP AG – Knowledge Productization Services, Walldorf<br />

Christian Lieske, SAP AG – SAP Language Services, Walldorf<br />

Überblick<br />

Seit Mitte 2011 setzt der Softwarehersteller SAP zur industrialisierten<br />

Produktion von Trainingsinhalten auf einen Ansatz, der auf der Darwin<br />

Information Typing Architecture (DITA) basiert. Der Ansatz sowie die<br />

ihn unterstützende technologische Plattform erlauben es, modulare Inhalte<br />

zu erstellen und gemäß Single Sourcing in verschiedenen Verwendungskontexten<br />

zu nutzen (z. B. sowohl als e-learning als auch als Präsenztraining).<br />

Im Folgenden werden Hintergründe des SAP-Ansatzes<br />

erläutert, das Implementierungsprojekt skizziert und der technologische<br />

Rahmen umrissen. Dabei wird auch auf die multilingualen Aspekte<br />

des Ansatzes eingegangen.<br />

Hintergrund zum SAP-Bildungsangebot<br />

Die SAP bietet über ihre Bildungssabteilung SAP Education vielfältige<br />

Möglichkeiten an, um Wissen aufzubauen. Momentan werden jährlich<br />

bis zu 300.000 Lernende in über 40 Ländern erreicht. Bereits seit 2001<br />

wird dabei für die Entwicklung von Lerninhalten auf die eXtensible<br />

Markup Language (XML) sowie einen Single-Sourcing-Ansatz gesetzt.<br />

Gegenwärtige Trends im Training im IT-/Software-Umfeld haben die<br />

SAP bewogen, das existierende Trainingsportfolio anzupassen. So führt<br />

die zunehmende Globalisierung sowohl dazu, Teile des Content-Entwicklungsprozesses<br />

an Partner auszulagern, als auch dazu, global produziertes<br />

Material zu übersetzen und zu lokalisieren.<br />

Die fortschreitende Standardisierung von Prozessen, Quell- sowie Ausgabemedien<br />

ermöglicht die Rekombination von Lernmodulen zu neuen<br />

Produkten. Dadurch wird die Individualisierung des Wissenserwerbs<br />

erleichtert. Der heutige Lerner erwartet im Sinne lebenslangen Lernens,<br />

dass er genau die Lerninhalte konsumieren kann, die er gerade<br />

braucht, und dass er auch genau dann auf die Inhalte zugreifen kann,<br />

wenn er sie braucht.<br />

Die Verfügbarkeit erschwinglicher mobiler Geräte wie z. B. Tablets oder<br />

Smartphones führt zu einer Mobilisierung des Wissenserwerbs.<br />

Ganzheitliches Innovationsprojekt<br />

Um die nötige Angebotserweiterung zu ermöglichen, startete SAP<br />

Knowledge Productization Services (KPS) – SAPs Produktionsabteilung<br />

für Trainings und Zertifizierungen – das Innovationsprojekt Multimodal,<br />

Modular Content Production (MMCP) zur industriellen, DITAbasierten<br />

modularen und multi-modalen Produktion von Lerninhalten.<br />

Ziel des MMCP-Projekts waren beschleunigte und kostengünstige Produktion,<br />

einfache Erweiterbarkeit auf neue Lernerfordernisse (z. B. auf<br />

mobilen Geräten) sowie verstärkte Berücksichtigung von Best Practices<br />

aus Didaktik, Produktion und Distribution.<br />

344<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

Diese anspruchsvollen Ziele wurden erreicht, indem das Projekt ganzheitlich<br />

methodologische Aspekte, Produktionsprozesse sowie unterstützende<br />

Werkzeuge und Infrastrukturen adressierte:<br />

−−<br />

Methodologische Aspekte: Es wird ein streng Lernziel-orientierter<br />

Ansatz gewählt, wobei die Analyse von Arbeitsaufgaben im Vordergrund<br />

steht. Somit reflektieren die Produkte diejenigen Aufgaben, die<br />

ein Mitarbeiter in einer bestimmten Rolle zu erfüllen hat, und befähigen<br />

den Mitarbeiter gerade dazu, diese Aufgaben zu erledigen. Dies<br />

wird erreicht durch eine Trennung des Designprozesses, basierend<br />

auf einer sogenannten Job-Task-Analyse, von der eigentlichen Erstellung<br />

der Materialien.<br />

−−<br />

Produktionsprozesse: Die eigentliche Erstellung der Inhalte wird<br />

durch ein semantisches Datenmodell (DITA) im Sinne der Aufgabenorientierung<br />

weitestgehend unterstützt. So stehen die prozeduralen<br />

Beschreibungen von Vorgehensweisen im SAP-System im Mittelpunkt<br />

und werden durch konzeptuelles Wissen angereichert. Somit<br />

erleichtert das Datenmodell vielfältige Wiederverwendung von Inhalten<br />

sowie die Berücksichtigung multilingualer Produktion und Self-<br />

Services für die Zusammenstellung von speziellen Präsenztrainings<br />

oder e-Learnings.<br />

−−<br />

Werkzeuge und Infrastrukturen: Die Integration von Partnern in den<br />

Content-Entwicklungsprozess wird ermöglicht durch Web-basierte<br />

Tools, die keine Installation erfordern. So können die Endbenutzer<br />

(z. B. Autoren) mit ihrer Hardware und ihrem Browser beispielsweise<br />

via Windows Terminal Server auf das Content-Management-System<br />

mit spezieller Funktionalität für modularisierte Inhalte zugreifen und<br />

unmittelbar mit der eigentlichen Erstellung der Inhalte beginnen.<br />

Technologischer Rahmen<br />

Bedingt durch die Produktionsrandbedingungen (z. B. DITA als Basis,<br />

Web-/Browser-basierte Werkzeuge, besondere Berücksichtigung von e-<br />

Learning, große Volumina, Unterstützung multilingualer Prozesse) fiel<br />

die Wahl der SAP auf technologische Komponenten, die von Implementierungspartnern<br />

für die SAP-Bedarfe miteinander verbunden wurden.<br />

So dient Alfresco Enterprise als Content-Management-System (CMS)<br />

und bietet die entsprechenden Features zur Dokumentenverwaltung.<br />

Innerhalb des CMS sorgt mit Componize ein zusätzliches Modul für die<br />

native Unterstützung von DITA, Metadaten-Verwaltung und Link-Management.<br />

Für die Aggregation von Modulen in DITA-maps wird Ditaworks,<br />

ein Tool der Firma Instinctools verwendet. Ditaworks integriert<br />

auch den eigentlichen XML-Editor. Hier findet SDL Xopus Verwendung.<br />

Zusätzlich wird die linguistische Qualität durch ein acrolinx Plug-in für<br />

SDL Xopus unterstützt. Die Ausgabeformate werden mittels Antenna<br />

House Formatter erzeugt. Die Schulungsinhalte werden durch verschiedenste<br />

Medien didaktisch angereichert. Hier findet z. B. der SAP Workforce<br />

Performance Builder zum Erstellen von interaktiven Simulationen<br />

und Demonstrationen Anwendung.<br />

Ein besonderer Aspekt der technologischen Arbeit war die sogenannte<br />

Migration existierender Inhalte. Dabei ging es darum, ca. 120 vorhandene<br />

Trainings – die in einem proprietären XML-Format existierten – in<br />

DITA zu überführen, gemäß den angepassten didaktischen Richtlinien<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

345


Offene technische Standards<br />

zu überarbeiten und in das neue Content-Management-System zu<br />

importieren.<br />

Multilinguale Dimensionen<br />

Da Lerninhalte übersetzt werden müssen, berücksichtigte das MMCP-<br />

Projekt frühzeitig die Produktion von Sprachvarianten. Der Fokus lag<br />

dabei auf denjenigen Geschäftsprozessschritten, für die aus technologischer<br />

Perspektive Implementationsbedarf bestand. Betroffene Bereiche<br />

waren die folgenden:<br />

−−<br />

Internationalisierung der DITA-basierten Produktion – Übersetzung<br />

von Standard-/Boilerplate-Texten (z. B. Phrasen wie „Am Ende dieser<br />

Übung …“ oder Urheberrechtsnotizen), Testen der Indexgenerierung,<br />

…<br />

−−<br />

Entscheidung bezüglich der an die Übersetzung zu übergebenden<br />

Pakete und Formate – DITA vs. XML Localization Interchange Format<br />

(XLIFF), PPT vs. PPTX or XLIFF, …<br />

−−<br />

Exponieren von Funktionalität für Übersetzungsbeteiligte – Validierung<br />

von XML, Generierung von PDFs zum in-country review, …<br />

Bei der Erarbeitung von Lösungen für die Produktion von Übersetzungen<br />

galt es, organisatorische und technologische Gegebenheiten zu<br />

berücksichtigen. In beiden Fällen war darauf zu achten, dass eine weitgehende<br />

Umstellung spezielle und kostenintensive Prozessschulungen<br />

(sowie eventuell Vertragsänderungen) bei den mit SAP kooperierenden<br />

Übersetzungsagenturen nötig gemacht hätten.<br />

Einsichten zu Projekt und Technologie<br />

Das MMCP-Projekt hatte eine Laufzeit von etwa drei Jahren. Herausforderungen<br />

ergaben sich aus der Laufzeit des Projektes, der Vielzahl<br />

der beteiligten Implementierungspartner und der produktiven Nutzung<br />

der Infrastrukturkomponenten schon während der Entwicklungsphase.<br />

Zudem galt es, die Auslagerung von Teilen des Produktionsprozesses zu<br />

unterstützen.<br />

Es ist dem Projektteam gelungen, alle Herausforderungen zu meistern<br />

und eine erweiterbare Plattform bereitzustellen, die eine industrielle<br />

Produktion der Lerninhalte für verschiedene Lieferkanäle in neun<br />

Sprachen erlaubt.<br />

für Rückfragen:<br />

thilo.buchholz@sap.com<br />

christian.lieske@sap.com<br />

346<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

OTS 5<br />

Fachvortrag<br />

Nachhaltige logistische Unterstützung in<br />

Zeiten des Wandels am Beispiel der ASD-<br />

Spec S1000D, S2000M und S3000L<br />

Jörg Rogge, Consinto GmbH, Siegburg<br />

Einleitung<br />

Seit rund 25 Jahren wird die Entwicklung der Spezifikationen „S1000D“<br />

für Technische Dokumentation und S2000M für Material-Management<br />

von der europäischen Luftfahrtindustrie vorangetrieben. Ursprünglich<br />

für militärische Großprojekte der Luftfahrt konzipiert, haben sich diese<br />

Spezifikationen in einer Vielzahl verschiedenster Projekte bewährt und<br />

gewinnen zwischenzeitlich auch für zivile Anwendungen an Bedeutung.<br />

Dabei kommen bei den meisten bisherigen Projekten in Deutschland<br />

überwiegend frühe Versionen der o. a. Spezifikationen zum Einsatz und<br />

verwenden bis heute Datenformate, die zwischenzeitlich technologisch<br />

weiterentwickelt wurden.<br />

Damit stellt sich für viele Projekte mit z. Z. sehr langen Nutzungszeiten<br />

die Frage, ob man auf den bisherigen Versionen verharrt oder ob man<br />

neue Versionen der Spezifikationen anwenden soll bzw. wie ein Übergang<br />

mit vertretbarem Aufwand möglich ist.<br />

Die Suite der ASD-Spezifikationen<br />

Wenn man sich heute mit den Spezifikationen der ASD, der AeroSpace<br />

and Defence Industries Association befasst, erkennt man schnell, dass<br />

die Familie der ASD Specs gewachsen ist und weiter wächst.<br />

Neben den beiden oben genannten Werken sind in der Zwischenzeit die<br />

Spezifikationen ASD S3000L für eine „Logistic Support Analysis (LSA)“<br />

und eine Schnittstellenspezifikation ASD S1003X für den Austausch von<br />

Daten zwischen den Spezifikationen S3000L und S1000D veröffentlicht<br />

worden. Eine Spezifikation ASD S4000M für das Thema der „Planbaren<br />

Materialerhaltung“ steht vor der Veröffentlichung, weitere Specs wie<br />

die ASD S5000F für ein Data-Feedback aus der Nutzungsphase oder die<br />

ASD SX000I als Handbuch für den „Integrated Logistic Support (ILS)“<br />

werden derzeit erarbeitet. Weitere Spezifikationen zur Beschreibung<br />

des Datenaustauschs oder z. B. zum Thema Ausbildung befinden sich in<br />

der Planungsphase und werden inzwischen mit starker Unterstützung<br />

der US-amerikanischen Industrie und den US-Streitkräften gemeinsam<br />

entwickelt.<br />

Insgesamt sind in den nächsten zwei bis drei Jahren rund ein Dutzend<br />

neuer Versionen oder ganz neuer Spezifikationen zu erwarten.<br />

Die Herausforderung<br />

Die ersten großen Projekte, bei denen die ASD-Spezifikationen in ihren<br />

frühen Versionen zur Anwendung gekommen sind, z. B. der Eurofighter<br />

„TYPHOON“, befinden sich noch im ersten Drittel ihrer Gesamtnutzungszeit.<br />

Die Softwaretools, mit denen die Daten nach S1000D bzw.<br />

S2000M erstellt wurden, sind inzwischen rund 15 Jahre alt und erreichen<br />

damit langsam ein kritisches Alter für Software. Damit stellt sich<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

347


Offene technische Standards<br />

die Frage, wie vor diesem Hintergrund eine nachhaltige Pflege und<br />

Fortschreibung der Materialgrundlagendaten gewährleistet werden<br />

kann.<br />

Gleichzeitig stellen sich in der heutigen Zeit neue Herausforderungen<br />

an den Schnittstellen zwischen den Daten der ASD-Spezifikationen und<br />

den heute in vielen Firmen verwendeten „Product Lifecycle Management<br />

(PLM)-“ und „Enterprise Ressource Planning (ERP)“-Systemen.<br />

Hier treffen sehr unterschiedliche „Datenwelten“ aufeinander und müssen<br />

harmonisiert und synchronisiert werden.<br />

Lösungsansatz<br />

Die Aufgabenstellung ist recht umfangreich und komplex und muss in<br />

beherrschbare Teilaufgaben zerlegt und schrittweise gelöst werden.<br />

Hierzu zählt u. a. das Mapping von Daten, mit dem z. B. Ergebnisse der<br />

Logistic Support Analysis nach dem bisher verwendeten US MIL-STD-<br />

1388-2B in die Strukturen der ASD-Spezifikation S3000L überführt<br />

werden können.<br />

Idealerweise sind neu zu schaffende Softwaretools für die S3000L damit<br />

in der Lage, die Arbeitsergebnisse aus der Vergangenheit weiterverwenden<br />

zu können.<br />

Mit der Suite der ASD-Spezifikationen geht die Zielsetzung einher,<br />

durchgängige Prozesse zwischen den verschiedenen Spezifikationen<br />

zu implementieren. D. h., auch die Software-Tools sollten auf der Basis<br />

einer homogenen Datenbank diese Prozesse unterstützen.<br />

An den Schnittstellen zu PLM- und ERP-Systemen ist nach generischen<br />

Lösungen zu suchen, wie die vielfach proprietären Datenformate<br />

dieser Systeme mit den neutralen Datenformaten der ASD-Spezifikationen<br />

korrespondieren können.<br />

Zusammenfassung<br />

Die beschriebene Problematik ist unausweichlich und kann nur in<br />

enger Kooperation von Projektfirmen und Softwareherstellern und in<br />

einem schrittweisen Vorgehen gelöst werden. Da parallel die Vorzüge<br />

der Anwendung der ASD-Spezifikationen für eine kostengünstige<br />

Erstellung und Pflege der Materialgrundlagendaten zu einer zunehmenden<br />

weltweiten Verbreitung und Anwendung, vor allem im zivilen<br />

Bereich, führt, wird auch die Nachfrage nach Tools sowie nach qualifizierter<br />

Beratung und Schulung weiter steigen und zum Entstehen<br />

durchgängiger Lösungen beitragen.<br />

joerg.rogge@web.de<br />

348<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

OTS 6<br />

Fachvortrag<br />

HTML5 – die neue ‚Silver Bullet‘ für die<br />

Verteilung technischer Information?<br />

Alexander Witzigmann, TANNER AG, Lindau<br />

Kennen Sie den Satz: „Naja, aber diesen Workaround können wir dann<br />

mit HTML5 beseitigen“? Oder diesen: „PDF ist out, HTML5 ist in“?<br />

Oder: „Nimm doch HTML5 und deine mobilen Endgeräte sind ohne<br />

Änderung mit deinem Online-Content belieferbar“? Klingt vielversprechend,<br />

aber was genau ist eigentlich HTML5? In welchem Status befindet<br />

sich dieser Standard? Und welchen konkreten Mehrwert erschließt<br />

HTML5 in welchen Anwendungsfällen?<br />

Ziele von HTML5<br />

Die Entwickler von HTML5 haben sich zum Ziel gesetzt, den Browser<br />

als Applikationsplattform ohne herstellerabhängige Erweiterungen auszubauen.<br />

Im Wesentlichen sollen Erfahrungen und Entwicklungen, die<br />

über die Jahre im Internet gesammelt wurden, in einen für alle Browser<br />

verbindlichen Standard eingearbeitet werden.<br />

Wesentliche Elemente hierfür sind:<br />

−−<br />

Einführung von „modernen“ Elementen zur Darstellung und Interaktion<br />

mit Inhalten (z. B. direkte Unterstützung von 3D-Animationen,<br />

Videos, Audio, Drag and Drop etc.).<br />

−−<br />

Einfache und automatisierbare Erstellung von Inhalten basierend<br />

auf bekannten Standards (HTML4/XHTML1 sind bekannte und verbreitete<br />

Standards, die heute bereits automatisiert aus Quellformaten<br />

erstellt werden können).<br />

−−<br />

Maximale Reichweite der Inhalte ohne hohe Aufwände in der Pflege<br />

oder spezifischen Entwicklung.<br />

−−<br />

Spezifischere Standardisierung von Inhaltsauszeichnungen und Applikationsverhalten<br />

und damit zielgerichtete Verwendung der Inhalte<br />

im konkreten Kontext der Anwender.<br />

−−<br />

Ablösung von proprietären Technologien, wie z. B. Adobe Flash und<br />

Microsoft Silverlight.<br />

So weit, so gut. Doch was genau ist HTML5?<br />

Was genau ist HTML5?<br />

Der Begriff HTML5 ist weniger exakt formal definiert, als man erwarten<br />

würde. Grund dafür ist zum einen die Geschichte des Standards und<br />

zum anderen die Menge an angrenzenden Standards, die in einzelnen<br />

Veröffentlichungen HTML5 zugeordnet werden, auch wenn sie nicht<br />

direkt Bestandteil von HTML5 sind.<br />

Geschichte von HTML5<br />

−−<br />

2004 „Initialer Meilenstein für die Weiterentwicklung von HTML“<br />

Eine Gruppe von Mitarbeitern der Firmen Apple, Mozilla und Opera<br />

schließt sich zusammen und erarbeitet den Vorschlag, den HTML-<br />

Standard weiterzuentwickeln. Dieser Vorschlag wird nicht angenommen<br />

und führt zur Gründung der WHATWG (www.whatwg.org).<br />

−−<br />

2005 „Erste Ergebnisse der Arbeitsgruppe WHATWG“<br />

Die ersten Arbeitsergebnisse werden unter dem Namen „Web Appli-<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

349


Offene technische Standards<br />

cations 1.0“ veröffentlicht. Ian Hickson ist der benannte Autor dieser<br />

Ergebnisse.<br />

−−<br />

2007 „W3C übernimmt die Spezifikation“<br />

Das W3C als wesentliches Organ für die Standardisierung von Internet-Technologien<br />

übernimmt den Stand der Spezifikation als Basis<br />

der neuen HTML-Arbeitsgruppe. Der Standard wird in HTML5 umbenannt<br />

und von beiden Arbeitsgruppen gemeinsam weiterentwickelt.<br />

−−<br />

2009 „Öffentliche Aufmerksamkeit wird signifikant“<br />

Durch den Einstieg von Google in den Browser-Markt und den Erfolg<br />

von Apple mit mobilen Endgeräten steigt das Interesse an HTML5<br />

und die Entwicklungskapazitäten zur Unterstützung des „Standards“<br />

nehmen zu.<br />

Vereinfacht kann man den Begriff folgendermaßen zusammenfassen:<br />

HTML5 = Auszeichnungssprache + Formatierungssprache +<br />

Skriptsprache.<br />

Auszeichnungssprache<br />

HTML4 wird im Wesentlichen um zusätzliche Elemente ergänzt. Nicht<br />

mehr zeitgemäße Elemente werden entfernt.<br />

Die direkte Verwendung von bereits existierenden W3C-Standards<br />

„SVG“ und „MathML“ ist vorgesehen.<br />

HTML5 basiert nicht mehr auf SGML, sondern standardisiert weit verbreitete<br />

„Best Practices“ bestehender Inhalte im Web. Eine Repräsentation<br />

von HTML5 als XML ist ebenso vorgesehen (XHTML 5).<br />

Formatierungssprache<br />

CSS bildet die Basis für die Darstellung der Inhalte. Die Version 3 des<br />

Standards wird als wesentlicher Baustein im Umfeld von HTML5 angesehen,<br />

wird jedoch als eigener Standard entwickelt und unabhängig<br />

fertiggestellt.<br />

Skriptsprache<br />

Zahlreiche Programmierschnittstellen, die im Wesentlichen über Java-<br />

Script verwendet werden, sind wesentliche Bestandteile von HTML5.<br />

Oft genannt werden ein API zur Darstellung von 2D-Elementen (Canvas),<br />

APIs zur Erstellung von offline verfügbaren Applikationen, Dragand-Drop-API,<br />

Zugriff auf im Inhalt ausgezeichnete Metadaten (Microdata)<br />

etc.<br />

Was ist HTML5 nicht?<br />

HTML5 ist weder final fertiggestellt, noch ist der konkrete Umfang eindeutig<br />

definiert.<br />

Ausgelöst durch die immer schnelleren Innovationszyklen im Web steigen<br />

die Herausforderungen, Standards in diesem Umfeld fertigzustellen<br />

und diese als „einzig gültige Version“ freizugeben.<br />

Das W3C hält an diesem Paradigma fest und plant bis zum Jahr 2014<br />

eine finale „Recommendation“ des Standards freizugeben. Parallel dazu<br />

verfolgt die Arbeitsgruppe WHATWG die Strategie eines lebenden<br />

Standards, der sich ständig weiterentwickelt und verbessert.<br />

350<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

Aktuelle Implementierungen<br />

Wie sehen jetzt aber die aktuellen Implementierungen der einzelnen<br />

Browser aus?<br />

Auch wenn es keinen finalen HTML5-Standard gibt, implementieren<br />

alle gängigen Browser große Teile des aktuellen HTML5-Standards.<br />

Im Wesentlichen ist diese Entwicklung von tatsächlich im Web verfügbaren<br />

Inhalten getrieben. Keine der öffentlich zugänglichen HTML5-<br />

Showcase-Applikationen, die von den Browser-Herstellern veröffentlicht<br />

werden, wird von den jeweiligen anderen Herstellern vollständig<br />

dargestellt.<br />

Aktuell ist es eher schwierig und immer eine Momentaufnahme, ein<br />

Subset von HTML5 zu definieren, das auf allen aktuellen Browsern korrekt<br />

und vollständig dargestellt wird.<br />

Bewertung der Anwendungsfälle für die Verteilung technischer Inhalte<br />

Kann ich eine Einführung von „modernen“ Elementen zur Darstellung<br />

und Interaktion mit Inhalten (z. B. direkte Unterstützung von 3D-Animationen,<br />

Videos, Audio, Drag and Drop etc.) verwenden?<br />

Nur bedingt. Klassische HTML- und JavaScript-basierte Anwendungen<br />

bieten immer noch eine deutlich stabilere Basis für eine browserübergreifende<br />

Nutzung der Inhalte. Da die Nutzung von HTML5<br />

abwärtskompatibel ist, kann aber eine explizit geprüfte Teilmenge an<br />

Funktionen bereits heute zu einer verbesserten Aufbereitung der Inhalte<br />

verwendet werden, ohne die Zielgruppe der Anwendung zu stark<br />

einzuschränken.<br />

Ist eine automatisierte Erstellung der Inhalte möglich?<br />

Ja. Wobei die Erstellung mindestens genau so komplex ist wie in klassischen<br />

HTML-basierten Applikationen.<br />

Lässt sich eine maximale Reichweite der Inhalte ohne hohe Aufwände<br />

in der Pflege oder spezifischen Entwicklung realisieren?<br />

Nein.<br />

Ist mit HTML 5 eine spezifischere Standardisierung von Inhaltsauszeichnungen<br />

und Applikationsverhalten und damit spezifischere Nutzung<br />

der Inhalte im konkreten Kontext der Anwender möglich?<br />

Ja, Google verwendet heute schon Metadaten aus HTML5 zur besseren<br />

Navigation der Inhalte für die suchende Zielgruppe.<br />

Ist die Ablösung von proprietären Technologien in Sicht, z. B. von Adobe<br />

Flash und Microsoft Silverlight?<br />

In Sicht ja, aber heute verwenden immer noch 93 % der kommerziellen<br />

Web-Seiten Adobe Flash. Die Notwendigkeit, die Inhalte in unterschiedlichen<br />

Browsern und Devices ohne Verlust an Inhalten darzustellen,<br />

erfordert immer noch den Einsatz von nativen Applikationen.<br />

für Rückfragen: Alexander.Witzigmann@TANNER.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

351


Offene technische Standards<br />

OTS 7<br />

Fachvortrag<br />

Mit DITA um die Welt<br />

Marijana Prusina, mp dokumentation, Karlsruhe<br />

Effiziente Lokalisierung ist für viele einer der wichtigsten Gründe, um<br />

mit der Dokumentation auf einen Standard wie DITA umzusteigen. Mit<br />

den folgenden Tipps aus der Praxis machen Sie Ihre DITA-basierte Dokumentation<br />

und Ihre Prozesse fit für eine effiziente Lokalisierung.<br />

DITA Open Toolkit<br />

Auf dem Dateisystem<br />

Grundlagen<br />

In der DITA-Welt gibt es für jede Sprache eine individuelle Topic-<br />

Datei, die den Inhalt in der jeweiligen Sprache enthält. Die Definition<br />

der Topic-Sprache erfolgt im Root-Element des Topics über das Attribut<br />

„xml:lang“, das als Wert ein Sprachkürzel enthält. Zum Beispiel:<br />

xml:lang =“en-gb“.<br />

Standardisierte Textbausteine, wie z. B. „Achtung“ oder „Beispiel“, werden<br />

erst beim Publizieren der Hilfe generiert. Das DITA Open Toolkit<br />

übernimmt hierbei auch die Lokalisierung und fügt diese Textfragmente<br />

in der benötigten Sprache ein. Aktuell unterstützt es standardmäßig<br />

53 Sprachen und ist leicht um weitere Sprachen erweiterbar.<br />

Die Dateien mit den Textbausteinen sind ebenfalls beliebig erweiterbar.<br />

Es ist ratsam, die Übersetzungen, die mit dem Toolkit mitkommen, lektorieren<br />

zu lassen, damit sie zu den eigenen Richtlinien und Qualitätsstandards<br />

passen.<br />

Verwaltung<br />

Eine bewährte Struktur für das Verwalten mehrsprachiger DITA-Dokumentation<br />

auf dem Dateisystem ist die folgende:<br />

Ordnerstruktur für mehrsprachige Dokumentation auf dem Dateisystem<br />

Mit den Metadaten, die DITA für das Verwalten der Dokumentation bietet<br />

(z. B. oder ), können Sie den Überblick darüber<br />

behalten, welche Dateien übersetzt werden müssen und welche nicht.<br />

Ein Nachteil der Dateisystemlösung ist definitiv, dass Delta-Übersetzungen<br />

automatisiert nicht möglich sind.<br />

352<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

Im CMS<br />

Auf dem Dateisystem<br />

Im CMS<br />

Im TMS<br />

Tipp: XLIFF<br />

Bedingter Text und<br />

Wiederverwendung<br />

Bei Content-Management-Systemen gibt es je nach Hersteller unterschiedliche<br />

Prinzipien des Übersetzungsmanagements. Wichtig ist generell,<br />

dass Sie mitverfolgen können oder benachrichtigt werden, wenn es<br />

Änderungen an der Quelldatei gab und Sie übersetzen lassen müssen.<br />

Außerdem sollten Sie darauf achten, dass eine Delta-Übersetzung möglich<br />

ist, d. h., dass bei Änderungen nicht die gesamte Datei zur Übersetzung<br />

gegeben wird, sondern nur der neu zu übersetzende Teil. Damit ein<br />

Übersetzer hier dennoch genug Kontext hat, wäre es ideal, die gesamte<br />

Datei zu übermitteln, aber nur den neuen Teil bearbeitbar zu machen.<br />

Übersetzungsmanagement<br />

Wenn Sie auf Dateisystem-Ebene arbeiten, sollten Sie dem Übersetzer<br />

die komplette Ordnerstruktur schicken, damit Sie die Übersetzungen<br />

später auch wieder einfach in Ihre Ordnerstruktur integrieren können.<br />

In einem Übersetzer-Briefing sollten Sie außerdem folgende Informationen<br />

mitschicken:<br />

−−<br />

Zu übersetzende Dateien<br />

−−<br />

Ggf. DTDs zum Validieren<br />

−−<br />

Zu nutzendes Encoding<br />

−−<br />

Hinweise zum Übersetzen oder Ausfüllen von Attributwerten (z. B.<br />

„xml:lang“ oder „navtitle“)<br />

−−<br />

Hinweis: Kein Übersetzen von Datei- oder Ordnernamen<br />

Gängig ist ein Export der zu übersetzenden Dateien als ZIP-Datei und<br />

ein Import der fertigen Übersetzung auf demselben Weg. Ideal ist eine<br />

direkte Anbindung an ein Translation-Memory-System.<br />

Wenn Sie ein Translation-Memory-System nutzen, entfallen alle bis auf<br />

den letzten der oben genannten Punkte für das Übersetzer-Briefing.<br />

Sie können im TMS in der Regel DTDs hochladen und entsprechend<br />

einstellen, welche Elemente oder Attribute übersetzbar sein sollen oder<br />

vielleicht nur zu Information angezeigt werden, aber nicht bearbeitbar<br />

sind. Sowohl die Validierung als auch das Encoding werden automatisch<br />

vom System übernommen und sparen Ihnen viel Arbeit beim Import<br />

der Übersetzungen.<br />

Da ein DITA-Übersetzungspaket in der Regel aus vielen einzelnen<br />

Dateien besteht, kann die schiere Anzahl den Verwaltungsaufwand in<br />

die Höhe treiben und auch fehleranfällig machen. Das Austauschformat<br />

XLIFF ermöglicht es Ihnen, alle Dateien in einer einzelnen Datei zusammenzuführen<br />

und diese später auch wieder in die vielen einzelnen<br />

Dateien zurückzuverwandeln. Testen und besprechen Sie mit Ihrem<br />

Übersetzungsdienstleister, welches Szenario sich für beide Seiten lohnt.<br />

Textproduktion<br />

Sowohl bei der Filterung mit DITAVAL als auch bei der Verwendung des<br />

conref-Mechanismus sollten Sie am besten immer ganze Sätze filtern<br />

oder wiederverwenden. In den Zielsprachen kann es unter Umständen<br />

notwendig sein, Satzteile umzustellen oder zu flektieren, was bei der<br />

Nutzung von conref oder DITAVAL sehr schwierig wird. Wenn Sie dennoch<br />

auf kleinerer Ebene filtern oder wiederverwenden möchten, z. B.<br />

bei Produktnamen, achten Sie darauf, dass diese immer im Nominativ<br />

verwendet werden, um Probleme zu reduzieren.<br />

für Rückfragen: mp@mp-dokumentation.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

353


Offene technische Standards<br />

OTS 8<br />

Tutorial<br />

Neue Möglichkeiten des PDF-Standards<br />

ISO 32000 in der Technischen Dokumentation<br />

Ulrich Isermeyer, Adobe Systems GmbH, München<br />

PDF ist als offener ISO-Standard 32000 das meistgenutzte Universalformat.<br />

Dieses Tutorial beschäftigt sich mit der aktuellen Acrobat-Version,<br />

die alle Möglichkeiten von PDF für die Technischen Redakteure erstellbar<br />

und editierbar macht. Darunter fällt z. B. die Text-Editierfunktion,<br />

die Umbrüche und Formatierungen für PDF-Übersetzungs-Workflows<br />

zulässt. Seit <strong>2012</strong> gibt es einen neuen ISO-Standard für Barrierefreiheit<br />

– PDF/UA. Im Tutorial wird aufgezeigt, welche Schritte erforderlich<br />

sind, um eine Technische Dokumentation barrierefrei zu machen.<br />

PDF-Erstellung mit Intelligenz und Struktur<br />

Die PDF-Erstellung ist für viele Redakteure ein einziger Mausklick,<br />

jedoch gibt es deutliche Unterschiede zwischen einem dummen einfachen<br />

PDF und einem PDF-Dokument mit Struktur. Neben der automatischen<br />

Erstellung von Lesezeichen, dem automatisierten Tagging,<br />

der Konvertierung von Hyperlinks etc. gibt es auch noch Multimedia-<br />

Inhalte wie Videos oder 3D. Dieser Teil beschäftigt sich mit den unterschiedlichen<br />

PDF-Inhalten, die direkt bei der Erstellung automatisch<br />

in das Dokument mit eingebracht werden können. Dabei gibt es einige<br />

Details, die man bei der Erstellung aus unterschiedlichen Quellen wie<br />

WEB, Scans, Office (Word), Framemaker, Indesign oder auch CAD-Programmen<br />

beachten sollte. So können in Word beispielsweise bestimmte<br />

PDF-Workflows direkt als Makro aufgerufen werden.<br />

PDF Maker in MS Word mit integrierten Aktionen<br />

PDF-Editierung für Texte und Bilder<br />

Bei Abstimmungsprozessen werden meist die Kommentar- und Text-<br />

Korrekturwerkzeuge genutzt, die alle Änderungen in die Original-<br />

Editoren wie Word, Framemaker oder Robohelp wieder zurückgeben.<br />

Änderungen in letzter Minute am Text oder bei Bildern in großen PDF-<br />

Dokumentationen selber waren in der Vergangenheit nicht so ganz<br />

trivial, da es eventuell unerwünschte Textumbrüche auf den Folgeseiten<br />

gab. Das Tutorial zeigt die neuesten Möglichkeiten von Acrobat bei der<br />

Text- und Bild-Editierung und geht auf unterschiedliche Szenarien ein.<br />

354<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Offene technische Standards<br />

PDF-Editierung in Adobe Acrobat XI<br />

Barrierefreie PDF-Dokumente nicht nur für blinde Menschen<br />

Wichtigste Voraussetzung für barrierefreie PDF-Dokumente ist die Tag-<br />

Struktur bei der PDF-Erstellung. Durch diese Struktur sind auch hochkomplexe<br />

Dokumentationen erheblich besser zu navigieren. Zusätzlich<br />

können diese mit Screenreadern vorgelesen werden und sind durch die<br />

Struktur auch für Mobilgeräte erheblich besser geeignet, da ein Text-<br />

Reflow besonders bei kleinen Displays genutzt werden kann. Neben<br />

Tags sind Ersatztexte für Bilder und die Touchup Leserichtung wichtig,<br />

damit auch mit der Tastatur in der richtigen Reihenfolge vorgelesen<br />

wird. Mit dem neuen Prüfwerkzeug in Acrobat XI kann das Dokument<br />

gegen den neuen ISO Standard für Barrierefreie Dokumente (PDF/<br />

UA – Usability/Accessibility) und den Web-Standard für Barrierefreiheit<br />

(WCAG 2.0) geprüft und repariert werden. Somit wird das Thema<br />

PDF-Barrierefreiheit aus der Experten-Ecke in den normalen Workflow<br />

eines Redakteurs verschoben. Beispiele zu barrierefreien PDF-Dokumenten<br />

findet man auch unter www.acrobatusers.de.<br />

Automatische Überprüfung auf Barrierefreiheit mit interaktiver Aktion<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

355


Offene technische Standards<br />

Archivierung der Technischen Dokumentation mit PDF/A<br />

Barrierefreiheit und Archivierung schließen sich nicht aus. Deshalb ist<br />

es auch einfach möglich, mit dem ISO Standard PDF/A 2a (a = accessible)<br />

sowohl barrierefreie also auch archivierbare PDF-Dokumente zu<br />

haben. Archivdokumente wurden in der Vergangenheit im Pixelformat<br />

TIFF abgelegt – seit 2005 hat sich der ISO Standard PDF/A durchgesetzt,<br />

der seit der Version PDF/A 2 auf dem PDF-Stand 1.7 basiert.<br />

Neben der neueren PDF-Version sind hier auch Attachments und Ebenen<br />

(Layer) zulässig, so dass auch mit technischen Zeichnungen in der<br />

Technischen Dokumentation gearbeitet werden kann. Dieses Tutorial<br />

behandelt die unterschiedlichen PDF/A-Versionen und geht auf Besonderheiten<br />

bei der Erstellung und Reparatur mit dem Preflight Engine<br />

ein.<br />

für Rückfragen: ulrich.isermeyer@adobe.com<br />

356<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und<br />

Kostenmanagement


Personal- und Kostenmanagement<br />

PKM 1<br />

Fachvortrag<br />

Der Wert eines<br />

Mitarbeiters<br />

Wie sich die TK im Human Capital<br />

Management positionieren kann<br />

Dr.-Ing. Michael Schaffner, GMVK Berlin GmbH / FOM Berlin Hochschule für Oekonomie &<br />

Management<br />

Was ist ein Blaukelchen wert? Um mit Frederic Vesper [1], Biochemiker<br />

und Mitglied des Club of Rome, zu argumentieren: In etwa 1,5 Cent,<br />

wenn lediglich der Wert von Mineralien (Phosphor, Kalzium, Fluor),<br />

Fleisch, Blut und Federkleid gerechnet werden. Als Schädlingsbekämpfer,<br />

Verbreiter von Samen, Bio-Indikator für Umweltbelastungen, Symbiosepartner<br />

und Freudespender für das menschliche Gemüt beträgt<br />

der Wert hingegen 154,09 €. Und was ist ein Mitarbeiter wert?<br />

Strategische Personalentwicklung als Reaktion<br />

auf Megatrends der Wirtschaft<br />

Nach Studien [2] der Deutschen Gesellschaft für Personalführung<br />

(DGFP e.V.) gehören zu den Top-Megatrends im Personalmanagement:<br />

−−<br />

demografischer Wandel<br />

−−<br />

Wertewandel<br />

−−<br />

Globalisierung<br />

−−<br />

Digitalisierung und Virtualisierung von Arbeit<br />

Zur Bewältigung dieser Herausforderungen wird verstärkt auf Personalrisikomanagement<br />

(Identifikation von Personalrisiken) und Human<br />

Capital Management (Evaluation des Humanvermögens) gesetzt.<br />

Kapitalbewertung<br />

von Unternehmen<br />

Berechnung von<br />

human capital (HC)<br />

Human Capital Management – eine Begriffsbestimmung<br />

In einer Wissensgesellschaft sinkt die Bedeutung traditioneller Vermögenswerte<br />

in Relation zum Wissens- und Humanvermögen, das sich in<br />

dynamischen Unternehmen zum kritischen Erfolgsfaktor für den Unternehmenserfolg<br />

entwickelt. [3] Nach Scholz ist die Wirtschaftskrise<br />

2009 ein Weckruf gewesen. [4] Bei der Kreditvergabe reichte den Banken<br />

das materielle Bilanzvermögen der Unternehmen oft nicht mehr<br />

aus. „Die Mitarbeiter sind unser wichtigstes Kapital“ heißt es immer,<br />

doch wenn es darauf ankommt, ist es offenbar doch nichts wert. Es bilden<br />

sich jedoch zunehmend Tendenzen heraus, dass neben dem bilanziellen<br />

Vermögen auch das Humankapital – selbst von Kreditinstituten<br />

– stärker in den Fokus rückt.<br />

Beim täglichen „war for talents“, dem Kampf um die besten Mitarbeiter,<br />

wird in der Personalwirtschaft häufig ganz simpel mit dem Wiederbeschaffungswert<br />

eines Mitarbeiters gerechnet (ca. das 0,75- bis 1,5-fache<br />

eines Jahresgehalts). Für die Berechnung des human capital (wobei der<br />

Begriff nicht als „Menschenmaterial“, sondern positiv zu interpretieren<br />

ist) gibt es mehr als drei Dutzend unterschiedliche Bewertungsverfahren.<br />

Zu den bekanntesten gehören:<br />

−−<br />

Marktwert-Verfahren, z. B. human capital ist die Differenz von Marktwert<br />

und Buchwert oder der Börsenwerte dividiert durch die Anzahl<br />

der Mitarbeiter. Wie falsch diese Betrachtung sein kann, haben wir<br />

zuletzt bei Facebook gesehen.<br />

−−<br />

Accounting-Verfahren, z. B. human capital ist die Summe aller Investitionen<br />

(Beschaffung, Einarbeitung, Fortbildung) minus der Ab-<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

359


Personal- und Kostenmanagement<br />

schreibungen in Mitarbeiter (z. B. lineare Abschreibung der Beschaffungs-<br />

und Fortbildungskosten). Auch diese Verfahren erschließen<br />

das Humankapital nicht in Gänze.<br />

−−<br />

Indikatoren-Verfahren, z. B. human capital wird ermittelt über Fragebogen,<br />

Interviews, Test etc. mit gewichteten und monetär bewerteten<br />

Indikatoren. Fehlende Normierungen und möglicherweise willkürliche<br />

Gewichtungen erschweren eine organisationsübergreifende<br />

Vergleichbarkeit.<br />

Saarbrücker Formel<br />

Mitarbeiter als Unternehmenswert berechnen<br />

Alles in allem hat jedes Verfahren seine Berechtigung, schafft es doch in<br />

jedem Fall ein notwendiges Bewusstsein für den Produktivfaktor „Humankapital“.<br />

Den umfassendsten Ansatz verfolgt die Saarbrücker Formel<br />

[5] mit einer Kombination der drei oben beschriebenen Verfahren.<br />

In verkürzter Form beschreibt die Saarbrücker Formel das Humankapital<br />

(HC-Wert) als<br />

−−<br />

Summe branchenüblicher Gehälter über alle Mitarbeiter (Marktwert),<br />

−−<br />

gemindert um das erodierende Wissen im Beschäftigungsverlauf<br />

(Accounting),<br />

−−<br />

gemehrt um die Investitionen in Personalentwicklung (Accounting)<br />

sowie<br />

−−<br />

gemehrt bzw. gemindert um einen Motivationsfaktor der Mitarbeiter<br />

(Indikator)<br />

– und dies summiert über alle Mitarbeiter aller Abteilungen (i bis g)<br />

eines Unternehmens, was den Humankapitalwert eines Unternehmens<br />

ergibt (bzw. umgerechnet pro Kopf).<br />

Abb. 1: Saarbrücker Formel<br />

Wissen ist<br />

Wertschöpfung<br />

erodierendes Wissen<br />

Besondere Aufmerksamkeit genießt dabei der HC-Wertverlust, der sich<br />

über den Kapitalfaktor „Wissen“ definiert. Dabei wird die Wissensrelevanzzeit<br />

w i<br />

(Wie lange ist ein vorhandenes Wissen ohne Qualifizierung<br />

für ein Unternehmen wertschöpfend nutzbar?) in Bezug zur Beschäftigungsdauer<br />

b i<br />

gesetzt. Ist ein Mitarbeiter länger bei einem Unternehmen<br />

beschäftigt, als sein Wissen über die Zeit up-to-date bleibt, so<br />

verliert dieser Mitarbeiter (bzw. diese Beschäftigungsgruppe) seinen<br />

Wert für das Unternehmen. Es muss also investiert werden. Typische<br />

Investitionen in die Personalentwicklung PE i<br />

sind Qualifizierung oder<br />

Personaleinstellung.<br />

Typische Wissensrelevanzzeiten sind beispielsweise sieben Jahre<br />

für Ingenieure, neun Jahre für Werkzeugmacher oder 13 Jahre für<br />

360<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

Motivation als<br />

Wertschöpfungsfaktor<br />

Humankapital-Wert<br />

einer Technischen<br />

Redaktion<br />

Ausgewogenenheit<br />

der Mittel<br />

Bürofachkräfte. Zum wertschöpfungsrelevanten Wissen gehören das<br />

Kern-Fachwissen (Ausbildungswissen) und das Erfahrungswissen (berufsübergreifendes<br />

Handlungswissen).<br />

Ein ebenfalls gewichtiger Faktor ist die HC-Wertveränderung, die sich<br />

in einem Motivationsindex widerspiegelt. Hoch motivierten Mitarbeitern<br />

gelingt es, ihr persönliches und durch Wissensveralterung sinkendes<br />

Humankapital überzukompensieren und maßgeblich zur Wertschöpfung<br />

beizutragen, während Demotivation zu einem dramatischen<br />

Wertverlust führen kann. Zu den Motivationsbestandteilen zählen:<br />

−−<br />

Einsatzbereitschaft (commitment)<br />

−−<br />

Unternehmensbindung/Loyalität (retention)<br />

−−<br />

Arbeits- und Führungssituation (context)<br />

Bei aller vorhandenen Kritik an dem Saarbrücker Modell (z. B. Unschärfen<br />

durch Betrachtung von Marktgehältern, Definition von Wissensrelevanzzeiten,<br />

Bewertung von PE-Investitionen, Messung von Motivation)<br />

ist es doch ein brauchbares Instrument, um im Betriebsalltag<br />

Argumente für strategische Planungen zu erarbeiten.<br />

Technische Kommunikation im Human Capital Management<br />

Wie schon beschrieben, tut jedes Unternehmen gut daran, den monetarisierten<br />

Wert seiner Mitarbeiter zu kennen – letztlich auch, wenn um<br />

ein Gespräch mit Kreditgebern geht.<br />

Berechnen wir einmal – und das Berechnungsbeispiel ist auf alle Beschäftigtengruppen<br />

anwendbar – den Humankapital-Wert (HC-Wert)<br />

eines 20-köpfigen Redaktionsteams. Als branchenübliches Marktgehalt<br />

wird 42.000 € angenommen. Dann beträgt die Wertbasis dieser Abteilung<br />

für das Unternehmen 840.000 €. Die Mitarbeiter sind ausgebildete<br />

Ingenieure und Technische Redakteure, deren Wissen nach durchschnittlich<br />

sieben Jahren veraltet, die durchschnittliche Beschäftigungsdauer<br />

beträgt 13 Jahre. Es findet keine Personalentwicklung statt und<br />

die Motivation ist durchschnittlich gut (meint: M i<br />

= 1 = wertneutral).<br />

Aufgrund der Wissenserosion (Faktor 0,54 = 7/13) beträgt der HC-Wert<br />

lediglich 453.600 €. Das Unternehmen verliert also 386.400 € durch den<br />

natürlichen Prozess der Wissensveralterung (Erosion).<br />

Um die ursprüngliche Wertbasis wieder zu erreichen, müssten entweder<br />

pro Jahr knapp 400 T€ in die Personalentwicklung (ca. 20 T€ pro Mitarbeiter)<br />

investiert werden oder der Wertverlust durch maximal hohe<br />

Motivation kompensiert werden.<br />

Beides ist in der Praxis nur schwer umsetzbar. Es ist also ein Mittelweg<br />

zu finden. Wenn beispielsweise für jeden Mitarbeiter per anno rund<br />

3.000 € Qualifizierungsmaßnahmen geplant werden, die Fachwissen<br />

wie auch Schlüsselqualifikationen aufbauen (daher sollte Bildungsurlaub<br />

auch nicht mit Fliegenfischen oder Bauchtanz vertan werden)<br />

und dadurch der Motivationsindex (nachgewiesen durch Zufriedenheitsanalysen)<br />

um 50 % gesteigert werden kann, ist die ursprüngliche<br />

Wertbasis wieder nahezu erreichbar – das Unternehmen agiert als<br />

Humankapital-Optimierer.<br />

Die Rechnung:<br />

(840.000 [Wertbasis] ./. 386.400 € [Wertverlust] + 60.000 € [Wertkompensation])<br />

x 1,5 [Wertveränderung] = 770.400 € = 91,7 %<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

361


Personal- und Kostenmanagement<br />

Neue Technologien<br />

können Werte<br />

vernichten<br />

Wenn dies allerdings nicht geschieht, die Frustration steigt und die Motivation<br />

um die Hälfte sinkt, beträgt der Humankapital-Wert nur noch<br />

226.800 € – das Unternehmen ist dann ein Humankapital-Vernichter.<br />

Was passiert, wenn durch Einführung neuer Technologien die Produktivität<br />

steigt, Fachwissen und Erfahrungswissen durch Automatismen<br />

ersetzt und Stellen abgebaut werden? Zunächst einmal nichts, sofern alle<br />

anderen Einflussfaktoren gleich bleiben (leicht nachrechenbar, denn der<br />

HC-Wert bleibt bei jeder Mitarbeiterzahl bei 91,7 % von der Wertbasis).<br />

Allerdings geschieht dies in Praxis nicht in dieser idealtypischen Form.<br />

Denn oft werden Fachspezialisten durch Assistenzen ersetzt, wodurch<br />

sich der Humankapital-Wert durch andere Gehaltsstrukturen automatisch<br />

verändert. Meist noch schwerer wirken sich jedoch die Faktoren<br />

Wissensrelevanzzeit und Motivation aus. Da überwiegend Routinetätigkeiten<br />

über Technologien abgedeckt werden, wird das fachspezifische<br />

Wissen weitaus bedeutender. Je fachspezifischer Wissen ist, umso<br />

schneller veraltet es jedoch, so dass der Wertverlust deutlich steigt.<br />

Und wenn kein Change-Management betrieben wird, also der Veränderungsprozess<br />

bei Technologie-Projekten nicht durch Mitarbeitereinbindung<br />

und -motivation begleitet wird, kann das Absinken des Wertveränderung-Indexes<br />

dramatische Folgen haben – einmal ganz davon<br />

abgesehen, dass vielleicht sogar das Projekt scheitert.<br />

Fazit und Ausblick<br />

Den Gesamt-Kapitalwert eines Unternehmens unter Berücksichtigung<br />

des Humankapitals (neben den bilanziellen Werten) zu errechnen,<br />

macht ein Unternehmen transparenter, hilft die Wertschöpfung besser<br />

zu interpretieren und vor allem Steuerungsmaßnahmen zu ergreifen,<br />

um einen Unternehmenswert strategisch, nachhaltig und ganzheitlich<br />

auf hohem Niveau zu halten.<br />

Wenn ein Unternehmen die Mitarbeiter nur als Kostenfaktor betrachtet<br />

und Personalmaßnahmen lediglich über Kopf- oder Produktivitätskennzahlen<br />

definiert, erleidet es ohne Investitionen und Fördermaßnahmen<br />

einen erheblichen Wertverlust. Die Saarbrücker Formel hilft,<br />

mögliche Maßnahmen auch monetär – und damit für die Führungsetage<br />

verständlich(er) – zu definieren und damit auch die bislang weniger<br />

als wertschöpfungsrelevant gesehenen Beschäftigtengruppen, wie die<br />

Technische Dokumentaton, ins Blickfeld zu rücken.<br />

Anmerkungen<br />

[1] Vesper, F.: Der Wert eines Vogels, 4. Auflage München 1987<br />

[2] DGFP (Hrsg.): DGFP-Studie – Megatrends und HR Trends, Düsseldorf<br />

2011. DGFP (Hrsg.): Personalcontrolling – Status-quo und Perspektiven,<br />

Düsseldorf 2007. DGFP (Hrsg.): Human Capital Management,<br />

Düsseldorf 2005<br />

[3] Becker, M.: Systematische Personalentwicklung, 2. Auflage, Stuttgart<br />

2011, S. 375<br />

[4] Scholz C. / Stein V. / Bechtel R.: Human Capital Management, 3. Auflage,<br />

Köln 2011, S. 15<br />

[5] Scholz, C.: Die Saarbrücker Formel; in: personal manager 2/2005, S. 16ff<br />

für Rückfragen: schaffner@gmvk.de<br />

362<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

PKM 2<br />

Fachvortrag<br />

‚Offer to Operation‘ Dokumentation:<br />

Herausforderungen für Prozesse und<br />

Systeme der Technischen Dokumentation<br />

Dr.-Ing. Axel Poestges, SDL, Stuttgart<br />

Ob ein Unternehmen erfolgreich ist, wird wesentlich durch die Festlegungen<br />

in Vision, Mission und Strategie bestimmt. Unter gegebenen<br />

strategischen Randbedingungen aber entscheiden die Festlegungen<br />

im Geschäftsmodell, wie erfolgreich ein Unternehmen tatsächlich am<br />

Markt ist. Speziell bei der Umsetzung von Globalisierungszielen gibt es<br />

mehrere erfolgsbestimmende Elemente:<br />

−−<br />

Global Information Management,<br />

−−<br />

Product LifeCycle Management und<br />

−−<br />

Information Supply Chain.<br />

Je mehr Ressourcen- und Wertschöpfungsflexibilität ein Unternehmen<br />

absichern möchte, umso klarer und einfacher muss das Zusammenwirken<br />

der oben genannten Elemente gestaltet sein.<br />

In der typischen Diskussion über Wertschöpfungsphasen kennt man<br />

die Abschnitte ‚Offer to Order‘ (OTO) und ‚Order to Cash‘ (OTC). Das ist<br />

aber nur ein Teil des Prozesses. Sowohl Betriebs- bzw. Aftermarketphase<br />

als auch der Bereich von ‚Customer Experience‘ hin zu Produktentwicklung<br />

und -pflege fehlen komplett. Dieser Bereich, in der Praxis als<br />

‚Offer to Operation‘ bezeichnet, ist aber unter operativen Aspekten der<br />

mit Abstand wichtigste Wertschöpfungsabschnitt.<br />

Je hybrider die hergestellten Produkte sind, umso mehr entscheidet<br />

die angemessene Vernetzung der Wertschöpfungskette mit der Information<br />

Supply Chain über Erfolg, Komplexität und Kosten. Gerade bei<br />

global agierenden Unternehmen nimmt die Hebelwirkung exponentiell<br />

zu. Unternehmen, die in der Lage sind, ähnlich einer Variantenkonfiguration<br />

die durch die kundenindividuelle Wertschöpfung bestimmte<br />

Information Supply Chain zu konfigurieren, haben die Komplexität und<br />

damit die Kostentreiber im Griff.<br />

Was ist neu an ‚Offer to Operation‘ Dokumentation?<br />

Die Idee konfigurierbarer Informationen ist nur teilweise neu. Cross<br />

Media Publishing deutet zum Beispiel etwas Ähnliches an. Hier werden<br />

z. B. formatübergreifend Inhalte der Technischen Dokumentation im<br />

E-Learning weiter verwendet. Wirklich neu und anders bei der ‚Offer to<br />

Operation‘ Dokumentation ist aber, dass organisatorische und technische<br />

Möglichkeiten geschaffen und genutzt werden, um Wertschöpfung<br />

und Informationsversorgung anforderungsgerecht und angemessen zu<br />

synchronisieren.<br />

Dazu ist zunächst einmal eine Beantwortung der Frage nötig, welche<br />

Wertschöpfungskonstrukte praktisch möglich sind. Hier spielt die<br />

Einbindung von Partnern ebenso eine entscheidende Rolle wie Veränderungen<br />

der Wertschöpfungstiefe oder die Umsetzung von ‚Make<br />

or Buy‘-Entscheidungen. Insbesondere diejenigen Unternehmen,<br />

die mit dezentralisierten Produktionsstandorten, anspruchsvollen<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

363


Personal- und Kostenmanagement<br />

Transportprozessen und ausgelagerten Aftermarketaktivitäten arbeiten,<br />

sind quasi prädestiniert für die Nutzung von ‚Offer to Operation‘<br />

Dokumentation.<br />

Sobald die Wertschöpfungsvarianten bekannt und dokumentiert worden<br />

sind, werden den einzelnen Varianten die entsprechenden Informationen<br />

nach Inhalt und Medium zugeordnet. Werden also einzelne<br />

Komponenten auf dem Seeweg transportiert, so werden die notwendigen<br />

Anweisungen automatisch zum richtigen Zeitpunkt, in der richtigen<br />

Sprache und im richtigen Format erzeugt und bereitgestellt. Werden<br />

Service und Ersatzteilversorgung an einen Partner ausgelagert, so werden<br />

die notwendigen Serviceunterlagen automatisch z. B. in digitaler<br />

Form zum Download angeboten. Natürlich erfordert diese Organisation<br />

der Information Supply Chain ein entsprechendes Content Management<br />

und eine entsprechende Einbindung der Lokalisierung.<br />

Welcher Nutzen ist von ‚Offer to Operation‘ Dokumentation zu erwarten?<br />

Der Hauptvorteil einer ‚Offer to Operation‘-Organisation der Information<br />

Supply Chain liegt in signifikanten Geschwindigkeits- und Aktualitätsvorteilen.<br />

Keine Änderung der Wertschöpfungskette (sofern die<br />

entsprechende Variante vorgedacht wurde) erfordert kompliziertes und<br />

sequentielles Nachführen der Information Supply Chain. Insbesondere<br />

die Präsenz in neuen Märkten mit neuen Formen der Wertschöpfungsorganisation<br />

(z. B. bei der Forderung nach landessprachlicher Kommunikation)<br />

lässt sich mit ‚Offer to Operation‘ wesentlich schneller bewerkstelligen<br />

als mit einer klassischen sequenziellen Vorgehensweise.<br />

Damit wird also nicht nur das Time-to-Market verkürzt, sondern – was<br />

im Zuge der Umsetzung von Globalisierungszielen einen deutlich höheren<br />

Stellenwert hat –‚Time to efficient Operation‘ im Zielmarkt. Denn<br />

konsistente Inhalte sowie schnelle Inhaltsanpassung und -bereitstellung<br />

bringen klare Kosten- und vor allem Wettbewerbsvorteile.<br />

Welches ist der richtige Weg zu einer ‚Offer to Operation‘ Dokumentation?<br />

Ähnlich wie beim Cross Media Publishing bestimmt auch bei der ‚Offer<br />

to Operation‘ Organisation der Grad der Integration zwischen Wertschöpfungskette<br />

und Information Supply Chain das Aufwandsniveau<br />

auf dem Weg zu einer nachhaltigen organisatorischen Verbesserung.<br />

Viele Unternehmen sind (abhängig von der generellen Organisationsqualität)<br />

schon damit überfordert, alle relevanten Wertschöpfungsvarianten<br />

zu erfassen, zu beschreiben und zu dokumentieren. Ähnliches<br />

gilt sinngemäß auch für die Information Supply Chain. Der Weg zum<br />

Ziel beginnt also mit einer Analyse dieser beiden Perspektiven. Diese<br />

Vorbereitungen sind denen ähnlich, die im Vorfeld eines Variantenkonfigurators<br />

zu absolvieren sind. Weitere Aktivitäten sind bereits aus der<br />

Realisierung von Global Information Management-Konzepten bekannt<br />

und spielen sich zwischen Inhaltserstellung und ‐bereitstellung ab.<br />

Fazit<br />

Ohne Frage ist ‚Offer to Operation‘ Dokumentation eine eher organisatorische<br />

als informationstechnische Herausforderung. In jedem<br />

Fall ist aber die vorgestellte Herangehensweise ein ideales Instrument,<br />

um die Organisation wie auch die Information Supply Chain auf<br />

364<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

globalisierungsfreundliche Füße zu stellen. Die Eigeninitiative reicht<br />

für die Initialzündung – für einen zielorientierten Weg und greifbare<br />

Ergebnisse sind Best-Practice-Betrachtungen sowie eine methodische<br />

Unterstützung unabdingbar.<br />

für Rückfragen: apoestges@sdl.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

365


Personal- und Kostenmanagement<br />

PKM 3<br />

Partnerpräsentation<br />

Outsourcing der gesamten Dokumentation<br />

Stefan Magerstedt, KHS GmbH, Dortmund<br />

Dirk Wilke, cognitas GmbH, Ottobrunn<br />

Die cognitas GmbH hat die komplette Dokumentation der KHS GmbH im<br />

Rahmen einer Funktionsnachfolge übernommen. Die Dokumentationserstellung<br />

erfolgte bei der KHS GmbH dezentral in mehreren Teams.<br />

Der Vortrag zeigt die Vorgehensweise beim Outsourcing der kompletten<br />

Dokumentation eines Unternehmens. Er zeigt die Beweggründe beim<br />

outsourcenden Unternehmen, zwingende Voraussetzungen und das<br />

Vorgehen beim kompletten Übernahmeprozess.<br />

Die KHS GmbH ist ein Weltmarktführer und bevorzugter Lieferant<br />

der Verpackungsindustrie mit Fokus auf Getränke-Applikationen und<br />

komplette Anlagen. Der Konzern gehört zur Salzgitter AG, beschäftigt<br />

weltweit ca. 4500 Mitarbeiter und hat einen Jahresumsatz von ca. 920<br />

Millionen Euro. Basierend auf einer modular aufgebauten Produktpalette<br />

entwickelt und produziert KHS kundenspezifische Lösungen. Im<br />

Mittelpunkt steht die Ingenieursleistung zur Realisierung optimaler<br />

mechanischer und prozesstechnischer Abläufe.<br />

Die cognitas GmbH ist einer der führenden Dokumentationsdienstleister<br />

in Deutschland. Zu den Kernkompetenzen gehören die Erstellung<br />

von Betriebs- und Wartungshandbüchern im Maschinen- und Anlagenbau,<br />

das Übersetzungsmanagement und Consulting-Leistungen wie<br />

Prozessanalyse und Einführung eines neuen Redaktionssystems.<br />

Ausgangslage<br />

Zum Zeitpunkt der Entscheidung für das Outsourcing war die Dokumentationserstellung<br />

bei der KHS GmbH dezentral organisiert, wobei<br />

redaktionelle Vorgaben zentral gesteuert wurden. Die Redakteure waren<br />

in den jeweiligen Fachbereich integriert.<br />

Bedingt durch die dezentrale Struktur konnten der Austausch zwischen<br />

den Redakteuren und die Synergieeffekte zwischen den Fachbereichen<br />

nicht in allen Punkten optimal genutzt werden.<br />

Der Aufbau eines modularen Redaktionssystems und die Einführung<br />

eines abgestimmten Redaktionsleitfadens waren laufende Projekte.<br />

Einzelne Fachbereiche setzten bereits externe Dienstleister ein. Der<br />

Erfahrungsschatz eines großen Dokumentationsdienstleisters war eine<br />

gute Voraussetzung für die Erstellung von modularer Dokumentation<br />

basierend auf den Vorgaben der Maschinenrichtlinie in einem XMLbasierten<br />

Redaktionssystem.<br />

Beweggründe für das Outsourcing<br />

Im Rahmen eines KHS-weiten Restrukturierungsprogramms zur Förderung<br />

eines nachhaltigen Wachstums und zur Optimierung interner<br />

Abläufe wurde die Dokumentationserstellung analysiert und bewertet.<br />

Mögliche Lösungsansätze waren:<br />

−−<br />

Interne Umstrukturierung<br />

−−<br />

Teil-Outsourcing<br />

−−<br />

Komplett-Outsourcing<br />

366<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

Am Ende traf die KHS GmbH die Entscheidung, die Dokumentation<br />

vollständig in die Hände eines Dokumentationsdienstleisters zu geben.<br />

Zielvorgaben<br />

Die Erwartungen an das Projekt sind hoch und das Spektrum der Zielvorgaben<br />

macht deutlich, wie stark das Outsourcing in die Unternehmensprozesse<br />

eingreift:<br />

−−<br />

Kostenreduzierung und höhere Planbarkeit durch Fixkosten pro<br />

Anleitung<br />

−−<br />

Zentralisierung und abgestimmte Prozesse<br />

−−<br />

Effizienzsteigerung und Skalierbarkeit der Ressourcen<br />

−−<br />

Qualitätssteigerung und Harmonisierung der Betriebsanleitungen<br />

über alle Fachbereiche<br />

Vorgehensweise<br />

In enger Abstimmung entwickeln die Projektverantwortlichen beider<br />

Firmen einen Lösungsweg.<br />

Die Ausarbeitung eines Dienstleistungskatalogs bildet das Gerüst für<br />

klar umrissene Dienstleistungen und eine regelbasierte, nachvollziehbare<br />

Preisfindung.<br />

Bisherige Prozesse zur Dokumentationserstellung werden analysiert<br />

und so angepasst, dass sie zu einer partnerschaftlichen und effektiven<br />

Zusammenarbeit beider Firmen passen.<br />

Die Skalierbarkeit der Ressourcen verbessert sich entschieden durch<br />

die fachbereichsübergreifende Zusammenarbeit der Redakteure und<br />

die Übernahme von Aufträgen von anderen Firmen aus der Region.<br />

Der Funktionsübergang ermöglicht es allen bisherigen Dokumentationsmitarbeitern,<br />

sich bewusst für die neue Firma zu entscheiden. Dabei<br />

wird die räumliche Nähe zwischen Redaktionsteam und Produktionsstandort<br />

beibehalten. Eine einheitliche, zentrale Struktur bildet die<br />

Klammer um alle Redaktionen. Ein reger Austausch zwischen den Redakteuren<br />

stärkt die Zusammenarbeit im Tagesgeschäft. Neu eingestellte<br />

Mitarbeiter bringen neue Impulse und neue Fähigkeiten mit.<br />

In eigenen Teilprojekten werden die Übersetzungs- und Publikationsschnittstelle<br />

optimiert und Synergieeffekte durch ein miteinander verzahntes<br />

modernes Trainings- und Dokumentationskonzept gehoben.<br />

Herausforderungen<br />

Zu den Herausforderungen des Projekts gehört es, über Jahre gewachsene<br />

standortspezifische Strukturen zu erfassen, zu entflechten und an<br />

die neue Situation anzupassen:<br />

−−<br />

Aus der kollegialen Zusammenarbeit zwischen Dokumentationsmitarbeitern<br />

und fachlichen Ansprechpartnern in der Konstruktion<br />

entsteht eine offene und faire Zusammenarbeit zwischen Auftraggeber<br />

und Kunde.<br />

−−<br />

Während das Tagesgeschäft weiterläuft, fängt ein wachsendes und<br />

engagiertes Team den Know-how-Verlust auf, der entsteht, da einige<br />

der bisherigen Dokumentationsmitarbeiter sich nicht für den Weg<br />

zum Dokumentationsdienstleister entschieden.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

367


Personal- und Kostenmanagement<br />

−−<br />

Der hohe Durchsatz an Dokumenten macht eine effektive und pragmatische<br />

Verzahnung von Prozessen und IT-Infrastruktur notwendig.<br />

Hier gilt es, den Firmen-Policies beider Firmen Rechnung zu tragen.<br />

Konsequenzen<br />

Der Prozess des Outsourcings gibt allen Themen rund um die Dokumentation<br />

eine größere Sichtbarkeit innerhalb eines Unternehmens.<br />

Für Aufgaben, die bisher nebenbei oder basierend auf Erfahrungswerten<br />

erledigt wurden, müssen Leistungen definiert, passende Prozesse<br />

etabliert und Schnittstellen abgesprochen werden.<br />

Fazit<br />

Die Erwartung bei einem Outsourcing-Projekt in diesen Dimensionen<br />

ist hoch. Definierte Vorgaben an die Qualität der zu erstellenden Dokumentation<br />

und die einzusetzende Redaktionsumgebung erleichtern den<br />

Projektstart.<br />

Die Form des Komplett-Outsourcings greift tief in die Unternehmensprozesse<br />

ein, eine sorgfältige Prozessanalyse ist daher unabdingbar.<br />

In dem konkreten Projekt ist es abzusehen, dass sich das Vorgehen für<br />

beide Seiten in den Folgejahren auszahlen wird.<br />

für Rückfragen:<br />

Stefan.Magerstedt@khs.com<br />

Dirk.Wilke@cognitas.de<br />

368<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

PKM 4<br />

Fachvortrag<br />

Ressourcenplanung im<br />

Übersetzungsmanagement<br />

Constantin Walter, Across Systems GmbH, Karlsbad<br />

Durch eine effektive und effiziente Planung verfügbarer Ressourcen<br />

können Unternehmen jeder Größenordnung stabile Abläufe gewährleisten<br />

und nicht zuletzt beträchtliche Einsparungen realisieren. Während<br />

in anderen Bereichen und Branchen Standardlösungen existieren<br />

und sich hinter dem Stichwort „Enterprise Resource Planning“ sogar<br />

eine eigene Disziplin verbirgt, werden die Anforderungen des Übersetzungsmanagements<br />

häufig nicht ausreichend adressiert.<br />

Zusammenfassung und Ausblick<br />

Nach einer kurzen Einführung in die allgemeinen Charakteristika von<br />

ERP-Systemen erfolgt der Einstieg in die Spezifika des Übersetzungsmanagements.<br />

Hierzu gehören insbesondere die Einordnung der Ressourcen im Allgemeinen<br />

und der Lieferanten im Speziellen. Auch die Unterschiede,<br />

die sich durch die jeweilige Position in der Lieferkette ergeben, müssen<br />

berücksichtigt werden.<br />

Fundament jeglicher Planungen, und damit auch der Ressourcenplanung,<br />

ist ausreichende Information über die Fakten. Durch entsprechende<br />

Kennzahlen und Berichte lassen sich Entscheidungen und<br />

Zukunftsplanungen begründen. Neben der Auswertung des aktuellen<br />

Datenbestands müssen selbstverständlich auch die Daten der Vergangenheit<br />

betrachtet werden.<br />

Das höhere Ziel hinter all diesen Betrachtungen besteht im Ableiten<br />

von Managemententscheidungen auf verschiedenen Ebenen. Neben<br />

operativen Aktivitäten (beispielsweise welcher Mitarbeiter eine Aufgabe<br />

am sinnvollsten übernehmen kann) geht es auch um Entscheidungen<br />

mit größerer Tragweite wie die Kapazitäts- und Personalplanung.<br />

Auch Automatisierungspotentiale lassen sich in diesem Zug einfacher<br />

verorten und realisieren.<br />

Die Ansätze des Enterprise Resource Planning können auch im Übersetzungsmanagement<br />

gewinnbringend genutzt werden, um Laufzeiten<br />

zu verkürzen, Ressourcen optimaler zu nutzen und letzten Endes Kosten<br />

einzusparen.<br />

für Rückfragen: cwalter@across.net<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

369


Personal- und Kostenmanagement<br />

PKM 5<br />

Workshop<br />

Aufbau eines Kennzahlensystems für<br />

Technische Kommunikation<br />

Dr.-Ing. Michael Schaffner, GMVK Berlin GmbH / FOM Berlin Hochschule für Oekonomie &<br />

Management<br />

Dr.-Ing. Wolfgang Sturz, Sturz-Gruppe, Dr.-Ing. Sturz GmbH,<br />

Oft klagt die Technische Kommunikation darüber, vom Management<br />

keine ausreichende Beachtung zu finden. Ausschlaggebend hierfür sind<br />

nicht zuletzt meist intransparente Kosten- und Leistungsstrukturen.<br />

Kommunikation mit dem obersten Management heißt, deren Sprache<br />

zu sprechen. Hier helfen Kennzahlensysteme, um dem Management<br />

Transparenz und eine professionelle Steuerung der Organisationseinheit<br />

zu signalisieren. Der Workshop erläutert eine kennzahlengestützte<br />

Organisation und gibt praktischen Einblick in den Aufbau eines individuellen<br />

Kennzahlensystems für die Technische Kommunikation.<br />

In dem Workshop werden konzeptionelle Grundlagen einer Kennzahlen-gestützten<br />

Organisation vorgestellt:<br />

−−<br />

Strategieorientierter Planungsprozess<br />

−−<br />

Kybernetischer Regelkreis<br />

−−<br />

Controlling als Instrument der Unternehmensführung<br />

−−<br />

Kennzahlen und Kennzahlensysteme<br />

Anschließend wird in moderierten Arbeitsgruppen modellhaft und<br />

praktisch ein Kennzahlensystem (Balanced Scorecard) für die Technische<br />

Kommunikation ausgearbeitet.<br />

−−<br />

Ausarbeitung einer beispielhaften Strategieplanung für die Technische<br />

Kommunikation und Operationalisierung von kennzahlenrelevanten<br />

Strategiefeldern<br />

−−<br />

Ausarbeitung relevanter Kennzahlen<br />

−−<br />

Zusammenfassende Darstellung eines beispielhaften Kennzahlensystems<br />

Der Workshop schließt mit einer Diskussion und Ausblick auf weitere<br />

Betätigungsfelder.<br />

für Rückfragen:<br />

schaffner@gmvk.de<br />

sturz@sturz-gruppe.de<br />

370<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

PKM 6<br />

Workshop<br />

Ihre individuelle Standortbestimmung<br />

in Sachen Lokalisierungsmanagement<br />

Dr.-Ing. Axel Poestges, SDL, Stuttgart<br />

Global Information Management ist ein Managementsystem wie beispielsweise<br />

Qualitäts- oder Umweltmanagement und muss daher fest<br />

im Geschäftsmodell eines Unternehmens verankert werden. Unternehmen<br />

mit nur einem Produkt in abgegrenzten lokalen Märkten haben<br />

andere Anforderungen an die Information Supply Chain als ein Global<br />

Player. Das Management der Information Supply Chain ist umso<br />

komplexer, je mehr Ressourcen am Wertschöpfungsprozess beteiligt<br />

sind und je globaler vernetzt der Wertschöpfungsprozess selbst ist.<br />

Global Information Management ist daher ein schwer beherrschbarer<br />

Komplexitätstreiber.<br />

Wer einen globalen Fußabdruck hinterlassen möchte, muss sein Global<br />

Information Managementsystem virtuos beherrschen, andernfalls<br />

bleiben die Ergebnisse der Globalisierungsstrategie stets suboptimal.<br />

Die fundierte Kenntnis von Ausgangssituation und Ist-Zustand ist eine<br />

unabdingbare Forderung, um ein Global Information Managementsystem<br />

weiterentwickeln und optimieren zu können. Die für diesen Zweck<br />

verfügbaren Best Practices sind überschaubar und zielführende Werkzeuge<br />

kaum bekannt.<br />

Wie wird das Global Information Management<br />

Self Assessment angewendet?<br />

Das Global Information Management Self Assessment (GIM Self Assessment)<br />

ist ein IT-unterstütztes Werkzeug für die Standortbestimmung<br />

in Sachen Global Information Managementsystem. Wie der Name<br />

andeutet, nutzt das Assessment die Kenntnis der Best Practices erfolgreicher<br />

Global Player sowie umfangreiche Benchmark-Informationen,<br />

um einem Unternehmen mit globaler Ausrichtung eine belastbare<br />

Standortbestimmung zu ermöglichen.<br />

Das GIM Self Assessment deckt alle Bereiche der Information Supply<br />

Chain ab und ermöglicht eine individuelle Standortbestimmung.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

371


Personal- und Kostenmanagement<br />

Das Global Information Management Self Assessment besteht aus drei<br />

Bausteinen:<br />

−−<br />

Analyse<br />

−−<br />

Evaluierung<br />

−−<br />

Interpretation<br />

Der zentrale Baustein des GIM Self Assessments ist der Fragebogen. Er<br />

enthält sowohl Multiple-Choice-Fragen als auch Beschreibungen sowie<br />

eine Abfrage quantitativer Daten. Dieser Fragebogen kann entweder direkt<br />

von den entsprechenden Fachabteilungen im Unternehmen beantwortet<br />

oder im Rahmen mehrtägiger Workshops zusammen mit einem<br />

Berater bearbeitet werden.<br />

Nachdem alle Fragen vollständig beantwortet worden sind, wird der<br />

Fragebogen im Rahmen der Evaluierung mit einem IT-unterstützten<br />

Tool ausgewertet. Die Ergebnisse werden in einer Vielzahl verschiedener<br />

Diagramme in unterschiedlichem Detaillierungsgrad dargestellt<br />

und dokumentiert. Zentrales Diagramm in diesem Kontext ist eine<br />

Spinnennetz-Darstellung, die den Status in allen Phasen des Informations-Lebenszyklus<br />

im Vergleich zu Industrie-Standards und Industrie<br />

Best Practices zeigt. Diese Darstellung erlaubt eine unmittelbare Identifikation<br />

der Defizite und Suboptima im Unternehmen.<br />

Das Spinnennetzdiagramm als zentrale Grafik des Global Information<br />

Management Self Assessments zeigt auf, wo das Unternehmen im Vergleich<br />

zu Industry Best Practices steht.<br />

In der Interpretationsphase werden die identifizierten Defizite mit<br />

typischen, erfolgreichen Projekten in vergleichbaren Branchen verglichen.<br />

Die Defizite werden unter Verwendung der entsprechenden<br />

372<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

Benchmark-Daten bewertet und Verbesserungspotenziale ermittelt.<br />

Diese Potenziale können dann unmittelbar in einem separaten Projekt<br />

als Business Case dargestellt werden.<br />

Was wird im Workshop gemacht?<br />

Im Workshop lernen Sie den umfangreichen Fragebogen kennen, der<br />

den wichtigsten zentralen Baustein des Assessments darstellt. Im ersten<br />

Teil (nach Einführung und Vorstellung von Tool und Methode) wird ein<br />

gemeinsames Problemverständnis und ein kleinster gemeinsamer Problemnenner<br />

auf der Basis der generischen Information Supply Chain<br />

erarbeitet. Dieser Schritt erlaubt sowohl eine gemeinsame Diskussion<br />

der Ergebnisse als auch möglicher Problemlösungen. Im zweiten Teil<br />

des Workshops werden in drei Arbeitsgruppen die ausgewählten Fragenkomplexe<br />

des Global Information Management Self Assessments<br />

bearbeitet. Die Ergebnisse werden im Nachgang mit dem Auswertungstool<br />

analysiert und das Ergebnis interpretiert (Eine Zusammenfassung<br />

der Ergebnisse erhalten die Workshop-Teilnehmer im Nachgang per<br />

E-Mail).<br />

Neben der Diskussion der Einzelaspekte werden auch beispielhafte<br />

Gesamtergebnisse des Assessments diskutiert. Zu diesem Zweck werden<br />

drei ausgewählte praktische neutralisierte Beispiele vorgestellt und<br />

gemeinsam diskutiert. Die Arbeitsgruppen haben die Aufgabe, aus den<br />

Ergebnissen konkrete Handlungsempfehlungen abzuleiten. Diese Empfehlungen<br />

werden anschließend mit den konkreten Kundenprojekten<br />

verglichen und ggf. abweichende Resultate diskutiert.<br />

Was können Sie aus dem Workshop mitnehmen?<br />

Neben der Auswertung der individuellen Gruppenarbeiten erhält jeder<br />

Workshop-Teilnehmer einen Gutschein für die Auswertung eines<br />

Global Information Management Maturity Assessments. Dieses Assessment<br />

liefert Ergebnisse, die mit dem des Self Assessment vergleichbar<br />

sind, jedoch auf einem höheren Niveau aggregiert werden. Jeder<br />

Teilnehmer, der den zugehörigen Fragebogen zurücksendet, bekommt<br />

eine Auswertung sowie ein entsprechendes Dossier mit konkreten<br />

Handlungsempfehlungen.<br />

für Rückfragen: apoestges@sdl.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

373


Personal- und Kostenmanagement<br />

PKM 7<br />

Workshop<br />

Übliche Fehler bei<br />

der Problemlösung<br />

Houston, …! Problemlösungsprozess<br />

in Dokumentation und Übersetzung<br />

Isabelle Fleury, Fleury & Fleury Consultants, Köln<br />

Viele meinen, es gäbe keine Probleme, sondern nur Herausforderungen.<br />

Andere wiederum haben ständig Probleme, während von anderen behauptet<br />

wird „sie hätten ein großes Problem“. Egal, zu welcher Aussage<br />

jeder selbst tendiert, illustrieren die Sätze zusammengenommen vor allem<br />

eins: Jeder versteht unter „Problem“ etwas anderes: Ärgernis (tägliche<br />

Plagegeister), Symptom oder Störung, Störungsursache, (Aus-)Wirkung<br />

oder schwierige Anforderung (die berühmte Herausforderung).<br />

Weil „Probleme“ im Arbeitsalltag außerdem häufig anzutreffen sind,<br />

lohnt es sich, Klarheit zu schaffen und einen Weg zu finden, wie sie behandelt<br />

werden können und wie man zu zielgerichteten, effizienten und<br />

ausgewogenen Lösungen kommt.<br />

Nicht jedes Problem verdient die Anwendung eines ausführlichen<br />

Problemlösungsprozesses (PLP). In Dokumentation und Übersetzung<br />

eignet sich ein PLP für Probleme, die einen negativen Einfluss auf die<br />

Projektziele (Termin, Qualität, Kosten) oder auf eine Geschäftsbeziehung<br />

haben.<br />

Der PLP kann in unterschiedlichen Projektphasen angewendet werden:<br />

zur Festlegung des Produktionsablaufs und zur Abwehr von erkannten<br />

Risiken; in der Steuerungsphase beim Auftreten von Schwierigkeiten<br />

und zur Hebung von Best Practices.<br />

−−<br />

Besprechung von Lösungen, bevor das Problem genau analysiert ist<br />

−−<br />

Umsetzung von Lösungen, obwohl relevante Informationen zum Problem<br />

oder zur Lösung fehlen<br />

−−<br />

Personen beschäftigen sich mit Problemen und/oder Lösungen, die<br />

nicht in ihren Zuständigkeitsbereich fallen<br />

−−<br />

Beschäftigung mit Problemen, die zu allgemein, zu komplex oder<br />

ungenau definiert sind<br />

−−<br />

Umsetzung der ersten Lösung, die einem einfällt, egal wie geeignet<br />

sie ist<br />

−−<br />

Problemlösung nur durch eine oder wenige Personen, ohne kritische<br />

Betrachtung durch Dritte<br />

−−<br />

Kein Plan zu Implementierung und Bewertung der Lösung<br />

Um nicht in diese üblichen Fallen zu tappen, wird der Problemlösungsprozess<br />

in sechs abgestimmte Schritte unterteilt, die die Konzentration<br />

auf eine Aufgabe richten und ein überstürztes Handeln vermeiden.<br />

374<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Personal- und Kostenmanagement<br />

Problemlösungsprozess in sechs Schritten<br />

Problemanalyse<br />

Lösungsmöglichkeiten<br />

Empfehlung/<br />

Entscheidung<br />

Lösungsumsetzung<br />

Die genaue Analyse des Problems stellt die wichtigste Phase im Prozess<br />

dar.<br />

−−<br />

Beschreibung und Abgrenzung des Problems zum gegenwärtigen<br />

Zeitpunkt: Auslöser, Symptome, mögliche Ursachen, aktuelle Auswirkungen,<br />

Umfeldfaktoren<br />

−−<br />

Beschreibung der Folgen in der Zukunft, Einfluss auf Projektziele<br />

−−<br />

Anforderungen an die Lösung(en), Ziele des Lösungsprozesses<br />

Zur korrekten Analyse müssen die richtigen Personen herangezogen<br />

werden: Beteiligte an Ursache, Betroffene von Auswirkungen, erfahrene<br />

Personen, die nicht direkt betroffen sind.<br />

Erst in einem zweiten Schritt werden Lösungsmöglichkeiten mit Hilfe<br />

von Problemlösungstechniken ermittelt.<br />

−−<br />

Mögliche Lösungsansätze oder Kombinationen von Maßnahmen<br />

suchen<br />

−−<br />

Auswirkungen aller Lösungsansätze auf Projektziele und Eignung<br />

gemessen an Zielen des Lösungsprozesses eruieren<br />

−−<br />

Risiken analysieren, die die Umsetzung der Lösungsansätze im Projekt<br />

bringt<br />

Erst dann nähert man sich der Entscheidung.<br />

−−<br />

Prüfen, ob alle nötigen Informationen zur Entscheidung vorhanden<br />

sind<br />

−−<br />

Gegenseitige Beeinflussung der Lösungsmöglichkeiten besprechen<br />

−−<br />

Alternativen erwägen und Empfehlung festhalten<br />

−−<br />

Den richtigen Entscheider finden<br />

−−<br />

Entscheidung über Steuerungsmaßnahme(n) treffen<br />

−−<br />

Projektziele neu abstimmen<br />

Jetzt erst wird im Projekt gehandelt, und dies sollte mit den üblichen<br />

Projektmanagement-Instrumenten erfolgen.<br />

−−<br />

Prozessablauf und Projektpläne anpassen<br />

−−<br />

Anweisungen an Beteiligte und Projektdokumentation anpassen<br />

−−<br />

Kommunikation der Steuerungsmaßnahmen an Beteiligte<br />

−−<br />

Festlegung der Schritte zur Qualitätssicherung<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

375


Personal- und Kostenmanagement<br />

Wirkungsprüfung<br />

PLP-Bewertung<br />

Bis die Steuerungsmaßnahmen greifen, kann es dauern. Wenn ein<br />

Problem im Projekt schon eingetreten ist, ist jede weitere Verzögerung<br />

gefährlich. Eine oder mehrere zusätzliche Kontrollen sollten eingeplant<br />

und durchgeführt werden, um sicher zu sein, dass die Maßnahmen greifen<br />

und die erwartete Wirkung zeigen.<br />

Der Problemlösungsprozess ist komplex und erstreckt sich eventuell<br />

über mehrere Tage/Monate. Mit einer Auswertung wird zum einen rückblickend<br />

analysiert, ob die gewählten Steuerungsmaßnahmen geeignet<br />

waren und welche zur allgemeinen Verbesserung der Unternehmensprozesse<br />

genutzt werden können. Zum anderen reflektieren die Beteiligten,<br />

wie das Instrument ihnen geholfen hat und wie sie es in Zukunft<br />

besser anwenden können, um schneller und besser ihre Probleme zu<br />

lösen.<br />

Im Workshop wird dieser Problemlösungsprozess an konkreten Beispielen<br />

aus dem Publikum angewandt. Die Teilnehmer experimentieren<br />

in Kleingruppen mit den dort vorgestellten Techniken.<br />

für Rückfragen: if@fleuryfleury.com<br />

376<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Social Media


Social Media<br />

SOCIAL MEDIA<br />

Presentation<br />

Engaging readers in your documentation –<br />

how and why with social media<br />

Sarah Maddox, Atlassian, Sydney, Australia<br />

Blogs, websites, forums... There is so much information out there! We<br />

know that our documentation is the best source of information available<br />

to our customers. How can we make sure that people find our documentation?<br />

How do we even know that people are looking for information<br />

about our products?<br />

One answer lies in the clever use of social media.<br />

Introducing social documentation tools<br />

We begin by examining why you would want to use social media as part<br />

of your technical communication toolbox.<br />

This presentation shows how to integrate your documentation with<br />

Twitter, YouTube and Flickr, in order to draw readers into the documentation.<br />

I’m using a wiki called Confluence. The tools shown in the<br />

presentation are applicable to most web-based platforms, including<br />

Confluence.<br />

You will learn innovative techniques and take away ideas to put into<br />

practice in your own technical communication. For example:<br />

−−<br />

See how to harness the information that expert bloggers provide.<br />

−−<br />

Find out how running a doc sprint can improve your documentation,<br />

enhance your team‘s reputation, and add value your organisation and<br />

its products.<br />

−−<br />

Investigate how rewarding your readers can keep them interested<br />

in the documentation, ensuring that they absorb what they read and<br />

complete the tasks assigned to them.<br />

Feedback<br />

Some documentation platforms, such as a wiki, allow readers to add<br />

comments to the pages. We will look at the types of comments received<br />

on a live documentation wiki.<br />

As an alternative to comments, we will see how to add a feedback form<br />

via an online service called Wufoo.<br />

Blogs<br />

Engaging with bloggers is a good way of giving customers extra information.<br />

It is also a way of generating links back into your documentation<br />

from the bloggers’ sites, thus drawing readers into your documentation.<br />

What’s more, it is a good thing to have the support of bloggers,<br />

since many of them are influential in your community of readers and<br />

customers.<br />

This presentation describes a model for linking from the documentation<br />

to relevant external blogs.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

379


Social Media<br />

Managing updates by everyone<br />

Collaborating on document development produces an excellent repository<br />

of information. The level of collaboration, and the controls put in<br />

place, depend on the environment and audience requirements. This<br />

presentation discusses how to manage updates by subject matter experts<br />

and community authors. We examine the questions of copyright<br />

and intellectual property, how to monitor the updates made, and some<br />

permission schemes for controlling the editing rights.<br />

Doc sprints<br />

A doc sprint is a short period of time when a group of people collaborate<br />

to write a specific set of documents. We will examine the reasons<br />

for holding such an event and the results of some recent doc sprints.<br />

The references section includes links to detailed articles on planning<br />

and running a doc sprint.<br />

Flickr<br />

We will take a quick look at using shared photographs from Flickr to<br />

engage your readers.<br />

YouTube<br />

Adding a video is a good way of making your documentation more attractive,<br />

informative and engaging. We will look at the example of some<br />

release notes, where the technical writers re-use a video produced by<br />

the marketing team, thus making good use of the effort spent in producing<br />

the video.<br />

Twitter<br />

Twitter opens the way for innovative technical communication techniques.<br />

In this presentation, we discuss these ideas:<br />

−−<br />

Using Twitter as a medium for release notes.<br />

−−<br />

Inviting customers to Tweet their hints and tips about your products.<br />

−−<br />

Incorporating Twitter activity streams in your documentation.<br />

−−<br />

Rewarding the community for sharing their tips.<br />

You will see how to:<br />

−−<br />

Embed a live Twitter stream onto your page.<br />

−−<br />

Provide a link that prepopulates a tweet for your readers, giving them<br />

the option to tweet your suggested words or change the words before<br />

tweeting.<br />

−−<br />

Build a Twitter widget.<br />

Gamification<br />

Gamification is a current buzz word in user interface design as well as<br />

technical communication. It means the application of game techniques<br />

to things that are not games, such as software and documentation.<br />

We will see a configuration guide that includes some of the features of a<br />

game. The guide uses Twitter to add interactivity to the documentation,<br />

and specially-designed graphics to add appeal to the pages. Humorous<br />

380<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Social Media<br />

language enhances the pages too. We will examine why and how this<br />

was done, and the results.<br />

Documentation as an emotional experience – does that sound weird?<br />

This presentation says not.<br />

References<br />

“The Death Of SEO: The Rise of Social, PR, And Real<br />

Content”: http://www.forbes.com/sites/kenkrogue/<strong>2012</strong>/07/20/<br />

the-death-of-seo-the-rise-of-social-pr-and-real-content/<br />

Wufoo Online Form Builder: http://wufoo.com/<br />

A “Tips of the Trade” page linking to external blogs:<br />

https://confluence.atlassian.com/display/JIRA/Tips+of+the+Trade<br />

Example of a contributor licence agreement:<br />

https://confluence.atlassian.com/display/ALLDOC/ACLA+v2.0<br />

How to plan a doc sprint:<br />

http://ffeathers.wordpress.com/<strong>2012</strong>/09/07/how-to-plan-a-doc-sprint/<br />

Doc sprint wiki: http://confluence.atlassian.com/display/DOCSPRINT<br />

A „Tips via Twitter“ page:<br />

https://confluence.atlassian.com/display/JIRA/Tips+via+Twitter<br />

Dragon Slayer documentation:<br />

http://confluence.atlassian.com/display/ATLAS/Here+Be+Dragons<br />

A crowd-sourced guide to Twitter by technical communicators:<br />

https://wikitechcomm.onconfluence.com/display/DOC/Home<br />

How to embed Twitter: http://ffeathers.wordpress.com/2011/01/02/howto-embed-twitter-streams-and-prepopulate-tweets-in-your-document/<br />

Speaker‘s contact details<br />

Blog: http://ffeathers.wordpress.com<br />

Email: sarah@atlassian.com<br />

Twitter: @sarahmaddox<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

381


Professionelles Schreiben /<br />

Technical Authoring


Professionelles Schreiben / Technical Authoring<br />

TA 2<br />

Working with a Style Guide within DITA<br />

Tony Self, HyperWrite, Melbourne, Australia<br />

Overview<br />

As more companies implement DITA to streamline the development of<br />

documentation and user assistance, best practices for DITA authoring<br />

are being established. While the OASIS DITA standard provides rules<br />

for the use of elements and attributes, it does not provide clear guidelines<br />

for how to practically apply the mark-up, and how to create consistency<br />

so that DITA documents can be more readily interchanged. In<br />

traditional authoring, a style guide would provide real-world examples<br />

and clear recommendations. However, existing style guides are written<br />

for style-based authoring, and not for semantic authoring. Dr Tony Self<br />

has analysed the way in which DITA has been used, and has developed<br />

a DITA Style Guide to fill the gap between the DITA standard and traditional<br />

style manuals. Consistent mark-up enables efficiency of authoring<br />

and interchange of documents, and standard approaches create<br />

simple solutions to mark-up dilemmas.<br />

The Problem<br />

Although DITA is a standard, mark-up semantics can be applied in<br />

non-standard ways. If DITA topics are really going to be interchanged<br />

freely between members of a team and even between companies, DITA<br />

authors have to apply DITA semantics consistently. The DITA language<br />

reference helps a little, but what helps more is a style guide. This was<br />

the motivation for the development of “The DITA Style Guide”.<br />

Context<br />

While the DITA technical standard is precise, the DITA approach itself<br />

is not universally understood or agreed. Working with DITA is made<br />

difficult by the lack of agreed common practices, let alone best practices.<br />

Common practices must be adopted so that the advantages of the modular,<br />

XML-based DITA document architecture can be realised.<br />

Best practices for technical communication are typically captured in a<br />

style guide. Tony Self embarked on a research project, as part of his PhD<br />

by artefact and exegesis, to discover what constitutes best practice in<br />

DITA, and how this information could be encapsulated. The product of<br />

that research was “The DITA Style Guide”, which was first published in<br />

March 2011.<br />

Influences on Technical Communication<br />

The advent of DITA and other structured authoring approaches is the<br />

result of strong influences on technical communication. Twenty years<br />

ago, technical publishing was simple, as the deliverable was almost always<br />

a printed document, the product line that the document supported<br />

was relatively simple, and the production lead times were lengthy.<br />

The environment is vastly different now. There are different “delivery<br />

platforms”, ranging from embedded user assistance, to Web, to eBooks,<br />

to synthetic voice… in addition to the venerable printed book. Product<br />

life cycles are incredibly short. In the software industry, programming<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

385


Professionelles Schreiben / Technical Authoring<br />

approaches have dramatically changed to cope with these shorter cycles,<br />

and other demands provide pressure from every avenue. These<br />

pressures show no sign of abating, as technological change flows<br />

through nearly every manufacturing, design and service industry.<br />

Structured Authoring is Different<br />

Structured authoring is different from traditional style-based, linear<br />

authoring in two key ways:<br />

−−<br />

the need for separation of content and form (the author is not concerned<br />

with presentational form during the writing process)<br />

−−<br />

the modular architecture (documents are written as re-usable components,<br />

with topics being the basic building blocks).<br />

These two key differences have significant impact on writing approaches.<br />

In the respected “Chicago Manual of Style”, first published in 1906,<br />

70% of the guidelines concern presentational form. In DITA authoring,<br />

presentational form is applied automatically at the publishing stage, and<br />

is derived from the semantic mark-up applied during authoring. A DITA<br />

style guide therefore needs to address the best practices for semantic<br />

mark-up, rather than the best practices for presentational mark-up.<br />

The topic-based modular document architecture is less of a change for<br />

technical communicators who have previously worked with hypertext<br />

documents, which are also topic-based. Even so, the re-use and modularity<br />

principles within DITA require changes in mindset, and having<br />

documented best practices makes the transition easier.<br />

The Need for a Style Guide<br />

For the benefits of a DITA approach to be realised, technical communicators<br />

need to be producing high quality documents suitable for re-use<br />

and modularisation, and this means that not only must the DITA standard<br />

be adhered to, but common practices must be applied. One of the<br />

difficulties of DITA adoption is working without a relevant Style Manual.<br />

Traditional style manuals, with their focus on presentational style, are<br />

entirely unsuitable for semantic authoring.<br />

What goes in a DITA Style Guide?<br />

A general purpose DITA style guide should contain supra-organisational<br />

semantic mark-up rules; rules that can be followed by writers<br />

386<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

in all organisations. This is very important when the formal language<br />

rules (such as those in the official OASIS DITA Language Reference)<br />

are open to interpretation. For example, DITA has and <br />

elements, either of may be technically permitted in a particular<br />

circumstance. A style guide should stipulate which element should be<br />

chosen for that circumstance. Further, the DITA Language Reference is<br />

large, technical, and impenetrable for “non-technical” technical authors,<br />

and includes information that, while relevant to information architects,<br />

is not applicable to content writers.<br />

What Next?<br />

The DITA Style Guide was published with the intention of future transition<br />

to a community-owned, open source document, perhaps published<br />

as a Wiki. In the shorter term, the DITA Style Guide is being incorporated<br />

into some DITA authoring tools, to make it easier to access best<br />

practice information when it is most needed. The guide will continue to<br />

be available as a low-cost printed publication or eBook.<br />

tony.self@hyperwrite.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

387


Professionelles Schreiben / Technical Authoring<br />

TA 3<br />

Presentation<br />

Write less, say more –<br />

The added value of minimalism<br />

Jang F.M. Graat, JANG Communication, Amsterdam<br />

This is a shortened version of an article that appeared in tcworld<br />

magazine. The full article text is available at: http://<br />

www.tcworld.info/tcworld/technical-communication/article/<br />

write-less-say-more-the-added-value-of-minimalism/<br />

Information overload<br />

We live in an information era. Before book printing was invented, when<br />

copies were made manually, a single human being could gain all available<br />

knowledge by reading all the manuscripts in the library. But those<br />

days are gone forever. Today, a single human being cannot even take<br />

in all the information that is available in his everyday life, let alone in<br />

a library. And even if you could read all the books in your local library,<br />

there is always a terminal that connects you to the world wide web,<br />

which grows faster than anyone can read. In just over 2 decades, the<br />

world wide web has grown to 155 million websites.<br />

To a lesser extent, this development to an information overload has also<br />

occurred in user manuals, especially where users in safety-conscious<br />

jobs are concerned. The amount of information that is supposed to<br />

make our lives safer has passed a point where it backfires. Pilots in a<br />

commercial airline have to drag an entire suitcase full of documentation<br />

into the cockpit with them. When an emergency occurs, they should go<br />

through the manual to find the correct procedure to use, losing valuable<br />

time in a critical situation. Needless to say that they will often fall back<br />

on the old procedures that they learned by heart – and sometimes do<br />

exactly the wrong thing, as the airplane control system has been modified<br />

in unexpected ways.<br />

With the amount of information becoming available second by second,<br />

the hardest task we are facing today is not processing, but finding the<br />

information. This is the main reason why Google has become one of<br />

the internet’s most powerful companies in a matter of years. By doing a<br />

better job than other search engines, Google has virtually wiped out all<br />

competition. Because doing a better job in finding stuff has become vital<br />

to our survival in the information tidal wave that is attacking us every<br />

day. If we need information, we need it super fast. To survive an upcoming<br />

deadline, we need concise, immediately useable information, and we<br />

need it right now.<br />

The user in the center<br />

Minimalism is born from this insight: the user only wants to know what<br />

he or she needs to know, when he or she needs to know it. The average<br />

user is really not interested in the product itself, just like you couldn‘t<br />

care less how a hammer is made or what material it is made of or which<br />

aerodynamics studies went into the design of the hammer head or how<br />

ergonomics studies made your grip on the handle better. All of that information<br />

might be useful for someone (e.g. an ergonomist or an industrial<br />

designer) but least of all for the user. The user just wants to drive<br />

388<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

a nail into a wall and only needs to know which side of the hammer to<br />

hold to do so. This might sound like an extreme simplification but it is<br />

really a helpful metaphor to use when designing minimalist documentation.<br />

Look at your beloved product from disinterested and unaffective<br />

perspective: it is just a hammer enabling the user to drive a nail into<br />

a wall. It is never a goal in itself and if the user finds another tool that<br />

does the job easier, he will.<br />

Minimalism starts with defining clear and singular topics. Each topic<br />

in minimalist documentation answers one single question. How do I do<br />

this? What went wrong? What are my options here? Whenever a section<br />

answers more than one single question, it should be divided into more<br />

than one section. Designing the documentation in this way helps the<br />

user find concise information quickly. It also enables you to reuse the<br />

same information in different media (such as context-sensitive online<br />

help), without making any changes to the content.<br />

Another aspect in minimalist documentation is the use of diagrams<br />

to reduce the number of words. If an image is better than a thousand<br />

words, then do not make the mistake of also including those thousand<br />

words. If you do not trust the user‘s interpretation of your image, then<br />

the image is probably not good enough, so either improve the clarity of<br />

the image or do not use it if you cannot clearly illustrate what you want<br />

to say.<br />

And finally there is the aspect of disclosing information. Enabling the<br />

users to find exactly what they need and when they need it. This is a<br />

science in itself and cannot be covered extensively in a short article on<br />

minimalism. But again the minimalist principle is easy to understand<br />

and should guide any design decisions made: put the users in the centre<br />

and minimize the effort and time they need to find the information they<br />

need. Tools for disclosure of information are a clear document structure<br />

(overall structure for PDFs and printed books; internal topic structure<br />

for all media), a good table of contents, a well-designed index, a usercentered<br />

help wizard (not at the level of Microsoft‘s infamous Clippy)<br />

and, last but not least, an effective user community platform.<br />

Added value<br />

In the end everything leads to the same thing: added value. As the title<br />

of my article suggests: writing more does not usually add value to a<br />

documentation product. This may run counter to our initial idea of adding<br />

value: more is better. More options in a product, more information<br />

in the manual. But the reverse is true if the documentation is viewed as<br />

a means to an end, instead of being the goal itself. From that minimalist<br />

perspective, adding value is achieved by reducing the burden of documentation.<br />

What you get is what you need. And what you need is fewer<br />

words.<br />

On the production side of documentation, the added value of fewer<br />

words is clear from the start. Fewer words means less work maintaining<br />

the documentation. Note that I do not state it takes less work writing<br />

it in the first place, as creating minimalist documentation does require<br />

more thinking and a much higher investment, especially if tech writers<br />

are beginners in minimalism. But once the minimalist documentation<br />

is created, the cost of maintenance will drop dramatically: one change<br />

in a product option generally only leads to a change in one single topic,<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

389


Professionelles Schreiben / Technical Authoring<br />

as the changed piece of information only appears in that one singular<br />

topic. The same is true of typos or mistakes in the documentation.<br />

Fewer words also means more concise manuals, which reduces the cost<br />

of printing (if this is still done) but in any case reduces file sizes (when<br />

produding PDFs and online help) and makes web-based documentation<br />

faster to access via the internet. Fewer words also means lower<br />

translation cost, especially when those fewer words appear in simpler<br />

sentences.<br />

But even though the cost of producing good documentation is an important<br />

factor on the balance sheet of your company, it should be less<br />

important than a much more important, but less tangible, factor: user<br />

satisfaction. Often neglected, user satisfaction is what drives sales, reduces<br />

help desk costs and generally boosts the company‘s market value.<br />

Minimalist documentation puts the user in the centre, and aims to maximize<br />

user satisfaction.<br />

Contact: jang@jang.nl<br />

390<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

TA 4<br />

Presentation<br />

EPUB3: What does it offer, and is it ready?<br />

Scott Prentice, Leximation, Inc., San Rafael, USA<br />

The EPUB3 specification was approved in October 2011 and there has<br />

been a lot of talk about its features and benefits. However, as with any<br />

new format it can take some time for the tools to catch up. If you’re creating<br />

eBooks, you’ll want to deliver the right format to your customers,<br />

but how do you know what the right format is? Moving ahead too early,<br />

may leave some people unable to use your files, and moving ahead too<br />

late may mean that you’re not taking advantage of new features. This<br />

presentation goes over the new features in EPUB3 and examines the<br />

current state of the readers and authoring tools, to help you decide if it’s<br />

time to move to EPUB3.<br />

Brief History of the EPUBformat<br />

The EPUBspecification is maintained by IDPF (International Digital<br />

Publishing Forum).<br />

−−<br />

Initial EPUBapproved in 2007, superseding the older Open eBook<br />

standard<br />

−−<br />

EPUB2.0.1 approved 2010<br />

−−<br />

EPUB3 approved October 2011<br />

−−<br />

EPUB3 Fixed Layout format approved May <strong>2012</strong><br />

−−<br />

Dictionaries and Indexes Working Groups, in progress<br />

What’s New in EPUB3?<br />

−−<br />

Files now based on HTML5<br />

−−<br />

Ability to embed multimedia (both audio and video)<br />

−−<br />

Media overlays provide ability to “read-along” by syncing audio to the<br />

highlighting of words<br />

−−<br />

Scripting support allows dynamic interaction with the content<br />

−−<br />

Better support for fonts and page layout (MathML, headers/footers,<br />

embedded fonts, CSS2.1/CSS3 support)<br />

−−<br />

Better SVG image support<br />

HTML5 Impact<br />

New HTML5 element replaces the NCX file for TOC navigation.<br />

For fallback to EPUB2, the NCX file can be included. The HTML5<br />

and tags HTML5 elements like , ,<br />

provide useful structured for books. As with EPUB2, all content<br />

and packaging files are XML (XHTML5).<br />

CSS2.1 and CSS3<br />

Supports CSS2.1 except fixed positioning (avoids rendering and interoperability<br />

issues). Also bidirectional font support should use HTML5<br />

markup rather than CSSproperties. Use of absolute positioning is discouraged,<br />

and may not be consistently supported by readers.<br />

CSS3 support includes the Speech, Fonts (embedding and obfuscation),<br />

Text (hyphenation, line and word breaks, alignment, and emphasis),<br />

and Writing Modes (except bidi, which is handled with HTML5), Media<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

391


Professionelles Schreiben / Technical Authoring<br />

Queries, Namespace, Multi-Column Layout, Ruby, and Display Property<br />

(header/footer) modules.<br />

Good support for Asian language documents with vertical writing, right<br />

to left pagination, ruby, tate-chu-yoko, and kenten characters.<br />

Layout Enhancements<br />

HTML5 and elements provide a container for the author<br />

to define header and footer content that is displayed appropriately<br />

by the reading system.<br />

HTML5 element can provide a useful method of offering additional<br />

information to the reader without taking up valuable screen<br />

space.<br />

Multimedia<br />

HTML5 and elements provide integrated multimedia<br />

support. MP4 support recommended for audio (MP3 required). Reading<br />

systems should support at least one of the H.264 and VP8 video codecs.<br />

Media Overlays<br />

Enables a “read-aloud” feature, by matching up specific tags in the<br />

HTML content with offsets in an included audio file. The mapping between<br />

HTML and audio is done in a SMIL file.<br />

Scripting Support<br />

In EPUB2, scripting was discouraged (generally not supported), but<br />

that’s no longer the case with EPUB3. Use scripting for interactivity and<br />

dynamic layout capabilities.<br />

MathML Support<br />

EPUB3 readers should fully support the display of mathematic equations<br />

through MathML (although, as with most things actual support<br />

may vary).<br />

SVG Support<br />

XHTML documents support the embedding of SVG document fragments<br />

by reference (via img or object elements) or inclusion (within the<br />

svg:svg element in the XHTML). SVG documents can also be included<br />

directly in the EPUBspine.<br />

Tool and Reader Support<br />

Authoring and conversion tools that support EPUB3 include: InDesign<br />

CS6, RoboHelp 10, oXygen 14, and the DocBook to EPUBXSLT.<br />

EPUB3 reading systems include: AZARDI Desktop 11 (Mac, Windows,<br />

Linux), AZARDI OL (browser), Readium (Chrome plugin), iBooks (iOS),<br />

Kobo app (iOS), Kobo reader (?), plus a few “educational” readers.<br />

392<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

EPUB2 or EPUB3?<br />

EPUB3 reading systems should process EPUB2 documents as the<br />

EPUB2 spec defines. So, providing an EPUB2 file will work properly in<br />

“all” readers.<br />

An EPUB3 file can include the EPUB2 NCX (TOC) so it can be read in<br />

an EPUB2 reading system. The EPUB2 reading system should not have<br />

problems with basic content in HTML5, but any other special features<br />

will likely not work.<br />

Until there is better reader support for EPUB3, it’s probably best to stick<br />

with EPUB2 or very basic EPUB3 publications, unless you know that<br />

your target audience is capable of using EPUB3 files.<br />

Resources<br />

EPUB3 specification – http://idpf.org/epub/30/<br />

Fixed Layout Format – http://idpf.org/epub/fxl/<br />

Liz Castro – http://www.pigsgourdsandwikis.com<br />

http://www.epubtest.com/resources.php<br />

Contact: sp10@leximation.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

393


Professionelles Schreiben / Technical Authoring<br />

TA 5<br />

Partner presentation<br />

Changing the engine without stopping the car<br />

Jang F.M. Graat, JANG Communication, Amsterdam<br />

Susanne Dahlén, IAR Systems AB, Uppsala<br />

The drag of legacy documentation<br />

Quite a few heads of documentation departments face an impossible<br />

choice. They would love to move their team to a modern reuse solution,<br />

so that they can finally concentrate more on the quality of their<br />

products instead of always putting out fires and barely ever meeting the<br />

deadlines for publication. But the sheer amount of legacy documentation<br />

keeps them from innovations that would imply a full break with the<br />

past. In many cases, the legacy documentation is still very much alive<br />

and simply has to be taken along into whatever new system is being<br />

considered.<br />

Manually converting legacy documentation may not be feasible due to<br />

the sheer volume of materials: it would mean that the introduction of a<br />

new efficient reuse system causes more work instead of less. And this<br />

usually kills the innovation project before it has even started.<br />

The project we will be presenting has allowed at least one documentation<br />

manager to get out of this fix and step into the modern world without<br />

leaving all the goodies from the past behind. Our presentation outlines<br />

how we built a future-safe (XML-based) documentation platform<br />

that supports automatic reuse of content, and how we pulled in existing<br />

content with minimal manual work.<br />

Even though this project deals with Adobe FrameMaker only, the same<br />

principles and similar methods apply to other authoring tools.<br />

Creating and performing magic tricks<br />

Adobe talks about unstructured versus structured FM, but this does no<br />

justice to all those authors (including the people at IAR Systems AB at<br />

the start of the project) who work in a very structured manner, even if<br />

they do not use the structured FM interface. My friend Michael Müller-<br />

Hillebrand uses the term „format-based“ FM in such cases, where the<br />

structure is expressed in the applied paragraph and character format<br />

tags and the order in which they appear in the document.<br />

Starting from such format-based FM documents, conversion to structured<br />

FM is not a piece of cake, but not a hopeless task either. The trick<br />

in using FM’s built-in conversion tools is to translate the paragraph and<br />

character formats into elements. Once all formats are translated, specified<br />

sequences of elements can be wrapped in higher-order elements<br />

and this continues until the top level (root element) is reached.<br />

After conversion, all formatting is removed from the document, as content<br />

is now wrapped into elements with semantic labels rather than<br />

format tags. The next step is to reapply formatting using an EDD. In our<br />

case, the EDD does not contain any direct formatting but simply applies<br />

the paragraph and character format tags that were there in the first<br />

place. There is no visible difference, but under the hood a whole new<br />

layer of structure is inserted between the pure content and the final<br />

output.<br />

394<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Light at the end of the tunnel<br />

After converting the format-based FM materials to structured FM, the<br />

road opened up and the destination – an intelligent content reuse system<br />

– became visible at the end of the tunnel. Instead of purchasing<br />

one of the available CMSs, a tailor-made system was created using FM’s<br />

built-in ExtendScript. With this system, the authors can start working<br />

on moving elements into a repository, working slowly towards ever<br />

higher reuse percentages in the full set of documents, without ever leaving<br />

any content behind.<br />

The choice for a tailor-made system allowed a couple of things that<br />

would have been hard to achieve with many of the existing CMSs.<br />

First of all, there are no unwanted side-effects of the CMS and its publishing<br />

engine, which might introduce small differences in the final<br />

layout of the new materials compared to the legacy documentation. In<br />

a company where the house style is strictly enforced, any small deviation<br />

will cause problems and might mean a lot of customizing work to<br />

be done in a “fully finished” solution. The tailor-made reuse system does<br />

not change the source materials or the publication engine; it just allows<br />

pushing materials into a repository of reusable elements.<br />

Also, the tailor-made reuse system does not require all parts of the<br />

document to be in the repository. Even if half of the materials are in and<br />

the other half is not, there is nothing that keeps you from publishing<br />

the documents. This allows for a smooth transition to maximum reuse of<br />

your structured FM content.<br />

The small print<br />

This short article does not give any details about the techniques that<br />

were used and, most of all, the bears we had to shoot off the road in<br />

order to reach our destination. It has been quite a challenging project,<br />

as the format-based FM materials were of the most complex and technically<br />

advanced type that Jang has ever seen in his career. If you do want<br />

to see a little more of the pitfalls and workarounds in the conversion<br />

to structured FM, you should probably also put TA16 (Jang’s tutorial on<br />

conversion techniques) on your list.<br />

Contact:<br />

jang@jang.nl<br />

susanne.dahlen@iar.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

395


Professionelles Schreiben / Technical Authoring<br />

TA 6<br />

Presentation<br />

The Usability of Layout:<br />

Advanced Visual Editing<br />

Leah Guren, Cow TC, Karmiel, Israel<br />

The Usability Argument<br />

The current trend towards content-only strategies, single sourcing,<br />

DITA, and one-button publishing has led to a separation of content and<br />

design. These strategies have compelling business cases, but they have<br />

led to a large step backwards in documentation usability. This is because<br />

design is now out of the hands of the technical communicators, and is<br />

often controlled by people who are not trained in the area of documentation<br />

usability.<br />

Usability testing of product documentation often reveals the cost of<br />

poor design and layout. Users have trouble locating information or they<br />

fail to correctly identify the information they are looking for. They misunderstand<br />

visual cues about the relationships and hierarchies on the<br />

page. They don’t read⎯they scan⎯and therefore miss the subtle design<br />

that may be more appropriate for other types of writing.<br />

In short, all technical communicators must understand the basic design<br />

concepts as they relate to usability.<br />

Design Concepts: PARCH<br />

The mnemonic PARCH stands for Proximity, Alignment, Repetition,<br />

Contrast, and Hierarchies.<br />

−−<br />

Proximity: Things that are close together on the page have an implied<br />

relationship. This is not just horizontal placement, but vertical placement,<br />

as well.<br />

−−<br />

Alignment: Things need to line up based on logical, meaningful<br />

plumb lines. When plumb lines are fractionally off or are not properly<br />

reused, the resultant layout looks messy and unprofessional. Worse, it<br />

creates confusion over the relationships of elements on the page.<br />

−−<br />

Repetition: Very much like the golden rule of consistency in writing,<br />

repetition means that page design should be consistent. Elements of<br />

the same meaning or level should look the same. Placement and location<br />

should be the same. For example, consistently placing a shaded<br />

example box at the bottom of the page facilities access.<br />

−−<br />

Contrast: The opposite of repetition, contrast implies that we must<br />

use appropriate techniques to focus the reader’s attention. For example,<br />

hazards broken out of text and marked with an icon; a preferred<br />

setting in a table appearing in bold or with a thicker border around<br />

the cell; the critical concept in a graphic highlighted with some sort of<br />

callout or annotation.<br />

−−<br />

Hierarchies: A key way that readers understand flow is through levels<br />

of headings and indents. Too many levels, plus no visual distinction<br />

between them, create a visual mixed message for readers.<br />

396<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Other Design Best Practices<br />

We can see the PARCH concepts applied to these basic elements of<br />

design:<br />

−−<br />

White space: Sometimes referred to as negative space, white space is<br />

the empty space between words, lines, paragraphs, at margins, around<br />

headings, etc. Without adequate white space, a document is not readable.<br />

Unfortunately, the automation used by many XML-generated<br />

documents leads to poor use of white space. Headings float meaninglessly<br />

between blocks of text, instead of being properly mated to their<br />

paragraphs. Bullets and layered info floats, rather than being properly<br />

mated to their parent paragraph. In fact, meaningful use of white<br />

space is the biggest casualty of the automation and “content-only”<br />

strategies. For best practices, follow a 3:1 ration of white space with<br />

headings (that is, three times as much white space above as after).<br />

−−<br />

Chunking: The concept of proximity is also seen in how we chunk<br />

information on the page. Paragraphs with overly-opened line spacing,<br />

and without sufficient white space in between, end up looking like<br />

one big lump, instead of visually recognizable chunks of content. This<br />

makes it much harder for users to scan and locate information. For<br />

best practices, always make chunks of information visually separated<br />

on the page through the use of white space. Use single line spacing<br />

and no indent for paragraphs, with ample white space between.<br />

−−<br />

Readability: Every choice we make has to improve the readability<br />

of the document. That includes the typefaces we select, the types of<br />

graphics, and even colors. When designers make choices based on<br />

aesthetics, rather than functionality, they can reduce the usability of<br />

the document. You must learn the functional differences between<br />

serif and sans serif typefaces, plus understand the advantages and<br />

drawbacks of color.<br />

Conclusion<br />

It is time for technical communicators to become better versed in the<br />

language of design. We need to be able to guide and influence the developers<br />

and designers. There is no reason that an XML css cannot be<br />

created to follow better guidelines of chunking, mating, and white space<br />

usage. The representation of content makes a big difference in the overall<br />

usability of the document for readers.<br />

If you have any questions please contact: leah@cowtc.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

397


Professionelles Schreiben / Technical Authoring<br />

TA 7<br />

Presentation<br />

Writing for Global Audiences<br />

Barbara Jungwirth, reliable translations llc, New York City, USA<br />

English-only documentation is usually aimed at a relatively educated<br />

audience, such as computer programmers, service technicians, and other<br />

technical experts. These professionals do speak English and are familiar<br />

with the English terms used in their specific field. However, English – or<br />

at least U.S. or UK English – is generally not their primary language.<br />

There are two different approaches to handling this linguistic challenge:<br />

−−<br />

Controlled English comprises an approved vocabulary list, as well as<br />

strict rules about the grammar and syntax that can be used.<br />

−−<br />

Global English, by contrast, is a set of guidelines about the type of<br />

vocabulary, grammar and syntax that should be avoided.<br />

Because of its prescriptive nature text in controlled English may sometimes<br />

lose nuances of meaning, while text following the loser global<br />

English guidelines can usually preserve such nuances.<br />

Structuring Your Document<br />

Lists can sometimes better illustrate a set of items than can a descriptive<br />

paragraph. Tables can present the relationship between distinct<br />

pieces of information in a fairly intuitive way. Procedures can sometimes<br />

be summarized in flow charts that require little linguistic knowledge.<br />

Repeating the most important information for each section in<br />

that section’s introduction and summary aids understanding. Shorter<br />

paragraphs are easier to digest. Try to discuss only one concept in each<br />

paragraph.<br />

Vocabulary issues<br />

One of the most important issues is consistency in word choice: same<br />

concept = same term. A corollary to this rule is to use standard terms<br />

with standard spellings and use standard word forms (e.g., assign someone<br />

a task, don’t “task” him or her). Homonyms (words that sound the<br />

same, but mean different things) are difficult to distinguish even for<br />

native speakers, let alone readers with a limited command of English.<br />

Similarly, don’t use acronyms and abbreviations unless absolutely necessary.<br />

If they are indispensable, provide a glossary of terms.<br />

Syntax & grammar questions<br />

Long convoluted sentences with many dependent clauses are difficult<br />

to understand. Complex concepts with many variables can still be expressed<br />

in a series of sentences. Each of these sentences should refer to<br />

the concept explained in the previous sentence by name. Non-specific<br />

pronouns, such as “this” are harder to interpret than if the specific item<br />

to which “this” refers is repeated.<br />

However, do not omit syntactic cues in order to shorten sentences. In<br />

English prepositions such as “that” can often be dropped and the sentence<br />

is still grammatically correct. Leaving such cues in makes it easier<br />

for readers to analyze the relationship between different phrases in a<br />

sentence.<br />

398<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Many languages do not have an equivalent of the gerund, or “ing” form,<br />

of verbs. As a result, readers who are subconsciously translating into<br />

their native language often find this feature challenging. Similarly, many<br />

languages have fewer layers of past and future tenses than English.<br />

For technical documents one past and one future tense should usually<br />

suffice. If they don’t, rewriting the sequence of events in a more linear<br />

fashion – first event one, then event two, etc. – should help non-native<br />

English speakers better understand your text.<br />

Cultural issues<br />

Use the literal meaning of words. Wordplays and metaphors rarely carry<br />

over well across languages and cultures. For the same reason, do not<br />

use expressions referring to sports, movies or cultural icons. Since your<br />

audience comes from many different cultures, avoid anything that might<br />

offend: politics, religion, even slightly off-color jokes.<br />

Keep in mind that time zones, units of measure and holidays differ<br />

among nations. Some such references may be unavoidable, but don’t<br />

add them unnecessarily. Visual clues may also differ – not everyone’s<br />

stop sign looks the same as in the U.S., for example. And for readers<br />

from a left-to-right language it is not necessarily obvious that a sequence<br />

starts on the top left of the page. Arrows or numbers help to<br />

clarify the direction in which steps are to be performed.<br />

Many cultures have more than one form of address. Being too formal<br />

rarely offends, but the opposite may well do so. So write in a formal<br />

tone, without going overboard – the Queen of England is unlikely to<br />

read your heater installation manual.<br />

Evaluating your document<br />

When creating documents that will be read online also take into account<br />

slower download speeds and differing standard fonts on non-<br />

English computer systems. It’s also a good idea to have colleagues from<br />

the countries where the document will be mostly used read your text to<br />

point out potential pitfalls.<br />

i18n, t9n, L10n<br />

The presentation focuses on writing for audiences who will read the<br />

text in its original English. But such documents sometimes do end up in<br />

other languages. So here’s a short primer on the terminology associated<br />

with translation:<br />

−−<br />

i18n means Internationalization, the process by which local references<br />

in the original are removed.<br />

−−<br />

t9n stands for Translation, that is transferring the text into another<br />

language.<br />

−−<br />

L10n is Localization, which adapts the translation to a specific country.<br />

I will send a list of resources to attendees who give me their business cards<br />

after the presentation. If you would like that resource list, but did not attend<br />

the presentation, e-mail me at office@reliable-translations.com.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

399


Professionelles Schreiben / Technical Authoring<br />

TA 8<br />

Fachvortrag<br />

Simplified Technical English – Ja oder Nein?<br />

Eine Entscheidungshilfe für Unternehmen<br />

Herbert Kaiser, Kaiser Fachkommunikation GmbH, Hildesheim<br />

Unsere Mission: Technische Informationen an den Nutzer kurz, klar<br />

und eindeutig vermitteln.<br />

Soll dies weltweit erfolgen, müssen effiziente Kommunikationsmittel<br />

eingesetzt werden. Zwei Szenarien verdeutlichen, was globale Kommunikation<br />

leisten soll:<br />

Szenario 1 – externe globale Kommunikation<br />

Technische Dokumentation für Anwender. Produktinformationen sollen<br />

weltweit von Nutzern verstanden und umgesetzt werden.<br />

Szenario 2 – interne globale Kommunikation<br />

Verschiedene Unternehmensbereiche multinationaler Konzerne müssen<br />

sich weltweit austauschen, d.h. mit mehreren Nationen und Sprachen.<br />

Selbst wenn Englisch als konzerninterne Mittlersprache festgelegt<br />

wurde, erschweren die verschiedenen Varianten des Englisch und<br />

unterschiedliche Kenntnisstände die Kommunikation.<br />

Was kann dabei Simplified Technical English leisten?<br />

Grundlagen<br />

Durch die Erkenntnisse der Verständlichkeitsforschung ist unsere Zunft<br />

auf das Regelbasierte Schreiben bzw. die Kontrollierten Sprachen aufmerksam<br />

geworden: Technische Informationen, die nach bestimmten<br />

Regeln strukturiert und erstellt worden sind, werden vom Nutzer besser<br />

verstanden.<br />

Erste Versuche gab es bereits in den 1930er und 1970er Jahren. Den<br />

nachhaltigsten Effekt aber hat seit 1986 der Sprachstandard „Simplified<br />

Technical English“ (STE) mit der Spezifikation ASD-STE100 (Copyright<br />

and Trademark of ASD, Brussels, Belgium). Er wurde entwickelt, um die<br />

internationale Kommunikation in der Luftfahrt zu vereinfachen. Inzwischen<br />

hat er sich als ausgereifter und konsequenter Standard bewährt,<br />

der als Vorbild für Style-Guides, Leitfäden oder Anleitungen für Technisches<br />

Schreiben mit modifizierten Regeln dient.<br />

STE-Regeln<br />

Das Dictionary des STE gibt erlaubte allgemeine Wörter vor, das Regelwerk<br />

besteht aus Standard-Regeln und speziellen Regeln, die den Mechanismus<br />

der Kontrollierten Sprache STE bestimmen.<br />

Einige Standard-Regeln:<br />

−−<br />

Konsistente Terminologie<br />

−−<br />

Listen/Aufzählungen statt komplizierter Fließtext<br />

−−<br />

Korrekte Einstufung der Sicherheitshinweise.<br />

Beispiele für spezielle Regeln:<br />

−−<br />

Begrenzte Satzlänge<br />

400<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

−−<br />

Keine „–ing-Form“ der Verben<br />

−−<br />

Keine „schwammigen“ Hilfsverben<br />

−−<br />

Einfache Zeiten.<br />

Absolut gesehen führt STE in der Technischen Dokumentation immer<br />

noch ein Nischendasein. Warum wird es auf dem breiten Markt nicht<br />

angewendet? Fehlt es an den richtigen Informationen?<br />

Oft werden in Diskussionen über STE Thesen in den Raum gestellt, die<br />

nicht den Fakten entsprechen und potenzielle Nutzer verunsichern.<br />

Einige der häufigsten Thesen sollen hier hinterfragt werden.<br />

These 1: STE = Simplified English = Global English = etc. …<br />

Hier werden verschiedene Ansätze gleichgestellt. Tatsache ist aber, dass<br />

einzig STE gemäß ASD-STE100 verbindliche MUSS-Regeln mit den<br />

entsprechenden Konsequenzen für Autor und Leser hat.<br />

These 2: STE eignet sich nur für die Luftfahrt<br />

STE ist zwar von der Luftfahrtindustrie entwickelt worden, aber nur<br />

ca. 3 % des Vokabulars aus dem Dictionary sind luftfahrtspezifisch. Die<br />

Schreibregeln lassen sich generell auch in anderen Industriezweigen<br />

anwenden.<br />

These 3: STE ist entwickelt worden, um Übersetzungen zu erleichtern<br />

Fakt ist: STE wurde entwickelt, um Übersetzungen zu vermeiden. Es ist<br />

von seiner Konstruktion und Wortwahl so klar verständlich und eindeutig,<br />

dass Nutzer mit Minimalkenntnissen der englischen Sprache<br />

technische Informationen sofort verstehen und 1:1 umsetzen können.<br />

Natürlich werden durch das Regelbasierte Schreiben mit STE Übersetzungen<br />

vereinfacht, weil Translation Memorys sehr viel effizienter<br />

eingesetzt werden können. Dies ist ein positiver Nebeneffekt, entspricht<br />

aber nicht der ursprünglichen Intention und nutzt das gesamte Potenzial<br />

dieses Sprachstandards nicht aus.<br />

These 4: STE wird nur in großen Firmen eingesetzt<br />

Aufgrund der Historie des STE wird es vorwiegend bei multinationalen<br />

Projekten großer Konzerne eingesetzt. Aber was hindert kleinere<br />

Unternehmen daran, sich international mit STE besser verständlich zu<br />

machen?<br />

These 5: STE ist zu komplex und zu schwierig<br />

Wer immer diese These in den Raum stellt, sollte sich doch einmal intensiv<br />

mit STE befassen. Meine Antithese nach 26 Jahren Praxis: Jeder<br />

Autor mit technischem Sachverstand und gutem technischen Englisch<br />

kann STE mit professionellem Training innerhalb kurzer Zeit erlernen<br />

und anwenden.<br />

These 6: Tools sind Voraussetzung, um STE anwenden zu können<br />

STE wurde zu Beginn der 1980er Jahre entwickelt, als aufgrund der minimalen<br />

Rechnerleistungen noch nicht an solche Tools zu denken war.<br />

Aber darin liegt gerade der Vorteil: Es ist so einfach und nachvollziehbar<br />

aufgebaut, dass ein Tool nicht zwingend erforderlich ist.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

401


Professionelles Schreiben / Technical Authoring<br />

Tool-Gläubigkeit darf uns nicht zu der Annahme verleiten, man könne<br />

STE auf Knopfdruck bekommen. Die Warnung auf der Website der<br />

ASD-STE100 spricht für sich: „Always remember: Tools will not think in<br />

your place. Software is not a substitute for good training.“<br />

Natürlich können uns Tools bei der Arbeit unterstützen, aber es gibt<br />

keine Prüfalgorithmen, die die Semantik berücksichtigen. Die wichtigste<br />

Komponente des STE – das strukturierte Denken – kann uns kein<br />

Tool abnehmen.<br />

These 7: STE wirkt sich negativ auf den Autor aus<br />

Einige Übersetzer und englische Muttersprachler stoßen sich daran,<br />

dass Regelbasierte Texte „zu einfach“ klingen und ihre Sprachästhetik<br />

beleidigen. Oft wird in diesem Zusammenhang darauf verwiesen, dass<br />

der Autor durch STE monoton formuliert, weniger kreativ wird etc.<br />

Auch hier muss ganz klar differenziert werden, denn es gilt der Leitsatz<br />

für Technische Kommunikation: „If your goal is to write a novel, this is<br />

not your job.“ Mit STE sollen technische Inhalte kurz, klar und eindeutig<br />

vermittelt werden, d. h. der Anwendungsbereich ist eingeschränkt.<br />

Bewusst mehrdeutige oder assoziative Texte mit blumiger und synonymreicher<br />

Sprache können damit nicht erstellt werden.<br />

Meine Erfahrungen zeigen, dass sich STE durchaus positiv auf den<br />

Autor auswirkt. Wer sich intensiv mit diesem Sprachstandard beschäftigt,<br />

wird durch das Regelwerk immer weiter auf den Weg geführt,<br />

strukturiert zu denken und dies in Text umzusetzen. Der Autor muss<br />

seine Gedanken und Informationen gemäß dem Regelwerk/Dictionary<br />

mit wenigen erlaubten Worten und verbindlichen Regeln umsetzen, also<br />

höchst kreativ arbeiten. Um die Inhalte eindeutig und sicher dem Leser<br />

zu vermitteln, müssen diese konkretisiert und von allem unnötigen<br />

Ballast befreit werden.<br />

Fazit:<br />

STE hat sich in 26 Jahren als ausgereifter und konsequenter Standard<br />

bewährt. Wenn die Voraussetzungen stimmen, kann STE als ideales<br />

Kommunikationsmittel in beiden Szenarien eingesetzt werden.<br />

Szenario 1 – externe globale Kommunikation<br />

In STE erstellte Technische Dokumentation wird von Anwendern mit<br />

minimalen Englischkenntnissen sofort verstanden und kann 1:1 umgesetzt<br />

werden. Dies kann kostentreibende Übersetzungen überflüssig<br />

machen. Wenn Übersetzungen in andere Sprachen gefordert sind, können<br />

diese wesentlich günstiger erstellt werden.<br />

Szenario 2 – interne globale Kommunikation<br />

Für Technische Kommunikation kann STE als firmenspezifische „lingua<br />

franca“ oder „Master-Sprache“ genutzt werden. Die klaren und verbindlichen<br />

MUSS-Regeln dieses Sprachstandards gleichen sprachliche und<br />

interkulturelle Kommunikationsbarrieren aus und garantieren Konsistenz<br />

und einheitliche Qualität.<br />

Website für STE: http://www.asd-ste100.org<br />

für Rückfragen: info@kaiser-fachkom.de<br />

402<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

TA 9<br />

Partnerpräsentation<br />

Entdeckungsbericht: Redakteure der<br />

Firma MENCK erkunden ihre Zielgruppe<br />

Rouven Andersson, MENCK GmbH, Kaltenkirchen<br />

Dr. Britta Görs, selbstständige Beraterin, Hamburg<br />

Die MENCK GmbH ist ein Unternehmen mit derzeit ca. 160 Mitarbeitern.<br />

Mit ihren Geräten und Dienstleistungen ist sie beteiligt, weltweit<br />

große Bauwerke wie Brücken, Hafenanlagen, Offshore Windanlagen<br />

oder Öl- und Gasplattformen zu verankern. MENCK hat sich auf die<br />

Herstellung und Bereitstellung großer Rammhämmer für Über- und<br />

Unterwasser-Rammungen in Wassertiefen von 2000 m und tiefer spezialisiert.<br />

Die Firma bietet außerdem standard- und kundenspezifische<br />

Speziallösungen für die Gründung von Offshore Bauwerken an.<br />

MENCK liefert neben Gerätetechnik auch Projektmanagement-Kompetenz<br />

und spezifische Servicekompetenz entsprechend den Projektanforderungen.<br />

Dies umfasst sowohl den Verkauf und Vermietung von<br />

Hammer-Equipment-Systemen als auch die Lieferung von Paketlösungen<br />

bis hin zur Übernahme und Durchführung komplexer Projekte.<br />

Technische<br />

Dokumentation<br />

Ausgangssituation<br />

Zielbestimmung<br />

Technische Redaktion<br />

Zurzeit besteht die Technische Redaktion von MENCK aus drei Technischen<br />

Redakteuren und gehört organisatorisch zur Engineering-Abteilung.<br />

Der Jahreswechsel 2011/12 war durch eine personelle Neuausrichtung<br />

und -aufstellung der Redaktion geprägt. Parallel begann die<br />

Zusammenarbeit mit der Beraterin Dr. Britta Görs. Gemeinsam mit ihr<br />

wurde das Projekt Zielgruppen-Analyse gestartet.<br />

Die Redaktion erstellt sowohl Operating Manuals für einzelne Geräte<br />

als auch projektspezifische Equipment Manuals, die das Zusammenwirken<br />

der Geräte beschreiben. Für jedes Projekt generieren die Redakteure<br />

den Ersatzteilkatalog und stellen die entsprechenden Zeichensätze<br />

zusammen. Im Jahr werden ca. 30 Projekte mit einem Seitenumfang<br />

von ca. 1300 Seiten pro Projekt betreut.<br />

Die Produkte der Firma MENCK werden überwiegend im Offshore-<br />

Bereich eingesetzt. Die Dokumentation wird „just in time“ für die jeweiligen<br />

Projekte angefertigt. Es gibt kaum Vorlaufzeiten. Zwischen<br />

der Fertigstellung der technischen Umsetzung bis zur Auslieferung der<br />

Dokumentation liegen meist nur 3–4 Wochen.<br />

Die Besatzung der Schiffe ist international zusammengesetzt, die Kommunikation<br />

erfolgt auf Englisch. Daher hat sich MENCK entschieden,<br />

die Dokumentation in Englisch zu erstellen und auszuliefern.<br />

Sowohl die Redaktion wie auch der Bereichsleiter gehen davon aus,<br />

dass sich die Dokumentation vor allem an die hauseigenen Servicetechniker<br />

richtet. Diese begleiten vor Ort den Einsatz der Maschinen.<br />

Projekt: Zielgruppe<br />

Das Projekt startete mit einer Zielbestimmung. Die beiden Redakteure<br />

und der Leiter der Engineering-Abteilung tauschten sich über ihre<br />

Erwartungen an das Projekt Zielgruppen-Analyse aus. Neben der Frage<br />

„Welche Fragen sollen mit Hilfe der Zielgruppen-Analyse beantwortet<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

403


Professionelles Schreiben / Technical Authoring<br />

Wer macht was?<br />

Servicetechniker<br />

Andere Abteilungen<br />

Zwischenergebnis<br />

werden?“ wurde auch diskutiert, welche Aspekte in der Untersuchung<br />

nicht betrachtet bzw. diskutiert werden sollen.<br />

In moderierten Workshops haben die beiden Technischen Redakteure<br />

ihre Vorstellungen gesammelt, wer während eines Hammer-Einsatzes<br />

welche Aufgaben mit welcher Qualifikation ausübt.<br />

In einem Gespräch mit dem Leiter der Servicetechniker und einem<br />

Servicetechniker berichteten diese ihre Sicht auf die Bedeutung und<br />

die Verwendung der Anleitungen. Außerdem stellten sie vor, welche<br />

Qualifikation für die Einstellung eines Servicetechnikers bei MENCK<br />

gefordert ist und wie ein Vorstellungsgespräch abläuft. Ebenso wurde<br />

die Frage diskutiert, wie ein Servicetechniker von MENCK für seinen<br />

ersten Einsatz auf einer Baustelle vorbereitet wird. Sowohl der Leiter<br />

der Servicetechniker als auch der anwesende Servicetechniker sehen<br />

keinen Unterschied bezüglich der Qualifizierung eines MENCK-Servicetechnikers<br />

und eines Servicetechnikers des Kunden, der auf einem<br />

Schiff den Hammer fährt. MENCK-Techniker besitzen nur den Vorteil,<br />

einen sehr guten Einblick in die hauseigene Montage und Konstruktion<br />

der Geräte zu haben.<br />

Eine Möglichkeit, weitere Informationen über die Zielgruppe wie auch<br />

ihre Arbeit zu erhalten, ist, das Wissen anderer Abteilungen zu nutzen.<br />

Dafür wurden Unterlagen des Marketings und des Vertriebs gesichtet.<br />

Leider war dieser Weg nicht sehr erfolgreich. Der direkte Austausch mit<br />

den Servicetechnikern und der hauseigenen Montageabteilung erwies<br />

sich als sinnvoller.<br />

Die Zielgruppe sind die Servicetechniker von MENCK bzw. der Kunden<br />

von MENCK. Servicetechniker sind als Experten anzusehen, die sehr<br />

gut im Umgang mit den Geräten und dem Zusammenspiel der Geräte<br />

geschult sind.<br />

In der nächsten Projektphase wurde der Expertenstaus der Techniker<br />

dahingehend untersucht, wie detailliert die Dokumentation sein muss<br />

oder kann, um sie zu unterstützen. Folgende Hypothesen dienten als<br />

Ausgangspunkt:<br />

−−<br />

Servicetechniker sind in der Lage, ohne explizite Aufforderungen<br />

Handlungen mit entsprechenden Kontrollen abzuschließen.<br />

−−<br />

Servicetechniker erkennen Bauteile und Werkzeuge ohne referenzsichernde<br />

Abbildung.<br />

−−<br />

Auch ohne Sicherheits- und Warnhinweise reagieren Servicetechniker<br />

sensibel und in angemessener Art und Weise auf die Gefährdungen.<br />

Im weiteren Verlauf des Projektes wurden diese Annahmen überprüft.<br />

Außerdem untersuchten die Redakteure in Anwendungstests einzelne<br />

Teile der Dokumentation und kontrollierten so den zielgruppengerechten<br />

Aufbau und Ausgestaltung der Anleitungen.<br />

Erkenntnisgewinn und Auswertung<br />

In dem Vortrag werden insbesondere folgende Fragen diskutiert:<br />

−−<br />

Welches Wissen über die Zielgruppe existierte vor und nach dem<br />

Projekt?<br />

−−<br />

Welche Auswirkungen hatte das Projekt auf die Erstellung der Dokumentation?<br />

404<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

−−<br />

Wie konnten Redakteure die Auseinandersetzung mit der Zielgruppe<br />

in ihren Alltag integrieren?<br />

−−<br />

Hat das Projekt die Arbeit der Redaktion verändert?<br />

−−<br />

Welche Rolle hat in dem Projekt die externe Beraterin gespielt?<br />

für Rückfragen:<br />

rouven.andersson@menck.com<br />

info@britta-goers.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

405


Professionelles Schreiben / Technical Authoring<br />

TA 10<br />

Fachvortrag<br />

Do you speak Deutsch? Produkte<br />

mit englischen Benutzeroberflächen<br />

auf Deutsch beschreiben<br />

Marc Achtelig, indoition engineering, Zirndorf<br />

Manchmal soll zu einem Produkt eine Beschreibung in deutscher Sprache<br />

entstehen, wichtige Bedienelemente oder sogar die komplette Benutzeroberfläche<br />

(das „User Interface“) des Produkts ist jedoch englisch<br />

und wird nicht lokalisiert. In diesem Fall müssen Sie sich entscheiden:<br />

Verwenden Sie in Ihrem (deutschen) Text die englischen Originalbegriffe,<br />

oder übersetzen Sie beispielsweise die Bezeichnung eines englischen<br />

Menüpunkts oder die englische Beschriftung einer Schaltfläche?<br />

Beides hat Vor- und Nachteile:<br />

−−<br />

Wenn Sie die englischen Originalbegriffe verwenden, entsteht schnell<br />

hässliches „Denglisch“ und viele Benutzer verstehen die genaue Bedeutung<br />

nur ungenau.<br />

−−<br />

Wenn Sie die englischen Originalbegriffe übersetzen, geht nicht selten<br />

der Wiedererkennungswert verloren und Benutzer suchen verzweifelt<br />

nach Elementen und Funktionen, die auf dem Gerät ganz<br />

anders heißen als in der Dokumentation.<br />

Generell liefert ein Blick auf die Zielgruppe die beste Entscheidungsgrundlage:<br />

Wenn Ihre Zielgruppe über gute Englisch-Kenntnisse verfügt<br />

Wenn Sie davon ausgehen können, dass die große Mehrheit der Leser<br />

die Bedeutung aller englischen Bezeichnungen versteht, verwenden Sie<br />

die Begriffe aus der Benutzeroberfläche in deren Originalsprache ohne<br />

Übersetzung.<br />

Beispiel: Wählen Sie den Menüpunkt „File > Print options“.<br />

Fügen Sie bei Bedarf hinter ungewöhnlichen Begriffen bei deren erstem<br />

Vorkommen eine Übersetzung in Klammern ein – jedoch nur dann,<br />

wenn dies für das Verständnis wichtig ist.<br />

Beispiel: Aktivieren Sie die Option „Landscape“ (Querformat).<br />

Leiten Sie, falls nötig, auch Verben aus den englischen Originalbegriffen<br />

ab, wenn es dazu keine einfache, der Zielgruppe geläufige Übersetzung<br />

gibt.<br />

Beispiel, wenn es in einem Programm eine Funktion namens „Commit“<br />

gibt: Committen Sie das Ruleset.<br />

Verwenden Sie, falls nötig, auch in Überschriften die englischen Originalbegriffe,<br />

um einen maximalen Wiedererkennungseffekt zu erzielen.<br />

Nicht: Berichte drucken.<br />

Sondern: Reports drucken.<br />

Nehmen Sie allerdings ins Stichwortverzeichnis grundsätzlich sowohl<br />

die englischen Originalbegriffe als auch übersetzte Begriffe auf.<br />

406<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Wenn Ihre Zielgruppe nur über geringe oder<br />

keine Englisch-Kenntnisse verfügt:<br />

Wenn Sie davon ausgehen müssen, dass ein substanzieller Anteil der<br />

Zielgruppe nicht über ausreichende Englisch-Kenntnisse verfügt, um<br />

die Bedeutung aller Bezeichnungen aus der Benutzeroberfläche zu verstehen,<br />

verwenden Sie in Handlungsanweisungen und Referenzen zwar<br />

ebenfalls die englischen Originalbegriffe, fügen Sie unmittelbar danach<br />

jedoch jeweils eine Übersetzung in Klammern hinzu.<br />

Beispiel: Wählen Sie den Menüpunkt „File > Print options“ (Datei ><br />

Druckeinstellungen).<br />

Verwenden Sie außerhalb von Handlungsanweisungen und Referenzen<br />

grundsätzlich übersetzte Begriffe. Ist der Bezug zur Bedienoberfläche<br />

wichtig, fügen Sie in Klammern den englischen Begriff an.<br />

Zeichnen Sie immer den Originalbegriff mit Ihrem Zeichenformat<br />

für Bedienelemente aus, um den Benutzern die Zuordnung zur Softwareoberfläche<br />

zu erleichtern. Falls Sie kein entsprechendes Zeichenformat<br />

zur Verfügung haben (so wie wir in diesem Tagungsband), verwenden<br />

sie Anführungszeichen.<br />

Beispiel: Wenn Sie die Option Querformat („Landscape“) verwenden,<br />

können Sie die ganze Tabelle auf einer einzigen Seite ausdrucken.<br />

In Überschriften sind erklärende Ergänzungen in Klammern meist<br />

nicht sinnvoll, da noch kein enger Bezug zur Benutzeroberfläche besteht.<br />

Auch würden Überschriften durch einen Zusatz zu lang und<br />

unübersichtlich.<br />

Nicht: Reports drucken<br />

Nicht: Reports (Berichte) drucken<br />

Nicht: Berichte (Reports) drucken<br />

Sondern: Berichte drucken.<br />

Nehmen Sie auch hier ins Stichwortverzeichnis grundsätzlich sowohl<br />

die übersetzten Begriffe als auch die Originalbegriffe auf.<br />

Allgemeingültige Begriffe immer übersetzen<br />

Belassen Sie generell nur die tatsächlich auf der Benutzeroberfläche<br />

zu findenden Originalbeschriftungen in englischer Sprache. Übersetzen<br />

Sie grundsätzlich alle allgemeingültigen Begriffe. Machen Sie also<br />

beispielsweise die Platine nicht zum Board, den Steckplatz nicht zum<br />

Socket, die Schaltfläche nicht zum Button und die Registerkarte nicht<br />

zum Tab.<br />

Nicht: Klicken Sie auf den „Print“ Button.<br />

Sondern: Klicken Sie auf die Schaltfläche „Print“.<br />

Oder: Klicken Sie auf „Print“ (Drucken).<br />

Offenkundige<br />

Anglizismen<br />

Vorsicht vor Anglizismen bei englischem „Input“<br />

Wenn Sie als Quelle für Ihre Dokumente mit englischsprachigen Dokumenten<br />

arbeiten, z. B. mit englischen Spezifikationen oder Marketing-<br />

Unterlagen, laufen Sie leicht Gefahr, überflüssige Anglizismen in Ihre<br />

Dokumente einzubauen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

407


Professionelles Schreiben / Technical Authoring<br />

Versteckte Anglizismen<br />

Beugung und Mehrzahl<br />

Viele Leser empfinden Anglizismen als befremdlich oder verstehen Sie<br />

nur ungenau. Wenn Sie dann ohnehin schon viele englische Begriffe<br />

aus der Benutzeroberfläche zitieren, wird es besonders heikel.<br />

Verwenden Sie Anglizismen wie alle Fremdwörter nur dann, wenn es<br />

dafür einen wichtigen Grund gibt.<br />

Verwenden Sie Anglizismen nicht:<br />

−−<br />

aus Nachlässigkeit<br />

−−<br />

um Kompetenz, Agilität oder Modernität zu suggerieren<br />

−−<br />

um sich vor einer klaren Aussage zu drücken<br />

Verwenden Sie Anglizismen nur dann, wenn:<br />

−−<br />

es keine geläufige deutsche Entsprechung gibt, wenn also ein Wort<br />

mit deutschen Wörtern nur langatmig oder unvollkommen umschrieben<br />

werden könnte<br />

−−<br />

das englische Wort Ihrer Zielgruppe bereits geläufiger ist als das entsprechende<br />

deutsche Wort<br />

−−<br />

es sich um eine feststehende Produktbezeichnung oder Teilebezeichnung<br />

handelt, die Sie selbst nicht beeinflussen können<br />

Nicht jeder Einfluss eines englischen Originaltexts ist auf den ersten<br />

Blick erkennbar, kann Ihr Dokument aber trotzdem negativ prägen.<br />

Übernehmen Sie insbesondere keine englischen Redewendungen.<br />

Beispiele: Sinn machen („to make sense“) statt sinnvoll sein, einmal<br />

mehr („once more“) statt noch einmal, nicht wirklich („not really“) statt<br />

eigent lich nicht.<br />

Tipps zu Rechtschreibung und Grammatik<br />

Die wichtigste Grundregel lautet: Sie schreiben einen deutschen Text,<br />

also gelten die Regeln der deutschen Rechtschreibung und Grammatik<br />

– nicht die der englischen.<br />

Beugen Sie auch englisch-stämmige Wörter grundsätzlich entsprechend<br />

der deutschen Grammatik.<br />

Die Mehrzahl fast aller Anglizismen bilden Sie durch Anhängen von s.<br />

Anders als im Englischen wird dabei ein „y“ nicht zu „ie“.<br />

Groß- oder Kleinschreibung, Zusammenschreibung oder Getrenntschreibung<br />

Schreiben Sie englische Substantive in einem deutschen Text groß.<br />

Anders als im Englischen werden im Deutschen zusammengesetzte<br />

Substantive prinzipiell zusammengeschrieben. Eine Getrenntschreibung<br />

ohne Bindestrich ist im Deutschen falsch. Eine Zusammenschreibung<br />

ist grundsätzlich immer richtig, allerdings oft schlecht lesbar.<br />

Um die Lesbarkeit zu verbessern, können Sie zwischen Wortgliedern<br />

Bindestriche einfügen. Dies gilt sowohl für rein englisch-englische<br />

Zusammensetzungen als auch für gemischt englisch-deutsche oder<br />

deutsch-englische Zusammensetzungen. Verwenden Sie keinen Bindestrich<br />

bei Wörtern, die bereits im Englischen zusammengeschrieben<br />

werden. Wörter, die mit einem Adjektiv beginnen, können Sie optional<br />

auch komplett getrennt schreiben. Dies ist oft besonders übersichtlich<br />

(Beispiel: Compact Disc).<br />

408<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Geschlecht<br />

Schwierig kann die Bestimmung des Geschlechts werden. Allgemein<br />

richtet sich das Geschlecht bei Fremdwörtern primär nach der Wortendung.<br />

Da Anglizismen aber häufig andere Endungen haben als die<br />

klassischen Fremdwörter, ist diese Methode nicht immer eindeutig. Ist<br />

eine Zuordnung des Geschlechts über die Wortendung nicht möglich,<br />

richtet sich das Geschlecht nach der deutschen Übersetzung. Beispiel:<br />

„das Pattern“, denn die entsprechende Übersetzung ist „das Muster“.<br />

Aller dings können auch hier Zweifelsfälle entstehen, nämlich dann,<br />

wenn es zu einem Wort Übersetzungen mit unterschiedlichem Geschlecht<br />

gibt. Beispiel: „die E-Mail“ oder „das E-Mail“ (Übersetzungen:<br />

„die Post“ oder „das Schreiben“). Falls auch das Geschlecht der deutschen<br />

Übersetzung nicht eindeutig ist, müssen Sie, falls nötig, in einem<br />

Wörterbuch nachschlagen. Wenn Sie ein Wort dort nicht finden, bevorzugen<br />

Sie im Zweifelsfalle die sächliche Form.<br />

Tipps zum Erstellungsprozess<br />

Ist es besser, zuerst die englische Dokumentation zu erstellen und dann<br />

erst im zweiten Schritt daraus die deutsche Version zu generieren?<br />

Oder ist es besser, mit der deutschen Version zu starten und diese dann<br />

im zweiten Schritt übersetzen zu lassen?<br />

Vorteile, wenn Sie mit der deutschen Version beginnen:<br />

−−<br />

Die Texte werden von einem Muttersprachler geschrieben. Der Redakteur<br />

benötigt keine speziellen Englischkenntnisse.<br />

−−<br />

Die Übersetzung kann gut außer Haus gegeben werden und ist auch<br />

ohne detaillierte Produktkenntnisse erstellbar, denn Übersetzer müssen<br />

nicht zwischen zu übersetzenden und nicht zu übersetzenden<br />

Texten unterscheiden.<br />

Vorteile, wenn Sie mit der englischen Version beginnen:<br />

−−<br />

Die englische Dokumentation ist früher verfügbar, das Produkt kann<br />

somit früher auf den internationalen Markt.<br />

−−<br />

Wenn das Master-Dokument in englischer Sprache vorliegt, lassen<br />

sich leichter Übersetzer finden, insbesondere für Übersetzungen in<br />

seltene Sprachen.<br />

−−<br />

Wenn die Texte anschließend vom Redakteur selbst ins Deutsche übersetzt<br />

werden, lässt sich dies als zusätzlicher Korrekturlauf nutzen.<br />

Weitere Informationen<br />

Lucchesi, Angeliki, Anglizismen lernen Deutsch, <strong>tekom</strong>-<strong>Jahrestagung</strong><br />

2002<br />

Fischer, Sylvia, Stolpersteine im Englischen, technische kommunikation,<br />

Heft 03/10<br />

Ikonomidis, Ageliki, Anglizismen auf gut Deutsch: Ein Leitfaden zur<br />

Verwendung von Anglizismen in deutschen Texten, Buske Verlag, 2009,<br />

ISBN 978-3-87548-560-8<br />

Achtelig, Marc, Reihe Lösungen zur Technischen Dokumentation: „Writing<br />

Plain Instructions“– Wie Sie Handbücher, Online-Hilfen und andere<br />

Formen Technischer Kommunikation schreiben, die jeder Benutzer<br />

versteht, Zweisprachige Ausgabe: Englisch + Deutsch, indoition publishing<br />

<strong>2012</strong>, ISBN 978-3-943860-09-2<br />

für Rückfragen: ma@indoition.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

409


Professionelles Schreiben / Technical Authoring<br />

TA 11<br />

Fachvortrag<br />

Vagheit<br />

Lexikalische<br />

Mehrdeutigkeiten<br />

Mehrdeutigkeiten – finden,<br />

auflösen, vermeiden<br />

Achim Götz, euroscript Services GmbH, Berlin<br />

In der Technischen Kommunikation sollen Sachverhalte klar und verständlich<br />

dargestellt werden. Mehrdeutigkeiten führen nicht nur zu<br />

Fehlinterpretationen beim Leser, sondern auch zu Übersetzungsfehlern<br />

und Problemen bei der korrekten Wiederverwendung von Textbausteinen<br />

und Modulen in Redaktionssystemen.<br />

Seien wir ehrlich: Mehrdeutigkeiten sind in vielen Fällen gar kein Problem.<br />

Oft ergibt sich die richtige Lesart aus dem Kontext, entweder dem<br />

sprachlichen Kontext oder dem situativen Kontext.<br />

Nehmen wir als Beispiel das Wort Absatz, ein Wort mit vielen Bedeutungen.<br />

Der Leser kann aus dem sprachlichen Kontext erkennen, welche<br />

Bedeutung gemeint ist: „Der Absatz konnte im vergangenen Jahr<br />

um 10 % gesteigert werden.“ Wenn ein Kunde in einem Schuhgeschäft<br />

nach Schuhen mit flachem Absatz fragt, dann wird durch den situativen<br />

Kontext klar, dass es sich um Schuhabsätze handeln muss.<br />

Warum also das Ganze? Am Ende erleben wir doch wesentlich weniger<br />

Missverständnisse, als zu befürchten wäre. Doch genau die Fähigkeit<br />

des Menschen, über Mehrdeutigkeiten hinwegzusehen, macht die Gefahr<br />

aus. So erscheint dem Autor selbst der Text eindeutig, er versteht<br />

ihn entsprechend seiner Intention. Der Leser aber kann diese Intention<br />

nur aus dem Text erschließen und steht dadurch möglicherweise vor<br />

der Wahl.<br />

Der Leser in diesem Fall muss nicht zwingend der (End-)Kunde sein.<br />

Auch Übersetzer sind von denselben Problemen betroffen, wenn nicht<br />

sogar noch mehr: Gewollte Unschärfen lassen sich oft nicht übersetzen,<br />

so dass diese aufgelöst werden müssen, auch wenn sie dem Textverständnis<br />

in der Quellsprache keinen signifikanten Abbruch tun.<br />

Keine Mehrdeutigkeit im sprachlichen Sinne, aber leider immer wieder<br />

anzutreffen ist die Vagheit. Die Sprache bietet allerlei Möglichkeiten,<br />

sich unpräzise auszudrücken. Immer wieder werden deshalb Benutzer<br />

mit Angaben konfrontiert, die mehrdeutig sind. Ein einfaches Beispiel<br />

hierfür ist das Wort „regelmäßig“. Es liegt in der Interpretation des<br />

Lesers, ein passendes Zeitintervall zu finden. Die Wahrscheinlichkeit,<br />

dass er dabei das gemeinte findet, ist gering. Wenn immer es möglich<br />

ist, sollten konkrete Angaben und Werte verwendet werden, damit dem<br />

Leser jeder Interpretationsspielraum genommen wird.<br />

Für Technische Redakteure muss es ein Ärgernis sein, dass es im Deutschen<br />

(und in quasi jeder anderen natürlichen Sprache) Wörter gibt,<br />

die mehrere Bedeutungen tragen. Laut Guinness-Buch der Rekorde<br />

ist „Läufer“ das deutsche Wort mit den meisten Bedeutungen, es sind<br />

24. Sie kennen sicherlich auch andere Beispiele. Bei diesen umgangssprachlich<br />

auch „Teekesselchen“ genannten Wörtern kann man zwischen<br />

solchen unterscheiden, die orthografisch gleich sind (Homonyme,<br />

z. B. „Bank“) und solchen, die sich im Schriftbild unterscheiden (Homophone,<br />

z. B. „Rad“ / „Rat“). In geschriebenen Texten sollten Homophone<br />

keine Rolle spielen, der Leser kann sie unterscheiden.<br />

410<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Komposita<br />

Syntaktische<br />

Mehrdeutigkeit<br />

Präpositionen<br />

Attribute<br />

Mehrdeutigkeiten<br />

durch Bezüge<br />

Für echte Homonyme muss sichergestellt werden, dass sie durch den<br />

Kontext eindeutig werden. Es ist unwahrscheinlich, dass jemand sein<br />

Geld auf einer Parkbank anlegt, genauso unplausibel wäre es, wenn<br />

jemand auf einem Geldinstitut Platz nimmt.<br />

Falls der Kontext alleine nicht ausreicht, ist es ein Fall für die Terminologie-Abteilung.<br />

Wird „Geldinstitut“ als Vorzugsbenennung anstelle von<br />

„Bank“ vorgeschrieben, ist die Mehrdeutigkeit vermieden, auch wenn<br />

der Kontext nicht ausreicht.<br />

Bei der Bildung von zusammengesetzten Wörtern entstehen häufig<br />

neue Mehrdeutigkeiten. Ob eine Holzschraube eine Schraube aus Holz<br />

oder aber eine Schraube für Holz ist, wird aus dem Wort alleine nicht<br />

klar. Ein fast schon sprichwörtliches Beispiel sind die verschiedenen<br />

Zusammensetzungen mit „Schnitzel“ wie Kalbsschnitzel oder Jägerschnitzel.<br />

Komposita, die nicht dem allgemeinen Sprachgebrauch entstammen,<br />

sollten deshalb sorgfältig geprüft und wenn nötig umschrieben<br />

werden (Schnitzel nach Jägerart).<br />

Doch auch wenn alle Wörter eindeutig sind, können sich Mehrdeutigkeiten<br />

im Satz ergeben. Begünstigt wird dies durch den Nominalstil<br />

einerseits und Verknappungen und Auslassungen andererseits. Mehr<br />

als ein Gesetzestext hat es bereits zu zweifelhaftem Ruhm gebracht,<br />

weil die tatsächliche Aussage und die von den Autoren gewünschte<br />

nicht übereinstimmen. Alleine durch Befolgen der Regel „eine Aussage<br />

je Satz“ werden bereits viele Klippen umschifft.<br />

Präpositionen bringen nicht immer die gewünschte Eindeutigkeit: „Bolzen<br />

hinter der Führung abfeilen.“ Soll der Bolzen, der sich hinter der<br />

Führung befindet, abgefeilt werden oder soll der Leser zum Abfeilen<br />

hinter die Führung gehen? Zusätzlich ergibt sich in diesem Beispiel<br />

eine zweite Mehrdeutigkeit. Wir wissen nicht, ob es ein oder mehrere<br />

Bolzen sind, da Singular und Plural gleichlautend sind. Ein Artikel<br />

(„den“ oder „die“) sorgt für Klarheit, ein Präpositionalgefüge kann die<br />

erste Mehrdeutigkeit auflösen: „Den hinter der Führung befindlichen<br />

Bolzen abfeilen.“<br />

Ein weiteres Beispiel: „Lackierte Gehäuseteile und Befestigungselemente<br />

dürfen nicht gestapelt werden.“ Es ist nicht klar, ob sich das<br />

Attribut „lackiert“ nur auf Gehäuseteile oder auch auf Befestigungselemente<br />

bezieht, dürfen also Befestigungselemente generell nicht<br />

gestapelt werden oder trifft dies nur auf lackierte Befestigungselemente<br />

zu? Im ersten Fall genügt es, die Satzstellung zu verändern („Befestigungselemente<br />

und lackierte Gehäuseteile …“) im zweiten Fall sollte<br />

das Attribut wiederholt werden („Lackierte Gehäuseteile und lackierte<br />

Befestigungselemente …“).<br />

Bezüge mit Personalpronomen können zu Mehrdeutigkeiten führen:<br />

„Die Wartungsklappe wird mit der Schraube befestigt. Sie ist aus Aluminium.“<br />

Wir bleiben ratlos: Ist die Schraube oder die Wartungsklappe<br />

aus Aluminium? Das Beispiel zeigt einen weiteren Fallstrick: Der Satz<br />

„Sie ist aus Aluminium“ wird mit den gängigen Translation-Memory-<br />

Systemen als Segment abgespeichert und möglicherweise wieder übernommen,<br />

auch wenn der Bezug in einem anderen Kontext ein anderer<br />

ist und möglicherweise auch der Genus des Personalpronomens ein<br />

anderer sein müsste.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

411


Professionelles Schreiben / Technical Authoring<br />

Mehrdeutigkeiten<br />

vermeiden<br />

Die genannten Beispiele für Mehrdeutigkeiten sind allesamt nicht<br />

schwer zu finden und aufzulösen. Bestimmte sprachliche Muster sind<br />

nahezu prädestiniert dafür, mehrdeutig zu werden – hier kann sowohl<br />

beim Schreiben als auch beim Prüfen besondere Aufmerksamkeit<br />

helfen. Begriffsorientierte Terminologiearbeit und klare Benennungsgrundsätze<br />

tun ihr Übriges.<br />

für Rückfragen: achim.goetz@euroscript.de<br />

412<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

TA 12<br />

Fachvortrag<br />

Gesucht und gefunden: Premium<br />

Dokumentation verlangt Premium Index!<br />

Harry Stricker, Fischer Computertechnik GmbH, Radolfzell<br />

Mindestens in der Papierwelt bietet ein gutes Indexverzeichnis, auch<br />

Stichwortverzeichnis oder Register genannt, einen schnellen Zugang<br />

zur Information. Die Erschließung von Inhalt, also das Zuweisen von<br />

Schlagwörtern, die den Inhalt repräsentieren, ist aber auch nützlich<br />

für die elektronische Welt, da die Volltextsuche, wie wir sie heute kennen,<br />

nur limitierte Möglichkeiten zum Auffinden von Inhalten bietet.<br />

In XML-basierten Redaktionsprozessen lassen sich bereits heute automatisiert<br />

Indexverzeichnisse generieren – worauf müssen wir achten,<br />

wenn wir ein Premium Indexverzeichnis erstellen wollen?<br />

Dedicated Indexing<br />

Embedded Indexing<br />

Wie geht der Profi vor?<br />

Wer hätte das gedacht: Wenn der Profi-Indexer ans Werk geht, dann<br />

legt er ein zu indexierendes Dokument oftmals in gedruckter Form<br />

neben sich und erfasst völlig losgelöst von der digitalen Dokumentenquelle<br />

in einer separaten Datei Indexeinträge und die dazu passenden<br />

Seitenzahlen. Dazu verwendet er eine spezielle Software für Dedicated<br />

Indexing. Aufgrund der Tatsache, dass hier eine separate Index-Datei<br />

entsteht, wird das Verfahren auch Seperate File Indexing genannt.<br />

Das soll einer verstehen: Brauchen wir tatsächlich ein extra Index-Tool,<br />

um ein Indexverzeichnis zu erstellen? Alle gängigen DTP-Tools unterstützen<br />

uns doch bei der automatisierten Generierung von Indexverzeichnissen.<br />

Alles, was wir tun müssen, ist direkt im Dokument ein paar<br />

Indexmarken zu erfassen und auf den Generier-Knopf zu drücken –<br />

und schwupp haben wir ein gut sortiertes und ggf. schon passend layoutetes<br />

Indexverzeichnis mit Seitenzahlreferenz. Die Seitenzahl kann<br />

sich dann ruhig auch noch einmal ändern – auf Knopfdruck wird sie<br />

aktualisiert. Diese Methode, also das Einbetten von Indexmarken in das<br />

Dokument, wird Embedded Indexing genannt und stellt den Gegenpol<br />

zum Dedicated Indexing dar.<br />

Der Profi-Indexer hat ein paar gute Gründe für sein „dedi cated“ Vorgehen:<br />

Ein qualitativ hochwertiges Indexverzeichnis entstehe schnell und<br />

kostengünstig eben nur mit dem Vorgehen Dedicated Indexing und mit<br />

der Unterstützung der einschlägigen Software. Die Methode Embedded<br />

Indexing hingegen sei zu sperrig, d. h., es unterstütze den Index-Entstehungsprozess<br />

nicht optimal. Deshalb sei der Vorteil „Aktualisierung der<br />

Seitenzahl auf Knopfdruck“ nachrangig einzuordnen.<br />

An dieser Stelle müssen wir uns fragen: Was macht denn ein gutes<br />

Indexverzeichnis aus? Und dann wollen wir uns auch fragen, welche<br />

der Kriterien und Features sind denn relevant für die Technische Dokumentation<br />

bzw. welche wollen und können wir uns überhaupt leisten?<br />

Automatisierte Indexverzeichnis-Erstellung mit<br />

Content-Management-Systemen<br />

In den letzten 10 Jahren haben sich XML und Content-Management-<br />

Systeme (CMS) mehr und mehr in der Technischen Redaktion durchgesetzt.<br />

Diese Entwicklung ist eine der Antworten auf die zentrale<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

413


Professionelles Schreiben / Technical Authoring<br />

Embedded Indexing<br />

mit CMS<br />

Vielfältige<br />

Problemstellungen<br />

Herausforderung an die Technische Redaktion: Print- und Online-Medien<br />

rechtzeitig, benutzer- und mediengerecht in der passenden Sprache<br />

zu erstellen.<br />

Das Automatisierungskonzept der meisten CMS-Hersteller sieht natürlich<br />

auch einen Mechanismus zur automatisierten Index-Generierung<br />

vor. CMS-Redakteuren steht in der Regel eine Embedded-Indexing-<br />

Funktionalität zur Verfügung: Die Indexmarke wird direkt im Modul<br />

erfasst und mit dem Modul gespeichert. Wird das Modul im Standard-<br />

Übersetzungsprozess an das Translation-Memory-System (TMS) ausgespielt,<br />

dann wird in diesem Zuge auch gleich die Indexmarke übersetzt.<br />

Im Publikationsvorgang werden schließlich aus allen zusammengestellten<br />

Modulen die enthaltenen Indexeinträge ermittelt und an einer<br />

gewünschten Stelle im Dokument ein passendes (modulübergreifendes)<br />

Index-Verzeichnis erstellt – und das in jeder Sprache.<br />

Es ist nicht selbstverständlich, dass in diesem Prozess ein konsistentes<br />

und vollständiges Indexverzeichnis entsteht. Gründe dafür sind:<br />

−−<br />

Module, und damit auch die Indexmarken, werden möglicherweise<br />

von verschiedenen Redakteuren asynchron erstellt.<br />

−−<br />

Module (inkl. Index-Marke) werden möglicherweise in einer anderen<br />

Dokumentzusammenstellung, in einem anderen Kontext, wiederverwendet.<br />

−−<br />

Änderungen müssen in der (Modul-)Quelle, bei systematischen Änderungen<br />

ggf. in vielen Modulen, nachgezogen werden.<br />

Die potentielle Wiederverwendung der Indexmarke und die kollaborative<br />

Entstehung eines Indexverzeichnisses mit CMS erfordert ein klares<br />

redaktionelles Index-Konzept. Nur so kann für möglichst hohe Konsistenz<br />

und Vollständigkeit im Indexverzeichnis gesorgt werden. Wenn<br />

sich hier pragmatische Regeln definieren lassen, dann kann auf diese<br />

Weise ein durchaus akzeptabler Index generiert werden, der beinahe<br />

nebenher (kostengünstig) entsteht.<br />

Rechnergestützte alphabetische Sortierung<br />

Immer wenn wir uns per Embedded-Indexing-Verfahren ein Indexverzeichnis<br />

generieren lassen, werden die Einträge ganz selbstverständlich<br />

alphabetisch richtig sortiert. Aber auch beliebige andere Listen (z. B. in<br />

der Textverarbeitung oder Tabellenkalkulation) können wir mit Hilfe<br />

von Rechnern automatisch sortieren lassen.<br />

Dabei ist die richtige Sortierung gar nicht so selbstverständlich zu erreichen,<br />

wenn die länderspezifischen lexikographischen Alphabetisierungsregeln<br />

berücksichtigt werden sollen. Beispiel: In Deutschland wird<br />

das diakritische Zeichen „Ä“ vor „B“ sortiert. Der Schwede erwartet das<br />

„Ä“ hingegen nach dem „Z“. Dafür sortiert der Schwede das „V“ und<br />

das „W“ zusammen und sieht gerne zuerst Klein- vor Großbuchstaben<br />

(z. B. „karl“ vor „Karl“). Außerdem gibt es im Schwedischen nach dem<br />

„Z“ noch einen weiteren Sonderbuchstaben, den es im Deutschen so gar<br />

nicht gibt – das „A“ mit Kringel: „Å“.<br />

Die Anforderungen an die Sortierung sind also nicht ganz trivial. Auch<br />

die Anforderungen aus dem asiatischen Sprachraum mit den tausenden<br />

Zeichen (Ideogrammen) machen die Sortieraufgabe nicht leichter.<br />

Allein im Chinesischen gibt es mindestens 3 Ansätze für die Sortierung:<br />

nach Aussprache, Anzahl der Striche oder Radikale.<br />

414<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Die computergestützte Sortierung basiert letztlich darauf, dass jedes<br />

Zeichen, das mit dem Computer gespeichert wird, durch einen numerischen<br />

Wert repräsentiert wird – das war bereits beim ASCII-Code so<br />

und das ist im heutigen Standard Unicode so. Da die Reihenfolge der<br />

Zeichen im Unicode nicht den verschiedenen Vorstellungen von Sortierung<br />

in den Kulturen entsprechen kann, braucht es Vorgaben (Sortiertabellen),<br />

in denen definiert ist, welchen Platz in einer Sortierung<br />

einem Zeichen zugeteilt werden soll. Ein entsprechender Sortieralgorithmus<br />

muss mit diesen Informationen die zu sortierenden Zeichenketten<br />

vergleichen und Reihenfolgen ableiten.<br />

Natürlich bieten die gängigen DTP-Tools, von FrameMaker bis Word,<br />

entsprechende Sortierungs-Funktionalität, mit der auch ein Index nach<br />

den kulturellen Vorgaben sortiert werden kann. In einem automatisierten<br />

Redaktionsprozess mit CMS findet die richtige Sortierung idealerweise<br />

bereits im Publikationsprozess statt.<br />

für Rückfragen: stricker@fct.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

415


Professionelles Schreiben / Technical Authoring<br />

TA 13<br />

Fachvortrag<br />

Instruktionsdesign als Leitfaden<br />

für die Technische Redaktion bei<br />

der Erstellung von eLearnings<br />

Dr. Christian Schindelin und Bernd Growek, T3 GmbH, Erlangen<br />

Motivation<br />

In vielen Unternehmen setzt sich die Idee durch, die Technische Redaktion<br />

auch mit der Erstellung von eLearnings zu beauftragen. Das Wissen,<br />

welche Inhalte neu zu schulen und wie sie mit bereits bekannten<br />

Inhalten verzahnt sind, ist bei den Redakteuren im Allgemeinen bereits<br />

vorhanden.<br />

Allerdings fehlen den Technischen Redakteuren oft das „Wie“ der Herangehensweise<br />

und das „Womit“ des technischen Rahmenwerks, auf<br />

denen die interaktive Präsentation im eLearning schließlich aufgebaut<br />

ist.<br />

Hier kommt das Instruktionsdesign oder Instructional Design zu Hilfe.<br />

Es bezeichnet die systematische Planung, Entwicklung und Evaluation<br />

von Lernumgebungen und Lernmaterialien. Der Begriff stammt aus den<br />

USA und wurde namentlich von Robert Gagné geprägt [1].<br />

Basierend auf den Prinzipien des Instruktionsdesigns wurde das T3<br />

Didactic Design entwickelt: Es besteht einerseits aus einer Herangehensweise,<br />

den Lehrstoff zu erheben und zu didaktisieren. Andererseits<br />

enthält es das Rahmenwerk, das seine Inhalte aus einem XML-basierten<br />

Redaktionssystem bezieht. Beides zusammen ist dazu geeignet,<br />

die Hürden für die Mitarbeiter der technischen Dokumentationsabteilungen<br />

zu senken, so dass es leichter fällt, eine systematische Vorgehensweise<br />

zu praktizieren. Die technische Komplexität des T3 Didactic<br />

Design ist weitgehend vor dem Redakteur verborgen, so dass er sich auf<br />

die Inhalte selbst und die angewendete Didaktik konzentrieren kann.<br />

Der Vortrag widmet sich dem ersten Teil, der didaktischen Herangehensweise.<br />

Leitgedanke<br />

T3 Didactic Design – theoretische Grundlagen<br />

Der zentrale Leitgedanke des T3 Didactic Design ist die konsequente<br />

Handlungsorientierung. Ziel ist es, nicht einfach nur Faktenwissen zu<br />

vermitteln, sondern beim Lerner Handlungs- und Problemlösungskompetenz<br />

aufzubauen. Dazu braucht es den nötigen „Unterbau“ aus Fakten-<br />

und Konzeptwissen.<br />

416<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Abb. 1: Arten von Wissen<br />

Unterstützung und<br />

Führung des Lerners<br />

Um das geforderte Wissen zu erwerben, muss der Lerner unterstützt<br />

werden. Das T3 Didactic Design bietet hierzu verschiedene Didaktiktypen<br />

an. Die Didaktiktypen basieren aufeinander, wie in der folgenden<br />

Wissenspyramide abgebildet:<br />

Abb. 2: Wissenspyramide<br />

Mediendidaktik und<br />

visuelle Präsentation<br />

Beispielsweise steht an unterster Stelle der Didaktiktyp „Know What“,<br />

der das relevante Faktenwissen behandelt. Für ein spezielles Handlungsziel<br />

durchläuft der Lerner einmal die Pyramide von unten nach<br />

oben.<br />

Die Kombination von Didaktiktypen, die das T3 Didactic Design für ein<br />

einzelnes Lernziel vorsieht, heißt „Lernobjekt“.<br />

Die visuelle Präsentation im eLearning kann verschiedene Schwerpunkte<br />

setzen. Das T3 Didactic Design deklariert dazu die folgenden<br />

Topictypen, die den Didaktiktypen zugeordnet werden:<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

417


Professionelles Schreiben / Technical Authoring<br />

Abb. 3: Topictypen<br />

Modularisierung<br />

XML-basierte Erfassung<br />

im Redaktionssystem<br />

Beim Topictyp Show werden beispielsweise Videos oder Animationen<br />

als Hauptinformationsträger verwendet, textuelle Erläuterungen unterstützen<br />

zusätzlich die Visualisierung.<br />

Damit ein Lernobjekt modular (wieder)verwendbar ist, benötigt es die<br />

Festlegung eines Lernziels und einen eigenen Schluss in Form einer<br />

Wissensüberprüfung und eines Feedbacks. Damit kann das Lernobjekt<br />

als ein in sich geschlossenes „Reusable Learning Objekt“ (RLO) behandelt<br />

und in verschiedenen Kontexten (Modul, Kurs) in gleicher Form<br />

eingebaut werden. Praktisch angewendet wird dies beispielsweise zur<br />

Adaption an unterschiedliche Lernpfade oder Lerner-Level sowie für<br />

die zusätzliche Nutzung zum situativen Lernen als Knowledge Nuggets<br />

auf Informations- und Wissensplattformen.<br />

Aus mehreren RLOs lassen sich gemäß Lehrplänen größere Einheiten<br />

aufbauen. Beispielsweise können mehrere RLOs zu einem<br />

Modul zusammengefasst werden; mehrere Module bilden dann den<br />

eLearning-Kurs.<br />

Zur strukturierten Erfassung der Didaktik- und Topictypen in einem<br />

XML-basierten Redaktionssystem bietet T3 das T3 Learning Plugin an,<br />

das die Basisfunktionen des Redaktionssystems mit dem T3 Didactic<br />

Design fusioniert. Durch das T3 Learning Plugin [2] werden Content-<br />

Management-Systeme (CMS) zu Learning-Content-Management-Systemen<br />

(LCMS) erweitert.<br />

Dieses Plugin erleichtert die Arbeit des Redakteurs zusätzlich, da multimediale<br />

Web-based Trainings automatisiert generiert werden. Die<br />

SCORM-Konformität der produzierten Ergebnisse gewährleistet eine<br />

volle Interoperabilität mit allen gängigen Learning-Management-Systemen<br />

(LMS).<br />

418<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Nutzerführung<br />

Wissensvermittlung<br />

Lernzielkontrollen<br />

Eingespielte Workflows<br />

Perspektive für<br />

Technische Redakteure<br />

Nutzen des T3 Didactic Design in der Technischen Redaktion<br />

Das T3 Didactic Design führt die Redakteure beim Planen neuer Lernobjekte.<br />

Im Redaktionssystem mit T3 Learning Plugin erleichtern Templates<br />

die Anlage neuer Topics gemäß den Didaktik- und Topictypen.<br />

Das T3 Didactic Design zielt auf eine hohe Akzeptanz bei Lernern und<br />

garantierten Lernerfolg. Jede Aussage wird visuell unterstützt; Animationen,<br />

Videos, Grafiken werden textsynchron eingesetzt. Interaktive<br />

Topics werden explizit unterstützt.<br />

Das T3 Didactic Design beinhaltet Übungen und Tests nach dem QTI-<br />

Standard, um den Lerninhalt zu vertiefen sowie den Lernerfolg gezielt<br />

und automatisch zu überprüfen. Die Tests können auch zur systemgestützten<br />

Zertifizierung des Lerners eingesetzt werden.<br />

Das T3 Learning Plugin bietet nahtlose Unterstützung in einem Redaktionssystem.<br />

Bei der eLearning-Erstellung kann die Technische Redaktion<br />

auf allen Workflows und Übersetzungsfunktionen eines Redaktions<br />

systems aufbauen.<br />

Das Erstellen von eLearnings gestattet es, redaktionelle Inhalte strukturiert<br />

und standardisiert in aufgelockerter und visuell ansprechender<br />

Form darzubieten. Dies ermöglicht es insbesondere den Redakteuren,<br />

die bisher überwiegend in der „klassischen“ Technischen Dokumentation<br />

eingesetzt waren, ihre Kompetenzen zu erweitern und auszubauen.<br />

Fazit<br />

Das T3 Didactic Design ist eine Methode, mit der Technische Redakteure<br />

in die Lage versetzt werden, neben klassischen Dokumentationsformen<br />

auch anspruchsvolle eLearning-Produktionen selbst zu erstellen.<br />

Hinweise:<br />

[1] Wikipedia http://de.wikipedia.org<br />

[2] Erläuterung zum T3 Learning Plugin unter<br />

http://tinyurl.com/c6v2kk3<br />

Für Rückfragen:<br />

Christian.Schindelin@T3.de<br />

Bernd.Growek@T3.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

419


Professionelles Schreiben / Technical Authoring<br />

TA 15<br />

Workshop<br />

Educating DITA<br />

Nolwenn Kerzreho, Université Rennes 2, France<br />

Tony Self, Swinburne University of Technology, Australia<br />

Overview<br />

As some areas of technical communication continue to move from linear,<br />

document-centric authoring to structured, topic-based approaches<br />

using the DITA semantic mark-up language, it is becoming more apparent<br />

that some existing practices have to be abandoned and new methods<br />

and techniques taken up. The skills required for these new methods<br />

and techniques can either be taught in the classroom at university level<br />

or taught in the workplace. The way in which universities have taught<br />

DITA techniques provides a useful insight into how DITA skills can also<br />

be transferred in the workplace.<br />

DITA<br />

The Darwin Information Typing Architecture (DITA) is an XML-based<br />

architecture for writing and delivering information using structured<br />

authoring techniques. It is aimed at technical communicators, authors,<br />

editors, and creators of textual content.<br />

The approach enabled by DITA represents a major shift in the way in<br />

which technical communicators and other writers approach a documentation<br />

project. DITA effectively separates the content from the presentation;<br />

technical communicators using DITA can no longer use traditional<br />

style-based techniques and authoring tools to write manuals and other<br />

documents. This is because DITA is based on semantic mark-up and<br />

integrated metadata, both of which are new concepts for most technical<br />

communicators.<br />

Two Universities, Two Hemispheres<br />

Swinburne University of Technology is located in Melbourne, Australia.<br />

Until 2011, a post-graduate Technical Communication programme was<br />

run within the Faculty of Life and Social Sciences, offering post-graduate<br />

qualifications for students. One of the Graduate Diploma subjects<br />

offered was “Structured Authoring with DITA”.<br />

Université Rennes 2 is located in Brittany, France, and offers post-graduate<br />

and under-graduate vocational studies in technical communication<br />

disciplines. One of the technical communication subjects offered is<br />

“Structured Authoring”, which, like the Swinburne subject, focusses on<br />

the DITA semantic mark-up language.<br />

Why is education important for writers moving to DITA?<br />

Writing structured topic-based documents using a semantic mark-up<br />

language is markedly different in many respects to writing in a linear,<br />

document-centric form. Technical communicators migrating from legacy<br />

to structured approaches need to abandon some practices, focus on core<br />

writing skills, and develop new methods and techniques. The change<br />

can be described as re-educating a technical writer as an information<br />

engineer.<br />

420<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Application in the Workplace<br />

There is a difference between education and training, and that may impact<br />

how approaches to “education” in DITA can be applied to “training”<br />

in DITA.<br />

The objective of education is to gain knowledge about facts, principles,<br />

and concepts. Training is more focussed on teaching a skill. Assessment<br />

of education is based on testing a student’s knowledge of concepts and<br />

ability to apply concepts to solve problems. Assessment in training is<br />

usually about testing the student’s ability to perform a task. This is usually<br />

(perhaps unfairly) summarised as education = theory, training =<br />

practice.<br />

To be a competent DITA practitioner in the workplace, an author does<br />

need to have a firm understanding of the concepts of structured, semantic<br />

authoring. It is not a field where learning by rote (recalling which<br />

buttons to press or menus to select) is relevant. DITA is principally a<br />

methodology, and is not a software tool. For that reason, training authors<br />

in DITA is very similar to educating students in DITA theory. While you<br />

may be able to train someone to use a DITA authoring tool, you need to<br />

do more to educate them to write within the DITA methodology.<br />

In the Workplace<br />

Workplace training in DITA can take a similar approach to university<br />

education. The new skills required for a DITA author can be summarised<br />

as:<br />

−−<br />

information typing<br />

−−<br />

topic-based writing for re-use<br />

−−<br />

minimalism<br />

−−<br />

separation of content and form<br />

−−<br />

XML and mark-up language<br />

−−<br />

DITA vocabulary<br />

−−<br />

Software tools<br />

The first five of these new skills are conceptual, and the last two are<br />

mostly practical.<br />

If authors working in an organisation have no education in DITA or<br />

structured authoring, they will need to be taught all seven skills. Those<br />

with education in structured authoring may only need training in the<br />

software tools used by the organisation, and perhaps in the DITA vocabulary<br />

if their learning was based on another semantic mark-up<br />

language.<br />

Student Outcomes<br />

Colin M. (graduated in 2009) was hired by a company based in the<br />

Bouches-du-Rhône region, South of France about six months after<br />

graduating. He later left that company to work for a semiconductor<br />

manufacturing group in Eindhoven in The Netherlands, where he continues<br />

to work as a Product Data Analyst and DITA Implementor. Without<br />

the educational background in DITA, his career would have been<br />

very different.<br />

Peter C. (graduated in 2011) was already working as a technical communicator<br />

in an automotive company in Melbourne, Australia, but was<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

421


Professionelles Schreiben / Technical Authoring<br />

confronted with documentation challenges that only an XML-based<br />

approach could meet. The DITA subject helped improve his understanding<br />

of DITA so he could make informed strategy decisions about<br />

his own documentation projects. This conceptual knowledge has made it<br />

possible for Peter to manage a large and complex DITA document engineering<br />

process that extracts technical information from an inventory<br />

management system and incorporates it with conventionally-written<br />

content.<br />

Conclusion<br />

Writing structured topic-based documents using a semantic mark-up<br />

language is different in many respects to writing in a linear, documentcentric<br />

form, and requires different skills. Formal education can provide<br />

the conceptual framework and the core skills, but further training,<br />

particularly in software tools, may be required in the workplace. The<br />

approaches to university education and workplace training can be quite<br />

similar, but it is critical that DITA authors acquire the necessary theoretical<br />

and practical skills to make them effective practitioners.<br />

aself@swin.edu.au<br />

nolwenn.kerzreho@uhb.fr<br />

422<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

TA 16<br />

Tutorial<br />

Crossing the divide – Advanced techniques<br />

for conversion to structured FrameMaker<br />

Jang F.M. Graat, JANG Communication, Amsterdam<br />

Most of the techniques that will be explained in this tutorial were developed<br />

in a project for one of my customers, who will be co-presenting<br />

that project with me in TA5: Changing the engine without stopping the<br />

car.<br />

Preparing the documents<br />

Some features of the unstructured FM interface do not translate well<br />

into the structured paradigm. In fact, some features break FM’s builtin<br />

conversion and cause a fatal crash. This means that such features<br />

have to be either removed or changed in such a way that FM can handle<br />

them properly.<br />

One particular case is anchored frames that contain text frames. In one<br />

project, such frames were used to place notes for the authors in the side<br />

heads. A script finds all occurrences of such constructions and moves<br />

the content into the main document, applying specific paragraph format<br />

tags so that they can be recognized for what they are. After conversion,<br />

the re-applied paragraph formats makes the notes appear in the side<br />

heads again.<br />

Another feature does not lead to crashes but offers an opportunity to increase<br />

the quality of converted materials: the use of different sidehead<br />

icons for different types of notes. If the images are linked instead of<br />

copied into the FM documents, their filenames can be used to apply new<br />

paragraph formats to the note texts. This allows distinguishing an „Info“<br />

note from a „Caution“ and „Warning“, or whatever note categories you<br />

may have. Again, after conversion, the icons can be brought back into<br />

the formatting (using a slightly different and easier to manage method).<br />

Conversion tables and their usage<br />

The information about creating conversion tables in FM’s documentation<br />

is more or less enough to do the straightforward conversion work.<br />

But the really interesting work starts where the documentation ends.<br />

Higher-level conversion rules can be applied until reaching the very top<br />

of the tree. The order in which certain rules are applied may become an<br />

obstacle if you do not have a clear idea of the structure that is inherent<br />

in the source document’s formatting.<br />

Creating complex expressions at higher-level rules can be made less<br />

error-prone by using variables for sets of elements that often appear<br />

together. You can go one step further by using text insets to create and<br />

manage a set of conversion tables: each conversion table being specifically<br />

optimized for one type of document. The tutorial, procedure and<br />

reference chapters may have different structures and can be converted<br />

using different conversion tables. Also, if you are a consultant like myself,<br />

you may want to use a number of modules that can be combined<br />

into a fitting conversion table for each particular customer, without having<br />

to copy and paste generic enhancements for often occurring formats<br />

and constructions.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

423


Professionelles Schreiben / Technical Authoring<br />

Applying conversion tables when you have books with a large number<br />

of chapter files can be tricky, especially if some of the chapter files are<br />

generated content which do not require conversion to structured FM.<br />

Also, backup files should be skipped and you do not necessarily want to<br />

overwrite the source files – in case you do need them to check on possible<br />

manual corrections that must be made later. All of these requirements<br />

call for a script that processes a book, moving files out of the way<br />

of the “Structure Documents” command and creating a safe location<br />

for the files to end up in. A fairly simple script can save lots of valuable<br />

time later on.<br />

Post-processing the result<br />

Some features of format-based FM cannot be converted using the builtin<br />

tools. One of these is conditional text. When you select the option to<br />

show all conditional text, none of the markers for that text are visible<br />

and therefore cannot be converted. If you decide on hiding the conditional<br />

text, you will be able to convert the marker to structured FM but<br />

you will loose the content. The only way out of this is converting the<br />

markup-based conditional text into attribute-based conditional text using<br />

a script in the converted document.<br />

Many structural features that may be obvious to the author cannot be<br />

expressed in a conversion table rule at all. Fortunately, there are tools<br />

that let you automate the enhancement of your structured document<br />

based on the properties of elements and the order in which they appear.<br />

The most effective tool for this type of work is West Street Consulting’s<br />

FrameSLT: it makes the power of XSLT available within the environment<br />

of structured FM. This allows you to define an XPath query to find<br />

specific elements or attributes and apply structural transformations on<br />

them. Even though this tool would easily fill an entire tutorial (I will<br />

reapply that tutorial to next year’s tcworld conference) or a full-day<br />

course, I will be showing some examples of its incredible power.<br />

Contact: jang@jang.nl<br />

424<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

TA 17<br />

Tutorial<br />

Sprachregeln und Redaktionsleitfaden<br />

Andreas Baumert, Hochschule Hannover<br />

Annette Verhein-Jarren, Hochschule für Technik Rapperswil, Schweiz<br />

Den Nutzen von Sprachregeln bestreitet niemand. Kein Unternehmen<br />

hält es für sinnvoll, dass jeder Mitarbeiter so schreibt, wie ihm der<br />

Schnabel gewachsen ist. Dennoch scheuen viele den Aufwand, solche<br />

Regeln zu entwickeln. Wir zeigen einen Weg, dieses Problem in den<br />

Griff zu kriegen.<br />

Sprachregeln, oft ein anderes Wort für Grammatik<br />

„Etwa fünfzehn Jahre nach Eröffnung der Golden Gate Bridge stellte<br />

ein Mitarbeiter der Autobahngesellschaft von Nordkalifornien am ostwärtigen<br />

Ende der Brücke Rostspuren fest. Ein Maler wurde mit dem<br />

Neuanstrich beauftragt. Er fing am verrosteten Ende an und arbeitete<br />

sich zum westlichen Ufer vor. Nach Abschluss der Arbeiten waren fünfzehn<br />

Jahre vergangen, man stellte am ostwärtigen Ende Rostspuren<br />

fest.“ (1) So leitete Peter Eisenberg 1986 seine Grammatik ein. Seitdem<br />

sind Tausende Grammatik-Buchseiten entstanden, etliche davon aus<br />

seiner Feder.<br />

Dieses Geschäft ist frustrierend. Seit Jahrhunderten versuchen Wissenschaftler,<br />

die Regeln der deutschen Sprache zu erkennen und zu notieren.<br />

Stets gelingen ihnen nur Teilerfolge, beachtliche zwar, doch nie der<br />

letzte große Wurf: die endgültige Beschreibung aller Regeln des Deutschen.<br />

Das hat wenigstens zwei Gründe.<br />

1. Die Sprache verändert sich, langsam zwar und nur schwer zu beobachten,<br />

doch stetig. Der Verdacht liegt nahe, dass es DIE Regeln DES<br />

Deutschen gar nicht gibt. Über Näherungswerte – wenn auch beeindruckend<br />

gute – kommt man nicht hinaus.<br />

2. Auch die Methoden, mit denen man sie beschreibt, werden häufig<br />

über Bord geworfen und durch andere ersetzt. Für den Laien ist diese<br />

Angelegenheit enttäuschend; so hat die Duden-Grammatik von 1984<br />

für ihn nichts gemein mit jener, die der gleiche Verlag gut zwanzig Jahre<br />

später auf den Markt brachte. (2) War das alte Buch falsch, alles ein<br />

Irrtum?<br />

Weit gefehlt: Wie gut eine Grammatik auch ist: Sie beschreibt nur einen<br />

Ausschnitt der Regeln einer Sprache, wenn man von Kunstsprachen<br />

einmal absieht. Dabei nutzt sie jene Instrumente, die sich gerade in der<br />

Wissenschaft durchsetzen konnten. Oft – keineswegs immer – ist sie<br />

besser als ihre Vorgängerin, das interessiert aber nur den linguistischen<br />

Experten. Andere Sprachanwender wollen nur möglichst einfache Antworten<br />

auf ihre Fragen finden. Beiden gemein ist, dass sie sich daran<br />

gewöhnt haben, bloß einen Teil der Sprache beschrieben zu sehen, eine<br />

Untermenge.<br />

Redaktionsleitfaden<br />

Jede Redaktion sollte Regeln folgen, wie Dokumente zu gestalten sind,<br />

wie man die verfügbaren Rechner und Programme nutzt und was bei<br />

der Projektabwicklung zu beachten ist. Die Regelwerke haben unterschiedliche<br />

Namen – Gestaltungsrichtlinie, Redaktionsleitfaden, DTD<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

425


Professionelles Schreiben / Technical Authoring<br />

Schlechter Ruf<br />

Aufwand<br />

Untersuchen<br />

oder XML-Schema –, sie liegen in vielen Formen vor, gedruckt, als Datei,<br />

elektronische Vorgangssteuerung und oft als implizites Handlungswissen<br />

der Mitarbeiter: Man macht es eben so und nicht anders.<br />

Wie solche Redaktionsleitfäden entstehen, worauf ihre Autoren achten<br />

müssen, ist bekannt, eine Einführung steht zum kostenlosen Herunterladen<br />

im Internet bereit. (3)<br />

Nicht vergleichbar gewiss ist, wie Sprachregeln gewonnen werden. Das<br />

hat zwei Gründe:<br />

1. Sprachregeln haben einen schlechten Ruf und<br />

2. sie sind nur mit beträchtlichem Aufwand zu erstellen.<br />

Zu 1: Die kontrollierte Sprache, wie eine geregelte Sprache über viele<br />

Jahre hieß, scheint das Gegenteil des kreativen Sprachgebrauchs, der<br />

als einzige „Sprachregel“ einer Demokratie angemessen ist. Deswegen<br />

will keiner, der bei Verstand ist, die Sprache kontrollieren. Doch darum<br />

geht es nicht, die gefürchteten Welten von Huxley und Orwell bleiben<br />

Fiktion. Geregelte Sprachen sind nur für wenige Ausschnitte der Kommunikation<br />

sinnvoll, beispielsweise für einige Anleitungstexte oder<br />

auch für Geschriebenes, das Menschen mit Leseschwierigkeiten verstehen<br />

müssen.<br />

Zu 2: Funktionierende Sprachen dieses Typs gibt es für das Englische,<br />

vor allem das Basic-English und die ASD-STE 100. Alles ist vorgegeben,<br />

der Satzbau ist eingeschränkt, jedes Wort steht in einer Liste, ebenso<br />

seine gestattete Verwendung.<br />

Wer aber das Deutsche kennt und seine Grammatiken studiert hat, ahnt<br />

Schlimmes, wenn er darüber nachdenkt, englische controlled languages<br />

auch für unsere Sprache zu konstruieren. Vergleicht man die geringen<br />

Einsatzmöglichkeiten mit dem nötigen Aufwand, um eine Grammatik<br />

des Deutschen auf wenige Regeln zu reduzieren und das passende<br />

Lexikon zu entwickeln, lohnt sich die Mühe nicht. Eine angemessene<br />

Lösung mit dem Anspruch, jedem Unternehmen dienen zu können,<br />

würde den Verbund von Forschungseinrichtungen und eine jahrelange<br />

Initiative verlangen. Das ist nicht unmöglich, realistisch ist es aber derzeit<br />

nicht.<br />

Die Not zur Tugend machen<br />

Wenn die Mittel für den besten Weg nicht zur Verfügung stehen – Kooperation<br />

von Forschungseinrichtungen, Verbänden und Unternehmen<br />

– muss man sich für die zweitbeste Methode entscheiden: Das Problem<br />

untersuchen, es begreifen und eine Lösung entwickeln, die sukzessive<br />

den Sprachgebrauch einer Redaktion ändert.<br />

Der erste Schritt ist die Untersuchung der vorhandenen Dokumente.<br />

Will man nur wenig regeln, ist jeder Text recht, vom Brief bis zur<br />

Internetseite. Ist eine eher umfassende Sprachregelung gewünscht,<br />

beschränkt man sich besser auf den Dokumenttyp 4 nach Baumert/<br />

Verhein-Jarren: „Dokumente für die rein professionelle Nutzung, Service-Handbücher,<br />

Texte für Fachleute – vom Narkosearzt bis zum Kfz-<br />

Mechatroniker.“ (4)<br />

Diese Texte untersucht man auf irritierenden oder widersprüchlichen<br />

Sprachgebrauch. Dabei empfehlen wir eine grobe Einteilung besonders<br />

nach den bei Baumert/Verhein-Jarren in den Kapiteln 5 und 6<br />

426<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

Begreifen<br />

Lösung<br />

vorgegebenen Kategorien: Wörter und Sätze. Nehmen wir an, dass die<br />

vorhandenen Dokumente in der Beugung von Verben großzügig sind:<br />

Beispielsweise nutzen die Redakteure mehrere Zeitformen unterschiedlich.<br />

Das ist ein störendes Element, es wirkt sich negativ auf die<br />

Qualität der Texte, den Aufwand für deren Aktualisierung und die Übersetzung<br />

aus.<br />

Zwar kennt das Deutsche sechs Zeitformen des Verbs – Präsens, Präteritum,<br />

Perfekt, Plusquamperfekt, Futur 1 und 2 –, es gestattet aber<br />

einen recht großzügigen Umgang mit ihnen. „Gestern fahre ich nach<br />

Wiesbaden“ ist ebenso möglich wie „Heute fahre ich …“ oder „Morgen<br />

fahre ich …“. Aus dem Tempus (Fachausdruck für: Zeitform) des Verbs<br />

allein erkennt man nicht, wann etwas geschieht. Temporaladverbien<br />

wie „gestern“, „heute“ und „morgen“ müssen zu Hilfe eilen, damit alles<br />

verständlich bleibt.<br />

Um dieses Phänomen anständig beschreiben zu können, muss man<br />

eine Grammatik zu Rate ziehen und ihre Ausführungen verstehen. Nur<br />

wer begreift, kann auch die Lösung korrekt anwenden.<br />

Nun kann die Redaktion entscheiden: Ab jetzt verwenden wir nur drei<br />

Zeiten (Präsens, Futur, Perfekt). Die natürliche Zeit muss immer der<br />

grammatischen entsprechen. Für bestimmte Dokumente reicht allerdings<br />

das Präsens. Es ist der Anfang einer geregelten Sprache, der die<br />

Formenvielfalt des Deutschen erheblich reduziert.<br />

Erfahrene Redakteure kennen diese Lösung natürlich, sie gehört schon<br />

heute zum Inventar ihrer redaktionellen Kompetenz. Dazu werden sich<br />

andere gesellen, die Schritt für Schritt den Kern der geregelten Sprache<br />

bilden.<br />

Jede Sprachregelung dieser Art ist Teil des Redaktionsleitfadens, der<br />

zwar mit der Zeit sehr umfangreich wird, den man aber nur im Notfall<br />

konsultieren wird: Schließlich hat jeder Redakteur an der Lösung mitgewirkt,<br />

sie begriffen und so verinnerlicht.<br />

Literatur<br />

(1) Eisenberg, Peter (1986): Grundriß der deutschen Grammatik. Stuttgart:<br />

Metzler, S. 9.<br />

(2) Drosdowski, Günther; Augst, Gerhard (1984): Duden Grammatik<br />

der deutschen Gegenwartssprache. 4., völlig neu bearb. und erw. Aufl.<br />

Mannheim: Dudenverlag. Neu: Dudenredaktion [Hrsg.] (2006): Die<br />

Grammatik. Überarb. Neudr. der 7., völlig neu erarb. und erw. Aufl.,<br />

Mannheim: Dudenverlag.<br />

(3) Baumert, Andreas (1998): Gestaltungsrichtlinien: Style Guides<br />

planen, erstellen und pflegen. Reutlingen: Doculine.<br />

http://nbn-resolving.de/urn:nbn:de:bsz:960-opus-3196<br />

(4) Baumert, Andreas; Verhein-Jarren, Annette (2011): Texten für die<br />

Technik. Leitfaden für Praxis und Studium. Heidelberg: Springer, S. 138.<br />

Eine Literaturliste finden Sie unter:<br />

http://www.jahrestagung.tr-studium.de<br />

für Rückfragen: averhein@hsr.ch<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

427


Professionelles Schreiben / Technical Authoring<br />

TA 18<br />

Tutorial<br />

XML<br />

XML in documentation –<br />

benefits<br />

DITA Vs S1000D<br />

The structure of<br />

a data module<br />

Technical Authoring: Zero to<br />

S1000D in 1 hour 45 minutes<br />

Nandini Gupta, Gyanesh Talwar, Adobe Systems, Noida, India<br />

S1000D is an international standard for technical publications of equipment,<br />

aerospace, and defence. S1000D also is an XML mark-up language<br />

for technical documentation, like DITA.<br />

This session starts with XML basics and goes on into the details of how<br />

XML is used in the various documentation mark-up languages, such<br />

as DITA, DocBook, and S1000D. Further, in this session, we learn about<br />

S1000D, its relevance, and what all it entails.<br />

XML is a pared down version of SGML. Using XML, you can create<br />

mark-up languages, such as Music Mark-up Language, xDocBook, DITA,<br />

and S1000D.<br />

The creation of an XML mark-up language takes place with creation of<br />

a DTD. A DTD decides the name, structure and vocabulary of a mark-up<br />

language. You refer a DTD in the XML files you create and hence follow<br />

the same set of rules in all the XML files that refer to the same DTD.<br />

Further, you need CSS or XSL to render the content in a form consumable<br />

by an end user. XSL is more powerful than CSS. While CSS can only<br />

format and present the contents of the XML files, an XSL can actually<br />

selectively display some of the content of the XML.<br />

This session then explains the benefits of XML in documentation,<br />

such as reuse, multichannel publishing, platform independence, and<br />

modularity.<br />

A comparison between similar elements of DITA and S1000D helps<br />

DITA users understand the basics of S1000D quickly.<br />

If you work with DITA in FrameMaker, understanding FrameMaker’s<br />

S1000D functionality is easy. In FrameMaker UI, you use the same basic<br />

structured-authoring environment for S1000D as you use for DITA:<br />

−−<br />

Structure view<br />

−−<br />

Element Catalog<br />

−−<br />

Element boundaries and Element Boundaries (as Tags)<br />

−−<br />

A file with structured applications (S1000D-structapps.fm)<br />

Both DITA and S1000D are technical documentation specifications created<br />

with XML. However, while DITA is used mostly by the computer<br />

industry, S1000D is used in Defense systems, Civil aviation products, and<br />

Construction industry products.<br />

DITA is adopted voluntarily for benefits such as multichannel publishing,<br />

conditional processing, content reuse, consistency of structure, and<br />

platform independence. While S1000D has similar benefits, adopting<br />

S1000D is often a contractual/legal requirement and is based on internationally<br />

agreed neutral standards.<br />

All data modules contain two main sections, identAndStatus Section and<br />

content. identAndStatus Section contains a comprehensive set of metadata<br />

elements used to manage the data module. The idstatus section is<br />

not normally displayed to the user of the publication and is often not<br />

editable by the author.<br />

428<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

The two main<br />

components of an<br />

S1000D data module<br />

Modular publications<br />

Data module types<br />

Applicability<br />

While the available element structure of the identAndStatusSection is<br />

identical for all data modules, the content section varies for each type<br />

of data module. The content section is the part of the data module that<br />

appears in the output. The structure of the various S1000D modules is<br />

fairly simple to comprehend if you know basic DTD.<br />

One of the S1000D specification’s key features is the Data Module (DM).<br />

A data module is an easy-to-manage document designed for reuse. A<br />

typical data module provides a small amount of content about a specific<br />

topic in a clearly defined context.<br />

S1000D is a standard for data interchange and ensures that all data follows<br />

a common set of rules and reduces the lifecycle costs for a project.<br />

S1000D issue 4.0 defines a fixed set of data module types.<br />

Applicability lets you show only the right content in the right conditions<br />

to the right user. Either at the Data Module (DM) level or at an element<br />

level, you can specify the applicable conditions, products, or product<br />

models for displaying the content. Applicability can be global (module<br />

level) or inline (element level).<br />

Three types of applicability modules in S1000D help you achieve the<br />

applicability filtering:<br />

−−<br />

Applicability Cross Reference Table (ACT)<br />

−−<br />

Condition Cross Reference Table (CCT)<br />

−−<br />

Product Cross Reference Table (PCT)<br />

The session will conclude with 3 use cases of applicability in S1000D.<br />

References<br />

http://blogs.adobe.com/tcs/2011/03/tcs-specific/framemaker-10-a-ditapractitioner%E2%80%99s-primer-for-s1000d.html<br />

nandinig@adobe.com | gtalwar@adobe.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

429


Professionelles Schreiben / Technical Authoring<br />

TA 19<br />

Tutorial<br />

Light Programming for Technical Writers<br />

Russ Ward, Spirent Communications, Germantown, USA<br />

So you’ve heard it many times, perhaps from yourself… “I’m a technical<br />

writer – I don’t know / can’t learn / don’t need to know how to program<br />

a computer. Software development is for engineers!”<br />

Well, now hear this… hogwash! Some modest development skills would<br />

not only significantly enhance your value to the marketplace, it may also<br />

re-energize your enthusiasm for your career.<br />

Why are development skills important?<br />

Why? Simply because you get to make the computer do what you want<br />

and thus quickly add value to the process. The alternative? Wait for<br />

someone else to build the tools you need, if ever. Imagine if the boss<br />

says “You know, if we just had this feature in Word, it would save so<br />

many hours of busywork” and then asks two different employees what<br />

can be done:<br />

Employee 1: “Sure, we could do it. Let me do a little research and work<br />

up a prototype.”<br />

Employee 2: “Well, I guess we could send a feature request to Microsoft,<br />

although we’ve been doing that for years without any response.”<br />

Who do you think gets the raise and/or survives the next layoff? In addition<br />

to the potential of providing direct tangible benefit to the current<br />

workflow, development experience also gives you the following:<br />

−−<br />

A more intimate knowledge of the software development process in<br />

general, which is an invaluable asset to writers working with software<br />

user assistance. If you don’t do software UA, it is still great exercise<br />

for any brain working in a technical field.<br />

−−<br />

A more commanding knowledge of your authoring and publishing<br />

tools, especially if you dabble with customizations of them. Once you<br />

operate your desktop publisher from the inside out, even if just a little<br />

bit, you’ll encounter an explosion of enlightenment.<br />

Can I really do it?<br />

If you are a competent technical writer, of course you can. To be clear,<br />

we aren’t talking about preparations to be the chief development lead<br />

for NASA or Anonymous… we are talking about some basic skills to enhance<br />

your primary job description. Your last name is “Writer,” which is<br />

what people know you by, but your first name “Technical” should mean<br />

something as well. Creative writing, journalism, etc. is nice, but that’s not<br />

what we get paid for.<br />

Basic programming concepts<br />

The core of the presentation will begin with an overview of general<br />

concepts related to programming, with a special emphasis on how these<br />

concepts should not be foreign to most technical writers. We are in the<br />

business of providing instructions and that is exactly what programming<br />

is, only to a different audience (the computer). And arguably, in<br />

some cases the computer is a less challenging audience, because there<br />

430<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

are far less variances in the semantics of language. Either it computes,<br />

or it does not.<br />

If you can present a procedural roadmap to a human user, you should<br />

be able to present a programmatic roadmap to a computer. The hurdle<br />

is learning new languages, complete with new grammars. But as daunting<br />

as that may seem, there are many aspects about computer languages<br />

that can make them easier than human languages. For example, there<br />

are far fewer words and you don’t even need to know that many of them<br />

to make some really interesting stuff happen.<br />

Demonstrations for the presentation<br />

The bulk of the remaining presentation will focus on demonstrations<br />

of various common places that a technical writer might find scripting<br />

and software development to be useful. All of these demonstrations are<br />

chosen with the novice developer in mind, because the point is “light<br />

programming,” not advanced engineering. The following are some key<br />

areas that will be addressed:<br />

−−<br />

Basic Windows command line scripting. Using the basic file management<br />

utilities and other capabilities supported by Windows batch file<br />

scripts, you can automate a variety of simple activities such as file<br />

backups. The simple syntax of command line commands makes it<br />

easy to write and test these types of scripts.<br />

−−<br />

Web page scripting. Many technical writers spend a lot of time producing<br />

HTML to be rendered in a browser. With a little bit of Java-<br />

Script expertise, you can really spice up your presentation and potentially<br />

begin to add useful features for your readers.<br />

−−<br />

Customizing Microsoft Office applications. All mainstream Microsoft<br />

applications provide a well-featured macro environment that can be<br />

used for limitless automation. And, it may be less complex to use than<br />

you realize, especially with the built-in “macro recorder” that helps<br />

write the code for you. A number of simple examples will be demonstrated,<br />

such as the basic example of adding a button in Microsoft<br />

Word to automatically format an image.<br />

−−<br />

Customizing Adobe applications with ExtendScript. Many flagship<br />

Adobe products are integrated with a scripting engine called Extend-<br />

Script, a highly-capable and very accessible automation tool based on<br />

JavaScript. The bulk of examples will focus on FrameMaker, as it is a<br />

mainstream tool for many technical writers. As time permits, Photoshop<br />

and Indesign scripting may be demonstrated as well.<br />

−−<br />

Customizing Adobe FrameMaker through API clients. FrameMaker<br />

provides a rich API for customization by use of the C language and<br />

the freely-available FrameMaker Development Kit (FDK). As the<br />

most advanced of the programming topics addressed in this presentation,<br />

coverage will be light and superficial, but hopefully sufficient to<br />

inspire the adventurous mind with thoughts of possibilities.<br />

Presentation takeaway<br />

Attendees should leave the presentation with some knowledge of how<br />

to get started, a host of sample files and scripts, and perhaps a touch of<br />

inspiration.<br />

For any questions, attendees and non-attendees can contact:<br />

russ.ward@spirent.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

431


Professionelles Schreiben / Technical Authoring<br />

TA 20<br />

Workshop<br />

Hands On with EPUBs<br />

Scott Prentice, Leximation, Inc., San Rafael, USA<br />

Are you interested in developing ebooks as one option for delivering<br />

content to your customers? The EPUB format is the most widely accepted<br />

ebook format and there are many tools available for creating EPUB<br />

files. Providing your content as an EPUB means that it will be available<br />

on almost every device and platform, making your content always available<br />

to your customers. In this workshop, we’ll walk through the basics<br />

of the structure of an EPUB file and work with a number of popular<br />

authoring tools and conversion processes for creating EPUBs.<br />

Overview<br />

Viewing an EPUB requires a reader application or dedicated reader<br />

device. An EPUB is a collection of XHTML, XML, CSS, and media files<br />

wrapped up in a zip archive. The best way to learn about the EPUB format<br />

is to open your EPUB and review the contents.<br />

Popular Reader Applications<br />

−−<br />

iBooks on iPad/iPhone/iPod<br />

−−<br />

Aldiko on Android devices<br />

−−<br />

EPUBReader plugin for Firefox<br />

−−<br />

Readium plugin for Chrome<br />

−−<br />

Adobe Digital Editions on Windows or Mac OS<br />

−−<br />

Kindle and Nook desktop and mobile apps<br />

Dedicated Reader Devices<br />

−−<br />

Amazon Kindle<br />

−−<br />

Barnes & Noble Nook<br />

−−<br />

Kobo eReaders<br />

−−<br />

Sony eReaders<br />

−−<br />

lots more!<br />

Creating an EPUB<br />

There are two main ways to create an EPUB. You can either create<br />

content in an authoring tool then export to EPUB or you can convert<br />

to EPUB from existing content (PDF, HTML, DITA, etc.). Each tool has<br />

unique methods for authoring or conversion. Depending on the type of<br />

content you’re working with, you’ll likely be drawn to one method or the<br />

other. I tend to think that most techcomm publishers will use the conversion<br />

method rather than crafting individual EPUB documents.<br />

Regardless of the creation method you use, your EPUB will probably<br />

require some manual modifications. There are no “perfect” options!<br />

Popular EPUB Authoring Tools<br />

−−<br />

Adobe InDesign, Apple Pages, Sigil<br />

−−<br />

Also ... Adobe RoboHelp, MadCap Flare, Microsoft Word, OpenOffice<br />

−−<br />

oXygen XML Editor isn't a typical “authoring tool” but a great EPUB<br />

tool<br />

432<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

−−<br />

And others (see Resources page on www.epubtest.com)<br />

−−<br />

What about Apple iBooks Author? Nope, it doesn’t create EPUBs<br />

Popular EPUB Conversion Tools<br />

−−<br />

Calibre<br />

−−<br />

DITA for Publishers (DITA-OT plugin)<br />

−−<br />

WebWorks Publisher<br />

−−<br />

PDF to EPUB converters<br />

−−<br />

Various utilities and plugins (see Resources page on www.epubtest.<br />

com)<br />

EPUB2 or EPUB3?<br />

IDPF (International Digital Publishing Forum) released the EPUB3<br />

specification in October 2011; replacing the 2.0.1 spec. EPUB3 adds support<br />

for HTML5, SVG, MathML, and more. Tool and reader support for<br />

EPUB3 is still lacking (although it’s getting better!). For now use EPUB2<br />

unless you know that your target device/application supports EPUB3.<br />

Viewing the Contents of an EPUB<br />

After creating an EPUB, you’ll likely need to open and “fix” little formatting<br />

problems. Just change the “.epub” extension to “.zip” and use an archive<br />

extraction tool (assuming it’s not DRM’d). Putting it back together<br />

after modifying the contents can be tricky (not just a matter of “zipping”<br />

it back up). Best to use a tool that can open EPUBs:<br />

−−<br />

oXygen XML Editor<br />

−−<br />

Sigil<br />

−−<br />

eCub or Jutoh<br />

Structure of an EPUB File<br />

−−<br />

mimetype file (at root) contains “application/epub+zip”<br />

−−<br />

META-INF/container.xml points to the OPF file<br />

−−<br />

OPF file contains metadata, manifest, and spine<br />

−−<br />

OPF references XHTML, CSS, media,
and image files<br />

−−<br />

OPF also references the TOC (an NCX in EPUB2 and an XHTML nav<br />

in EPUB3)<br />

DEMO: Open and Review EPUB<br />

−−<br />

Using oXygen XML Editor, open EPUBs and review, note the file<br />

names and folder structure<br />

−−<br />

File and folder names will vary<br />

−−<br />

Locate files by following references, start with container.xml, note<br />

metadata usage in NCX and OPF files<br />

−−<br />

Review structure and syntax of NCX and OPF files<br />

DEMO: Review Content Files<br />

−−<br />

Locate various types of content inside the EPUB, note references to<br />

each file in the OPF file<br />

−−<br />

Identify “chapter” HTML files in EPUB, note that each starts on a new<br />

“page” in EPUB reader<br />

−−<br />

Open HTML (XHTML) files and review coding styles<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

433


Professionelles Schreiben / Technical Authoring<br />

DEMO: Edit HTML<br />

−−<br />

Make a copy of an EPUB<br />

−−<br />

Open the EPUB and open an HTML file<br />

−−<br />

Make some edits, then save, review changes in EPUB reader<br />

−−<br />

Make more edits but intentionally make invalid, save, and validate ..<br />

in oXygen you’ll see a nice debugging screen that links to the errors<br />

Packaging the EPUB<br />

Once all of the files “look” good, you’ll need to package (zip) and validate<br />

the EPUB. If you’re using oXygen or Sigil, this will be done for you,<br />

otherwise you’ll need to do the packaging yourself. The mimetype file<br />

must be “first” in the package and be uncompressed, with the remaining<br />

files follow.<br />

On Mac or other UNIX systems, use the following commands (run from<br />

within EPUB project folder)<br />

$ zip -0Xq thegreatstory.epub mimetype
<br />

$ zip -Xr9Dq thegreatstory.epub *<br />

On Windows systems, use the ePubPack utility
sourceforge.net/projects/<br />

epubpack/<br />

Validate your EPUB<br />

To ensure the EPUB meets the specification, use the EpubCheck utility<br />

– code.google.com/p/epubcheck/. Requires Java JRE 1.5 or later. Reports<br />

any violations.<br />

$ java -jar /path/to/epubcheck.jar thegreatstory.epub<br />

Create Kindle MOBI file<br />

The Amazon Kindle doesn’t read the standard EPUB file, there are a<br />

number of converters available, but it’s best to use the official tool from<br />

Amazon. Link on Resources page on www.epubtest.com. Creates a<br />

MOBI file from the EPUB.<br />

$ /path/kindlegen thegreatstory.epub<br />

Contact: sp10@leximation.com<br />

434<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Professionelles Schreiben / Technical Authoring<br />

TA 21<br />

Workshop<br />

The purpose of<br />

a definition<br />

Adding Value through Glossaries<br />

Leah Guren, Cow TC, Karmiel, Israel<br />

The need for glossaries<br />

Users are increasingly abandoning official product documentation in<br />

favor of other sources, which are not controlled by the company and<br />

may not be accurate. A main reason for this mass exodus is assumed<br />

knowledge; that is, user frustration at terms and concepts that are not<br />

explained.<br />

By providing rich, value-added glossaries, we can make our documentation<br />

more accessible, more appealing, and more useful to a wider range<br />

of users. A good glossary provides these benefits:<br />

−−<br />

It supports the needs of different users. Users are never a completely<br />

homogeneous group. A glossary can fill in knowledge gaps without<br />

getting in the way of advanced users.<br />

−−<br />

It helps users learn. It serves as a handy, centralized location for<br />

short, easy-to-consume pieces of information about the product and<br />

domain.<br />

−−<br />

It showcases expertise. Each well-written definition underlines your<br />

company’s expertise in the domain in a subtle yet effective way.<br />

−−<br />

It helps keep users loyal to your documentation. If users can understand<br />

product terms and concepts within the product documentation,<br />

they are less likely to go elsewhere to find answers.<br />

A definition in product documentation it is not meant to explain every<br />

detail; its real function is to give users enough of an understanding—the<br />

context—to be able to continue using the documentation. Think of it as a<br />

hook upon which users can then hang more information.<br />

What should you include?<br />

How do you know what you should define? Consider the following:<br />

−−<br />

Product terms. Think of product names, especially different flavors of<br />

products and related products.<br />

−−<br />

Features. Users don’t always understand what feature names do. For<br />

unusual features, include feature concepts (what the feature actually<br />

does).<br />

−−<br />

Interface elements. Think about terminology used to discuss types of<br />

interface elements. Do all of your users know what an “option button”<br />

is?<br />

−−<br />

Workflow concepts. Are there terms that apply to your users’ workflow<br />

but aren’t explicitly named in the interface? Does your company<br />

use a term that may not be universally recognized in the industry?<br />

−−<br />

Actions (verbs with special use). Do you use special terms to describe<br />

any user action?<br />

−−<br />

User groups or classes. Do you talk about group leaders or trainees or<br />

associates or administrators?<br />

−−<br />

Domain concepts. Think of technical terms in the field, acronyms or<br />

initializations, and even concepts.<br />

−−<br />

Any word that your company uses in a special way.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

435


Professionelles Schreiben / Technical Authoring<br />

Classification<br />

The Definition<br />

Statement<br />

The Example<br />

Acronyms and<br />

Initializations<br />

Best practices<br />

A good definition is made of up these elements:<br />

The classification is the first thing that points the reader’s mind in<br />

the right direction. For example, a classification for “chair” might be<br />

“furniture.”<br />

This is the short (one or two sentence) actual definition. It cannot be too<br />

broad (for example, if I say that a chair is a type of furniture that you<br />

can sit on, I am accidentally including things that aren’t chairs, such<br />

as sofas). It cannot be too narrow (for example, if I say that a chair has<br />

arms, I am accidentally excluding all the chairs that don’t have arms).<br />

The trick is to find the elements that capture the essence of this object<br />

or concept.<br />

The example helps the reader understand the definition. I like to think<br />

of it as the “aha! factor.” In some cases, an example may be a wellknown<br />

instance of the concept (for example, if I was defining DTP, I<br />

might mention Microsoft Word as an example, because many people<br />

recognize it, even if they hadn’t previously been familiar with the concept<br />

of DTP). It may be a picture (this works well for definitions of<br />

physical things). It may be a well-known use case. When choosing an<br />

example, ask yourself, “Will this make sense to my reader?”<br />

When defining any shortened form, always include the spell-out after<br />

the term, in parentheses. For example:<br />

−−<br />

DTP (desktop publishing): a software application that…<br />

Conclusion<br />

A good set of definitions, in a central, easily-accessible location (glossary<br />

chapter in a print document or a glossary tab in online Help, for example),<br />

can add value to your documentation and improve user loyalty.<br />

If you have any questions please contact: leah@cowtc.com<br />

436<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology


Terminologie / Terminology<br />

TERM 1<br />

Partnerpräsentation<br />

Terminologie für modulare Produkte<br />

am Beispiel Konica Minolta (CoLa)<br />

Dr. François Massion, D.O.G. Dokumentation ohne Grenzen GmbH, Leonberg<br />

Rainer Lotz, Konica Minolta Business Solutions Europe GmbH, Langenhagen<br />

„Jede Reise beginnt mit dem ersten Schritt“ (Laotse)<br />

Konica Minolta: Firmenvorstellung und Herausforderung<br />

Konica Minolta Business Solutions Europe GmbH in Langenhagen ist<br />

eine 100 % Tochtergesellschaft von Konica Minolta Business Technologies<br />

in Japan und eine der drei regionalen Hauptverwaltungen von<br />

Konica Minolta Business Technologies.<br />

Die Systemsoftware für unsere Produkte wird von ca. 30 R&D-Abteilungen<br />

entwickelt. Davon sind 80 % in Japan ansässig, 10 % in den USA,<br />

8 % in Indien und 2 % in Europa. Die sprachlichen Inhalte der Systemsoftware<br />

werden von den R&D-Abteilungen festgelegt. Die Ausgangssprache<br />

ist im Regelfall Japanisch. Danach erfolgt eine Übersetzung ins<br />

Englische.<br />

Innerhalb von Konica Minolta Europa ist eine Dokumentationsabteilung<br />

mit 6 Mitarbeitern für die Lokalisierung der Produkte verantwortlich.<br />

Als Austauschformat werden Excel-Tabellen verwendet. Pro Woche<br />

erreichen die Dokumentationsabteilung etwa 20 bis 30 Übersetzungsaufforderungen<br />

für unterschiedliche Produkte in unterschiedlichen<br />

Excel-Strukturen: Manchmal ist es nur ein Wort, manchmal sind es<br />

auch 1000 Wörter. Zurzeit existieren etwa 100.000 Lines of Code oder<br />

„Strings“ pro Sprache.<br />

Jeder String aus diesen Excel-Tabellen findet sich auf den Bedienoberflächen<br />

wieder. Die Übersetzungen der Strings sind die Basis für die<br />

Produkte selbst sowie auch für alle weiterführenden Dokumente, wie<br />

z. B. Benutzerhandbücher, Help-files und Trainingsunterlagen.<br />

Bisher wurden die Excel-Tabellen an ein Übersetzungsbüro geschickt<br />

und übersetzt. Dabei wurden mehrere Translation Memorys für die<br />

jeweiligen Produkte erstellt. Es wurde ohne Terminologie übersetzt.<br />

Dieser Prozess ist mehr oder weniger „historisch gewachsen“ und<br />

funktionierte eigentlich recht gut, allerdings sind die Übersetzungen<br />

inkonsistent.<br />

Gründe für den Aufbau einer Terminologie<br />

Ein wesentlicher Grund waren unter anderem die Kreuzbeziehungen,<br />

also dass Wörter aus der Steuerung aus verschiedenen Quellen stammen.<br />

Je mehr diese Kreuzbeziehungen zunehmen, desto stärker wird<br />

der Druck, eine Terminologie aufzubauen.<br />

Gleichzeitig mit dem Aufbau einer Terminologie wurde der Grundstein<br />

für eine zur Zeit noch nicht bestehende „Corporate Language“ gelegt.<br />

Identifikation und Quelle von Term-Kandidaten<br />

Aus den Excel-Tabellen werden Term-Kandidaten nach Regeln gefiltert,<br />

evaluiert und in die grammatikalische Grundform gebracht. Danach<br />

erfolgt der Import in ein Terminologietool.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

439


Terminologie / Terminology<br />

Zusätzlich werden existierende Varianten aus diesen Excel-Tabellen<br />

aufgenommen und den eigentlichen Begriffen zugeordnet.<br />

Zu einem englischen Begriff kann es Varianten geben, z. B. Homonyme,<br />

neue Wortschöpfungen, diverse Schreibweisen und Abkürzungen. Stellenweise<br />

bestehen bis zu 20 Varianten für einen einzelnen Begriff. Zukünftig<br />

soll nur noch ein Begriff verwendet werden, wobei die heutigen<br />

Varianten auf eine „Negativliste“ überführt werden sollen.<br />

Ein besonderes Problem sind dabei Abkürzungen, denn für jeden einzelnen<br />

String steht nur ein begrenzter Bereich (Areas) im Gerätedisplay<br />

zur Verfügung, z. B. auf den Software-Buttons. Je nachdem, auf welchem<br />

Screen der Button steht, darf ein Button an einer Stelle z. B. bis<br />

zu 20 Zeichen enthalten, an einer anderen Stelle aber nur 15 Zeichen,<br />

an wieder einer anderen Stelle nur noch 10 Zeichen. Die Areas werden<br />

ganz zu Anfang einer Produktentwicklung von den entsprechenden<br />

Abteilungen festgelegt und sind nicht mehr veränderbar.<br />

Übersetzt wird nur der Begriff und zugleich werden drei Varianten<br />

gebildet: Eine lange, eine mittlere und eine kurze. Nur eine dieser Varianten<br />

darf zukünftig verwendet werden.<br />

Technische Lösung<br />

Das Terminologiekonzept war von Anfang an begriffsorientiert und<br />

mehrsprachig. Eine Nutzergruppe hatte die Aufgabe, die englische Terminologie<br />

zu erfassen und zu pflegen, während der externe Übersetzungsdiensleister<br />

für die fremdsprachigen Äquivalente zu sorgen hatte.<br />

Ursprünglich enthielt das System eine Reihe von Feldern, die drei Ebenen<br />

(Begriff, Sprache oder Benennung) zugeordnet waren.<br />

Die aufgesetzten Prozesse basieren auf einer Zusammenarbeit verschiedener<br />

Spezialisten aus unterschiedlichen Organisationen und<br />

Standorten. Daher war es erforderlich, für die Terminologieverwaltung<br />

eine webbasierte Terminologielösung zu finden, auf die alle Beteiligten<br />

zugreifen konnten. Das TVS (Terminologieverwaltungssystem) sollte in<br />

der Lage sein, alle benötigen Felder abzubilden und diese eventuell zu<br />

ändern oder zu ergänzen, wenn es die im Laufe des Projekts gesammelten<br />

Erfahrungen erfordern.<br />

Auch war es besonders wichtig, dass das TVS mit regelmäßigen Aktualisierungsimports<br />

zuverlässig auskommt. Dabei sollten beim Import<br />

Informationen nur auf bestimmten Ebenen (Benennungsebene und<br />

nicht Begriffsebene) zu ändern / ergänzen sein und Homonyme erkannt<br />

werden. Das TVS LookUp erfüllte diese Anforderungen und wird<br />

eingesetzt.<br />

Zum zweiten Teil der technischen Lösung gehörte die Auswahl einer<br />

softwaregestützten Prüftechnologie. Ziel war es zu prüfen, ob die festgelegte<br />

Terminologie unter Berücksichtigung flektierter Formen und<br />

Plurale tatsächlich in allen Fremdsprachen konsistent angewandt wurde.<br />

Ferner sollte das Prüfprogramm Verstöße gegen die knapp 40 Regeln<br />

des Style Guides für die Stringbildung und für Abkürzungen feststellen.<br />

Das System ErrorSpy erfüllte die meisten (aber nicht alle) Anforderungen.<br />

Durch die direkte Verbindung zu LookUp als Terminologiequelle<br />

konnte der Prüfer jederzeit die zusätzlichen Informationen (Definition,<br />

440<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Attribute) ansehen und bei Bedarf sogar die Terminologie editieren (bei<br />

entsprechenden Rechten).<br />

Die Längenprüfung wurde vorerst aufgrund der Beschaffenheit der<br />

Quelldateien (Excel-Dateien mit Strings) und der Berechnung einer<br />

variablen Länge nicht möglich.<br />

Erfahrungen<br />

Seit Projektbeginn wurden natürlich viele Erfahrungen gesammelt. Da<br />

viele englische Strings nicht immer leicht zu verstehen waren, wurde<br />

die Terminologie vor der Übersetzung in alle Sprachen zuerst ins Deutsche<br />

übersetzt und validiert.<br />

Bei der Terminologieprüfung ist eines von den noch nicht ganz gelösten<br />

Problemen die Anzahl der falschen Fehlermeldungen. Das liegt daran,<br />

dass die Fachterminologie auch mehrere relativ allgemeine Wörter enthält<br />

(wie „set“), die in sehr vielen Strings vorkommen und logischerweise<br />

anders übersetzt wurden.<br />

Weitere Erfahrungen wurden in Bezug auf die Kommunikation gesammelt.<br />

Während des Projekts haben die Teilnehmer auf die harte Tour<br />

gelernt, dass eine disziplinierte und standardisierte Kommunikation<br />

absolut wichtig ist. Eine Kommunikationsplattform auf der Basis von<br />

Microsoft Sharepoint wurde eingerichtet.<br />

Ausblick<br />

Aktuell besteht eine Terminologie mit etwa 2.500 englischen Begriffen,<br />

Definitionen und Erklärungen sowie mit etwa 1.000 Varianten und dazugehörigen<br />

Übersetzungen.<br />

Der bereits in Englisch und Deutsch vorhandene Style Guide wird bei<br />

den R&D Abteilungen vorgestellt und auf weitere Sprachen erweitert.<br />

Weiter soll das Qualitätssicherungsprogramm zum einen möglichst viele<br />

stilistische Regel automatisch prüfen und zum anderen durch Lernfunktionen<br />

oder optimierte Algorithmen die Anzahl falscher Fehlermeldungen<br />

(Noise) reduzieren.<br />

Schließlich sollen von Anfang an die Autoren der Strings für die Qualitätskriterien<br />

sensibilisiert werdenund besser übersetzbare Strings<br />

generieren.<br />

für Rückfragen:<br />

francois.massion@dog-gmbh.de<br />

rainer.lotz@konicaminolta.eu<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

441


Terminologie / Terminology<br />

TERM 2<br />

Fachvortrag<br />

Terminologiemanagement für VDI-Richtlinien<br />

Bernd Lenhart, Stefan Ziesche, Verein Deutscher Ingenieure e.V., Düsseldorf<br />

Über den VDI<br />

Der VDI Verein Deutscher Ingenieure e.V. ist mit seinen fast 150.000<br />

Mitgliedern die größte Ingenieurvereinigung Deutschlands. Die Erstellung<br />

von technischen Regeln ist eines seiner Satzungsziele. Der VDI<br />

wird dabei von einem technisch-wissenschaftlichen Netzwerk mit über<br />

600 Gremien unterstützt.<br />

Terminologie bei der Richtlinienarbeit<br />

Das VDI-Richtlinienwerk besteht aus über 2000 gültigen Dokumenten.<br />

Jährlich werden über 200 VDI-Richtlinien neu herausgegeben. Dabei ist<br />

Terminologiearbeit unerlässlich, um einmal definierte Begrifflichkeiten<br />

zu verwenden und damit den Sprachgebrauch von VDI-Richtlinien zu<br />

vereinheitlichen. Mithilfe der Einführung eines Terminologieverwaltungssystem<br />

(TVS) sollte der Überblick über bereits definierte Sachverhalte<br />

vereinfacht und deren weitere Verwendung gesichert werden.<br />

Vorüberlegungen<br />

Das TVS sollte alle definierten Begriffe aus den VDI-Richtlinien enthalten.<br />

Alle an der Richtlinienarbeit beteiligten Personen sollten Zugriff<br />

auf die Datenbank, aber je nach ihrer Funktion unterschiedliche Rechte<br />

erhalten. Mithilfe einer Verknüpfung zu den bereits bestehenden Online-Anwendungen<br />

des VDI sollte der Zugriff erleichtert werden. Einsprüche<br />

zur Terminologie durch die Redaktion VDI-Richtlinien sollten<br />

in die Datenbank aufgenommen werden können, damit diese bei einer<br />

Überarbeitung der Richtlinie abrufbar sind.<br />

Konzeption<br />

Zu Beginn des Jahres 2005 wurde mit der Konzeption einer terminologischen<br />

Datenbank begonnen. Im Zuge einer Diplomarbeit [1] wurden<br />

die technischen und benutzerdefinierten Anforderungen eines zukünftigen<br />

TVS untersucht. Eine erstellte Excel ® -Liste mit 30 Probeeinträgen<br />

diente als Ausgangspunkt für den Import von Begriffen in ein TVS. Der<br />

Import dieser Probeeinträge wurde in drei namhaften Systemen auf<br />

Kompatibilität und Handhabbarkeit getestet. Eine Evaluation der aus<br />

diesem Test resultierenden Ergebnisse ergab, dass keines der getesteten<br />

Systeme den Anforderungen einer Terminologieverwaltung für die<br />

Richtlinienarbeit gerecht werden konnte.<br />

Eigenentwicklung als<br />

Online-Plattform<br />

Realisierung<br />

Aufgrund der Testergebnisse wurde entschieden, ein eigenes TVS zu<br />

entwickeln. Dieses sollte auf einer Online-Plattform basieren und nach<br />

den Vorgaben der Vorüberlegungen erstellt werden. Die Entwicklung<br />

übernahm die VDI-Service GmbH und erstellte ein Datenbanksystem<br />

auf Grundlage der Programmiersprachen PHP und SQL. Das erstellte<br />

TVS ist für den Aufruf im Browser konzipiert und hat damit vor<br />

allem den Vorteil, dass weitere Anpassungen der Software an neue<br />

Entwicklungen ohne weitere Lizenzierungen und mit einem geringen<br />

442<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Kostenaufwand realisiert werden können. Als Datenbasis konnte die<br />

oben genannte, fortgeführte Excel ® -Liste 1:1 übernommen werden.<br />

Nach anfänglichen Schwierigkeiten aufgrund von Formatfehlern musste<br />

die Excel ® -Liste erneut bereinigt und an das neue Datenbanksystem<br />

angepasst werden. Damit Sonderzeichen und Formatierungen korrekt<br />

dargestellt werden konnten, wurde die Liste mit HTML-Tags versehen.<br />

Nutzerverwaltung<br />

Suchmöglichkeiten<br />

Umgang<br />

Eine Nutzerverwaltung ermöglicht sowohl den direkten Log-in durch<br />

Benutzername und Passwort als auch die Weiterleitung der Zugangsberechtigung<br />

aus der bestehenden VDI-Richtlinien-Projektdatenbank.<br />

Dieser Zugang kann dabei in seinem Umfang eingeschränkt werden.<br />

Übersetzern können beispielsweise nur die Begriffe angezeigt werden,<br />

die für ihre Arbeit tatsächlich relevant sind. Darüber hinaus ist eine<br />

zeitliche Beschränkung des Zugangs möglich.<br />

Nutzer haben in der Datenbank die Möglichkeit, ihre Suche nach Benennungen,<br />

Dokumentennummer, Datum und Fachgebiet einzugrenzen<br />

oder den Fließtext zu durchsuchen. Ist eine Suche erfolgreich, werden<br />

alle gefundenen Ergebnisse in einer Listenansicht anhand der Vorzugsbenennung<br />

aufgeführt. In der weiterführenden Detailansicht erhält<br />

man dann Einsicht in Begriffsdefinition, Beispiele und Anmerkungen,<br />

weitere Benennungen und Quellenangaben. An dieser Stelle erscheinen,<br />

sofern vorhanden, die Anmerkungen der Redaktion zu den jeweiligen<br />

Einträgen in Form des Einspruchs. Nutzer können von hier aus zur<br />

Begriffsliste zurückkehren oder durch die Datensätze blättern.<br />

Detailansicht in VDI-Term<br />

Terminologiepflege<br />

Die Terminologiepflege der Datenbank wird zentral in der Redaktion<br />

vorgenommen. Die in Richtlinien enthaltenen Begriffe werden anhand<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

443


Terminologie / Terminology<br />

der Datenbank abgeglichen und auf terminologische Fehler untersucht.<br />

Werden Fehler im Entwurf der Richtlinie entdeckt, erfolgt der Einspruch<br />

nach VDI 1000 [2] an das jeweilige Gremium. Wird ein Fehler in<br />

einer endgültigen Fassung (sogenannter Weißdruck) einer VDI-Richtlinie<br />

entdeckt, wird eine Anmerkung im TVS hinterlegt, damit der Fehler<br />

bei einer Überarbeitung der Richtlinie behoben werden kann.<br />

Diagramm der Terminologiepflege<br />

Nach dem Import neuer Begriffe in das TVS erfolgt eine Darstellungsprüfung.<br />

Ansichtsfehler und fehlerhafte Verknüpfungen werden manuell<br />

behoben. Erst jetzt werden die Daten für die allgemeine Ansicht<br />

freigeschaltet.<br />

Die Terminologiepflege erfolgt so, dass die Daten mit Veröffentlichung<br />

der Richtlinie im Datenbanksystem hinterlegt und abrufbar sind. Je<br />

nach Publikationsumfang werden 100 bis 300 Begriffe monatlich in die<br />

Datenbank eingepflegt. Dabei werden Begriffe aus Entwürfen durch<br />

die Begriffe der endgültigen Fassung ersetzt. Begriffe aus zurückgezogenen<br />

Richtlinien, die nicht ersetzt oder deren Begriffe nicht in ein<br />

Fortsetzungsdokument übernommen werden, werden als „archiviert“<br />

gekennzeichnet und sind weiterhin abrufbar, so dass keine Information<br />

verloren geht.<br />

Zum Vortrag<br />

Der Vortrag erläutert die Planung, Umsetzung und aktuelle Verwendung<br />

des TVS eingehender und geht auf Besonderheiten wie die Benutzerverwaltung,<br />

die Upload-Funktion und die automatische Verlinkung ein.<br />

Quellen<br />

[1] G. Kamann: Konzeption einer Terminologiedatenbank für den Verein<br />

Deutscher Ingenieure e.V.; Diplomarbeit, Hochschule Magdeburg-<br />

Stendal (FH) Magdeburg 22.08.2005<br />

[2] VDI 1000:2010-06 VDI-Richtlinienarbeit; Grundsätze und Anleitungen.<br />

Berlin: Beuth Verlag<br />

für Rückfragen: vdi-richtlinien@vdi.de<br />

444<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

TERM 3<br />

Partnerpräsentation<br />

Mit Excel und Prüftool:<br />

Terminologieverwaltung und<br />

-prüfung konzernweit einführen<br />

Dr. Rachel Herwartz, TermSolutions, Dormagen<br />

Dr. Holger Brüggemann, Mitutoyo CTL Germany GmbH, Oberndorf<br />

Ausgangslage bei Mitutoyo<br />

Die Firma Mitutoyo ist einer der bedeutendsten Anbieter von Produkten<br />

der Präzisionslängenmesstechnik. Ausgehend von der Zentrale<br />

im japanischen Kawasaki ist Mitutoyo in vielen Ländern mit Produktions<br />

stätten, Niederlassungen und Entwicklungslaboratorien aktiv. Die<br />

Produktpalette reicht vom einfachen Handmessmittel (Messschieber,<br />

Bügelmessschraube) bis zu komplexen, computergesteuerten<br />

Koordinatenmessgeräten.<br />

In Oberndorf am Neckar und weiteren Standorten in den USA arbeiten<br />

hoch spezialisierte Mitarbeiter ausschließlich an der Entwicklung von<br />

Software für die Koordinatenmessgeräte von Mitutoyo.<br />

In der Vergangenheit gab es im Bereich der Softwareentwicklung keine<br />

einheitliche, zentral verwaltete Terminologie. Zum Start eines neuen<br />

Softwareprojektes wurde damit begonnen, ein professionelles Terminologiemanagement<br />

einzuführen.<br />

Regeln zur Terminologievereinheitlichung<br />

Da die Unternehmenssprache bei Mitutoyo Englisch ist, an den Standorten<br />

in Deutschland jedoch vor allem in Deutsch kommuniziert wird,<br />

wurde der Terminologieleitfaden für Mitutoyo in Deutsch und Englisch<br />

verfasst. Er enthält Regeln zur Benennungsbildung in Deutsch und<br />

Englisch und zur Definitionserstellung.<br />

Bildung des Terminologiezirkels<br />

Der zweite Teil des Leitfadens beschreibt die Terminologieabstimmungsprozesse.<br />

Es wurde ein Terminologiezirkel eingerichtet, der Vertreter<br />

von allen Standorten und von allen Abteilungen, die an einem<br />

Softwareprojekt beteiligt sind, umfasst. Dieser wird vom Terminologieverantwortlichen<br />

einberufen und moderiert.<br />

Terminologieliste in Excel als zentraler Datenbestand<br />

Der dritte Teil des Leitfadens erklärt die Felder und den Aufbau der<br />

Terminologieliste, d. h. der für die Terminologieverwaltung verwendeten<br />

Exceltabelle. Diese ist begriffsorientiert und benennungsautonom<br />

aufgebaut und erfüllt damit die Anforderungen an eine moderne<br />

Terminologieverwaltung.<br />

Zurzeit enthält diese Terminologieliste ca. 600 Begriffe mit mehr als<br />

3500 Benennungen. Die meisten der ca. 600 Begriffe sind freigegeben,<br />

d. h., es gibt eine Definition in Englisch mit Quellenangabe, mindestens<br />

eine erlaubte Benennung und teilweise verbotene Benennungen in<br />

Deutsch und Englisch. Für ca. 300 Begriffe existieren Benennungen in<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

445


Terminologie / Terminology<br />

weiteren Sprachen: Spanisch, Portugiesisch, Französisch, Italienisch,<br />

Japanisch und Chinesisch.<br />

Terminologieprüfung mit termXact (VBA-Makros)<br />

An den Standorten Oberndorf, Neuss (Deutschland) und Los Angeles,<br />

Seattle (USA) wurden verschiedene Abteilungen mit bis zu 120 Entwicklern,<br />

Testern, Technischen Redakteuren und Anwendungstechnikern<br />

in das Terminologieprojekt eingebunden.<br />

Allen Mitarbeitern steht der Leitfaden, die Terminologieliste und das<br />

Prüftool „termXact“ zur Verfügung, mit dem die Texte auf verbotene<br />

Benennungen geprüft werden können.<br />

Welche Erfahrungen der Terminologieverantwortliche bei Mitutoyo bei<br />

der Abstimmung und Prüfung der Terminologie über vier Standorte in<br />

Deutschland und den USA sammeln konnte und worauf man generell<br />

bei der Durchführung eines solchen Projekts achten sollte, das zeigt<br />

Ihnen dieser Partnervortrag.<br />

für Rückfragen:<br />

herwartz@termsolutions.de<br />

Holger.Brueggemann@MITUTOYO-CTL.DE<br />

446<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

TERM 4<br />

Fachvortrag<br />

Terminologie now – und was kommt dann?!<br />

Susanne Arndt, Institut für Verkehrssicherheit und Automatisierung, TU Braunschweig<br />

Terminologien als Sammlungen von Benennungen werden hauptsächlich<br />

in der Übersetzung und Technischen Redaktion eingesetzt.<br />

Begreift man sie jedoch als Modelle fachlichen Wissens, ergeben sich<br />

neue Einsatzgebiete für terminologische Daten. Im Projekt iglos req<br />

des Instituts für Verkehrssicherheit und Automatisierungstechnik (iVA)<br />

der TU Braunschweig wird eine Integration von Terminologien in das<br />

Requirements Engineering angestrebt. Im Vordergrund steht dabei die<br />

Entwicklung eines iglos-Plug-ins zur semantischen Optimierung natürlichsprachlicher<br />

Anforderungen, das in die Arbeitsumgebung von<br />

Anforderungsschreibern integriert ist und Terminologien als Wissensbasis<br />

für diese Zielgruppe nutzt. Hierfür kooperiert das iVA mit dem<br />

Softwareentwickler atego und begleitet zusätzlich das interdisziplinäre<br />

Großprojekt „Anwendungsplattform Intelligente Mobilität“ (AIM) des<br />

Deutschen Zentrums für Luft- und Raumfahrt in Braunschweig.<br />

Einheitlichkeitsstreben<br />

und<br />

Parallelterminologien<br />

Isolierte Begriffe und<br />

Benennungsmanagement<br />

oder<br />

Begriffssysteme und<br />

Wissensmanagement?<br />

Terminologiemanagement now<br />

Das heutige Terminologiemanagement wird vor allem für bestimmte<br />

Anwender betrieben. Hauptsächlich zu nennen sind hierbei Übersetzer<br />

und Technische Redakteure, für die es vor allem darum geht, Wunschoder<br />

Vorzugsbenennungen zu gebrauchen. Einerseits sind terminologische<br />

Bemühungen natürlich getrieben vom Wunsch nach möglichst<br />

eindeutiger, reibungsloser Kommunikation mit Firmeninternen, mit<br />

Zulieferern und am wichtigsten mit den Kunden. Insbesondere der<br />

Kontakt mit letzteren sollte möglichst unter dem Prinzip der Verständlichkeit<br />

erfolgen. Dies erfordert gegebenenfalls eine Anpassung der<br />

Terminologie an deren Bedürfnisse. Es zeichnet sich hierdurch eine<br />

Entstehung von Parallelterminologien ab, deren Management noch<br />

erschwert wird, wenn Marketingstrategien weitere Anforderungen an<br />

die Unternehmenssprache stellen [CB11]. Andererseits ist das Terminologiemanagement<br />

auch dem Gedanken der Corporate Identity geschuldet,<br />

bei der auch ein einheitlicher sprachlicher Auftritt des Unternehmens,<br />

die Corporate Language, nicht fehlen darf – auch wenn diese sich<br />

manchmal von der fachlichen Terminologie unterscheidet [PD06].<br />

Der Fokus der heutigen Terminologiearbeit liegt größtenteils auf dem<br />

Benennungsmanagement. Es herrscht zwar eine Begriffsorientierung,<br />

doch der Begriff wird weniger als Wissenseinheit aufgefasst, sondern<br />

vielmehr als Bezugspunkt für die Benennungszuordnung. Mit terminologischen<br />

Verfahren wie der Termextraktion werden Benennungsbestände<br />

erhoben, die oft nicht konsistent sind. Das führt dazu, dass<br />

eine 1:n- oder n:1-Relation zwischen Begriffen und Benennungen<br />

vorliegt (Polysemie, Homonymie, Synonymie). Hier spielen ebenfalls<br />

Bindestrichschreibungen und Abkürzungen als Benennungsalternativen<br />

eine Rolle. Die Terminologiearbeit nach der Extraktion muss dann<br />

die bestenfalls eineindeutige Zuordnung von Benennung zu Begriff<br />

vornehmen, was beinhaltet, dass unerwünschte Benennungen ggf. als<br />

„abgelehnt“ deklariert werden müssen [DTT10], [FS10]. Der Zusammenhang<br />

der einzelnen Begriffe ist jedoch nicht so stark im Fokus der<br />

Terminologiearbeit [KDS05]. In der terminologischen Praxis wird hier<br />

allenfalls die Beziehung zwischen Oberbegriffen und ihren jeweiligen<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

447


Terminologie / Terminology<br />

Unterbegriffen modelliert. In der Terminologienormung wird jedoch<br />

von weiteren Begriffsrelationen ausgegangen, die zur Modellierung<br />

eines Begriffssystems herangezogen werden können. Hierzu zählen hierarchische<br />

Beziehungen (Abstraktionsbeziehung, Bestandsbeziehung)<br />

und nicht-hierarchische Beziehungen (sequentielle Beziehungen, oppositionelle<br />

Beziehungen, pragmatische Beziehungen) [2330].<br />

Synergieeffekte<br />

durch Terminologie<br />

Neue<br />

Terminologieersteller =<br />

neue<br />

Terminologieverwender?<br />

Terminologiemanagement für Anforderungsschreiber?<br />

Oft wird die zentrale Erarbeitung einer unternehmensweiten Terminologie<br />

dadurch begründet, dass durch eine konsistente Sprache<br />

−−<br />

viele Recherchearbeiten und Nachfragen der einzelnen Mitarbeiter,<br />

−−<br />

eine inkonsistente Dokumentation,<br />

−−<br />

auf der inkonsistenten Dokumentation basierende inkonsistente<br />

Übersetzungen und<br />

−−<br />

generell Missverständnisse in der gesamten internen und externen<br />

Kommunikation<br />

vermieden werden können [MB10]. Hierfür wird empfohlen, möglichst<br />

früh im Produktionsprozess mit der Terminologieerhebung zu beginnen.<br />

Das erfordert, dass weitere Unternehmensangehörige ins Boot geholt<br />

werden, die nicht Redakteur, Übersetzer oder Terminologe sind, die<br />

aber dennoch für eine frühzeitige Konsistenz der Benennungen sorgen<br />

sollen, indem ihnen sprachliche Leitfäden zur Anleitung und Unterstützung<br />

gegeben werden [EW08]. In diesem Rahmen werden alle Personen<br />

relevant, die an einer – für welche Zwecke auch immer gedachten – Informations-<br />

und Dokumentationserstellung beteiligt sind. Dabei sind<br />

eigentlich fast alle Unternehmensbereiche aus allen Produktlebenszyklusphasen<br />

vertreten [SS10].<br />

Im Anschluss an die Terminologieerhebung kann die an den verschiedenen<br />

Stellen und mit unterschiedlichen Beteiligten erhobene Terminologie<br />

für das gesamte Unternehmen verfügbar gemacht werden, damit<br />

jeder am Corporate Wording und den Vorteilen einer störfreieren Kommunikation<br />

teilhaben kann [HL11], [CB11]. Solange jedoch die Strukturierung<br />

der Terminologien sich hauptsächlich auf Benennungen und<br />

deren Verhältnis zu Begriffen bezieht, bleibt ihr unmittelbar erkennbarer<br />

Nutzen auf bestimmte Nutzergruppen beschränkt – namentlich die<br />

Technischen Redakteure und die Übersetzer.<br />

Ein Blick auf mögliche weitere Einsatzorte von Terminologien ist jedoch<br />

selten. Warburton nennt zum Beispiel „computer-assisted translation<br />

[…], controlled authoring, product classification, spell checking, indexing,<br />

keyword management, glossary publishing, and search engine optimization<br />

“ ([KW11]: 488). Voraussetzung für einen derartigen Einsatz sei<br />

jedoch die Einhaltung bestimmter Grundsätze für die Datenverwaltung,<br />

die herkömmliche, oft übersetzungsorientierte Terminologieverwaltungssysteme<br />

nicht leisten können [KW11].<br />

Es ist notwendig, nutzerorientierte Terminologiearbeit zu betreiben,<br />

die Terminologie neu interpretiert – und zwar im Licht der potentiellen<br />

Zwecke, die sie für neue Anwender haben kann. Ein zentraler<br />

möglicher Einsatzort ist die Anforderungserhebung und -dokumentation<br />

(auch als Requirements Engineering oder Produktspezifikation<br />

bezeichnet). In der Softwareentwicklung wird Requirements Engineering<br />

als „kooperativer, iterativer, inkrementeller Prozess, dessen Ziel es<br />

ist zu gewährleisten, dass (1) alle relevanten Anforderungen bekannt<br />

448<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Besonderheiten<br />

des Requirements<br />

Engineerings<br />

und in dem erforderlichen Detaillierungsgrad verstanden sind, (2) die<br />

involvierten Stakeholder [= Anforderungssteller, S.A.] eine ausreichende<br />

Übereinstimmung über bekannte Anforderungen erzielen,<br />

(3) alle Anforderungen konform zu den Dokumentationsvorschriften<br />

dokumentiert bzw. konform zu den Spezifikationsvorschriften<br />

spezifiziert sind“ ([KP07]: 705)<br />

Die Anforderung (oder en. requirement) hat dabei drei Definitionen und<br />

wird verstanden als: „(1) Eine Bedingung oder Eigenschaft, die ein System<br />

oder eine Person benötigt, um ein Problem zu lösen oder ein Ziel<br />

zu erreichen. (2) Eine Bedingung oder Eigenschaft, die ein System oder<br />

eine Systemkomponente aufweisen muss, um einen Vertrag zu erfüllen<br />

oder einem Standard, einer Spezifikation oder einem anderen formell<br />

auferlegten Dokument zu genügen. (3) Eine dokumentierte Repräsentation<br />

einer Bedingung einer Eigenschaft wie in (1) oder (2) definiert.“<br />

([KP07]: 697)<br />

In der Fachliteratur zum Requirements Engineering wird der Einsatz<br />

von Glossaren bereits gefordert. Im Fokus steht hier ebenfalls oft die<br />

Suche nach Homonymen und Synonymen, die zu Missverständnissen<br />

während des Entwicklungsprozesses führen können (vgl. [KP07],<br />

[TW08]). Allerdings wird hier auch schon immer auf die Gefahren hingewiesen:<br />

„Der Aufbau eines Glossars ist in der Praxis mit vielen Problemen<br />

verbunden. Es ist eine unliebsame Aufgabe, die niemand gerne<br />

übernehmen möchte, geschweige denn motiviert durchführt. Damit hat<br />

man schon ungünstige Startbedingungen. Oft verschwindet das Glossar<br />

in einem Dokument, das niemand liest.“ ([TW08]: 146)<br />

Um den ungünstigen Start der Terminologiearbeit im Requirements<br />

Engineering zu vermeiden, müssen dessen Besonderheiten bei der<br />

Terminologiebereitstellung berücksichtigt werden. Nur dadurch können<br />

Motivationsfaktoren genutzt werden, die helfen, die Terminologiearbeit<br />

in diesem Bereich zu etablieren.<br />

Hier ist zunächst die Vielzahl der unterschiedlichen Beteiligten zu<br />

berücksichtigen, aufgrund derer es zu interdisziplinärer Kommunikation<br />

zwischen Experten auf unterschiedlichen Gebieten, aber auch zu<br />

Experte-Laie-Kommunikation kommen kann. Diese unterschiedlichen<br />

Beteiligten gehen unterschiedlich mit den in Anforderungsdokumenten<br />

präsentierten Informationen um, so dass ein gegenseitiges Verstehen<br />

unter Umständen nicht gewährleistet werden kann [KP07]. Die Terminologie<br />

kann hier als Interpretationshilfe dienen, mit der das gemeinsame<br />

Verständnis erreicht und potentielle Missverständnisse offengelegt<br />

werden können.<br />

Des Weiteren muss berücksichtigt werden, dass die Anforderungserhebung<br />

ein teilweise mit kreativen Mitteln durchgeführter Prozess ist.<br />

Pohl nennt als Techniken der Erhebung und Gewinnung z. B. Brainstorming<br />

oder Mind-maps. Mit diesen Techniken werden zunächst die<br />

wichtigsten Bedürfnisse an das zu entwickelnde Produkt erfasst. Im<br />

Sinne einer ersten Ideensammlung sind solche Anforderungen naturgemäß<br />

nicht nur gedanklich vage und unpräzise, sondern auch sprachlich.<br />

Das ist vor allem bei Kundenanforderungen so [KP07], aber auch bei<br />

Experten ist das nicht ungewöhnlich. Hier zeigt sich, dass das Erheben<br />

von Anforderungen in einer Detaillierungsspirale erfolgt, in der vor<br />

allem Dekompositionen und Spezialisierungen erfolgen [FG12], [ES99].<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

449


Terminologie / Terminology<br />

Im Projekt „Anwendungsplattform Intelligente Mobilität“ (AIM) des<br />

Deutschen Zentrums für Luft- und Raumfahrt wurde darüber hinaus<br />

beobachtet, dass das Wissen der Experten oft nicht explizit genug<br />

Eingang in die Anforderungsdokumentation findet. Es bleibt dadurch<br />

implizit und personengebunden und muss durch zeitintensive Reviews<br />

oder Frage-Antwort-Prozesse erst explizit gemacht werden. Durch eine<br />

Terminologie kann das benötigte Wissen bereits dem Schreiber einer<br />

Anforderung bereitgestellt werden, ohne dass zusätzliche Personen<br />

hinzugezogen werden müssen. Dies dürfte auch einen positiven Effekt<br />

auf Reviews haben.<br />

Die Klärung impliziten Wissens geschieht immer nur da, wo die Kommunizierenden<br />

ein Bedürfnis für weitere Klärung verspüren – unabhängig<br />

vom systemischen Missverständnis- oder Ungenauigkeitspotential<br />

der verwendeten Terminologie. Für den Entwicklungsprozess<br />

relevantes Expertenwissen wird dadurch im günstigsten Fall eine Zeit<br />

lang nicht berücksichtigt. Wird dies rechtzeitig bemerkt, kann das implizit<br />

gebliebene Wissen noch nachträglich berücksichtigt werden, doch<br />

das erfordert zumindest zusätzliche Kommunikationsschritte oder sogar<br />

Nachbesserungen und Änderungen der bisherigen Entwicklungsergebnisse.<br />

Im schlimmsten Fall bleibt das implizite Wissen bis zum Schluss<br />

einfach unbemerkt, zeigt sich dann aber später in ungenügenden Produkten<br />

oder Dienstleistungen und der Unzufriedenheit der Kunden.<br />

Semantische Relationen<br />

für das Requirements<br />

Engineering<br />

Terminologien und Terminologieprozesse für Anforderungsschreiber<br />

Wie muss eine Terminologie beschaffen sein, die die Besonderheiten<br />

des Requirements Engineerings berücksichtigt? Der Anforderungsschreiber<br />

aus der Praxis wird sich im Normalfall keinerlei Gedanken<br />

um verschiedenartige Benennungen machen wollen, deswegen sind<br />

solche Fragen für ihn zweitrangig. Wichtiger ist, ob im Rahmen der<br />

Anforderungserhebung „alles“ bedacht wurde und hinreichend detailliert<br />

spezifiziert wurde. Die Terminologie muss also primär der Dokumentation<br />

von Wissen dienen, das über die linguistischen Relationen<br />

von Synonymie, Homonymie, Polysemie, Äquivalenz und Akronymie<br />

hinausgeht.<br />

Hierfür eignet sich das Terminologiemanagementsystem iglos, das eine<br />

Vielzahl semantischer Relationen zwischen terminologischen Einheiten<br />

verwalten und modellieren kann [SSS11]. Hier sind vor allem die<br />

in [2330] beschriebenen hierarchischen Beziehungen (Abstraktionsbeziehung,<br />

Bestandsbeziehung) zu nennen, da diese dem oben beschriebenen<br />

Dekompositions- und Spezialisierungsvorgängen des Requirements<br />

Engineerings besonders entgegenkommen. Weitere inhaltliche<br />

Relationen sind hier ebenfalls von Bedeutung, sofern sie den Anforderungsschreiber<br />

bei der Anforderungserhebung unterstützen, indem sie<br />

Informationen bereitstellen, die die Anforderungen präziser und vollständiger<br />

machen. Aus der Requirements-Engineering-Literatur könnten<br />

hier zum Beispiel folgende Relationen übernommen werden (vgl.<br />

[KP07]), die nicht nur auf der syntaktischen Ebene der Anforderungen,<br />

sondern auch auf der lexikalische Ebene der Anforderungsterminologie<br />

brauchbar sind:<br />

−−<br />

Relation zur Kennzeichnung von (gleichwertigen) Alternativen<br />

−−<br />

Relation zur Kennzeichnung von (konfligierenden) Alternativen<br />

−−<br />

Relation zur Kennzeichnung von Interaktionen<br />

450<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Terminologieprozess<br />

für das Requirements<br />

Engineering<br />

−−<br />

Relation zur Kennzeichnung sequentieller Abfolgen<br />

−−<br />

Relation zur Kennzeichnung von (zwingenden) Gleichzeitigkeiten<br />

−−<br />

Relationen zur Kennzeichnung von Ausnahmebedingungen<br />

Eine solcherart vernetzte Terminologie, die thematische Zusammenhänge<br />

dokumentiert und nutzbar macht, kann mit dem iglos-Terminologieverwaltungssystem<br />

modelliert werden. Weitere Relationen des<br />

iglos-Tools, die im Requirements Engineering nutzbar sein können,<br />

sind Relationen zur Angabe von Verwechslungsgefahren, Input-Output-<br />

Strukturen, Rollenzuweisungen, Zuständen, Kausalitäten, Anwendungskontexten,<br />

Realisatoren, Repräsentationen, Hauptverantwortlichen oder<br />

lediglich teilnehmenden Beteiligten. Eine flexible Relationsverwaltung<br />

kann hierbei wichtig sein, um unterschiedliche Entwicklungsprojekte<br />

unterstützen zu können, indem Anforderungsschreiber beim Dokumentieren<br />

ihrer Anforderungen mit dem notwendigen Wissen versorgt<br />

werden.<br />

Wie kann eine solcherart strukturierte Terminologie nun aber in den<br />

Anforderungsprozess integriert werden? Hierfür ist es wichtig, dass<br />

die Terminologierecherche möglichst eng an den Prozess der Anforderungsdokumentation<br />

gebunden wird. Eine Integration in ein Anforderungsmanagementtool<br />

ist deswegen zweckmäßig. Dort können hilfreiche<br />

Information aus der Terminologiestruktur dem jeweiligen Schreiber<br />

direkt während des Ausformulierens der Anforderungen bereitgestellt<br />

werden. Dadurch kann die Präzision der Anforderungen bereits während<br />

ihrer ersten Formulierung erhöht werden und nachträgliche Reviews<br />

können schneller durchgeführt werden. Auch Kunden, die ihre<br />

ersten Anforderungen selbst umschreiben, können terminologieassistiert<br />

präzisere Angaben machen als ohne Terminologieassistenz. Eine<br />

terminologische Wissensbasis kann zudem auch für die Vorbereitung<br />

von Erhebungstechniken wie Interview, Checkliste, Beobachtung oder<br />

schriftliche Befragung dienen. Zur Disambiguierung der Anforderungen<br />

muss die Möglichkeit bestehen, Terminologieinformationen mit Persistent<br />

Identifiern an Anforderungen zu koppeln, so dass die Zuordnung<br />

jederzeit und durch alle Änderungen hindurch gewahrt bleibt.<br />

Auch die Möglichkeit zur Auswahl adressatenrelevanter Informationen<br />

ist hierfür notwendig, damit die Zusatzinformation, die dem Anforderungsschreiber<br />

in einem in seine Arbeitsumgebung integrierten Tool<br />

bereitgestellt wird, überschaubar bleibt. Das Terminologiemanagementsystem<br />

iglos unterstützt flexible Auswahlverfahren durch das Anlegen<br />

sogenannter Collections, mit denen Teile des Terminologiebestandes<br />

verwaltet und flexibel zusammengestellt werden können.<br />

Um Anforderungsschreiber jedoch auch zu eigenständiger Terminologiedokumentation<br />

zu ermutigen, sollte das in seine Arbeitsumgebung<br />

integrierte Tool auch Termkandidaten vorschlagen können, die während<br />

der Terminologieprüfung leicht in eine bestehende Terminologie eingegliedert<br />

werden können. Über eine Häufigkeitsanalyse kann dem Anforderungsschreiber<br />

die Entscheidung erleichtert werden, ob es sich um<br />

eine wichtige Benennung handelt. Vor allem in großen Projekten zahlt<br />

sich die individuelle Terminologiearbeit aus: Wenn Anforderungen unterschiedlicher<br />

Autoren beim Anforderungsmanager integriert werden<br />

müssen, können durch die Kennzeichnung der Terminologie potentielle<br />

Missverständnisse vermieden werden.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

451


Terminologie / Terminology<br />

Zusammenfassung und Ausblick<br />

Zur Unterstützung des Requirements Engineerings wird am Institut<br />

für Verkehrssicherheit und Automatisierungstechnik der Technischen<br />

Universität Braunschweig zurzeit ein an die oben genannten Besonderheiten<br />

des Requirements Engineerings angepasstes Terminologietool<br />

entwickelt. Hierzu besteht eine Kooperation mit der Firma atego, mit<br />

der zusammen eine Integration des iglos-Terminologie-Plug-ins in das<br />

Anforderungssynchronisierungstool Exerpt Synchronizer angestrebt<br />

wird. Mit diesem soll der Anwendungsbereich der traditionell übersetzungsorientierten<br />

Terminologiearbeit erweitert und neuen Anwendern<br />

gewinnbringend näher gebracht werden.<br />

Ein wesentliches Problem für eine solche Terminologienutzung besteht<br />

bisher jedoch noch in der Ersterhebung der terminologischen Daten<br />

aus dem Bereich Requirements Engineering, bzw. einer Erstrelationierung<br />

bereits bestehender, übersetzungsorientierter Terminologien, mit<br />

der ein vernetztes Informationsgefüge entstehen kann. Weitere Arbeiten<br />

in dieser Richtung wären durchzuführen, um vor allem auch Aussagen<br />

über die Weiternutzbarkeit solcher Entwicklungsterminologien<br />

gewinnen zu können.<br />

Bibliographie<br />

[2330] Deutsches Institut für Normung (2011): DIN 2330:11 Begriffe<br />

und Benennungen – allgemeine Grundsätze.<br />

[CB11] Bickle, Carmen (2011): Die Spreu vom Weizen trennen –<br />

der Weg zur unternehmensweit konsistenten Terminologie.<br />

<strong>tekom</strong> <strong>Jahrestagung</strong>.<br />

[DTT10]<br />

[ES99]<br />

[EW08]<br />

[FG12]<br />

[FS10]<br />

[HL11]<br />

[KDS05]<br />

[KP07]<br />

[KW11]<br />

Deutscher Terminologie Tag e.V. (2010): Terminologiearbeit.<br />

Best Practices<br />

Schnieder, Eckehard (1999): Methoden der Automatisierung.<br />

Beschreibungsmittel, Modellkonzepte und Werkzeuge<br />

für Automatisierungssysteme.<br />

Enders, Michael; Wolff, Thomas (2008): „Sie haben Ihr<br />

Ziel erreicht“. In: technische kommunikation 30 (4), 18ff..<br />

Friedrich, Jörg; Gaebert, Claudia (<strong>2012</strong>): Innig verbunden.<br />

Requirements Engineering: Plädoyer für eine Wende. In:<br />

iX – Magazin für professionelle Informationstechnik (8),<br />

98ff.<br />

Frey, Dorina; Schmacht, Christine (2010): Aufbau eines<br />

Qualitätsmanagements für die Terminologiearbeit<br />

Liebscher, Horst (2011): Terminologie 2.0: Neue Strategien<br />

und Möglichkeiten. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />

Schmitz, Klaus-Dirk (2005): Glossar, Wörterbuch, Thesaurus,<br />

Terminologie. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />

Pohl, Klaus (2007): Requirements Engineering. Grundlagen,<br />

Prinzipien, Techniken.<br />

Warburton, Kara (2011): Managing Terminology in Commercial<br />

Environments. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />

452<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

[MB10]<br />

[PD06]<br />

[SS10]<br />

Böcker, Martin (2010): Die Investition in Terminologiemanagement:<br />

eine Wirtschaftlichkeitsbetrachtung für<br />

den Maschinenbau. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />

Drewer, Petra (2006): Terminologiemanagement im Unternehmen.<br />

<strong>tekom</strong> <strong>Jahrestagung</strong>.<br />

Schmitz, Klaus-Dirk; Straub, Daniela (2010): An Bedeutung<br />

gewonnen. In: technische kommunikation 32 (6),<br />

12ff.<br />

[SSS11] Schieder, Lars; Stein, Christian; Schielke, Arno (2011):<br />

Terminologiemanagementsysteme der nächstens Generation<br />

– Schlüssel für den Fachwortschatz. In: eDITion –<br />

Fachzeitschrift für Terminologie (1), 26–31.<br />

[TW08]<br />

Weilkiens, Tim (2008): Systems Engineering mit SysML/<br />

UML. Modellierung, Analyse, Design.<br />

für Rückfragen: arndt@iva.ing.tu-bs.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

453


Terminologie / Terminology<br />

TERM 5<br />

Fachvortrag<br />

Vom Finden und unternehmensweiten<br />

Managen von Terminologie<br />

Regina Krüger, Transline Deutschland Dr.-Ing. Sturz GmbH, Reutlingen<br />

Terminologiemanagement beschäftigt sich, anders als die Terminologiearbeit,<br />

mit der Planung, Organisation, Leitung, Koordination und<br />

Kontrolle aller Terminologiethemen. Die komplexe Vernetzung von<br />

Terminologie innerhalb der Unternehmen stellt für das Terminologiemanagement<br />

eine besonders hohe Herausforderung dar. Zur professionellen<br />

Bearbeitung werden daher Terminologietools eingesetzt, die<br />

einen optimalen Zugriff auf die Terminologiebestände erlauben und<br />

diese auch weithin nutzbar machen. Freigabeabläufe werden definiert<br />

und abgebildet. Der erwartete Nutzen ist hoch, die Bedeutung der Terminologiearbeit<br />

bekannt. Der ROI in einem überschaubaren Zeitfenster<br />

ist erkennbar und die Entscheidung für die strukturierte Terminologiearbeit<br />

wird getroffen.<br />

Trotzdem wird Terminologiemanagement immer noch als mühsam,<br />

aufwändig und langsam beschrieben – Punkte, an denen es in vielen<br />

Unternehmen in letzter Konsequenz doch noch scheitert bzw. in den<br />

Anfängen stecken bleibt. Warum fällt es so schwer, die vielen Prozessbeteiligten<br />

zum begeisterten Mitmachen zu bewegen? Wie können<br />

Zielvorgaben nachhaltig definiert und kontrolliert werden?<br />

Terminologiemanagement bedeutet Prozessmanagement<br />

Ein Beispiel: Im Übersetzungsmanagement besteht bereits sehr lange<br />

eine erfolgreiche Auseinandersetzung mit Prozessen und Schnittstellenmanagement.<br />

Oft führt dies zum Kauf eines eigenen Translation-<br />

Memory-Systems. Die Anschaffung eines TMS alleine schafft zunächst<br />

Unabhängigkeiten und ermöglicht die Hoheit über die Translation<br />

Memorys, es schafft aber noch keine Arbeitserleichterungen und Prozessbeschleunigungen.<br />

Dies wird erst dann in umfangreichem Maße<br />

erreicht, wenn Systeme erfolgreich vernetzt werden, alle Prozessbeteiligten<br />

im gleichen Systemumfeld arbeiten, Standards geschaffen und<br />

die Prozesse automatisiert werden – die passende Infrastruktur wird<br />

zum Erfolgskriterium.<br />

Die gleichen Bedingungen gelten für das Terminologiemanagement. Die<br />

Terminologiearbeit ist ein integrativer Bestandteil der Dokumentationserstellung<br />

und -übersetzung und muss als solcher innerhalb der Gesamtprozesskette<br />

jeweils an den richtigen Stellen eingebunden werden.<br />

Wichtige Stichworte hierbei sind „Workflowkopplung“ und „Prozessintegration“.<br />

Erfolgreiches und unternehmensweit optimales Terminologiemanagement<br />

findet nur statt, wenn die inhaltlich anspruchsvolle<br />

Terminologiearbeit in Kombination mit einem effizienten Prozessmanagement<br />

dargestellt wird.<br />

Der Weg hin zur richtigen Infrastruktur<br />

Nach einer Analyse der Ist-Situation und der vorhandenen Systemlandschaft<br />

muss eine genaue Zielsetzungsbeschreibung erfolgen. Ergebnis<br />

ist eine Detailbeschreibung der Einzelprozesse, mit besonderem Augenmerk<br />

auf Schnittstellen und Standardisierungsmöglichkeiten.<br />

454<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Das Ergebnis hiervon ist ein Infrastruktur-Lastenheft und eine Prozessbeschreibung.<br />

Auf dieser Basis kann die Entscheidung für tooltechnische<br />

Unterstützung dann getroffen werden.<br />

Hierbei gibt es gänzlich unterschiedliche Ansätze, wie z. B. die Entscheidung<br />

für eine eigene Systemlandschaft (oder deren Erweiterung), die<br />

Entscheidung für ein Dienstleistermodell oder eine Kombination aus<br />

beiden. Tools bieten heute bereits zahlreiche Out-of-the-box-Lösungen,<br />

die durch Zusatzprogrammierungen ergänzt werden können, eventuell<br />

kommt auch die Programmierung einer komplett individuellen Lösung<br />

in Betracht.<br />

Zu beachten ist, dass es nur ein führendes Terminologietool geben<br />

kann, um eine redundante Datenhaltung und den mehrfachen Aufwand<br />

zu vermeiden.<br />

Abb.: Infrastruktur/Automatisierungsumgebung<br />

Vom Finden neuer Terminologie<br />

Eine kontinuierliche und optimale Terminologierecherche kann nur<br />

durch einen strukturierten Prozess stattfinden. Hierzu gehört weniger<br />

das manuelle Vorschlagwesen durch viele Mitarbeiter oder die direkte<br />

Eingabe des Terminologen. Vielmehr bezieht sich der Prozess auf eine<br />

Verbindung der verwendeten Tools in der Dokumentationserstellung<br />

mit dem Teminologietool, eine Kopplung mit Terminologieextraktionen<br />

im Rahmen von Übersetzungsaufträgen oder geregelte Terminologieextraktionen<br />

bei neuen Dokumentationen. Automatisierungen erlauben<br />

hierbei eine schnelle und unkomplizierte Abwicklung.<br />

Die regelmäßige Terminologieextraktion auch aus kleineren Dokumenten<br />

ist der einmaligen großen Extraktion aus z. B. TMs vorzuziehen, da<br />

hier der unerwünschte Effekt erreicht wird, dass allein aufgrund des<br />

Umfangs bei vielen Beteiligten eine Abwehrhaltung erreicht wird und<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

455


Terminologie / Terminology<br />

die Begeisterung an der Arbeit sinkt – die Arbeit wird zu einem Mammutprojekt<br />

mit Mammutbearbeitungszeiten.<br />

Vom Termkandidaten zum Term<br />

Der Weg vom Termkandidaten zum freigegebenen und ggf. übersetzten<br />

Term kann noch weit und komplex sein. Viele Einzelschritte sind beinhaltet<br />

und zahlreiche Prozessbeteiligte müssen eingebunden werden<br />

– die Abwicklung wird sehr zeitintensiv. Die nahtlose automatisierte<br />

Kopplung der verschiedenen Einzelschritte und deren Überwachung ist<br />

daher das Ziel.<br />

Nach Festlegung aller Workflowdetails und der Rollen und Rechte der<br />

Prozessbeteiligten übernimmt die Automatisierung das Projektmanagement<br />

und steuert die jeweiligen Aufgaben. Voraussetzung ist, dass alle<br />

Prozessbeteiligten (inkl. Übersetzern und Landesgesellschaften) auf<br />

derselben Plattform arbeiten. Für die notwendige Transparenz und das<br />

Controlling sorgen Reminder, Eskalationsszenarien, eine Statusübersicht<br />

und viele Auswertungsmöglichkeiten. Die Terminologieveränderungen<br />

werden täglich an alle vernetzten Tools weitergegeben.<br />

Ein häufig vernachlässigter Gedanke ist die nachträgliche Bereinigung<br />

der Terminologien in TMs. Durch eine enge Verbindung des Terminologietools<br />

mit dem TMS kann nicht nur im Rahmen der Terminologieübersetzung<br />

das TM zur Konkordanzsuche mit verwendet werden,<br />

sondern die terminologische Bereinigung von TM-Einträgen kann auch,<br />

jeweils pro Term, als Arbeitspaket an Übersetzer oder andere Benutzer<br />

geschickt werden.<br />

Zusammenfassung<br />

Die Komplexität der Prozesse ist nur durch Automatisierungen steuerbar,<br />

die bewirken, dass eine höhere Konzentration auf die Inhalte<br />

erfolgen kann. ROI-Betrachtungen können gesamtheitlich erfolgen und<br />

somit neue Aspekte integrieren.<br />

Der Nutzen von Terminologiearbeit muss für jeden „erfahrbar“ sein.<br />

Einfache, übersichtliche Arbeitsoberflächen sind hierbei genauso wichtig<br />

wie kleine Arbeitspakete und kurzfristige Antwortzeiten.<br />

Die Kopplung von bislang getrennten Arbeitsprozessen führt zu einer<br />

erheblichen Beschleunigung in der Erstellung neuer Terminologie und<br />

deren Übersetzung und damit zu schneller verfügbaren Qualitätssteigerungen<br />

und Kosteneinsparungen.<br />

So kann Terminologiemanagement viel Freude machen und Prozessbeteiligte<br />

zum begeisterten Mitmachen motivieren.<br />

für Rückfragen: rkrueger@transline.de<br />

456<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

TERM 6<br />

Fachvortrag<br />

Terminologie zwischen normativer Referenz<br />

und deskriptiver Dokumentation<br />

Dr. Birte Lönneker-Rodman, Across Systems GmbH, Karlsbad<br />

Moderne Terminologiewerkzeuge bieten viele Möglichkeiten, Terminologie<br />

in den Arbeitsalltag einzubinden und zu leben. Je nachdem,<br />

welchen Zweck eine Organisation mit dem Aufbau und der Pflege einer<br />

Terminologiedatenbank verfolgt, können Erstellung und Inhalt einer<br />

Terminologie unterschiedliche Ausprägungen annehmen. Während<br />

Terminologie als normative Referenz inzwischen bereits etabliert ist,<br />

hat die deskriptive Sammlung noch Zukunftspotential. Der deskriptive<br />

Ansatz beschreibt reale, wenn auch nicht unbedingt normierte Verwendungen<br />

sowie Vorschläge von Benutzern. Er führt zu einem größeren<br />

Datenbestand und damit mehr Suchergebnissen. Zudem kann er zu<br />

einer weiteren Kollaboration unter den Mitarbeitern anregen.<br />

Hinter einer normativen Referenzterminologie steht oft das Ziel, den<br />

Sprachgebrauch innerhalb der Organisation zu vereinheitlichen. Missverständnissen<br />

wird vorgebeugt; Texte sind konsistenter und damit verständlicher;<br />

die erhöhten Wiederverwendungsquoten beim Schreiben<br />

und Übersetzen führen zu Einsparungen.<br />

Die Terminologiedatenbank wird idealerweise nahtlos in die Redaktions-<br />

und Übersetzungsumgebung eingebunden. Darüber hinaus kann<br />

sie zum Nachschlagen innerhalb oder außerhalb des Unternehmens<br />

zur Verfügung gestellt werden. Im Falle der Terminologie als Produkt<br />

wird schließlich der Zugriff auf die Terminologie gegen eine Gebühr<br />

weitergegeben.<br />

Normative Referenzterminologie zeichnet sich durch Vorschriften über<br />

die Benutzung von Benennungen aus. Die Vorschrift gilt hier sowohl<br />

im positiven wie auch negativen Sinne. Die Terminologiedatenbank<br />

muss nicht nur Aufschluss darüber geben, wie ein bestimmtes Objekt<br />

oder ein bestimmter Prozess benannt werden soll („bevorzugt“; z. B.<br />

Schnürband). Sie muss auch festhalten, welche anderen möglicherweise<br />

in Betracht kommenden Benennungen vom Gebrauch ausgeschlossen<br />

werden („zu vermeiden“; z. B. Schnürsenkel). Zusätzlich kann es noch<br />

Benennungen geben, die in bestimmten Kontexten erlaubt sind („erlaubt“).<br />

Um zu entscheiden, welche Benennung gegenüber anderen als<br />

empfohlen hervorzuheben ist, kann die Terminologin Informationen<br />

unterschiedlicher Art heranziehen:<br />

−−<br />

Beteiligte: Einbeziehung von Personen aus mehreren Bereichen<br />

−−<br />

Quellen: Auswertung mehrerer Quellen, die ihrerseits oft normativ<br />

sind<br />

−−<br />

Sprachgebrauch: Analyse von öffentlichen Korpora, Medienberichten<br />

oder unternehmensinternen ein- oder mehrsprachigen Textsammlungen.<br />

Die normative Terminologiearbeit ist in manchen Bereichen etabliert<br />

und für bestimmte Zwecke unabdinglich. Dennoch sind gerade ihre<br />

Vorteile auch ihre Hemmschuhe:<br />

−−<br />

Die Notwendigkeit einer eindeutigen Entscheidung führt oft zu Differenzen<br />

im Entscheidungsfindungsprozess.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

457


Terminologie / Terminology<br />

−−<br />

Alle Benennungen eines Objekts oder Prozesses sollen möglichst erschöpfend<br />

erfasst und die Entscheidung über die Verwendungsempfehlung<br />

informiert getroffen werden. Bis zur Freigabe kann daher<br />

einige Zeit vergehen.<br />

−−<br />

Die hohen Aufwände für jeden einzelnen Eintrag können dazu führen,<br />

dass die relevanten Konzepte nur zu einem geringen Grad durch<br />

den terminologisch erfassten Fachwortschatz abgedeckt sind.<br />

Um diesen Nachteilen entgegenzusteuern, unterstützen moderne Terminologiewerkzeuge<br />

auch andere Arten des Terminologieaufbaus und<br />

der Terminologiepflege.<br />

Ein erster Aspekt ist dabei sind weitere Quellen für die Erfassung neuer<br />

Terminologie:<br />

−−<br />

Vorschläge von Übersetzern<br />

−−<br />

Vorschläge von Benutzern, zum Beispiel über ein Online-Formular<br />

oder mit separater Eintragsvorlage in der Web-Version der Terminologiedatenbank<br />

−−<br />

automatische Extraktion von Eintragskandidaten mit Benennungen<br />

aus einsprachigen Dokumenten sowie aus Translation Memorys<br />

−−<br />

Auswertung von Abfragen, die Benutzer der Terminologiedatenbank<br />

eingeben (zum Beispiel Log-Dateien einer Web-Version).<br />

In diesen Fällen können größere Bestände an Terminologie in kürzerer<br />

Zeit aufgebaut werden, jedoch ohne die Qualitätssicherung einer normativen<br />

Pflege. Daher empfiehlt es sich, die Eingaben von Benutzern<br />

oder die automatisch extrahierten Benennungsvorschläge mit dem Status<br />

„nicht freigegeben“ einzuspeisen. Je nach Aufkommen und Struktur<br />

der Daten kann es auch sehr nützlich sein, diese Terminologie in einer<br />

separaten Datenbankinstanz zu halten und die „deskriptive” von der<br />

„normativen” Terminologiedatenbank dabei optisch abzuheben. Der<br />

Vortrag zeigt einige anschauliche Beispiele.<br />

Die Benutzer sollten mit den gesammelten Daten weiter interagieren<br />

können, beispielsweise:<br />

−−<br />

Kommentare schreiben;<br />

−−<br />

vorschlagen, Einträge zu verschmelzen, oder die Verschmelzung direkt<br />

selbst vornehmen;<br />

−−<br />

Informationen, wie zum Beispiel Abbildungen, auch nachträglich<br />

(und zu Benutzervorschlägen anderer Benutzer) hinzufügen;<br />

−−<br />

Einträge insgesamt bewerten.<br />

Auch im deskriptiven Ansatz sollte das Rechtemodell die Definition von<br />

Rechten für die gewünschten Benutzer-Aktionen unterstützen. Zusätzlich<br />

ist eine moderierende Rolle mit weiteren Befugnissen sehr wichtig.<br />

Die Moderatoren sollten vor allem unsinnige Einträge entfernen,<br />

Einträge zu demselben Konzept verschmelzen und Einträge, mit denen<br />

Benutzer interagiert haben, abschließen.<br />

Das Konzept der deskriptiven Datensammlung beruht insgesamt auf<br />

der Annahme, dass der Zugang zu Informationen über Terminologie<br />

bereits vor der endgültigen Verwendungsvorgabe und Freigabe nützlich<br />

sein kann. Die deskriptive Terminologiearbeit nimmt unterschiedliche<br />

Formen an, beispielsweise durch werkzeuggestützte – und daher<br />

nicht immer perfekte – Extraktion von Benennungen und/oder durch<br />

458<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Interaktion mit den Benutzern. Diese deskriptive Terminologiearbeit<br />

wird bereits hier und da von Unternehmen erprobt.<br />

Es wird spannend sein zu beobachten, welche Modelle der Benutzerinteraktion<br />

von den Benutzern angenommen werden vor dem Hintergrund,<br />

dass sich diese Zeitinvestition letztlich auszahlen muss. Betrachtet<br />

man erfolgreiche Projekte wie Wikipedia oder auch die Foren des<br />

Online-Wörterbuchs LEO (http://dict.leo.org/), ist die Herangehensweise<br />

durchaus einen Versuch wert.<br />

für Rückfragen: bloenneker@across.net<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

459


Terminologie / Terminology<br />

TERM 7<br />

Fachvortrag<br />

Von der Terminologie zum semantischen<br />

Netz: Wissensmanagement und Ontologien<br />

Christian Stein, Technische Universität Braunschweig<br />

Das Projekt iglos (www.iglos.de) ist ein groß angelegtes universitäres<br />

Forschungsprojekt zur Entwicklung von Methoden und Software für<br />

Terminologiearbeit der nächsten Generation. Eine der wichtigsten<br />

Grundüberzeugungen im Rahmen des Projektes ist dabei, dass Eindeutigkeit<br />

nur im systemischen Zusammenhang beherrscht werden kann.<br />

Das bedeutet konkret, dass es nicht reicht, Benennungen, Synonyme,<br />

Übersetzungen und Definitionen etc. zu sammeln, sondern dass man<br />

die tatsächlichen semantischen Beziehungen der Sprachzeichen zueinander<br />

modellieren muss. Nur so wird der Kontext, Bezug und Verwendungszusammenhang<br />

deutlich und nur so kann man den Schritt vom<br />

klassischen Terminologiemanagement hin zum Wissensmanagement<br />

bzw. einer Ontologie gehen. Ein solches Wissensmanagement hat wiederum<br />

ein wesentlich breiteres Anwendungsspektrum als ein einfaches<br />

elektronisches Wörterbuch: Es hilft dabei, Missverständnisse und<br />

Ambiguitäten frühzeitig und automatisiert aufzuspüren, Mitarbeiter<br />

aufgabenspezifisch zu schulen und schließlich, Wissen nicht nur in den<br />

Köpfen, sondern auch im Unternehmen zu halten.<br />

Das kann nur gelingen, wenn Terminologiemanagement nicht länger<br />

als eine mehr oder weniger isolierte Funktion der Technischen Dokumentation<br />

und Übersetzung, sondern als zentrale Wissensverwaltung<br />

und Querschnittsdisziplin aller Unternehmensbereiche gesehen wird.<br />

In allen Bereichen finden sich unterschiedliche Fachsprachen, mit<br />

denen völlig unterschiedlich über die gleichen Sachverhalte kommuniziert<br />

wird – gerade deshalb auch häufig aneinander vorbei. Verschärft<br />

wird die Situation dadurch, dass interdisziplinäre, multisprachliche und<br />

unternehmensübergreifende Szenarien heute eher die Regel als die<br />

Ausnahme sind.<br />

Eine funktionierende Wissensverwaltung berücksichtigt diesen Sachverhalt<br />

von Anfang an und bildet nicht nur verschiedene Sprachen,<br />

sondern auch verschiedene Fachsprachen sowie deren Bezug zur Gemeinsprache<br />

als semantisches Netz ab. Dabei ist es wesentlich, die<br />

verschiedenen Perspektiven und Spezialisierungsgrade gleichermaßen<br />

zu modellieren. Um diesen Zustand zu erreichen, hat das Projekt iglos<br />

den iglos tep (terminology engineering process) entwickelt, der alle<br />

notwendigen Verfahrensweisen von der Terminologiegewinnung, über<br />

die Diskussion, Abstimmung und Relationierung bis hin zur kontinuierlichen<br />

Ergänzung behandelt und beschreibt.<br />

Einen wesentlichen Punkt nimmt dabei die Relationierung ein, also<br />

die Modellierung von typisierten Beziehungen zwischen den Begriffen.<br />

Diese Modellierung geht weit über reine Abstraktionsbeziehungen im<br />

Sinne einer Ober- und Unterbegriffsstruktur hinaus: So können je nach<br />

Modellierungs- und Anwendungsfokus ganz viele verschiedene Relationstypen<br />

modelliert werden. Auf Basis von Leitfragen und entsprechenden<br />

Assistenzsystemen, wie sie in iglos verfügbar gemacht werden,<br />

können diese auch von Laien gefunden und modelliert werden. Einige<br />

solcher Leitfragen zur Relationierung und Klassifizierung können beispielsweise<br />

sein (hier in zusammenfassender Kurzform):<br />

460<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

−−<br />

Ist es eine Größe, der man konkrete Werte zuordnen kann? (Attributhierarchie)<br />

−−<br />

Beschreibt es ein physikalisch existierendes Objekt oder eine abstrakte<br />

Oberklasse? (Abstraktion)<br />

−−<br />

Wenn das Wort aus mehreren Teilwörtern besteht, wie stehen diese<br />

zueinander? (Komposition)<br />

−−<br />

Welcher Kontext klärt die Bedeutung, wenn man „im Sinne von …“<br />

ergänzt? (Kontext-Relation)<br />

−−<br />

Gibt es mehrere Ausprägungen dieses Typs? (Instanziierung)<br />

−−<br />

Handelt es sich um ein Objekt oder um eine Funktion? (Typ)<br />

−−<br />

Womit wird es häufig verwechselt? (Verwechslungsgefahr)<br />

−−<br />

Hat es ein auslösendes Ereignis bzw. löst es andere Ereignisse aus?<br />

(Input/Output)<br />

−−<br />

Wozu braucht man es? (Funktion)<br />

−−<br />

Wer hat damit zu tun? (Rolle)<br />

−−<br />

Was unterscheidet es von den leicht zu verwechselnden Elementen?<br />

(Merkmale)<br />

−−<br />

Was benötigt man, um es durchzuführen? (Ressourcen)<br />

−−<br />

Gibt es eine Substantivierung oder ein Verb davon? (Derivation)<br />

−−<br />

Gibt es noch eine völlig andere Bedeutung dieses Wortes? (Homonymie)<br />

Diese Fragen sind ein Teil eines umfangreichen Fragenkatalogs, der im<br />

Rahmen des iglos-Projektes entwickelt wurde und in die iglos-Software<br />

integriert werden soll. Sie richten sich dabei nicht an Terminologie-Experten<br />

– vielmehr ist es ein wesentliches Ziel, Terminologiearbeit auch<br />

für Laien zu vereinfachen und so direkter in den jeweiligen Anwendungskontexten<br />

zu verankern. Die beste Möglichkeit, das zu erreichen,<br />

ist die Integration von Terminologieprüf- und Ergänzungsmöglichkeiten<br />

direkt in die Anwendersoftware. Im Projekt iglos ist das geschehen,<br />

indem ein Microsoft Word-Add-in entwickelt wurde, dass parallel zu<br />

Lese- und Schreibprozessen Terminologie recherchiert, prüft und ergänzt.<br />

Weitere Add-ins sind geplant.<br />

Die Relationierungen selbst werden in der iglos-Software semantisch<br />

interpretiert und zusätzlich grafisch dargestellt, so dass der Nutzer den<br />

Verwendungskontext und somit das gesamte Themengebiet in seiner<br />

Struktur visuell erfassen und navigieren kann. So wird die Datenstruktur<br />

tatsächlich zu einer Bildstruktur.<br />

Zurzeit wird an diesen Darstellungsmöglichkeiten noch intensiv gearbeitet,<br />

um sie zu einem interaktiven Modellierungswerkzeug auszubauen,<br />

das Terminologieverwaltung und -relationierung direkt in der Visualisierung<br />

erlaubt. Zahlreiche Partner aus Wissenschaft, Wirtschaft und<br />

Normung arbeiten bereits heute mit iglos und tragen aktiv zur Optimierung<br />

und Weiterentwicklung bei. Nach Abschluss der Arbeiten wird es<br />

für alle Interessierten einen offenen Test geben, der die Beurteilung<br />

der Eignung dieses neuartigen Terminologieverwaltungssystems für die<br />

eigenen Zwecke erlaubt.<br />

für Rückfragen: stein@iva.ing.tu-bs.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

461


Terminologie / Terminology<br />

TERM 8<br />

Presentation<br />

ECQA Certified Terminology Manger – Basic<br />

Blanca Nájera Villar, TermNet – International Network for Terminology, Vienna, Austria<br />

Inspired by initiatives as the European Computer Driving Licence<br />

(ECDL) and EUROPASS, TermNet, the International Network for Terminology<br />

joined in 2007 the ECQA – European Certification and Qualification<br />

Association with the aim of defining a set of professional competences<br />

and a globally recognised certification scheme for the job role of<br />

the terminology manager.<br />

Professionals working as ICT experts, information and knowledge managers,<br />

in e-Business, Semantic Web, libraries and archives or translators,<br />

interpreters, localisers and technical writers do terminology work,<br />

manage terminology projects or have to argue about the importance of<br />

terminology management in their working environment on a daily basis.<br />

Often they do not have any formal education in this field.<br />

The ECQA Certified Terminology Manager initiative is developed to<br />

provide a vocational training for these professionals as a proof of competences<br />

for the acquired knowledge and skills.<br />

ECQA – The European Certification and Qualification Association<br />

The European Certification and Qualification Association (ECQA) is the<br />

result of several EU-supported initiatives taking place during the last<br />

ten years when different educational initiatives in the European Union<br />

Life Long Learning Program decided to follow a joint process for the<br />

certification of persons in the industry.<br />

The ECQA is supported by training organisations from European countries<br />

(currently organisations from 18 countries) with the goal of developing<br />

and maintaining a set of quality criteria and common certification<br />

rules which would then be applied across the different European regions<br />

and the IT and services, engineering, finance and manufacturing<br />

sectors.<br />

This resulted in a pool of professions in which a high level of European<br />

comparability has been achieved by an Europe-wide agreed syllabus<br />

and skills set, an European test questions pool and European exam<br />

systems (computer automated by portals), as well as a common set of<br />

certificate levels and a common process to issue certificates.<br />

Illustration 1: ECQA, bringing industry, research and education together<br />

462<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Through the ECQA, learners can attend to courses for a specific profession<br />

in their country and perform a Europe-wide agreed test at the end<br />

of the course.<br />

ECQA Certified Terminology Manager – Basic<br />

In the globalized knowledge and information societies, specialized language<br />

has become a pre-requisite for any kind of efficient and effective<br />

communication, management and interoperability of technical systems<br />

and methodologies. Terminology and terminology management build an<br />

integral, high-quality and quality-assuring part of end products, services<br />

and tools in the fields of<br />

−−<br />

information & communication,<br />

−−<br />

classification & categorization,<br />

−−<br />

translation & localization.<br />

The new job profile “Certified Terminology Manager – Basic” combines<br />

the various competences of professionals active in these areas. It also<br />

pays tribute to the fact that terminology managers in today’s companies<br />

and organizations do not necessarily have a university degree in this<br />

field. Often, their job profile is not even exclusively that of a terminologist.<br />

More often, terminology management is an additional skill and task<br />

for professionals of varied backgrounds.<br />

The first certification exam took place successfully on 28 May 2010 and<br />

as of September <strong>2012</strong> the following has been achieved by this initiative:<br />

−−<br />

More than 250 registrations on the ECQA platform;<br />

−−<br />

Almost 150 certificates issued by September <strong>2012</strong> in more than 20 European<br />

and Non-European countries;<br />

−−<br />

Active cooperation with 5 European universities (Institute for Information<br />

management at the Cologne University of Applied Science,<br />

the Centre for Translation Studies in the University of Vienna, Lessius<br />

University College in Antwerp, University of Pécs in Hungary and the<br />

“Politehnica” University of Timisoara in Romania), international organizations<br />

(e.g., China National Institute of Standardization, the European<br />

Association for Terminology and the Infoterm, International Information<br />

Centre for Terminology) and private companies and public organisations<br />

(where TermNet is supplying in-house trainings for the staff).<br />

The training concept<br />

The ECQA training concept is based on a 4-step programme: self assessment,<br />

training, blended learning through an e-learning platform<br />

and examination.<br />

Illustration 2: The ECQA training concept<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

463


Terminologie / Terminology<br />

1. Self-assessment<br />

On the ECQA platform, everyone can self-assess their competences in<br />

the different professional fields for the job role ECQA Certified Terminology<br />

Manager – Basic in a scale of “poor/fair/good/excellent” and “not<br />

applicable”. The system automatically checks the answers and scores<br />

with a standard evaluation. After the self test, a new window opens with<br />

a percentage chart showing the satisfaction per skills element.<br />

Illustration 3: The Self Test – ECQA´s self-assessment tool<br />

2. Trainings<br />

ECQA trainings are offered as seminars, workshops and in-house<br />

trainings.<br />

The training program is divided into six major units:<br />

UNIT 1: UNDERSTANDING TERMINOLOGY MANAGEMENT<br />

−−<br />

What is terminology?<br />

−−<br />

Why terminology management?<br />

−−<br />

How terminology work is embedded in my organisation and work<br />

environment<br />

UNIT 2: TERMINOLOGY MANAGEMENT SKILLS<br />

−−<br />

How to search and collect terminology<br />

−−<br />

How to store and retrieve<br />

−−<br />

How to coin terms<br />

−−<br />

How to manage monolingual and multilingual terminology<br />

−−<br />

How to manage terminology projects<br />

UNIT 3: TERMINOLOGY STRATEGIES FOR BUSINESS PROCESSES<br />

−−<br />

How to present the business case for terminology<br />

−−<br />

How to calculate and argue costs & return on investments<br />

−−<br />

How to involve relevant stakeholders<br />

−−<br />

How to collaborate with relevant organisational units<br />

UNIT 4: TEAM WORKING & COMMUNICATION SKILLS<br />

−−<br />

How to organise team communication<br />

−−<br />

How to manage distributed and diverse teams<br />

−−<br />

Why Conflict Management?<br />

−−<br />

How to train and motivate your team<br />

UNIT 5: APPLICATION SCENARIOS<br />

−−<br />

Presentation of own projects in the form of max. 10 slides<br />

464<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

3. Blended learning<br />

through an e-learning<br />

platform<br />

UNIT 6: TERMINOLOGY STANDARDS AND LEGAL ISSUES<br />

−−<br />

Which standards are relevant?<br />

−−<br />

How to deal with copyright issues in terminology management<br />

−−<br />

What about product liability?<br />

With the joint efforts of all the aforementioned partners and their networking<br />

potential, TermNet has been able to translate, localize and<br />

adapt the skill card, the online materials and examination platform into<br />

3 European languages (English, German and French), create an online<br />

e-learning/blended learning environment to support traditional trainings<br />

and start promoting the ECQA Certified Terminology Manager –<br />

Basic in foreign countries, such as China and South Africa.<br />

Illustration 4: Moodle application for the ECQA Certified Terminology<br />

training programme<br />

4. Examination<br />

The exam is taken electronically, using a random selection from a central<br />

pool of multiple choice questions with a total of 487 questions. Participants<br />

have 6 hours to complete approx. 190 questions. The examinee<br />

can check the results online, just after the exam. To become an ECQA<br />

Certified Terminology Manager – Basic, participants have to pass with<br />

at least 66%. After that, they will receive a summary certificate in paper<br />

form with their results.<br />

Future developments and cooperation<br />

The response of the international community to this new training and<br />

certification initiative has been enormous. It also reflects the lack of<br />

training in some of the fields included in the programme, as for example<br />

in strategies for business processes, terminology policies, copyright or<br />

product liability.<br />

TermNet is working in a consortium of international terminology experts<br />

and the TermNet members to continue with the development<br />

of the ECQA Certified Terminology Manager platform. The Advanced<br />

training programme and certification skill is being created in collaboration<br />

with all the companies, universities and partner institutions and it<br />

is planned to be launched by July 2013.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

465


Terminologie / Terminology<br />

It is also planned to adapt and specialise the Advance module for different<br />

working environments, for example:<br />

−−<br />

ECQA Certified Terminology Manager – Automotive<br />

−−<br />

ECQA Certified Terminology Manager – Health<br />

−−<br />

ECQA Certified Terminology Manager – Language planning<br />

New cooperation partners are welcome to join the programme and<br />

participate in the development of the new training and certification<br />

schemes.<br />

References<br />

European Computer Driving Licence Foundation: http://www.ecdl.org<br />

EUROPASS: http://europass.cedefop.europa.eu/en/home<br />

ECQA: www.ecqa.org<br />

ECQA Certified Terminology Manager – Basic:<br />

http://www.termnet.org/english/products_service/ecqa_ctm-basic/<br />

ECQA CTM – Basic online campus:<br />

http://www.ecqa.org/index.php?id=23<br />

How to register free of cost for the online campus:<br />

http://www.termnet.org/downloads/english/products/trainings/ECQA-<br />

CTM_Howtoregister.pdf<br />

bnajera@termnet.org<br />

466<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

TERM 9<br />

Fachvortrag<br />

Terminologische Informationen und<br />

Dienste für Spracharbeiter<br />

Klaus-Dirk Schmitz, Fachhochschule Köln<br />

Das TaaS-Projekt<br />

Im Juni <strong>2012</strong> ist das von der EU co-finanzierte Forschungsprojekt TaaS<br />

(Terminology as a Service) mit dem Ziel gestartet, eine Cloud-basierte<br />

Plattform für die Extraktion, Verwaltung, Pflege und den Austausch von<br />

Terminologie bereitzustellen. Damit reagiert das Projekt auf die Notwendigkeit,<br />

Sprachsachverständigen, Experten und Unternehmen allgemein<br />

den Zugriff auf aktuelle terminologische Daten zu ermöglichen<br />

und sie direkt an der Schaffung und am Austausch von Terminologie zu<br />

beteiligen. So können die Rechercheergebnisse unzähliger Spezialisten,<br />

seien es Technische Redakteure, Übersetzer und Dolmetscher, Terminologen<br />

oder Fachgebietsexperten, gebündelt und verfügbar gemacht<br />

werden.<br />

Die Dienstleistungen der zu entwickelnden TaaS-Plattform reichen von<br />

der Identifizierung von Textkorpora und der Terminologieextraktion<br />

einschließlich Äquivalenzsuche über die Erfassung, Bereinigung und<br />

Pflege von Terminologiebeständen bis hin zur Bereitstellung in unterschiedlicher,<br />

auf die moderne Arbeitsumgebung von Sprachdienstleistern<br />

und Technischen Redakteuren abgestimmter Form. Dabei werden<br />

die international anerkannten Normen der Terminologielehre ebenso<br />

beachtet wie die Bedürfnisse der Anwender und die von maschinellen<br />

Übersetzungs- und Redaktionssystemen sowie Übersetzungsspeichern<br />

verarbeitbaren Datei- und Datenformate. Zur Entwicklung der erforderlichen<br />

Algorithmen und Schnittstellen werden linguistische und statistische<br />

Verfahren zur maschinellen Textanalyse miteinander kombiniert<br />

und ausgebaut.<br />

Abb. 1: Übersicht über die TaaS-Plattform<br />

Projektpartner des TaaS-Projektes sind neben der lettischen Firma<br />

Tilde als Koordinator das Institut für Informationsmanagement (IIM)<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

467


Terminologie / Terminology<br />

der FH Köln, die University of Sheffield, die ungarische Firma Kilgray<br />

und die Translation Automation User Society (TAUS) mit Sitz in den<br />

Niederlanden.<br />

Die Spracharbeiter<br />

Einer der ersten Aufgaben des Projektes ist es, typische Nutzergruppen<br />

dieser TaaS-Plattform zu identifizieren und deren spezifische terminologische<br />

Bedürfnisse zu ermitteln. Alle Arten von Spracharbeitern,<br />

die sich mit der Produktion und Rezeption von fachlichen Texten beschäftigen,<br />

wie etwa Technische Redakteure, Terminologen, Übersetzer,<br />

Dolmetscher, Lokalisierer, Redakteure, Fachgebietsexperten, aber auch<br />

Lerner von Fachsprachen, benötigen irgendwann terminologische Informationen,<br />

aber vermutlich nicht alle die gleichen. Im Projekt wurden<br />

zunächst die Nutzergruppen definiert und dann die Nutzungsbedürfnisse<br />

von Spracharbeitern auf der Basis einer Umfrage ermittelt.<br />

Die Umfrage<br />

Die Umfrage wurde im Sommer <strong>2012</strong> bei zwei großen Verbänden (<strong>tekom</strong>,<br />

BDÜ) sowie bei weiteren potentiellen Nutzgruppen (DTT, ProZ<br />

etc.) auf Deutsch und Englisch durchgeführt. Die Ergebnisse sollen die<br />

Grundlage für die technische und konzeptionelle Implementierung der<br />

TaaS-Plattform bilden. Die Fragen konzentrierten sich auf folgende<br />

Themenkomplexe:<br />

−−<br />

Berufliches Umfeld (Tätigkeit, Arbeitsverhältnis, Fachgebiet)<br />

−−<br />

Genutzte Programme und Formate<br />

−−<br />

Terminologiearbeit (Zeit, Wichtigkeit, Art, Zweck)<br />

−−<br />

Terminologierecherche (Wo und wonach wird gesucht?)<br />

−−<br />

Probleme und Optimierungspotenzial<br />

−−<br />

Bereitschaft, Terminologie bereitzustellen und gemeinsam zu nutzen<br />

Insgesamt wurden knapp 2.800 Fragebogen ausgewertet. Die beiden<br />

größten Gruppen der Spracharbeiter waren – wie nicht anders zu erwarten<br />

– die Technischen Redakteure (38 %) und die Übersetzer (31 %);<br />

Terminologen, Dolmetscher und Fachgebietsexperten war mit je etwa<br />

5 % vertreten. Als häufig eingesetzte Programme wurden Microsoft Office<br />

(Word, Excel, Powerpoint) bzw. Open Office, FrameMaker und In-<br />

Design neben den CAT-Tools SDL-Trados und Across genannt. Bei den<br />

genutzten Formaten führten DOC(X) (28 %), XML (17 %) und TXT 15 %)<br />

die Liste an.<br />

Die Mehrzahl der Befragten (61 %) geben an, dass sie zwischen 0 und<br />

20 Prozent ihrer Arbeitzeit für Terminologiearbeit aufbringen; dies trifft<br />

vor allem auf die meisten Technischen Redakteure zu. Weitere 28 Prozent<br />

wenden 20 bis 40 Prozent ihrer Zeit für Terminologiearbeit auf.<br />

Die Einschätzung der Wichtigkeit von Terminologiearbeit ist in Abb. 2<br />

grafisch dargestellt. Bei der Frage, nach welchen terminologischen Informationen<br />

die Spracharbeiter suchen, wurden vorrangig Benennungen<br />

in der Zielsprache (18 %) und in der Ausgangssprache (16 %) sowie<br />

Definitionen in der Ausgangssprache (16 %) und in der Zielsprache<br />

(13 %) genannt.<br />

Bei den Quellen für die Terminologierecherche wurden in erster Linie<br />

die eigene Terminologiedatenbank angegeben; wenn dort keine Treffer<br />

gefunden wurden, wurde über Stichwörter in Suchmaschinen, in<br />

468<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Online-Terminologiedatenbanken und -Enzyklopädien, aber auch in<br />

mehrsprachigen Wörterbüchern gesucht.<br />

Abb. 2: Einschätzung der Wichtigkeit von Terminologiearbeit<br />

Bei den Problemen, die die Terminologiearbeit behindern, wurden sehr<br />

oft Zeitmangel oder fehlende (finanzielle) Würdigung des Aufwandes<br />

sowie veraltete, unzuverlässige oder qualitativ minderwertige terminologische<br />

Informationen genannt.<br />

Weitere Ergebnisse der Umfrage werden nach der endgültigen Auswertung<br />

veröffentlicht werden.<br />

Fazit<br />

Die Ermittlung der Nutzergruppen und ihrer terminologischen Bedürfnisse<br />

wird in die Konzeption und Implementierung der webbasierte<br />

TaaS-Plattform einfließen. Damit wird zum Projektende eine kooperative<br />

Anlaufstelle für alle Arten von Spracharbeitern zur Verfügung<br />

stehen, um terminologische Informationen und Dienstleistungen<br />

abzurufen.<br />

Anmerkung<br />

The project has received funding from the European Union Seventh<br />

Framework Programme (FP7/2007–2013), grant agreement no 296312.<br />

Projekt-Website: www.taas-project.eu<br />

klaus.schmitz@fh-koeln.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

469


Terminologie / Terminology<br />

TERM 10<br />

Partnerpräsentation<br />

Terminologie – fit für die Zukunft<br />

Christiane Jäger, Julius Blum GmbH, Höchst, Österreich<br />

Klaus Fleischmann, Kaleidoscope GmbH, Ma. Enzersdorf, Österreich<br />

Blum ist weltweit tätig und auf die Herstellung von Möbelfunktionsbeschlägen<br />

spezialisiert. Die Hauptproduktgruppen sind Klappen-, Scharnier-<br />

und Auszugsysteme für Möbel – speziell Küchen. Mit 27 internationalen<br />

Tochterunternehmen und 10 weltweiten Produktionsstandorten<br />

setzt Blum 1,3 Mrd. Euro um, 96 % davon im Ausland. Blum beschäftigt<br />

weltweit mehr als 5000 Mitarbeiter und ist in über 100 Ländern tätig.<br />

Die Verkaufsunterlagen werden in bis zu 32 Sprachen umgesetzt. Dies<br />

beweist die Bedeutung einer einheitlichen, mehrsprachigen Terminologie<br />

als Basis hochqualitativer Produkt-Information.<br />

Kaleidoscope kombiniert und erweitert als Lieferant von Sprachtechnologie<br />

marktführende Systeme wie SDL Trados mit eigenen Entwicklungen<br />

rund um die Themen Terminologie-Workflow, unternehmensweite<br />

Sprachprozesse, Übersetzerrückfragen, fachliche Prüfung etc. Diese<br />

webbasierten Workflow-Lösungen finden sich als quickTerm, Excelling<br />

MultiTerm, smartQuery oder globalReview im Markt wieder.<br />

Neue Ufer in der Terminologie<br />

In vielen Abteilungen international tätiger Unternehmen ist Terminologie<br />

mittlerweile zu einem wichtigen Bestandteil der täglichen Arbeit<br />

geworden. Häufig führen Terminologie-Projekte allerdings im Unternehmen<br />

ein Inseldasein und sind nicht kollaborativ und systematisch<br />

Teil der Unternehmensprozesse.<br />

Nach der Etablierung einer Term-Bank und deren unternehmensweiter<br />

Verwendung stellen sich oft neue Fragen für das Terminologie-Team:<br />

−−<br />

Wie können wir nicht nur die Terminologie-Nutzung, sondern auch<br />

die Terminologie-Abstimmung und ‐Pflege auf einen größeren Teilnehmerkreis<br />

ausweiten?<br />

−−<br />

Wie holen wir Kollegen zur Abstimmung und Bereicherung der Daten<br />

an Bord?<br />

−−<br />

Wie holen wir andere Abteilungen, mit anderen Anforderungen an<br />

Daten und Prozesse an Bord?<br />

−−<br />

Wie können wir Änderungen und Erweiterungen in der Term-Bank<br />

bei einem deutlich vergrößerten Teilnehmerkreis im Griff behalten?<br />

Diese Herausforderungen bedingen, neben einem klaren Committment<br />

zur Terminologie von oberster Stelle im Unternehmen, neue Überlegungen<br />

zu Prozessen, Technologie aber auch der Rolle und dem Selbst-<br />

Verständnis von Terminologen und anderen Mit-Arbeitern an der<br />

Terminologie.<br />

Die Ausgangslage bei Blum<br />

Seit vielen Jahren hat Blum als international tätiger österreichischer<br />

Leitbetrieb Terminologie-Arbeit betrieben. Die Marketingabteilung<br />

baute eine mehrsprachige Terminologie-Datenbank auf und pflegt diese<br />

laufend. Die Term-Bank enthielt neben Verwendungshinweisen auch<br />

Definitionen, Bilder und spiegelte den Status quo einer normativen<br />

Terminologie wider.<br />

470<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Als klassische Insel-Lösung war sie aber nicht Teil eines klar definierten<br />

Unternehmens-Prozesses. Die Einführung dieses Prozesses machten<br />

sich die Terminologie-Verantwortlichen der Marketingabteilung zur<br />

Aufgabe. Es wurden Prozesse erstellt und im Rahmen eines Workshops<br />

mit Hilfe des Partners Kaleidoscope in der Web-Lösung quickTerm<br />

modelliert:<br />

Die Workflows wurden in der Folge mehrmals überarbeitet, wobei vor<br />

allem die Komplexität reduziert wurde. Die derzeitige Testphase zeigt,<br />

dass der einsprachige Workflow bereits funktioniert. Für die Umsetzung<br />

des mehrsprachigen Workflows wartet man bei Blum auf die neue Version<br />

von quickTerm.<br />

Neue Herausforderungen<br />

Parallel zur Terminologie-Arbeit in der Marketingabteilung baute die<br />

Technikabteilung seit Jahren eine wesentlich pragmatischere, rein benennungsorientierte<br />

Term-Datenbank auf, die in erster Linie für die<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

471


Terminologie / Terminology<br />

Mehrsprachigkeit in Produktdatenbanken, Produktion und Software<br />

verwendet wurde.<br />

Nach zahlreichen Abstimmungsgesprächen gelang es, die Abteilung<br />

Technik von den Vorzügen einer begriffsorientierten Terminologie zu<br />

überzeugen. Ebenso konnte man sich einigen, dass eine gemeinsame<br />

Termbank für die Einheitlichkeit der Unternehmenssprache sicherlich<br />

Vorteile bietet.<br />

Die Marketingabteilung hat der Technikabteilung quickTerm präsentiert,<br />

die schnell davon überzeugt war. Die Technikabteilung hat nach<br />

einer Analyse des Marketing-Workflows einen den eigenen Bedürfnissen<br />

perfekt angepassten Workflow erarbeitet. Hier kommt einer der<br />

Vorzüge von quickTerm zum Tragen: Es sind mehrere Workflows parallel<br />

möglich, womit viele verschiedene Bedürfnisse abgedeckt werden<br />

können.<br />

So konnte der pragmatischere, weitgehend benennungs- und übersetzungsorientierte<br />

Workflow der Technikabteilung in den Gesamt-Prozess<br />

integriert werden.<br />

472<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

In der Folge wurde die Funktionalität von quickTerm erweitert: Der<br />

Übersetzer kann nun im Rahmen des „Übersetzungsauftrages“ über<br />

die Web-Plattform direkt mit dem Antragsteller in Kontakt treten und<br />

Rückfragen klären. Er kann unklare oder mehrdeutige ausgangssprachliche<br />

Benennungen vor der Übersetzung mit dem Terminologen<br />

abklären und erst dann eine Übersetzung bereitstellen. Somit können<br />

die Übersetzungsprozesse auch die Prägung der ausgangssprachlichen<br />

Benennungen beeinflussen.<br />

Aktueller Projektstand<br />

Die modellierten Prozesse der Marketingabteilung sind in quickTerm<br />

über die Web-Plattform realisiert und werden gelebt. Derzeit befindet<br />

sich Blum in der Pilotphase, in der vor allem Erfahrungen gesammelt<br />

werden, um gegebenenfalls noch Änderungen an den Workflows vorzunehmen.<br />

Im Rahmen des <strong>tekom</strong>-Vortrags werden wir die konkreten<br />

Ergebnisse bis dato vorstellen.<br />

Herausforderung Versionsmanagement<br />

Aufgrund der Arbeit verschiedener Abteilungen mit unterschiedlichen<br />

Anforderungen an Prozesse sowie inhaltlicher Natur ist eine Versionierung<br />

und Nachvollziehbarkeit der Änderungen in der Term-Bank notwendig<br />

geworden. Diese Funktion wird von der bei Blum eingesetzten<br />

Software (SDL MultiTerm Server) nicht unterstützt.<br />

Die Lösung quickTerm von Kaleidoscope ermöglicht allerdings ein<br />

regelmäßiges Ziehen von Momentaufnahmen der Term-Bank. Damit ist<br />

es möglich, den Stand der Term-Bank zwischen bestimmten Fixpunkten<br />

zu vergleichen. Änderungen können bis zum einzelnen Feld hinuntergebrochen,<br />

aber auch neue Einträge oder neue Informationen zu bestehenden<br />

Einträgen zielgenau ermittelt werden.<br />

Der Terminologe kann Änderungen dann erneut in die Freigabe oder<br />

Übersetzung schicken oder auf einen bestimmten Punkt zurücksetzen.<br />

Somit kann die abteilungsübergreifende Terminologie-Arbeit gut im<br />

Griff behalten werden.<br />

Abschlussbemerkung<br />

Zum Gelingen dieses Projekts tragen für Blum entscheidend bei:<br />

−−<br />

die genaue Analyse des Prozesses mit allen Beteiligten<br />

−−<br />

Workflows sollten nicht zu komplex sein (je einfacher der Workflow,<br />

desto größer die Akzeptanz)<br />

−−<br />

der Prozess sollte mit allen Beteiligten durchgespielt werden<br />

−−<br />

ausreichend Zeit für Testlauf/Pilotphase einplanen<br />

−−<br />

viel Überzeugungsarbeit ist notwendig<br />

für Rückfragen:<br />

klaus@kaleidoscope.at<br />

Christiane.Jaeger@blum.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

473


Terminologie / Terminology<br />

TERM 11<br />

Fachvortrag<br />

Unternehmen in der Terminologiefalle<br />

Rainer Lotz, Konica Minolta Business Solutions Europe GmbH, Hannover<br />

Ausgangslage für Terminologiefalle<br />

Es gibt eine bestehende Software mit z. B. 20.000 lines of code, übersetzt<br />

in 15 oder 20 Sprachen. Die Vorübersetzungen sind im Laufe der Jahre<br />

entstanden und terminologisch nicht konsistent.<br />

Man hat sich entschieden, Terminologie einzuführen und zukünftig<br />

anzuwenden.<br />

Man extrahiert z. B. aus dieser Software 100 Begriffe und übersetzt diese<br />

separat und trägt sie in einer Terminologie Datenbank ein und wendet<br />

diese 100 Begriffe bei einer Erweiterung der Software an.<br />

Oder man wartet auf einen Übersetzungsauftrag für die Erweiterung<br />

dieser Software, extrahiert bei diesem Auftrag z. B. 100 Begriffe, übersetzt<br />

diese separat und trägt diese Übersetzung in eine gesonderte<br />

Terminologie-Datenbank ein und verwendet sowohl bei diesem Erweiterungsauftrag<br />

als auch zukünftig nur noch diese Übersetzung.<br />

D. h., die Erweiterung der Software ist dann terminologisch konsistent.<br />

Was hat man dadurch erreicht? Nur und ausschließlich die Erweiterung<br />

ist konsistent. Wenn man jetzt die gesamte Software terminologisch<br />

konsistent machen wollte, müsste man alle bestehenden Übersetzungen<br />

an die Terminologie angleichen. Dies wird aus Kosten- und Zeitgründen<br />

häufig nicht geschehen, sondern man belässt die alten Übersetzungen,<br />

wie sie sind.<br />

Man befindet sich in der Terminologiefalle: Einerseits ist die Erweiterung<br />

konsistent, aber bestehende Übersetzungen bleiben inkonsistent,<br />

d. h., man hat trotz Terminologie Inkonsistenzen.<br />

Komplettes Angleichen<br />

Partielles Angleichen<br />

Ausgangssprache<br />

durchgehen<br />

Wege aus der Terminologiefalle<br />

Man betrachtet auch die Vorübersetzungen und gleicht diese an die Terminologie<br />

an. Dadurch hat man aber einen erheblich höheren und längeren<br />

Aufwand, denn ursprünglich war ja nur die Erweiterung von z. B.<br />

1000 neuen line of codes geplant. Außerdem sollte man bei Änderungen<br />

in den Übersetzungen auch weiterführende Prozesse (z. B. Softwareentwicklung)<br />

im Auge haben.<br />

Komplettes Angleichen wird in den seltensten Fällen aus Zeit und Kostengründen<br />

durchgeführt.<br />

Man sucht absolute key-key Begriffe, die man unbedingt angleichen will<br />

und muss. Und der Rest? Dann könnte man die Terminologie gleich nur<br />

auf diese 10 key-key Begriffe beschränken. Auch hier gilt wieder: Nachfolgende<br />

Prozesse: Wenn man innerhalb von kurzen Zeitabständen 300<br />

Altübersetzungen ändert und in 2 Monaten wieder 500, dann könnte<br />

dies zu Verwirrungen bei der Softwareentwicklung führen.<br />

Ein möglicher Weg ist auch, die Ausgangssprache zu analysieren und<br />

bei den Entwicklungsabteilungen anzufragen, ob tatsächlich jeder übersetzte<br />

String in der aktuellen Software-Version benötigt wird.<br />

474<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Ebenso dürfte ein Ergebnis der Analyse der Ausgangssprache eine große<br />

Anzahl an Homonymen und Varianten sein.<br />

Wenn die Ausgangssprache dann klar ist, dann wird man sich wohl<br />

dazu durchringen müssen, die Altübersetzungen bei einem genügend<br />

großen Datenbestand an übersetzter Terminologie komplett zu bereinigen.<br />

Ansonsten wird man das Ziel konsistente Übersetzungen niemals<br />

erreichen.<br />

Fazit: Terminologie hat sehr viel mit der Ausgangssprache zu tun – und<br />

je mehr übersetzte terminologisch nicht konsistente lines of code vorliegen,<br />

desto schwieriger und aufwendiger wird eine nachträgliche<br />

Bereinigung.<br />

Rainer.lotz@konicaminolta.eu<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

475


Terminologie / Terminology<br />

TERM 12<br />

Fachvortrag<br />

Auch Wörter sind Zeichen –<br />

auf der Suche nach der<br />

Vorzugsbenennung hilft die Semiotik<br />

Lars Schiller, ZINDEL AG, Hamburg<br />

Sprache ist ein System aus Zeichen. Die einzelnen Zeichen übermitteln<br />

Informationen. Mit den Zeichen als Mittel der Kommunikation beschäftigt<br />

sich die Semiotik.<br />

Das semiotische Dreieck – mit seinen Eckpunkten Gegenstand, Begriff<br />

und Benennung – gilt als Grundlage der Terminologielehre. Weitere<br />

Aspekte der Semiotik werden jedoch nur am Rande berücksichtigt. Zu<br />

Unrecht. Denn die Semiotik kennt die besten Vorzugsbenennungen.<br />

Während Terminologen zunächst auf den Begriff schauen und sich<br />

dann überwiegend nach formalen Kriterien für eine Vorzugsbenennung<br />

entscheiden, untersuchen Semiotiker, wie eine Benennung verwendet<br />

und vom Empfänger interpretiert wird. Eine solche Betrachtungsweise<br />

ermöglicht es, die Vorzugsbenennung anhand zusätzlicher Kriterien<br />

besser festzulegen.<br />

Die Benennung als Zeichen<br />

Wörter, Symbole und Gesichtsausdrücke – dies sind nur drei Beispiele<br />

für unterschiedliche Zeichen. Man kann verbale und nonverbale<br />

Zeichen unterscheiden, mündliche und schriftliche Zeichen, optisch,<br />

akustisch und haptisch wahrnehmbare Zeichen. Abgesehen von den<br />

ikonischen Warnzeichen werden in Technischer Dokumentation überwiegend<br />

Zeichen in Form von Benennungen verwendet.<br />

Jede Benennung, die in einer Technischen Dokumentation enthalten<br />

ist, sendet ein Signal aus. Doch wie versteht der Empfänger des Signals<br />

diese Benennung? Welche Information vermittelt sie ihm? Welche Bedeutung<br />

schreibt er der Benennung zu?<br />

Gerade in Technischer Dokumentation ist es entscheidend, unzweideutige<br />

Benennungen zu verwenden, damit der Leser (Empfänger) den<br />

Sinn der Aussage zweifelsfrei versteht und entsprechend handeln kann.<br />

Syntaktik, Semantik und Pragmatik<br />

Drei wesentliche Zeichendimensionen lassen sich unterscheiden:<br />

Die Syntaktik, die Semantik und die Pragmatik (nach Göpferich 1998,<br />

S. 31–39).<br />

Jede Benennung, die in einer Technischen Dokumentation verwendet<br />

wird, muss syntaktisch einwandfrei sein. Ein Empfänger muss jede<br />

Benennung klar erkennen können. Das beginnt mit der Lesbarkeit<br />

aufgrund des Kontrasts und der Schriftgröße. Vor allem aber wird die<br />

Erkennbarkeit durch den Bau der Benennung (Morphologie) und den<br />

Satzbau (Syntax) sichergestellt. Die Bedeutung der Benennung, ihr<br />

Sinn, spielt zunächst noch keine Rolle.<br />

Doch es genügt nicht, eine Benennung als Zeichen zu erkennen.<br />

Jede Benennung muss auch semantisch einwandfrei sein. Die Beziehung<br />

zwischen der Benennung und dem bezeichneten Begriff muss<br />

476<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

unmissverständlich sein. Nur so kann der Empfänger die Bedeutung<br />

des syntaktisch einwandfrei gestalteten Zeichens eindeutig interpretieren.<br />

Nur so hat er die richtigen Assoziationen und Konnotationen. Nur<br />

so versteht er den Sinn.<br />

Schließlich muss jede Benennung auch pragmatisch einwandfrei sein.<br />

Das syntaktisch einwandfrei wahrgenommene und semantisch richtig<br />

verstandene Zeichen löst beim Empfänger eine Handlung aus. Die<br />

Benennung muss ihn also in die Lage versetzen, die in seiner Situation<br />

richtige Entscheidung zu treffen.<br />

Wahl der Vorzugsbenennung<br />

Vornehmliches Ziel der Terminologiearbeit ist es, alle Benennungen<br />

für einen Begriff zusammenzustellen (deskriptive Terminologiearbeit)<br />

und anschließend die Vorzugsbenennung festzulegen (präskriptive<br />

Terminologiearbeit).<br />

In der Phase der deskriptiven Terminologiearbeit gehen die Terminologen<br />

vom Begriff aus; sie ordnen diesem Begriff die unterschiedlichen<br />

synonymen Benennungen zu. Diese onomasiologische Vorgehensweise<br />

(vom Begriff zur Benennung) garantiert, dass alle Benennungen für<br />

einen Begriff gefunden werden.<br />

In der anschließenden Phase der präskriptiven Terminologiearbeit geht<br />

es darum, die verschiedenen Benennungen für einen Begriff zu bewerten.<br />

Am Ende wird die Vorzugsbenennung festgelegt.<br />

Doch welche Benennung wird zur Vorzugsbenennung erklärt? Und wie<br />

wird die Festlegung begründet?<br />

Oftmals werden für die Entscheidung statistische Kriterien herangezogen.<br />

Untersucht wird, welche Benennung am häufigsten verwendet<br />

wird, welche in den zuverlässigsten Quellen verwendet wird oder aktuell<br />

überwiegend verwendet wird (vgl. Drewer u. Ziegler 2011, S. 173).<br />

Eine Benennung wird aber auch nach sprachlichen Kriterien beurteilt,<br />

z. B. nach „Genauigkeit“, „Knappheit“ und „Orientierung am anerkannten<br />

Sprachgebrauch“. Berücksichtigt werden auch „Ableitbarkeit“, „Motiviertheit“<br />

und „Eindeutigkeit“ (ebd., S. 173–175). Außerdem werden<br />

Benennungsbildungsregeln berücksichtigt, die z. B. festlegen, wie komplex<br />

eine Benennung sein darf und wo Bindestriche verwendet werden<br />

müssen (vgl. ebd., S. 175–178).<br />

All dies sind berechtigte Kriterien. Aber nicht in jedem Fall wird die<br />

beste und treffendste Benennung zur Vorzugsbenennung gekürt. Denn<br />

es steht keineswegs fest, dass die genannten Regeln auch der Pragmatik<br />

förderlich sind. Ein mahnender Rat lautet daher: „Ein Terminologe muss<br />

sich nicht nur um die Semantik kümmern, sondern auch um die Pragmatik“<br />

(Schmitt 2008, S. 47).<br />

Unterstützung durch die Semiotik<br />

Natürlich erleichtern formale Kriterien dem Terminologen die Arbeit.<br />

Doch über all den formalen Kriterien wird zuweilen der Leser vergessen.<br />

Welche Folgen hat die Festlegung einer Vorzugsbenennung? Welche<br />

Bedeutung verknüpft der Leser mit der Benennung? Und welche<br />

Handlungen sind die Folge?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

477


Terminologie / Terminology<br />

Die Semiotik mit ihrem semasiologischen Ansatz (von der Benennung<br />

zum Begriff) hilft dabei, die beste Vorzugsbenennung zu finden. Sie<br />

urteilt nicht nach rein formalen Kriterien, sondern sie fragt nach dem<br />

Verständnis. Nachdem ein Kandidat für die Vorzugsbenennung gefunden<br />

wurde, sollte die Benennung aus Sicht eines Semiotikers analysiert<br />

werden.<br />

Ein Semiotiker nähert sich einer Benennung an. Er betrachtet sie von<br />

außen und untersucht, was ein Leser ihr ansehen kann, ohne ihren Inhalt<br />

– ihre Bedeutung – zu kennen. Vor allem motivierte Benennungen<br />

sind geeignet, den Leser auf die richtige Fährte zu bringen.<br />

Doch welche konkreten Assoziationen – Vorstellungen – löst die Benennung<br />

aus? Und welche Konnotationen – zusätzlichen Vorstellungen<br />

– sind mit ihr verbunden? Unbewusst wird immer auch nach der<br />

übergeordneten Benennung (Hyperonym) und den untergeordneten<br />

Benennungen (Hyponymen) gesucht sowie nach der entgegengesetzten<br />

Benennung (Antonym). Und die Benennung wird mit ähnlichen,<br />

bekannten Benennungen verglichen oder etymologisch zerlegt. Sowohl<br />

Assoziationen als auch Konnotationen beeinflussen das Verständnis. Sie<br />

sind allerdings überwiegend vom Bildungsniveau des Lesers abhängig.<br />

Doch fest steht, dass jede Benennung Konnotationen auslöst (vgl. Eco<br />

1972, v. a. S. 108–111). Insofern lässt sich die Forderung der Terminologen<br />

nach „Konnotationsfreiheit“ (z. B. bei Drewer u. Ziegler 2011, S. 174)<br />

nicht erfüllen. Stattdessen ist es wichtig, eine Vorzugsbenennung zu<br />

wählen, die mit hoher Wahrscheinlichkeit keine irreführenden oder<br />

negativen Konnotationen weckt.<br />

Eine semiotische Bewertung kann dazu beitragen, eine Benennung zu<br />

finden, unter der sich ein Leser den richtigen Begriff bildet. Zwar folgt<br />

eine solchermaßen festgelegte Vorzugsbenennung nicht immer den formalen<br />

Kriterien der Benennungsbildung. Aber sie sorgt für die richtigen<br />

Handlungen.<br />

Literatur<br />

−−<br />

Drewer, Petra; Wolfgang Ziegler (2011): Technische Dokumentation<br />

– Übersetzungsgerechte Texterstellung und Content-Management;<br />

Vogel Buchverlag, Würzburg 2011<br />

−−<br />

Eco, Umberto (1972): Einführung in die Semiotik. 9. Auflage; Wilhelm<br />

Fink Verlag, Paderborn 2002<br />

−−<br />

Göpferich, Susanne (1998): Interkulturelles Technical Writing – Fachliches<br />

adressatengerecht vermitteln; Gunter Narr Verlag, Tübingen<br />

1998<br />

−−<br />

Schmitt, Peter A. (2008): Terminologie und Fachlexikographie; in:<br />

Jörg Hennig; Marita Tjarks-Sobhani (Hrsg.): Terminologiearbeit für<br />

Technische Dokumentation; Verlag Schmidt-Römhild, Lübeck 2008,<br />

S. 39–53<br />

für Rückfragen: lars.schiller@zindel.de<br />

478<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

TERM 14<br />

Tutorial<br />

Der Terminologiekreis: Unternehmensweite<br />

Abstimmungsprozesse planen und leiten<br />

Tamara Arndt, infolox GmbH, Dortmund<br />

Dr. Rachel Herwartz, TermSolutions, Dormagen<br />

Terminologiemanagement im Unternehmen<br />

Durch Terminologiemanagement im Unternehmen wird versucht, die in<br />

der internen und externen Kommunikation verwendete Terminologie<br />

zu vereinheitlichen und wenn möglich für einen Begriff auch nur eine<br />

Benennung als erlaubt festzulegen. So sollen u. a. Missverständnisse<br />

vermieden, Kosten bei Übersetzungen gesenkt und die Qualität der Texte<br />

in Ausgangs- und Zielsprache erhöht werden.<br />

Dass professionelles Terminologiemanagement für Unternehmen von<br />

großem Nutzen ist und zahlreiche Vorteile mit sich bringt, ist auch hinreichend<br />

bekannt und wurde in vielen Veröffentlichungen und Vorträgen<br />

dokumentiert. So verwundert es nicht, dass die Zahl der Firmen, die<br />

Terminologiearbeit unternehmensweit betreiben möchten, stetig steigt.<br />

Doch ein Terminologe oder Terminologieverantwortlicher allein kann<br />

nicht entscheiden, welche Benennungen von nun an im Unternehmen<br />

verwendet und welche verboten werden sollen. Viele verschiedene Abteilungen<br />

möchten an der Entscheidungsfindung beteiligt sein. Hierfür<br />

ist die Festlegung eines Terminologieworkflows und Abstimmungsprozesses<br />

notwendig.<br />

Firmenspezifische Abstimmungsprozesse<br />

So unterschiedlich Firmen und Branchen sein können, so firmenspezifisch<br />

sollten auch Abstimmungsprozesse und Terminologieworkflows<br />

gestaltet werden. Es wäre falsch zu glauben, dass es „den einen“ Abstimmungsprozess<br />

gibt, der von jedem Unternehmen verwendet werden<br />

kann. Dafür sind verschiedene Faktoren verantwortlich:<br />

Zum einen gibt die Zeitspanne des Produktentwicklungsprozesses dem<br />

Terminologen oder Terminologenteam mehr oder weniger Zeit, neue<br />

Benennungen terminologisch zu erarbeiten, zu vereinheitlichen und<br />

abzustimmen, bevor die ersten Dokumente über das neue Produkt oder<br />

die neue Dienstleistung in den Umlauf gehen.<br />

Zum anderen hängt der Abstimmungsprozess auch stark davon ab, wie<br />

verzahnt oder unabhängig voneinander verschiedene Unternehmensbereiche<br />

und Produktlinien angelegt sind.<br />

Ein weiterer, alles entscheidender Faktor für die Ausrichtung der Abstimmungsprozesse<br />

im Unternehmen sind die Ressourcen, die das Unternehmen<br />

für Terminologiearbeit freigibt:<br />

−−<br />

Wird den Terminologieverantwortlichen Arbeitszeit für Terminologiearbeit<br />

zugestanden oder soll dies „nebenbei“ geschehen?<br />

−−<br />

Wie viele Abteilungen sollen oder möchten am Abstimmungsprozess<br />

beteiligt sein?<br />

−−<br />

Sollen die Abteilungsleiter selbst an möglichen Terminologiekreisen<br />

teilnehmen und wenn ja, ist dies zeitlich und finanziell überhaupt<br />

realistisch?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

479


Terminologie / Terminology<br />

Dies sind nur einige Fragen und Faktoren, die Abstimmungsprozesse im<br />

Unternehmen beeinflussen.<br />

Den Terminologiekreis planen und leiten<br />

Ist nach Klärung dieser Fragen und Einbeziehung der Faktoren in der<br />

Theorie nun klar, welche Abstimmungsprozesse notwendig sind, um<br />

den firmenspezifischen Anforderungen an Terminologiearbeit gerecht<br />

zu werden, folgt natürlich die Umsetzung in die Praxis. Oft stellt sich<br />

dabei heraus, dass in der Theorie doch noch nicht alle Eventualitäten<br />

bedacht wurden.<br />

In unserem Tutorial zeigen wir Ihnen anhand von vielen Beispielen, wie<br />

Sie einen dynamischen Abstimmungsprozess entwerfen können, welche<br />

Personenkreise dabei für die Terminologiearbeit relevant sind und<br />

wie diese nutzbringend und ressourcenschonend eingesetzt werden<br />

können.<br />

Zum Weiterlesen<br />

T. Arndt: „Unternehmensweite Terminologiearbeit – Eine Kategorisierung<br />

von Abstimmungsprozessen und Terminologiekreisen“, in: Mayer, Felix;<br />

Schmitz, Klaus-Dirk (Hrsg.)(<strong>2012</strong>): Terminologieprozesse und Terminologiewerkzeuge.<br />

Akten des Symposions. Deutscher Terminologie Tag<br />

e.V., Heidelberg, 19.–21. April <strong>2012</strong>. München/Köln: SDK.<br />

für Rückfragen:<br />

tamara.arndt@infolox.de<br />

herwartz@termsolutions.de<br />

480<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

TERM 15<br />

Workshop<br />

Der Weg zum effizienten<br />

Terminologiemanagement<br />

Christine Schmacht und Ilka Kurfess, cognitas GmbH, Fellbach<br />

In der Praxis erweist es sich oft als Herausforderung, Konzepte für effizientes<br />

Terminologiemanagement umzusetzen. Mit Blick auf die Strukturen<br />

im jeweiligen Unternehmen sollten zuerst die notwendigen Prozesse<br />

für effiziente Terminologiearbeit definiert werden. Ebenso wichtig<br />

ist ein Regelwerk, das die Qualität der Terminologiearbeit sicherstellt.<br />

Wer<br />

Was<br />

Wie<br />

Einstieg ins Terminologiemanagement<br />

Bevor der Startschuss für das Terminologiemanagement fällt, müssen<br />

die Verantwortlichen die Anforderungen an festzulegende<br />

Fachsprache(n) und Prozessschritte erarbeiten. Zu stellende Fragen<br />

sind:<br />

Wer ist beteiligt?<br />

Produktbeschreibende Texte entstehen in mehr Abteilungen als nur<br />

in der kundenbezogenen Dokumentationsstelle. Sowohl in den Konstruktionsabteilungen<br />

als auch beim Marketing und bei der Reparaturbeschreibung<br />

entstehen Texte mit Fachsprache. Umfassende Terminologiearbeit<br />

sollte diese Textsorten beachten und vereinheitlichen. Eine<br />

Benennung über alle Ebenen des Produktlebenslaufs hinweg ist das<br />

anzustrebende Ziel.<br />

Ebenfalls nicht zu unterschätzen ist der technische und personelle Aufwand.<br />

Zu entscheiden ist, was intern geleistet werden kann und wobei<br />

externe Unterstützung notwendig ist. Welche Personen sind bei der Benennungsbildung<br />

beteiligt? Welche Personen legen verbindlich fest und<br />

welche sind im Abstimmungs- und Beratungsprozess involviert?<br />

Was wird in der Terminologiedatenbank angelegt?<br />

Nachdem das „Wer“ geklärt ist, muss festgelegt werden, was Fachsprache<br />

und Terminologiearbeit für das Unternehmen bedeuten. Festzulegen<br />

ist, welche Bereiche oder Abteilungen eines Unternehmens mit<br />

Terminologiearbeit starten. Wird mit einer unternehmensweiten und<br />

übergreifenden Fachsprache gestartet? Oder ist erst einmal nur eine<br />

von mehreren im Unternehmen verwendeten Fachsprachen festzuhalten?<br />

Sollen auch allgemeinsprachliche Benennungen festgelegt werden,<br />

um somit eine kontrollierte Sprache zu gewährleisten?<br />

Wie findet man den Bestand für die Begriffsdatenbank?<br />

Möglichkeiten für den Start und einen Basisbestand gibt es viele: Zum<br />

Beispiel kann mit einer Termextraktion begonnen werden, die nach Abteilungen<br />

oder Textarten vorgenommen wird. Wörterbücher des Übersetzungsdienstes<br />

oder bereits begonnene Wortlisten von Mitarbeitern<br />

können ebenso Quellen sein.<br />

Nach der ersten Sichtung eines möglichen Bestands werden Regelprozesse<br />

benötigt: Wie werden neue Begriffe in die Datenbank<br />

aufgenommen?<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

481


Terminologie / Terminology<br />

Wo<br />

Wann<br />

Bestandsanalyse<br />

Fragenkatalog<br />

Benennungsgrundsätze<br />

Definitionsleitfaden<br />

Ziele<br />

Wo anfangen?<br />

Sollen für die Terminologiearbeit einzelne Mitarbeiter aus mehreren<br />

Fachbereichen eingebunden werden? Oder startet ein Fachbereich als<br />

Pilotprojekt mit der Terminologiearbeit? Welcher Fachbereich eignet<br />

sich am besten, wo findet man die am besten geeigneten Mitarbeiter<br />

(Stichworte: Qualifikation und Motivation)?<br />

Wann (und wie) erfolgt der Regelbetrieb?<br />

Ab wann wird die Terminologie an welche Nutzer verteilt? Sowohl der<br />

Startzeitpunkt für die Verteilung der Terminologie muss geklärt sein,<br />

als auch, welche Fachbereiche zu welchem Zeitpunkt zusätzlich an der<br />

Terminologiearbeit beteiligt werden.<br />

Für die Terminologiebearbeitung muss geklärt sein, wer wann welchen<br />

Input zu liefern hat.<br />

Grundlagenarbeit<br />

Zuerst müssen die Anforderungen aller beteiligten Fachbereiche und<br />

deren unterschiedliche Dokumentationsarten analysiert werden.<br />

Ein Fragenkatalog schafft Klarheit über unternehmensspezifische Rahmenbedingungen<br />

wie z. B. Beteiligte, Ziele, Umfang (Budget/Kapazitätsplanung),<br />

Managementunterstützung, Zeitraum für Pilotphase usw.<br />

Danach folgt als Pilotphase eine Sichtung des Bestands. Anhand von<br />

Mustertexten werden Termkandidaten extrahiert und identifiziert. Um<br />

die Begriffe erkennen zu können, müssen Definitionen erstellt werden.<br />

Aus den Ergebnissen der Analysen und der Textarbeit lässt sich ableiten,<br />

welche Arten von Begriffen benötigt werden.<br />

Regelwerke<br />

Somit erhält man die Basis für die Regelwerke. Das benötigte Minimum<br />

an Inhalten lässt sich an den Zielen ableiten.<br />

Ziel 1: Nachvollziehbarkeit und Einheitlichkeit<br />

−−<br />

Benennungsauswahl und Benennungsbildung (Benennungsgrundsätze)<br />

−−<br />

Definitionsleitfaden<br />

Ziel 2: Wissensmanagement und Akzeptanz<br />

−−<br />

Grundlagen und Ziele der Terminologiearbeit<br />

−−<br />

Prozesse<br />

Die Benennungsgrundsätze enthalten Regeln zur Benennungsauswahl<br />

und Benennungsbildung. Merkmale und Granularität der Fachwörter<br />

werden dargestellt, d. h., was zählt zur Fachsprache mit Beachtung der<br />

Besonderheiten des Unternehmens und der festgelegten Zielgruppe.<br />

Die Grundsätze machen die Entscheidung für oder gegen eine Benennung<br />

nachvollziehbar.<br />

Der Definitionsleitfaden enthält Regelungen, die dafür sorgen, dass<br />

prägnante, zielgruppengerechte Definitionen entstehen und die Anforderungen<br />

der Terminologienutzer erfüllt werden.<br />

In den verschiedenen Abteilungen soll nachvollzogen werden können,<br />

warum „man so viel Aufwand um ein paar Wörter betreibt“. Dafür<br />

müssen die Grundlagen und Ziele der Terminologiearbeit für alle<br />

482<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Terminologie / Terminology<br />

Prozesse<br />

Akzeptanz<br />

Technik<br />

Fazit<br />

zugänglich festgehalten werden. Diese Ziele zeigen den konkreten<br />

Nutzen für das Unternehmen.<br />

Akzeptanz wird durch Transparenz geschaffen. Die Abläufe zur Benennungsbildung<br />

werden in Prozessbeschreibungen festgehalten. Sie bilden<br />

den äußeren Rahmen zur inhaltlichen Festlegung der Terminologie.<br />

Notwendige Prozesse sind z. B.<br />

−−<br />

Auswahl und Abstimmung der Benennung,<br />

−−<br />

Beantragung,<br />

−−<br />

Verbreitung,<br />

−−<br />

Sonderprozesse (Änderungsmanagement, Eskalation, neue<br />

Beteiligte).<br />

Kommunikation<br />

Wenn die Grundlagen geklärt sind, müssen die Beteiligten informiert<br />

werden. Kommunikation schafft Transparenz und Akzeptanz. Allen<br />

Beteiligten muss jederzeit deutlich sein, warum und wie Terminologie<br />

entsteht und eingesetzt wird.<br />

Mögliche Instrumente zur Kommunikation sind z. B.<br />

−−<br />

Schulungen,<br />

−−<br />

Newsletter,<br />

−−<br />

Onlinehilfe zur Datenbank oder Wiki,<br />

−−<br />

Hotline,<br />

−−<br />

regelmäßige Besprechungen.<br />

Nicht vergessen: Selbst wenn von Anfang an alles geregelt und nachvollziehbar<br />

festgelegt wird, ist Sprache dennoch lebendig. Deshalb ist<br />

ein wichtiger Prozess das Änderungsmanagement. Auch dieser Prozess<br />

muss von Anfang an mit geplant und kommuniziert werden.<br />

Neben den inhaltlichen Fragen stehen die technischen Fragen. Mit<br />

welchen Werkzeugen kann Terminologie verwaltet und verteilt werden?<br />

Wie wird die optimale Verwendung sichergestellt? Welche Datenbankstrukturen<br />

und Textprüftools sind notwendig? Wie könnte eine Minimallösung<br />

aussehen?<br />

Wenn alle Aspekte frühzeitig betrachtet und geklärt sind, wird Terminologie<br />

erfolgreich erstellt und genutzt. Unliebsame Änderungen und<br />

kräftezehrende Diskussionen werden auf das Notwendigste reduziert.<br />

für Rückfragen:<br />

christine.schmacht@cognitas.de<br />

ilka.kurfess@cognitas.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

483


User Assistance


User Assistance<br />

UA 1<br />

Fachvortrag<br />

Soziale Funktionen zu verträglichen Kosten<br />

Marc Achtelig, indoition engineering, Zirndorf<br />

Immer mehr Hersteller von Redaktionssystemen bieten Funktionen für<br />

die Anbindung von „User Generated Content“ an – teils zu erheblichen<br />

Aufpreisen. Eine Web-basierte Online-Hilfe mit Social-Media-Funktionen<br />

aufzuwerten, ist jedoch auch ohne aufpreispflichtige Zusatzpakete<br />

möglich. Zahlreiche frei erhältliche Lösungen bieten genau dasselbe:<br />

Bewertungsfunktionen, Kommentarfunktionen, Wikis.<br />

Zur Integration einer solchen Lösung brauchen Sie kein Spezialistenwissen.<br />

Ganze Seiten einbinden<br />

Inhalte innerhalb eines<br />

Topics einbinden<br />

Szenarien<br />

Zur Verknüpfung einer Online-Hilfe mit Social-Media-Funktionen gibt<br />

es unterschiedliche Ansatzpunkte. Je enger die Verzahnung, desto komplexer<br />

wird es sowohl organisatorisch als auch technisch.<br />

Die einfachste Form besteht darin, eine komplette Seite über das Inhaltsverzeichnis<br />

einzubinden. Statt auf ein internes Topic aus der Online-Hilfe<br />

verweist der Eintrag auf eine externe Seite, die dann jedoch<br />

innerhalb des Hilfefensters angezeigt wird.<br />

Anwendungsbeispiele:<br />

––<br />

Integration eines Forums<br />

––<br />

Integration der eigenen Präsenz in einem sozialen Netzwerk<br />

––<br />

Integration bestimmter Inhalte und Funktionen der eigenen Unternehmens-Website<br />

(z. B. Shop für Zubehör)<br />

Komplexere Verknüpfungen bestehen darin, externe Inhalte gezielt an<br />

bestimmten Stellen innerhalb eines Hilfe-Topics einzubinden.<br />

Anwendungsbeispiele:<br />

––<br />

Bewertungsfunktion<br />

––<br />

Kommentarfunktion<br />

––<br />

Notizfunktion<br />

––<br />

durch Benutzer editierbare Inhalte (Wiki-Funktion)<br />

Organisatorische Voraussetzungen<br />

Nicht alles, was technisch möglich ist, ist auch sinnvoll.<br />

Die wichtigsten Vorteile sind:<br />

––<br />

Benutzer fühlen sich ernst genommen und an der Entwicklung des<br />

Produkts beteiligt. Das fördert die Kundenbindung.<br />

––<br />

Als Hersteller erhalten Sie unmittelbares Feedback über Schwachpunkte<br />

an Produkt und Dokumentation.<br />

––<br />

Benutzer erhalten ergänzende Hilfestellungen, wo diese in der Dokumentation<br />

fehlen.<br />

––<br />

Sie sparen oder erleichtern sich redaktionelle Arbeit („User Generated<br />

Content“)<br />

Die wichtigsten Nachteile sind:<br />

––<br />

Die beigetragenen Informationen können falsch, unvollständig oder<br />

„politisch unerwünscht“ sein.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

487


User Assistance<br />

––<br />

Die beigetragenen Informationen können schlecht verständlich sein.<br />

––<br />

Wenn Sie eine Bewertungsfunktion einbinden und die Bewertungen<br />

negativ ausfallen, schwindet die Glaubwürdigkeit Ihres Dokuments.<br />

Ob Sie tatsächlich eine Kommentarfunktion integrieren sollten, muss<br />

also gut überlegt sein. Vielleicht eignen sich dafür auch nur einzelne<br />

Teile der Dokumentation oder nur besondere Topics. In jedem Falle<br />

benötigen Sie eine ausreichend große Anzahl an Benutzern, die bereit<br />

sind, aktiv Inhalte beizutragen. Nur selten sind dies mehr als 1 Prozent<br />

aller Nutzer. Am Anfang müssen Sie eventuell selbst aktiv werden, um<br />

eine Diskussion anzustoßen. Auch sollten Sie schon im Vorfeld sicherstellen,<br />

dass eine Person Ihres Unternehmens später eine konstante<br />

Kontrolle und Moderation der Inhalte übernimmt.<br />

Internetverbindung<br />

und Webserver<br />

HTML-Snippets<br />

Hosted Services<br />

(Comment Provider)<br />

Technische Voraussetzungen<br />

Die Hilfe muss auf einem Webserver liegen. Benutzer brauchen zwingend<br />

einen Internetzugang auf dem Computer, auf dem die Hilfe angezeigt<br />

wird.<br />

Um Inhalte innerhalb eines Topics einbinden zu können, brauchen Sie<br />

Zugriff auf den generierten HTML-Code. Ideal ist es, wenn Sie die Topic-Templates<br />

direkt editieren können, in den meisten Fällen reicht es<br />

jedoch, wenn Ihr Help-Authoring-Tool das Einfügen von HTML-Snippets<br />

unterstützt. Nahezu alle aktuellen Help-Authoring-Tools erfüllen<br />

diese Voraussetzung, selbst die Tools aus dem unteren Preissegment.<br />

Eine Alternative besteht darin, mit Hilfe eines leistungsfähigen<br />

Search-and-Replace-Tools den erzeugten HTML-Code nachträglich<br />

anzupassen.<br />

Lösung 1: Integration einer Kommentar- und Bewertungsfunktion<br />

Abgesehen von der direkt in das Help Authoring Tool integrierten Unterstützung<br />

ist die einfachste Möglichkeit, Community Features in eine<br />

Web-basierte Online-Hilfe zu integrieren, dafür einen (oft kostenlosen)<br />

externen Provider zu nutzen.<br />

Vorteile:<br />

––<br />

Meist JavaScript-basiert. Online-Hilfe bleibt reines HTML.<br />

––<br />

Kein eigener Server mit PHP-Unterstützung und keine eigene SQL-<br />

Datenbank erforderlich.<br />

––<br />

Minimaler Konfigurations- und Wartungsaufwand.<br />

––<br />

Großes Funktionsspektrum (teilweise kostenpflichtig)<br />

Nachteile:<br />

––<br />

Abhängigkeit von der Verfügbarkeit des jeweiligen Dienstes.<br />

––<br />

Daten liegen nicht auf dem eigenen Server.<br />

––<br />

Von manchen Benutzern evtl. als semiprofessionell empfunden, wenn<br />

externer Service genutzt wird.<br />

Bei Ihrer Anmeldung erhalten Sie vom Provider ein fertiges JavaScript,<br />

das Sie an der Stelle in Ihr Topic-Template oder Ihre Topics einfügen<br />

müssen, an der die Kommentare erscheinen sollen. Wenn Sie jetzt die<br />

Hilfe generieren, ist die Kommentar-Funktion bereits fertig integriert.<br />

Die Verwaltung der Kommentare erledigen Sie über den Online-Zugang<br />

beim Provider.<br />

488<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

Auf dem eigenen<br />

Webserver installierte<br />

Lösungen<br />

Schritt 1: Datenbank<br />

anlegen<br />

Schritt 2: Skript<br />

installieren<br />

Schritt 3: Code-<br />

Snippets integrieren<br />

Die bekanntesten und zumindest in der Basisversion kostenlosen<br />

Dienste sind:<br />

––<br />

DISQUS (http://www.disqus.com)<br />

––<br />

IntenseDebate (http://intensedebate.com)<br />

Am flexibelsten bleiben Sie, wenn Sie eine Lösung auf Ihrem eigenen<br />

Webserver installieren. Hierzu gibt es sowohl kommerzielle PHP-Skripte<br />

als auch gute Open-Source-Systeme.<br />

Im Folgenden zeigen wir Ihnen die Integration am Beispiel des Open-<br />

Source-Systems Commentics (http://www.commentics.org). Die Installation<br />

und Anbindung ist auch dann eine gut zu bewerkstelligende<br />

Aufgabe, wenn Sie bisher noch keine Erfahrung mit einer Installation<br />

auf einem Web-Server haben.<br />

Für die Installation benötigen Sie einen Web-Server mit PHP und SQL<br />

sowie einen FTP-Zugang zu diesem Server.<br />

Im ersten Schritt müssen Sie auf Ihrem Server eine SQL-Datenbank<br />

anlegen. Über die Administrationsoberfläche Ihres Providers geht das<br />

meist per Knopfdruck. Notieren Sie sich den Namen der Datenbank,<br />

den Benutzernamen, das Passwort sowie den Hostnamen.<br />

Laden Sie sich das zu nutzende Kommentar-Skript herunter (zum Beispiel<br />

„Commentics“) und entpacken Sie es in ein Verzeichnis auf Ihrer<br />

lokalen Festplatte.<br />

In einer der Skript-Dateien müssen Sie nun die zuvor notierten Details<br />

zu Ihrer Datenbank eintragen.<br />

Anschließend laden Sie das komplette Skript per FTP auf Ihren Webserver<br />

hoch und rufen ein mitgeliefertes Installationsskript auf, das<br />

Schritt für Schritt noch einige Angaben von Ihnen erfragt, zum Beispiel<br />

den gewünschten Benutzernamen und das Passwort für das Backend<br />

zur Verwaltung der Kommentare. Abschließend legt das Install-Skript<br />

alle benötigten Felder in der Datenbank an.<br />

Zur Integration in Ihre Online-Hilfe fügen Sie in Ihr Topic-Template<br />

einige vorgefertigte, mitgelieferte Snippets mit HTML- und PHP-Code<br />

ein.<br />

Abb. 1: In das Topic-Template eingefügte Code Snippets (hier: Code Snippets<br />

für Commentics, eingefügt in Help & Manual)<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

489


User Assistance<br />

Schritt 4: Online-Hilfe<br />

auf Server laden<br />

Beim Generieren Ihrer Hilfe müssen Sie ab jetzt darauf achten, dass die<br />

Topics nicht als *.htm oder *.html Dateien angelegt werden, sondern<br />

als *.php Dateien. Bei den meisten Help-Authoring-Tools gibt es hierzu<br />

eine entsprechende Vorgabe in den Exporteinstellungen.<br />

Sollte Ihr Help Authoring Tool keine PHP-Ausgabe anbieten, können<br />

Sie die HTML-Dateien auch selbst umbenennen. Verwenden Sie dazu<br />

am besten ein geeignetes Search-Replace-Tool, denn Sie müssen nicht<br />

nur die Dateinamen ändern, sondern auch innerhalb der Dateien alle<br />

Links und sonstigen Referenzen entsprechend anpassen.<br />

Da Ihre Online-Hilfe jetzt im PHP-Format vorliegt, ist sie jetzt nur noch<br />

auf einem Server mit PHP-Unterstützung aufrufbar. Kopieren Sie alle<br />

zur Hilfe gehörenden Daten per FTP auf Ihren Webserver. Wenn Sie<br />

jetzt die Hilfe aufrufen, steht in jedem Topic ein Kommentarfeld zur<br />

Verfügung.<br />

Abb. 2: Topic mit Kommentaren (hier: umgesetzt mit Commentics ohne<br />

Anpassung des mitgeliefertes Stylesheets)<br />

Wenn alles wie gewünscht funktioniert, können Sie abschließend noch<br />

das Design der Kommentare an das Design Ihrer Online-Hilfe anpassen.<br />

Dazu bearbeiten Sie die verlinkte CSS-Datei und nehmen entsprechende<br />

Einstellungen im Backend vor.<br />

Lösung 2: Kombination aus Online-Hilfe und Wiki<br />

Ein weiterer Lösungsansatz besteht darin, einen Teil jedes Topics editierbar<br />

zu machen, so dass Benutzer eigene Notizen hinzufügen und die<br />

Inhalte bearbeiten können. Zu diesem Zweck lesen Sie mit Hilfe einiger<br />

PHP-Befehle zur Laufzeit eine bestimmte Seite eines Wikis (z. B. Doku-<br />

Wiki) aus und fügen diese dynamisch in ein Hilfe-Topic ein.<br />

Hierzu benötigen Sie für das Wiki ein Template oder Theme, das dafür<br />

sorgt, dass das Wiki ausschließlich den Inhalt einer Seite anzeigt,<br />

und dies in der einfachsten Art und Weise (nur eine Textspalte variabler<br />

Breite, keine Rahmen, keine Kopfzeile, keine Fußzeile, keine<br />

490<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

Navigationselemente mit Ausnahme der Funktionen zum Bearbeiten<br />

einer Seite).<br />

In den Head-Abschnitt jedes Ihrer Hilfe-Topics müssen Sie in PHP-<br />

Script einfügen, das den Inhalt des Head-Abschnitts aus der Wiki-Seite<br />

importiert:<br />

<br />

Ein analogs PHP-Script benötigen Sie für den Body-Abschnitt der Seite:<br />

<br />

Im Vortrag sehen Sie eine konkrete Umsetzung mit DokuWiki. Eine<br />

Demo hierzu finden Sie außerdem auch unter nachfolgender URL.<br />

Wählen Sie in der Demo den Menüpunkt „Adding your own notes“:<br />

http://www.indoition.com/de/products/copy-and-paste-kit-showdemodeutsch.htm<br />

für Rückfragen: ma@indoition.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

491


User Assistance<br />

UA 2<br />

Fachvortrag<br />

Wie nutzen die Kunden unsere<br />

Dokumentation? Interviewmethoden<br />

und Anwendungsfälle<br />

Romana Oehmig und Tanja Bader, SAP AG, Walldorf<br />

Design Thinking<br />

In den vergangenen Jahren hat Design Thinking nicht nur bei der SAP<br />

an Bedeutung gewonnen. Bei Design Thinking handelt es sich um eine<br />

ganzheitliche Innovationsmethode, bei der Mensch, Technik und Wirtschaftlichkeit<br />

gleichermaßen in Betracht gezogen werden. Design Thinking<br />

setzt an den Bedürfnissen und Interessen der Anwender, unserer<br />

Kunden, an. Basierend auf diesem tiefgreifenden Verständnis für die<br />

Anwender und ihr Umfeld werden im Team Lösungs- und Produktideen<br />

entwickelt, mit den Benutzern getestet, verworfen, neu entwickelt,<br />

auf ihre technische Umsetzbarkeit und Wirtschaftlichkeit geprüft, um<br />

am Ende zu einer Lösung, zu einem Produkt oder zu einer Strategie<br />

zu gelangen, die attraktiv für den Anwender, technisch ausgereift und<br />

wirtschaftlich ist.<br />

Zu Beginn erfolgt eine ausgiebige „Feldforschung“, um die Attraktivität<br />

und die Alltagstauglichkeit einer Lösungsidee für die Anwender sicherzustellen.<br />

Nach dem Grundprinzip Fail early and often werden im Laufe<br />

des Prozesses häufig wiederkehrend Prototypen mit wenig Aufwand<br />

erstellt und mit der Zielgruppe getestet. Dies soll verhindern, dass viel<br />

Aufwand in eine Lösung investiert wird, die an den Bedürfnissen der<br />

Kunden vorbeigeht. Ein Team aus verschiedenen Experten mit Raum<br />

zum Entwickeln kreativer Lösungen spielt bei Design Thinking ebenso<br />

eine Rolle wie das Prinzip, in einer vorgegebenen Zeit jeweils eine definierte<br />

Aufgabe zu lösen (Time Boxing).<br />

Wie die Referentinnen zeigen werden, eignet sich Design Thinking<br />

nicht nur zur Produkt- und Softwareentwicklung, sondern kann auch<br />

hervorragend für die Erstellung und Publikation der Produkt- und Softwaredokumentation<br />

verwendet werden.<br />

Die Ausgangsfrage<br />

Während eines Projektes zum Thema Wissensarchitektur mit dem<br />

Schwerpunkt Dokumentation kam die Frage auf, wie die Kunden unsere<br />

Dokumentation eigentlich nutzen und welche Erwartungen sie an<br />

eine Produktdokumentation haben. Die Anwender, die wir ursprünglich<br />

für unsere Untersuchung im Blick hatten, waren Kunden oder Berater,<br />

die sich mit Hilfe der Dokumentation auf den neuesten technischen<br />

Stand bringen, die mit Hilfe der Dokumentation ihr Wissen über bestimmte<br />

technische Sachverhalte erweitern. Beide Gruppen nutzen<br />

neben der Dokumentation auch Wissensportale, in denen sie weiterführende<br />

Informationen finden, wie Anleitungen (How-To-Guides) oder<br />

Implementierungsbeispiele.<br />

Ziemlich schnell fanden wir heraus, dass Kunden und Partner sehr<br />

häufig auf unser Hilfeportal zugreifen, wir aber relativ wenig darüber<br />

wussten, wie sie es benutzen. Um die Arbeitsweise der verschiedenen<br />

Nutzergruppen genauer kennenzulernen, wendeten wir die<br />

492<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

Design-Thinking-Methode in Ausschnitten an. Wir führten Tiefeninterviews<br />

am Arbeitsplatz unserer Nutzer durch, um sie über die Nutzung<br />

der Dokumentation zu befragen und sie gleichzeitig bei deren Verwendung<br />

zu beobachten. Ein Design-Thinking-Coach führte das Team, das<br />

die Kundeninterviews durchführte, in die Methode ein und begleitete es<br />

während des gesamten Prozesses.<br />

Die Kundeninterviews<br />

Im Vorfeld der Interviews wurde genau definiert, welche Benutzerrollen<br />

Informationen wie die Dokumentation aktiv nutzen: Entwickler,<br />

Administratoren, Architekten, Entwicklungsberater, Technische Berater,<br />

Anwendungsberater und Businessberater. Vorbereitend wurde ein Interviewleitfaden<br />

erstellt und die Interviewteilnehmer wurden geschult,<br />

offene Fragen zu stellen, Beobachtungen im Arbeitsumfeld einfließen<br />

zu lassen und die Anwender ihre Geschichte erzählen zu lassen, um<br />

den Arbeitsalltag des Anwenders kennenzulernen. Ein Großteil der<br />

40 Kundeninterviews wurde bei den Kundenunternehmen vor Ort<br />

durchgeführt. Dabei befragte ein Interviewer jeweils einen Anwender<br />

direkt am Arbeitsplatz, während ein Protokollant Fragen und Antworten<br />

notierte. Die Interviewer ließen sich konkret zeigen, wie die Kunden die<br />

SAP Informationsportale nutzen, und konnten so auch Fragen aufgrund<br />

des Arbeitsumfelds stellen. Dabei stellte sich zum Beispiel heraus, dass<br />

sehr viele Kunden die Dokumentation kopieren, um diese lokal, d. h.<br />

ohne Internetverbindung, weiterzuverwenden, oder diese ausdrucken<br />

und teilweise mit Notizen verstehen.<br />

Synthesisworkshop<br />

Nach den Interviews wurde ein Synthesisworkshop durchgeführt. Dabei<br />

wurden die einzelnen Interviews ohne Wertung noch einmal wiedergegeben<br />

(Storytelling), wichtige Erkenntnisse auf Post-its notiert, an die<br />

Wand geheftet und später zu Gruppen zusammengefasst (Visualisierung).<br />

Es war sehr beeindruckend zu sehen, dass Technologieberater<br />

weltweit eine ähnliche Arbeitsweise haben. Sie nutzen das Hilfeportal<br />

auf vergleichbare Weise und benennen ähnliche Schwachstellen. Durch<br />

die Gruppierung wurden die wesentlichen Schwierigkeiten für die Anwender<br />

des Informationsangebots sofort deutlich. Das Ergebnis des<br />

Synthesisworkshops war die Erstellung von Personas, wie z. B. „Entwickler“<br />

oder „Administrator“. Diese Personas beschreiben die entsprechenden<br />

Anwendercharakteristika, Arbeitsverhalten, Ziele und Motivation<br />

sowie die zeitintensivsten Tätigkeiten und die damit verbundenen<br />

Bedingungen. Der besondere Wert dieser Personas besteht darin, dass<br />

sie seit ihrer Erstellung für mehrere dokumentationsrelevante Projekte<br />

verwendet wurden und werden.<br />

Umsetzung<br />

Durch die Personas war es möglich, das Anwenderverhalten im Hilfeportal<br />

so detailliert zu beschreiben, dass darauf basierend anwenderfreundlichere<br />

Lösungen entwickelt werden konnten, von denen zwei<br />

hier beispielhaft vorgestellt werden.<br />

Im ersten Beispiel haben wir das Hilfeportal so umgestaltet, dass sich<br />

Anwender leichter zurechtfinden können, nachdem wir durch Interviews<br />

und Beobachtung von Anwendern festgestellt hatten, dass diese<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

493


User Assistance<br />

häufig über Google zu der gesuchten Dokumentation im Hilfeportal<br />

gelangten, dort jedoch zu wenig Zusatzinformation (welches Produkt,<br />

welche Produktversion) erhielten.<br />

Im zweiten Beispiel erweiterten wir die Möglichkeit, Dokumentation<br />

direkt aus dem Hilfeportal zu drucken, nachdem wir bei vielen Anwendern<br />

ausgedruckte oder heruntergeladene Versionen der Dokumentation<br />

und auch anderer Informationsquellen sahen, die teilweise mühsam<br />

durch das Kopieren von Text erstellt und anschließend verändert und<br />

erweitert wurden.<br />

Sobald wir einen Handlungsbedarf aus Anwendersicht identifizieren<br />

konnten, erstellten wir einen sogenannten Use Case zur Beschreibung<br />

von Soll- und Istzustand. Danach wurde eine Kosten-Nutzen-Analyse<br />

durchgeführt, bevor es an die technische Umsetzung ging. Diese erfolgte<br />

in kleinen Teilschritten, um permanent das Feedback der Anwender,<br />

zum Beispiel durch Usability Tests, einzuholen und so Schwachpunkte<br />

in der Umsetzung zu erkennen und entsprechend zu reagieren.<br />

Fazit<br />

Design Thinking ist eine Herangehensweise, die sehr gut auf die Bereitstellung<br />

von Dokumentation anwendbar ist. Das durchweg positive<br />

Kundenfeedback zu den bisher umgesetzten Lösungen bestätigt<br />

dies eindrucksvoll. Neben zufriedenen Kunden erhielten wir auch von<br />

den beteiligten Autoren eine positive Rückmeldung. Als freiwillige Interviewer<br />

erlebten sie das direkte Feedback der Kunden als überaus<br />

motivierend.<br />

für Rückfragen:<br />

romana.oehmig@sap.com<br />

tanja.bader@sap.com<br />

494<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 3<br />

Partnerpräsentation<br />

Fahrzeugspezifische Serviceinformationen<br />

zur Optimierung des After-Sales<br />

Hansjörg Kögel, ServiceXpert GmbH, München<br />

Age Knossen, DAF Trucks N.V., Eindhoven<br />

Das modulare Serviceinformationssystem Rapido der Firma DAF Trucks<br />

N.V (DAF) wurde von der ServiceXpert GmbH realisiert und ist das<br />

zentrale, weltweit eingesetzte System in den DAF-Werkstätten für fahrzeugspezifische<br />

Serviceinformationen zur Durchführung von Reparatur-<br />

und Wartungsaufträgen.<br />

Ausgangssituation, Motivation und Ziele<br />

Die Komplexität von Fahrzeugen nimmt durch steigenden Elektronikanteil<br />

und zahlreiche Innovationen stetig zu. Dies und die kundengetriebene<br />

Varianten- und Versionsvielfalt – bedingt durch die Fertigung<br />

nach Kundenauftrag – untermauern darüber hinaus die Notwendigkeit,<br />

auch Reparatur- und Serviceprozesse zu optimieren.<br />

Nutzfahrzeughersteller wie DAF tragen diesen Rahmenbedingungen<br />

durch effiziente After-Sales-Systeme Rechnung. Schnelle, zuverlässige<br />

Reparatur- und Serviceprozesse – unterstützt durch innovative After-<br />

Sales-Informationsportale – verkürzen die Standzeiten der Fahrzeuge,<br />

führen zu einer hohen Verfügbarkeit der Fahrzeuge und tragen somit<br />

maßgeblich zur Zufriedenheit der Kunden bei.<br />

Um den Servicetechniker optimal bei seinen Arbeiten in der Werkstatt<br />

oder beim Service vor Ort zu unterstützen, stellen webbasierte After-<br />

Sales-Informationsportale neben umfassenden Informationen zu Arbeitswerten,<br />

Teilen und Werkzeugen auch Diagnosesysteme, technische<br />

Dokumentation und zunehmend auch Schaltplaninformationen zur<br />

Verfügung.<br />

Mit dem neuesten Release wurde ServiceRapido um eine innovative<br />

Funktion erweitert: der Diagram Viewer ermöglicht es, dem für Service<br />

verantwortlichen Personal elektrische Schaltpläne interaktiv und fahrzeugspezifisch<br />

anzuzeigen. Die Integration des Diagram Viewer in die<br />

dem Servicetechniker bekannten Rapido-Oberflächen unterstützt eine<br />

intuitive Anwendung.<br />

Lösung Technische Redaktion<br />

Für die Entwicklung des Diagram Viewer wurde eine Publikationsdatenbank<br />

aufgesetzt, die eine fahrzeugspezifische Datenselektion ermöglicht.<br />

Diese Datenbank greift direkt auf CAD-Entwicklungsdaten<br />

in Form von skalierbaren Vektor-Grafiken (SVG) zu. Diese SVG-Daten<br />

werden mit entsprechenden Metadaten gekoppelt. Des Weiteren fließen<br />

in diese Publikationsdatenbank fahrzeugspezifische Schaltplanrelevante<br />

Informationen, sogenannte Component & Wire Files, ein. Der<br />

Zugriff auf die gesamten Daten gewährleistet damit eine konsistente,<br />

strukturierte und tagesaktuelle Datenbasis. Die Nutzung der CAD-Daten<br />

ohne Medienbruch, d. h. ohne aufwendige Formatänderungen und<br />

Neuerstellung bis in den Service ist das Ergebnis eines abgestimmten<br />

Prozesses zwischen der Elektrik-/Elektronik-Serienentwicklung und<br />

dem After-Sales, den DAF gemeinsam mit ServiceXpert realisieren und<br />

optimieren konnte.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

495


User Assistance<br />

Systemfunktionen<br />

Eine weitere Verbesserung wurde in der Optimierung der Suchoptionen<br />

innerhalb der Schaltpläne erreicht. Eine Möglichkeit ist die<br />

fahrzeugspezifische Suche, bei der dem Servicepersonal unmittelbar<br />

die fahrzeugrelevanten elektrischen Schaltpläne anzeigt werden, das<br />

heißt nur diese, die in dem zu wartenden oder reparierenden Fahrzeug<br />

verbaut sind. Des Weiteren kann der Servicetechniker nun innerhalb<br />

der Suchanfrage im Diagram Viewer beispielsweise gezielt nach einer<br />

Komponente, einer Kabelnummer, einer Komponentenbeschreibung,<br />

einem System oder einer Steckerverbindung und vielen weiteren Details<br />

suchen.<br />

Das Suchergebnis wird direkt im angezeigten elektrischen Schaltplan<br />

farblich hervorgehoben, so dass der Techniker die korrespondierenden<br />

Kabel und Schaltungen auf einen Blick sehen kann. Nach Anzeige des<br />

Suchergebnisses stehen dem Nutzer verschiedene Zusatzfunktionalitäten<br />

zur Verfügung:<br />

Zoom, Navigationsfenster und Vollbild:<br />

Der Anwender kann über eine interaktive Zoom In-/Out-Funktion die<br />

Ansicht des elektrischen Schaltplans verändern. So können zum einen<br />

Details, zum anderen große Zusammenhänge im elektrischen Verbauungsplan<br />

angezeigt werden. Über ein zuschaltbares Navigationsfenster<br />

kann der Servicetechniker ebenfalls die Ansicht innerhalb der Zoomfunktion<br />

über den gesamten Schaltplan bewegen. Über die Vollbildanzeige<br />

wird jegliche Zusatzinformation ausgeblendet und der Fokus auf<br />

die Schaltplananzeige gelegt.<br />

Fahrzeugspezifische Anzeige:<br />

Eine innovative Funktionalität ist das Ausblenden der nicht fahrzeugspezifischen<br />

Schaltplaninformationen. Zeitaufwendige Orientierung<br />

in detailüberladenen Schaltplänen gehören für DAF Serviceteams<br />

nun der Vergangenheit an. Der Techniker wird tagesaktuell mit den<br />

Schaltplaninformationen versorgt, die zu seinem aktuellen Reparaturund<br />

Wartungsauftrag benötigt werden. Seine Arbeit wird damit erheblich<br />

erleichtert und die Standzeit des Fahrzeugs verkürzt.<br />

Detail- und Zusatzinformation:<br />

Mit den angezeigten Schaltplänen werden darüber hinaus hilfreiche<br />

technische Zusatzinformationen geliefert, die für Diagnose- und Reparaturarbeiten<br />

nützlich sind. Dies können Informationen zum Verbauungsort<br />

oder technische Details und Beschreibungen des Bauteils, das<br />

ausgewählt wurde, sein.<br />

Resümee<br />

Rapido ist in der DAF Kundendienst-Organisation nicht nur der Name<br />

für ein integriertes Serviceinformationssystem, sondern steht für die<br />

Etablierung eines koordinierten und effizienten Prozesses zur Erstellung<br />

und Publikation von fahrzeugspezifischen Serviceinformationen. Mit der<br />

Realisierung des Diagram Viewer hat DAF einen großen Schritt bei der<br />

kontinuierlichen Optimierung des After-Sales-Systems Rapido gemacht.<br />

für Rückfragen: hansjoerg.koegel@servicexpert.de<br />

496<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 4<br />

Presentation<br />

Addicted to Meaning: How Good Technical<br />

Communication is Like Bad Magic Tricks<br />

Kai Weber, SimCorp GmbH, Frankfurt<br />

Being meaningful is an essential, but elusive feature of good technical<br />

communication. This paper draws on the theories of semiotics and mental<br />

models to examine how meaning works in technical communication,<br />

why it sometimes fails and how you can improve its chance for success.<br />

Being meaningful in technical communication is just as essential as being<br />

correct and clear, concise or consistent: Understanding how and why<br />

communication is meaningful can help you to make your documentation<br />

more effective and to make your product more useful.<br />

What is meaning?<br />

Information theory posits a hierarchy of information which proceeds<br />

from data at the bottom via information and knowledge to wisdom at the<br />

top (Weinberger 1–5). For example, data is the sheer fact that the Microsoft<br />

Office 2007 software has an “Office button” icon in the upper left<br />

corner. The information that this icon gives you access to functions such<br />

as opening, saving, and printing a file helps you with generic functions.<br />

The knowledge that this functionality has replaced the habitually used<br />

File menu adds meaning and supports your active experience.<br />

So meaning occurs at the knowledge stage in this hierarchy when you<br />

make sense of data and information, when you “connect the dots” into<br />

something that you can apply purposefully. Meaning gives answers to<br />

questions such as “So what?”, “What does this mean for me, in my situation?”<br />

and “Why should I care?” (Cortada 4).<br />

Why should technical communicators care?<br />

Technical communicators should care about meaning, because we are<br />

in the business of creating meaning and transmitting it to users. We can<br />

provide all the data and information we want, if it is not meaningful<br />

to customers, it is wasted and dead. Any time documentation fails, it is<br />

either because meaning has not been created or not been transmitted<br />

successfully. Documentation that merely informs the user “To print a<br />

file, click the Print button” does not support the user in any active experience.<br />

It does not create any meaning if it omits the context, such as<br />

the task the user may be engaged in, the prerequisites and the expected<br />

results of the user’s action.<br />

How does meaning get transmitted in communication?<br />

The Mathematical Theory of Communications by Shannon and Weaver<br />

of 1949 explains communication as the transmission of messages that<br />

are broken up into small signals (see Fiske, ch. 1). A sender (a technical<br />

communicator) uses media (HTML files) via channels (the internet) to<br />

transmit messages to receivers (users). This model aims to show what<br />

keeps communication efficient and accurate.<br />

This technical model is clear, linear, and easy to understand. However,<br />

communication doesn’t really work this way beyond the very technical<br />

levels of a telephone cable, a radio wave, or a TCP/IP network. It’s only<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

497


User Assistance<br />

in the brain where “information is born – it’s not in the beeps” (Heinz<br />

von Foerster, qtd. in Gleick 417). In fact, as Shannon admitted, the question<br />

of meaning is “irrelevant to the engineering problem” of communication<br />

that his theory explains (Gleick 416).<br />

Semiotics is a second theory of communication (see Fiske, ch. 4). It explains<br />

communication as the production of meaning between people<br />

who exchange messages in cultural contexts. The aim of this theory is<br />

to ensure that communication is meaningful for the reader. Note that<br />

the reader is not a passive recipient of the message, as in Shannon and<br />

Weaver’s model, but a participant who is equally active as the author of<br />

the message.<br />

When creating messages, we use different types of signs, such as words<br />

and images, which have different ways to represent and refer to objects<br />

in the world around us. Words in semiotic terms are symbols. They<br />

refer to things by sheer convention, but the word “chair” neither looks<br />

nor sounds like a chair. Images, such as photographs and maps, in semiotic<br />

terms are icons. They represent things by similarity. Photos are<br />

usually pretty close two-dimensional representations, while maps are<br />

more abstract and often use abstractions and words to refer to things. To<br />

combine such signs into messages, we apply codes, such as dialect and<br />

jargon. Codes are systems of rules which most participants share, more<br />

or less. So codes form a social practice of communication conventions<br />

that apply in specific cultural context.<br />

In this semiotic model, readers (not writers!) construct the meaning of<br />

a message. That is not to say that the meaning is whatever the reader<br />

wants. Rather, the meaning is how the reader interprets the signs according<br />

to the code convention. For example, a user will – more or less<br />

– assume that a user manual contains photos or schematic images that<br />

represent the layout of the product, not an ideological statement, and try<br />

to create meaning accordingly.<br />

The advantage of semiotics over the earlier model for my purpose is<br />

that semiotics focuses on exchanging meaning between people. Because<br />

communicating meaning is more ambiguous than ensuring the<br />

technical accuracy of communication, semiotics is more complex than<br />

Shannon and Weaver’s theory, due to all the moving parts: Signs, such as<br />

words or even images, can lend themselves to creating different meanings<br />

at different times or for different groups of readers. (Think of ideologically,<br />

religiously, or politically charged words or images.) Codes can<br />

make you feel a member of the group, like your own regional dialect, or<br />

they can exclude you, like academic jargon. Whether you feel included<br />

or excluded colors your understanding of the message and the meaning<br />

you take from it.<br />

However, technical communication suffers less from these shifts and<br />

ambiguities, because a lot of our signs and codes are restricted and<br />

well-defined. Or are they?<br />

Why meaning in technical communication is easy and still fails<br />

Technical communication can avoid many of the semiotic pitfalls because<br />

it applies a “narrowcast code” (Fiske 76–77). A narrowcast code<br />

addresses a limited, more or less homogenous audience that shares<br />

cultural background and experiences and has a general willingness to<br />

498<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

learn the applied code of descriptions and instructions such as a user<br />

manual contains it. (Compare this with the opposite, the broadcast<br />

code, which addresses a wide and diverse audience, sometimes called<br />

the “masses”, with messages of the lowest common denominator that<br />

seek to affirm knowledge and prejudices rather than instruct and teach<br />

something new.)<br />

All the restrictions of a narrowcast code benefit technical communication:<br />

The audience of a software manual shares a common background<br />

of computer savvy. The manual can presuppose a certain vocabulary or<br />

define it in its glossary. The context is confined to the intended tasks of<br />

the software, and the expected outcomes of the tasks are clear.<br />

With all these major restrictions on communication in place, the user’s<br />

path is confined to a tunnel, and all that is left for the manual to do is to<br />

put in some lights and a railing to safely guide the readers through.<br />

If it was that easy, we wouldn’t find meaning in technical communication<br />

so elusive – and we wouldn’t despair to get users to read the fine<br />

manual.<br />

So even semiotics falls short by underestimating the most dynamic part<br />

of the equation: The reader.<br />

My next witness is Heinz von Foerster, who above preferred the brain to<br />

the beeps as the seat of information. His theory of radical constructivism<br />

holds that there is no meaning but the one created by the reader;<br />

meaning derives from the reader’s ability to deduce something useful<br />

from a text (von Foerster 21, 69). This extreme position becomes more<br />

plausible when we consider context as a powerful influence on meaning:<br />

While we build on past experiences and what we have learned from<br />

them, it is ultimately our specific, current situation that drives our understanding<br />

and shapes the meaning we create. In this sense, each situation<br />

is a new beginning (von Foerster 27).<br />

Different experiences with technical communication can illustrate this<br />

point: An advanced topic in a manual about customizing a complex<br />

setup will be incomprehensible and meaningless to a novice user – but<br />

still can be useful to the same user after initial training and some experience.<br />

The primacy of the individual situation also explains why FAQs<br />

(Frequently Asked Questions) frequently do not work: Because they are<br />

not frequently asked by actual users, unless they concern actual, real<br />

situations.<br />

To paraphrase Heinz von Foerster and Fred Dretske, both philosophers<br />

who think about the nature of knowledge: “Beauty is in the eye of the<br />

beholder, and meaning is in the head of the receiver.” (Gleick 417).<br />

How do readers create meaning?<br />

So how do our readers create meaning in their heads? In short: By<br />

bouncing off their “mental models” against the world. A mental model is<br />

a mental representation of the world, of our place in it, and of how stuff<br />

works. To make it efficient and maintainable in our minds, mental models<br />

are semi-consciously selected and incomplete. (Else the information<br />

overload would paralyze us.) Our mental models are limited to what we<br />

think we understand and what we think we can or want to do.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

499


User Assistance<br />

Most of us have a mental model of a restaurant: We understand it’s a<br />

place where we get fed in exchange for money. We can go there, be seated,<br />

be served, eat, pay, and leave. But our mental model is defeated at a<br />

self-service buffet restaurant where we are neither seated nor served.<br />

To prevent this defeat, such restaurants put up signs not required at<br />

more conventional places: “Take tray here” and “Pay here”. These signs<br />

help us to adjust our mental model, along with our range of options to<br />

act and behave. For further adjustment of our mental model, the restaurant<br />

informs us on a leaflet that they can also cater our wedding. Alas,<br />

because each situation is new and adaptations of mental models is often<br />

fleeting, we forget this information soon, because it is not meaningful<br />

for us – and someone else caters our wedding.<br />

Mental models have several strengths: They are flexible and teachable<br />

(as many functions of the brain are). As a result, we can add self-service<br />

buffets to our model of restaurants after we’ve visited one – or even<br />

heard about one from a friend. They are a springboard to meaningful<br />

knowledge by helping us learn. In mental models, we “connect the dots”<br />

and remember successful experiences. What worked yesterday, in a<br />

self-service buffet or with a new product you operate, shapes how you<br />

approach questions and tasks tomorrow. Mental models help us decide<br />

what we try to solve a problem – and also where and how we look for<br />

help.<br />

Mental models are also a major foundation in the fields of humancomputer<br />

interaction and user experience design. Hence we technical<br />

communicators can learn from usability expert Jakob Nielsen’s explanation:<br />

“A mental model is what the user believes about the system at hand”<br />

which “impacts how they use it” (Nielsen, his emphasis).<br />

Note that mental models, and the actions we base upon them, rely on<br />

our belief rather than our knowledge! David Weinberger puts belief and<br />

knowledge into perspective: “Knowledge is a subset of belief. We believe<br />

many things, but only some of them are knowledge.” (Weinberger 43).<br />

Nielsen gives several examples of mixed-up mental models concerning<br />

software which illustrate how our beliefs or mistaken knowledge lead us<br />

to deduce that a software product or website is not working: Some users<br />

confuse operating system windows, such as Microsoft’s File Explorer,<br />

with browser windows in Microsoft’s Internet Explorer and expect both<br />

to copy, move, or delete files identically. Other users confuse icons and<br />

applications – hence the warning that deleting an application icon from<br />

the desktop does not actually remove the application itself. (Of course,<br />

many of these confusions can and should be solved in better user experience<br />

design, but that is not the focus of this paper.)<br />

From Nielsen’s work, technical communicators can learn two relevant<br />

limits of mental models: They are inert, despite all flexibility. “Stuff that<br />

people know well tends to stick, even when it’s not helpful” (Nielsen).<br />

Hence, the Save function still uses a diskette icon which fewer and fewer<br />

people have seen or used. And hence, many technical communicators<br />

are still forced to create deliverables in PDF or CHM, even though superior,<br />

more efficient formats and tools have been available for a long time.<br />

The inertia points to a more fundamental limit and to the real reason<br />

why technical communication so often fails: Mental models are ultimately<br />

uncontrollable!<br />

500<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

With technical communication, we can at best hope to guide users towards<br />

appropriate behavior. This may or may not extend their mental<br />

models, it may or may not anchor a meaningful experience to which<br />

they resort later when they face a similar problem.<br />

This has been a rather bleak turn of events. Given the inertia of uncontrollable<br />

mental models, how do we manage to communicate anything?<br />

Addicted to meaning<br />

The answer lies in a second aspect of meaning itself: Yes, meaning depends<br />

on shifting signs, on contextual codes, and on our erstwhile experiences.<br />

But we are also addicted to meaning in the sense that we desire<br />

and hope for a generally meaningful life. This is the motivational force<br />

behind our questions for meaning: “What does it mean for me?” and<br />

“Why should I care?”<br />

This aspect is easy to recognize in “big” questions for the meaning of<br />

life, but it also permeates small everyday tasks – the kind we address in<br />

technical communication. We want to connect the dots, we want to make<br />

sense, even of the software we use, and it frustrates us to the point of<br />

personal insult when we cannot, because the stupid thing simply won’t<br />

work!<br />

Even in less consequential matters than the correct use of appliances<br />

and software, we go to great lengths to discover meaning in the world<br />

– or to create it as what we believe we know. Misheard lyrics of pop<br />

songs are a harmless, fun example. Jimi Hendrix didn’t seem to make a<br />

lot of sense singing in “Purple Haze”: “Excuse me while I kiss the sky.”<br />

Instead, many people heard: “Excuse me while I kiss this guy.” (Look up<br />

“Mondegreen” on Wikipedia for more fun examples.)<br />

Or consider the first well-known version of the Apple logo, the apple<br />

with a bite in it in horizontal colored stripes (see Konnikova). What<br />

does it mean? It’s Adam and Eve in paradise and their quest for knowledge<br />

manifest! Or no: It’s a reference to Isaac Newton sitting beneath<br />

an apple tree and discovering the law of gravity! Or no: It’s a tribute to<br />

Alan Turing, computer science pioneer, who committed suicide by biting<br />

into a cyanide-laced apple! (Turing was gay, hence the rainbow-colored<br />

stripes).<br />

The point is that one explanation after another is as meaningful as any<br />

urban legend can hope to be – but they are all not the meaning that was<br />

originally intended. The truth is a lot more mundane: The apple is the<br />

company’s namesake. The rainbow denotes color in general, because the<br />

Apple II was the first home computer to display color images. And the<br />

bite was added to indicate scale, so people didn’t confuse the fruit with a<br />

cherry. Or so says Rob Janoff, the logo’s designer (see Creativebits.org).<br />

So we are addicted to meaning. We seek to connect the dots in any plausible<br />

way to come up with a meaning and a solution. But when things<br />

get weird, technical communication often fail to deliver a satisfying answer.<br />

Our formulation of the problem doesn’t match any of the answers<br />

which the manual provides.<br />

Then we turn away from the manual – but our quest for meaning is<br />

not finished yet. We tap other resources: We ask a friend who may not<br />

have the answer, either. But compared to the documentation, a friend is<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

501


User Assistance<br />

much more likely to provide a meaningful experience. One friend may<br />

remember having had a similar problem and who was able to help him.<br />

Another may have discovered a workaround. Someone may ask in return<br />

what we’re working on, anyway – and know that this task has become<br />

obsolete this morning.<br />

The point is that there are many more meaningful scenarios to resolve<br />

a task or conflict than most common documentation offers. And while<br />

we cannot address every possible outcome, we can do better and meet<br />

the users and their mental models halfway by creating more meaningful<br />

documentation.<br />

How can we create more meaningful documentation?<br />

To apply a designer’s tenet by Jakob Nielsen to technical communication,<br />

it is a a key objective for technical communicators to make the<br />

documentation “communicate the system’s basic nature well enough<br />

that users form reasonably accurate (and thus useful) mental models”.<br />

This goal leaves us basically two strategies. We can try to adjust the<br />

users’ mental models which seems the natural choice: Users may or<br />

may not know similar products, but to really learn about this particular<br />

version, they need our specific manual. They should use our manual to<br />

adapt their existing mental models to accommodate our product and its<br />

correct use. But that would leave us back at the reasons why technical<br />

communication still fails…<br />

The better alternative is to adjust the documentation as much as possible<br />

to the users’ existing mental models – which is basically saying:<br />

“Know your audience”, but by now I’ve shown why we need to know<br />

them and how they create meaning.<br />

What does that mean specifically? Applying lessons from user experience<br />

design, we can:<br />

––<br />

Serve the inertia of mental models: Be consistent and conservative in<br />

your writing. Don’t invent new terminology unless absolutely necessary.<br />

Stick to the conventions and habits of your users.<br />

––<br />

Anticipate the users’ roles and tasks in mental models: Frame documentation<br />

in terms of personas and tasks which users can identify<br />

with. In an accounting system, offer navigational paths for personas<br />

such as accountants and auditors and for tasks such as daily accounting<br />

and end-of-year accounting, but menu by menu.<br />

Another area that takes users’ mental models seriously is minimalism:<br />

Minimalist technical communication, as described by Hans van der Meij<br />

and John M. Carroll, means much more than just presenting the bare<br />

necessities. It takes “the need for meaningful activity and sense meaning”<br />

seriously by providing users with “an immediate opportunity to act”<br />

(van der Meij 19) and by relating descriptions and instructions to the<br />

users’ actual tasks. Van der Meij and Carroll offer the following principles<br />

and guidelines, among others, to ensure that documentation meets<br />

users on their turf (see van der Meij 21):<br />

––<br />

Choose an action-oriented approach.<br />

––<br />

Provide an immediate opportunity to act.<br />

––<br />

Respect the integrity of the user’s activity.<br />

502<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

––<br />

Anchor the tool (i.e., the product and its description) in the (user’s)<br />

task domain.<br />

Taking these leads from user experience design and minimalism, we<br />

can offer users dots which are easy and natural to connect and derive<br />

meaning from. And this is how good documentation is like bad magic<br />

tricks: By exposing the potential connections between the dots to users<br />

to demystify products and instructions and to showing them how to get<br />

from A to B – or C, if they want.<br />

Bibliography<br />

Cortada, James W. Information and the Modern Corporation. Cambridge,<br />

MA: MIT Press, 2011.<br />

Creativebits.org. “Interview with Rob Janoff, designer of the Apple logo”.<br />

3 Aug. 2009. Web. 3 Sept. <strong>2012</strong>. <br />

Fiske, John. Introduction to Communication Studies, 2nd ed. New York:<br />

Routledge, 1990.<br />

Gleick, James. The Information: A History, a Theory, a Flood. London:<br />

Fourth Estate, 2011.<br />

Johnson-Laird, Philip N. “Mental Models, Deductive Reasoning, and the<br />

Brain.” The Cognitive Neurosciences. Ed. Michael S. Gazzaniga. Cambridge,<br />

MA: MIT Press, 1995. 999–1008.<br />

Johnson-Laird, Philip N. “The history of mental models.” Psychology of<br />

Reasoning: Theoretical and Historical Perspectives. Ed. K. Manktelow and<br />

M.C. Chung. New York: Psychology Press, 2005. 179–212.<br />

Konnikova, Maria. “Hunters of Myths: Why Our Brains<br />

Love Origins.” 7 Apr. <strong>2012</strong>. Web. 3 Sept. <strong>2012</strong>. < http://blogs.<br />

scientificamerican.com/literally-psyched/<strong>2012</strong>/04/07/<br />

hunters-of-myths-why-our-brains-love-origins/><br />

Nielsen, Jakob. “Mental models”. http://www.useit.com/alertbox/mentalmodels.html<br />

18 October 2010. Accessed 3 September <strong>2012</strong>.<br />

van der Meij, Hans and John M. Carroll. “Principles and Heuristics for<br />

Designing Minimalist Instruction.” Minimalism Beyond the Nurnberg<br />

Funnel. Ed. John M. Carroll. Cambridge, MA: MIT Press, 1998. 19–53.<br />

von Foerster, Heinz. Der Anfang von Himmel und Erde hat keinen Namen.<br />

Berlin: Kadmos, 2008.<br />

Weinberger, David. Too Big to Know. New York: Basic Books, 2011<br />

Winograd, Terry and Fernando Flores. Understanding Computers and<br />

Cognition: A New Foundation for Design. Reading, MA: Addison-Wesley,<br />

1989.<br />

Contact: amelio@web.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

503


User Assistance<br />

UA 5<br />

Presentation<br />

Chaotic Wiki versus Structured Authoring<br />

Ulrike Parson, parson communication, Hamburg<br />

Problems in Company Wikis<br />

Many company wikis are set up with noble intentions, but many of them<br />

get chaotic over time. There are several reasons for this:<br />

––<br />

The content is unstructured.<br />

The core function of a wiki is collaborative authoring. In the best<br />

case, many people contribute to the company wiki. But these people<br />

have different backgrounds and different fields of expertise. That is<br />

why they write in different ways. In the end, every author structures<br />

and formats the information as s/he thinks best instead of keeping<br />

to a common layout. Task-oriented information is not separated from<br />

reference or conceptual information making it hard for the reader to<br />

understand the purpose of an article at first glance.<br />

––<br />

Navigation and access to content is insufficient.<br />

All wiki software products provide features such as categories, tags,<br />

and linking. But defining tags and setting links is solely up to the authors.<br />

What happens? When wikis grow larger over time, it is getting<br />

increasingly difficult to find the right article. Duplicate articles are<br />

created because authors cannot find existing articles.<br />

––<br />

The workflow functions are insufficient.<br />

Writing in a team requires defined workflows. In an unregulated wiki,<br />

every article is visible at once. Workflows are often a matter of negotiation<br />

rather than being enforced by controlled software processes.<br />

This results in wiki pages of highly deviating quality, making it hard<br />

for the users to rely on the content.<br />

Why Should We Use a Wiki and Not DITA?<br />

Technical writing in XML-based information structures, such as DITA,<br />

has solved many of these issues. Structured authoring solutions provide<br />

topic types (e.g. task, concept, reference), mechanisms for organizing<br />

information products in maps, relations between topics, as well as metadata<br />

for workflow status, target audience, product variant, etc. Content<br />

management systems or transformations (as available in the DITA Open<br />

ToolKit) generate well-navigable and searchable output formats. Many<br />

of these functions are not available in standard wiki software.<br />

Function comparison between CMS and wiki<br />

504<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

How can we transport the concepts of structured authoring to a wiki?<br />

Why should we do so? Are wikis made for structured authoring?<br />

Adopting some concepts of structured authoring for collaborative writing<br />

in a wiki may be well suited for companies who wish to organize<br />

their writing processes more strictly and to improve user experience for<br />

wiki readers. A wiki is a good documentation tool especially for those<br />

companies who:<br />

––<br />

Need to document internal software or processes<br />

––<br />

Want to involve subject matter experts and software engineers in<br />

the writing process while keeping documentation structure and style<br />

consistent<br />

––<br />

Want to provide an online documentation and use the commenting or<br />

collaboration functions of a wiki in order to get feedback from their<br />

users<br />

––<br />

Do not want to establish an XML writing environment<br />

Metadata is the key<br />

Using Forms and<br />

Templates<br />

Adding CMS Functionality to a Wiki<br />

There are different approaches for realizing CMS functionality in a<br />

wiki. The approach that you use depends on your requirements and<br />

on your wiki software. This session shows examples from a showcase<br />

implemented in Semantic MediaWiki, an open-source extension to<br />

MediaWiki (http://semantic-mediawiki.org/). For other wiki software,<br />

such as Confluence, you have to use appropriate plugins or extensions,<br />

such as Scroll Versions from k15t (http://www.k15t.com/display/en/<br />

Scroll-Versions).<br />

In a Semantic MediaWiki, you can use metadata to add structure to your<br />

wiki. This metadata provides, for example:<br />

––<br />

Index keywords<br />

––<br />

Information on the target group<br />

––<br />

Workflow information: status, responsible person, priority<br />

––<br />

Region and language of the article<br />

––<br />

Information about the position of the topic in the topic hierarchy<br />

––<br />

Relations to other topics, e.g. from a task topic to the associated reference<br />

information<br />

How to motivate users to keep to a defined topic structure, create DITAsimilar<br />

topic types and assign the correct metadata? The answer is: Use<br />

forms! You may, for example, provide different forms for typical DITA<br />

topic types, such as task, reference, and concept.<br />

Forms ensure that users cannot enter text outside the predefined fields.<br />

The layout is rendered automatically as forms are linked with templates.<br />

Default text within the fields guides the users and tells them which content<br />

to enter in specific fields.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

505


User Assistance<br />

Wiki form for a topic of type “reference”<br />

Extended functions for<br />

evaluating metadata<br />

The forms also assign fixed metadata (such as the topic type) and provide<br />

fields for configurable metadata, such as the target group or the<br />

index keywords. Using a list of predefined index keywords controls<br />

tagging/categorization of wiki articles and provides a controlled way of<br />

finding articles to the users.<br />

Based on the metadata, you can enhance access functions and navigation<br />

in the wiki:<br />

––<br />

Scripts can evaluate the metadata on the position of topics in the<br />

topic hierarchy. They build tables of contents, breadcrumb navigation,<br />

and browse elements. Wiki readers can use these elements to navigate<br />

through the articles belonging to a specific manual, for example.<br />

––<br />

Users can use the index terms to filter the topics. The corresponding<br />

filter pages can be generated by means of the Semantic drilldown<br />

extension, for example.<br />

Filter pages with index terms<br />

506<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

––<br />

Scripts evaluate the metadata information about relations between<br />

topics to automatically generate and update lists of related topics.<br />

––<br />

Scripts evaluate the workflow metadata and generate overviews – todo<br />

lists – for wiki authors and reviewers.<br />

The main point about metadata in a Semantic MediaWiki is that this is<br />

an architectural framework. You can define any metadata that you want<br />

and then you can query for values, filter by properties, use metadata for<br />

searching, for automatically generating contents, etc. What you do with<br />

the metadata in the end, depends on your content and on the user experience<br />

that you want to create.<br />

Is a Structured Wiki a Useful Wiki?<br />

No, not necessarily! There are additional keys for the success of a company<br />

wiki:<br />

––<br />

You need to define the purpose of your wiki – is it for documentation<br />

purposes, for collecting project information, for organizing the work<br />

between teams, for sharing knowledge? If you have a wiki and a second<br />

system that serves the same purpose, you need to close down the<br />

second system. The information for the defined purpose needs to be<br />

stored in one place only.<br />

––<br />

Structure and functions of the wiki need to be customized to the purpose.<br />

Navigation functions, for example, are very useful in documentation<br />

wikis, but not that well suited for organizational wikis.<br />

––<br />

You need people for the different roles that are required to maintain<br />

the wiki – not just to set it up, because this is only a relatively small<br />

portion of a wiki’s life time. The maintenance period is usually much<br />

longer. You need editors, programmers for extensions/plugins, administrators<br />

for backups and installations, and a wiki gardener. A wiki<br />

gardener sows ideas, weeds by correcting typos, merging duplicate<br />

articles, etc. and supports users in harvesting the knowledge from<br />

your wiki.<br />

––<br />

And of course you need good content. Content that is customized for<br />

your target group and the purpose of the wiki.<br />

––<br />

The company culture needs to support collaborative working.<br />

Structured, well organized and appreciated in the company – these are<br />

successful wikis.<br />

If you have any questions please contact: upa@parson-com.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

507


User Assistance<br />

UA 6<br />

Fachvortrag<br />

ARIA in der Dokumentation<br />

Dr. Stefan Schnabel, SAP AG, Walldorf<br />

Dr. Matthias Kammerer, SAP AG, Walldorf<br />

ARIA ist die Abkürzung für Accessible Rich Internet Applications und<br />

wird von der Web Accessibility Initiative (WAI) entwickelt und spezifiziert.<br />

ARIA steht als W3C Candidate Recommendation vom 18.<br />

Januar 2011 unter dem Titel „Accessible Rich Internet Applications<br />

(WAI-ARIA) 1.0“ unter http://www.w3.org/TR/wai-aria/ zur Verfügung.<br />

Erklärtes Ziel ist es, einen Accessibility-Standard für Rich Internet<br />

Applications, die z. B. DHTML oder Ajax verwenden, zu etablieren und<br />

darüber hinaus ganz allgemein die Benutzerfreundlichkeit von Web-<br />

Seiten zu erhöhen. Ein typisches Problem bei dynamischen Web-Seiten<br />

ist z. B., dass blinde Benutzer Änderungen auf der Web-Seite, während<br />

sie damit agieren, in der Regel nicht bemerken.<br />

Aber nicht nur für Applikationen ist ARIA ein interessanter Accessibility-Standard,<br />

sondern auch für (größtenteils) statische Texte, wie Dokumentation.<br />

Auch hier hilft ARIA, dass sich Menschen mit Behinderungen<br />

auf der Web-Seite zurechtfinden.<br />

Um die Barrierefreiheit auch von dynamischen Web-Seiten zu gewährleisten,<br />

setzt ARIA auf die folgenden Konzepte:<br />

––<br />

Technisch gesehen, führt ARIA weitere Attribute mit teilweise vordefinierten<br />

Werten ein, die bei den meisten HTML-Elementen verwendet<br />

werden können. (Das hat gegenwärtig zur Folge, dass derart<br />

angereichertes HTML weder HTML4- noch HTML5-konform ist und<br />

HTML-Validatoren entsprechende Fehlermeldungen ausgeben. In<br />

der Praxis ist dies allerdings irrelevant, da die Browser nicht validieren<br />

und unbekannte Attribute einfach ignorieren. Außerdem werden<br />

HTML-Validatoren in Zukunft ARIA richtig erkennen können.)<br />

––<br />

Mittels Rollen werden Elemente hinsichtlich ihrer Funktion klassifiziert.<br />

Dazu unterscheidet ARIA u. a. zwischen:<br />

––<br />

Abstract Roles (wie z. B. role="section")<br />

––<br />

Widget Roles (wie z. B. role="button")<br />

––<br />

Document Structure Roles (wie z. B. role="article") und<br />

––<br />

Landmark Roles (wie z. B. role="navigation").<br />

––<br />

Mittels – eher statischen – Eigenschaften (wie z. B. den Attributen<br />

aria-labelledby oder aria-describedby) und – eher dynamischen<br />

– Zuständen (wie z. B. dem Attribut aria-checked) können<br />

Elemente näher bestimmt und miteinander in Bezug gesetzt werden.<br />

ARIA kann dabei auf allen Ebenen einer Applikation relevant werden:<br />

––<br />

auf der Strukturebene, z. B. im HTML:<br />

Sort<br />

by Last Modified<br />

––<br />

auf der Präsentationsebene, z. B. im Cascading Stylesheet (CSS):<br />

[aria-checked="true"]<br />

{font-weight: bold;}<br />

[aria-checked="true"]:before<br />

{background-image: url(checked.gif);}<br />

––<br />

auf der Interaktionsebene, z. B. im JavaScript:<br />

function checkbox_select(el) {<br />

if (el.getAttribute(“aria-checked”) == "false")<br />

508<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

}<br />

{el.setAttribute("aria-checked", true);}<br />

else<br />

{el.setAttribute("aria-checked", "false");}<br />

Grundsätzlich stellt sich die Frage, warum ARIA überhaupt eingesetzt<br />

werden soll, da es doch HTML5 gibt. Schaut man genauer hin, gibt es<br />

tatsächlich viele HTML5-Konzepte, die sich in ARIA wiederfinden – allerdings<br />

gibt es auch zahlreiche Konzepte, die ausschließlich von ARIA<br />

unterstützt werden. So ist beispielsweise ARIA besonders stark bei Rich<br />

Internet Applications, wo HTML5 noch zahlreiche (!) Lücken in Bezug<br />

auf Accessibility aufweist. Insofern ergänzt ARIA nicht nur HTML4,<br />

sondern auch HTML5 und kann dort sogar kombiniert mit HTML5 verwendet<br />

werden, wie z. B. in:<br />

<br />

In der Dokumentation selbst hilft der Einsatz von ARIA, so dass z. B.<br />

Blinde die Struktur eines Dokuments noch besser verstehen können als<br />

bisher. Dies wird insbesondere durch die folgenden Techniken erreicht:<br />

––<br />

Festlegung von Landmark Roles (wie z. B. role="banner",<br />

role="main" oder role="navigation" und noch genauere Beschreibung<br />

des Bereichs durch aria-label oder eine mit dem entsprechenden<br />

Element verbundenen Bereichsüberschrift)<br />

––<br />

Explizite Informationen über die aktuelle Hierarchieebene (wie z. B.<br />

aria-level="2")<br />

––<br />

Beschreibung von interaktiven Navigationsbäumen (wie z. B. mittels<br />

role="treeitem" und aria-expanded="false")<br />

Teilweise interpretieren derzeit Screenreader ARIA sogar besser als<br />

die entsprechenden neuen HTML5-Elemente und Attribute. Für einige<br />

langjährige Probleme in HTML bringt ARIA auch endlich eine standardisierte<br />

Lösung, wie z. B.:<br />

––<br />

korrekte Auszeichnung von Layouttabellen oder dekorativen, nichtsemantischen<br />

Bildern (z. B. mittels role="presentation")<br />

––<br />

explizite Kennzeichnung, wenn der Browser gerade beschäftigt ist<br />

(z. B. mittels aria-busy="true")<br />

––<br />

Dialogankündigung für nicht-browserbasierte Dialogfenster (z. B.<br />

mittels role="dialog")<br />

––<br />

explizite Kennzeichnung von Regionen mit Systemmeldungen<br />

mittels Live Regions (z. B. durch Hinzufügen des Attributes arialive="assertive"<br />

zu einem HTML-Element, damit Screenreader<br />

DOM-Änderungen dieses Bereichs direkt ankündigen)<br />

Zusammenfassend kann man feststellen, dass ARIA nicht nur komplexe<br />

Applikationen unterstützt, sondern ARIA sollte auch in der Dokumentation<br />

eingesetzt werden, um Text- und Interaktionsstrukturen besser für<br />

Menschen mit Behinderungen erfahrbar zu machen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

509


User Assistance<br />

Weiterführende Informationen<br />

Accessible Rich Internet Applications (WAI-ARIA) 1.0. W3C Candidate<br />

Recommendation 18 January 2011 (neueste Version: http://www.w3.org/<br />

TR/wai-aria/; diese Version: http://www.w3.org/TR/2011/CR-waiaria-20110118/<br />

– vidi: <strong>2012</strong>-09-05)<br />

Kliem, Martin: Accessible Web 2.0 Applications with WAI-ARIA. In: A<br />

list apart, 235, 9. April 2007. (http://www.alistapart.com/articles/waiaria/<br />

– vidi: <strong>2012</strong>-09-05)<br />

Roadmap for Accessible Rich Internet Applications (WAI-ARIA Roadmap).<br />

W3C Working Draft 4 February 2008 (neueste Version: http://www.<br />

w3.org/TR/wai-aria-implementation/; diese Version: http://www.w3.org/<br />

TR/2008/WD-wai-aria-roadmap-20080204/ – vidi: <strong>2012</strong>-09-05)<br />

Section 508 (https://www.section508.gov/ – vidi: <strong>2012</strong>-09-05)<br />

WAI-ARIA FAQ (http://www.w3.org/WAI/aria/faq.html – vidi:<br />

<strong>2012</strong>-09-05)<br />

WAI-ARIA Overview (http://www.w3.org/WAI/intro/aria.php – vidi:<br />

<strong>2012</strong>-09-05)<br />

WAI-ARIA 1.0 Authoring Practices. An author’s guide to understanding<br />

and implementing Accessible Rich Internet Applications. W3C Working<br />

Draft 16 September 2010 (neueste Version: http://www.w3.org/TR/waiaria-practices/;<br />

diese Version: http://www.w3.org/TR/2010/WD-waiaria-practices-20100916/<br />

– vidi: <strong>2012</strong>-09-05)<br />

WAI-ARIA 1.0 Primer. An introduction to rich Internet application accessibility<br />

challenges and solutions. W3C Working Draft 16 September<br />

2010 (neueste Version: http://www.w3.org/TR/wai-aria-primer/; diese<br />

Version: http://www.w3.org/TR/2010/WD-wai-aria-primer-20100916/ –<br />

vidi: <strong>2012</strong>-09-05)<br />

WAI-ARIA 1.0 User Agent Implementation Guide. A user agent<br />

developer‘s guide to understanding and implementing Accessible Rich<br />

Internet Applications. W3C Working Draft 16 August <strong>2012</strong> (neueste Version:<br />

http://www.w3.org/TR/wai-aria-implementation/; diese Version:<br />

http://www.w3.org/TR/<strong>2012</strong>/WD-wai-aria-implementation-<strong>2012</strong>0816/ –<br />

vidi: <strong>2012</strong>-09-05)<br />

Web Content Accessibility Guidelines 1.0. W3C Recommendation<br />

5-May-1999 (neueste Version: http://www.w3.org/TR/WAI-WEBCON-<br />

TENT/; diese Version: http://www.w3.org/TR/1999/WAI-WEBCON-<br />

TENT-19990505 – vidi: <strong>2012</strong>-09-05)<br />

stefan.schnabel@sap.com<br />

matthias.kammerer@sap.com<br />

510<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 7<br />

Fachvortrag<br />

Ein Open-Source-Hilfe-Viewer zeigt es allen<br />

Harald Hermann, Advantest Europe GmbH, Böblingen<br />

Mit dem Trend weg vom gedruckten Handbuch hin zum Online-Hilfesystem<br />

entstand der Wunsch nach dynamischen Inhalten. Zumindest<br />

eine gute Volltextsuche ist heutzutage Standard. Hilfe im Web und innerhalb<br />

einer Anwendung mit der gleichen Funktionalität anzubieten<br />

ist nicht ganz einfach. Zunehmend wird daher auf das Mitliefern der<br />

Hilfe verzichtet, stattdessen öffnet ein Klick auf den Hilfeknopf eine<br />

Webseite. In Fällen, in denen Unternehmen aber aufgrund von Sicherheitsüberlegungen<br />

den Zugriff aufs Web kappen, oder wenn der Zugriff<br />

durch eine langsame Internetverbindung ausgebremst wird, muss eine<br />

andere Lösung her. Der Eclipse Help Viewer ist eine solche Lösung. Es<br />

gibt ihn für Windows, Linux, Mac OS und weitere Betriebssysteme. Sein<br />

Aussehen und Verhalten kann mittels Konfigurationsdateien weitreichend<br />

angepasst werden.<br />

Ziel des Vortrags<br />

Der Vortrag stellt die Funktionalität und Einsatzmöglichkeiten des Eclipse<br />

Help Viewers vor. Ziel ist es, die Teilnehmer in die Lage zu versetzen,<br />

eigene Inhalte zu erstellen oder aufzubereiten, so dass diese mit dem<br />

Eclipse Hilfe Viewer angezeigt werden können. Darüber hinaus vermittelt<br />

der Vortrag Informationen, um fundiert entscheiden zu können, wann<br />

eine Verwendung sinnvoll und lohnenswert ist.<br />

Einsatzmöglichkeiten<br />

Der Eclipse Help Viewer kann nicht nur als eigenständige Online-Hilfe<br />

lokal und als Web-Anwendung verwendet werden, sondern auch als<br />

Hilfesystem innerhalb von Java- und Nicht-Java-Anwendungen.<br />

Abb. 1: Eclipse Help Viewer als Web-Anwendung, Hilfesystem in einer<br />

Java-Anwendung und als lokale Online-Hilfe<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

511


User Assistance<br />

Einsatz als<br />

Web-Anwendung<br />

Einsatz als lokale<br />

Online-Hilfe<br />

Einsatz als Hilfesystem<br />

innerhalb von Javaund<br />

Nicht-Java-<br />

Anwendungen<br />

Der Einsatz des Eclipse Help Viewers als Web-Anwendung ermöglicht<br />

die zentrale Verwaltung der Online-Hilfe auf einem Server um damit<br />

viele Clients im Internet oder Intranet zu erreichen. Dabei ist weder ein<br />

bestimmter Browser noch eine bestimmtes Betriebssystem notwendig.<br />

Auch das Endgerät stellt keine Einschränkung für die Verwendung der<br />

Hilfe dar. Der Aufruf der Hilfe erfolgt mit einem Browser vom Desktop-PC<br />

oder einem mobilen Endgerät wie Laptop, Smartphone oder<br />

Tablet-PC.<br />

Falls jedoch keine Internet-Verbindung vorliegt, kann der Eclipse Help<br />

Viewer auch lokal auf dem Desktop-PC oder Laptop installiert werden.<br />

Auch als Viewer für die kontextsensitive Hilfe kann er innerhalb einer<br />

Java-Anwendung, die z. B. auf Eclipse basiert, über F1 oder auch von<br />

anderen Nicht-Java-Anwendungen aufgerufen werden.<br />

Installation<br />

Der Eclipse Help Viewer muss nicht installiert werden. Zunächst wird<br />

die Datei help-[version].zip von helpaddons.sf.net [1] heruntergeladen<br />

und lokal entpackt. Danach kann der Eclipse Help Viewer als<br />

lokale Online-Hilfe unter Windows direkt durch das Ausführen der<br />

Datei Help.exe gestartet werden. Als Web-Anwendung startet ein Java-<br />

Befehl (z. B. java -classpath C:\help\eclipse\plugins\org.<br />

eclipse.help.base_[version].jar org.eclipse.help.standalone.Infocenter<br />

-command start -eclipsehome C:\help\eclipse<br />

-port 8081) den Eclipse Help Viewer. Der Aufruf der URL http://<br />

localhost:8081/help/index.jsp zeigt dann den Eclipse Help Viewer<br />

als Web-Anwendung [2].<br />

Suchen<br />

Der Eclipse Help Viewer verfügt über eine Volltextsuche, die sich auf<br />

Bereiche im Inhaltsverzeichnis oder vordefinierte Kategorien eingrenzen<br />

lässt. Somit kann sowohl über den kompletten Hilfeinhalt, über<br />

einzelne Bereiche in der Struktur der Hilfe,als auch nach vordefinierten<br />

Kategorien, wie zum Beispiel nur in Büchern oder Abschnitten für ein<br />

bestimmtes Produkt, gesucht werden.<br />

Abb. 2: Suche im selektierten Topic oder in der Inhaltsverzeichnis-Struktur<br />

Inhalte erstellen<br />

Der Inhalt, also die Dokumentation für den Eclipse Help Viewer, wird<br />

im Online-Hilfe Format „Eclipse Help“ erstellt [3]. Wie auch bei anderen<br />

512<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

Online-Hilfen, z. B. Microsoft Help, besteht die Hilfe aus Strukturelementen<br />

(wie dem Inhaltsverzeichnis, Index, Suchindex und der Seitennavigation),<br />

und dem Inhalt (HTML- und Bild-Dateien) selbst. Die<br />

Strukturelemente werden im XML-Format spezifiziert. Die Datei toc.<br />

xml zum Beispiel spezifiziert das Inhaltsverzeichnis, das einzelne Inhaltsseiten<br />

referenziert.<br />

Abb. 3: Inhaltsverzeichnis-Beispiel im Eclipse Help Format<br />

Der Inhalt (HTML- und Bild-Dateien) kann in einem eigenen Verzeichnis<br />

(wie im Beispiel in Abbildung 2) oder in der Datei doc.zip zusammengefasst<br />

abgelegt werden. Struktur-XML-Dateien und Inhaltsdateien<br />

müssen, um im Eclipse Help Viewer angezeigt zu werden, noch durch<br />

die Dateien plugin.xml und MF/manifest ergänzt werden. Alle Dateien<br />

zusammen ergeben dann ein Eclipse Hilfe Plugin [4].<br />

Inhalt einbinden<br />

Das fertige Eclipse Hilfe Plugin muss nur noch in das Verzeichnis „help/<br />

plugins“ kopiert werden und wird nach einem Neustart des Eclipse<br />

Help Viewers auch im Inhaltsverzeichnis gelistet.<br />

Fazit<br />

Der Eclipse Help Viewer ist mit seinen vielseitigen Einsatzmöglichkeiten<br />

als Open-Source-Projekt plattformübergreifend der ideale Begleiter,<br />

um Kunden ein zuverlässiges und dennoch flexibles Hilfesystem<br />

anzubieten.<br />

Weiterführende Informationen<br />

[1] Eclipse Help Viewer (http://helpaddons.sf.net/)<br />

[2] Information Center (http://help.eclipse.org/helios/index.jsp?topic=/<br />

org.eclipse.platform.doc.isv/guide/ua_help_setup_infocenter.htm)<br />

[3] Writing Documentation and Help for Eclipse Projects and Plug-ins<br />

(http://www.keycontent.org/tiki-index.php?page=Eclipse Help System)<br />

[4] Building a help plug-in (http://help.eclipse.org)<br />

Rückfragen gerne an: harald.hermann@advantest.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

513


User Assistance<br />

UA 8<br />

Partner presentation<br />

The Cosmopolitan Information Topic<br />

Waltraud Winter, Siemens Healthcare, Forchheim<br />

Uwe Reißenweber, DOCUFY, Bamberg<br />

It’s time to stop thinking of customer documentation in terms of monolithic<br />

files, in all required languages, covering all legal requirements.<br />

Our customers are more than mere recipients of what we provide, lost<br />

in a world of words. Each customer needs appropriate content at the<br />

right time and in the right format, that is, topic-based information.<br />

For this reason, Siemens Healthcare has developed a new way of customer<br />

documentation, the Knowledge Gateway. This modern approach<br />

not only provides our customers with most suitable information, but<br />

also turns them into cherished collaborators. We therefore develop,<br />

maintain, and deliver topics of information as well as collaboration tools.<br />

The customers decide what to read, when to read it, and in which format<br />

to read it. And we stay in touch with the customers and learn from their<br />

experiences during the whole lifecycle of a product. In this way, a cosmopolitan<br />

information topic is the connecting link between the user and<br />

the information developers.<br />

Contact:<br />

waltraud.winter@siemens.com<br />

uwe.reissenweber@docufy.de<br />

514<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 9<br />

Presentation<br />

Adding Useful Interactivity to Online Help<br />

Nicoletta A. Bleiel, ComponentOne, a division of GrapeCity, inc., Pittsburgh, USA<br />

Introduction<br />

Content is King, but adding a measured dose interactivity to your online<br />

Help will increase readability and usability, as well as make it more<br />

compelling. This paper discusses a number of simple ways to improve<br />

your Help, even while single sourcing.<br />

Online Help systems for software user assistance can be improved<br />

with interactivity, and adding social media options can also serve other<br />

company goals. There are more options for interactivity when creating<br />

browser-based Help systems, but it is possible to incorporate some<br />

features into HTML Help systems as well.<br />

Help systems are learning modules that share all the characteristics of<br />

websites — they have content, a table of contents, search, and navigation.<br />

It should be noted that the research on both ELearning and the<br />

web encourages interactivity.<br />

Considering Interactivity<br />

When deciding what interactivity would be most useful in your Help<br />

system, keep in mind the following:<br />

––<br />

Will the user understand and expect the relevant action that occurs?<br />

––<br />

If content is hidden, will the user know how to access it?<br />

––<br />

Does the additional user input actually improve the overall experience?<br />

(From: “Bringing Interactivity To Your Website With Web Standards”<br />

http://coding.smashingmagazine.com/2011/02/03/<br />

bringing-interactivity-to-your-website-with-web-standards/)<br />

Also consider other goals, such as improving the SEO of your Help system,<br />

increasing your company’s Twitter followers, collecting feedback<br />

and building a community, and incorporating useful social media elements<br />

into your Help.<br />

Interactivity Options<br />

There are many options for adding interactivity, including the ones below.<br />

The ease of implementation will depend upon the Help Authoring<br />

Tool or authoring environment you are using.<br />

––<br />

Expanding/Collapsing Text can be used to layer information by category.<br />

In print outputs, the content remains in list form; no additional<br />

adjustment is necessary.<br />

––<br />

Image Maps are interactive graphics that link to additional information.<br />

Using conditions, they can be easily modified for print output.<br />

––<br />

Glossary Popups are popup links that display definitions. They are a<br />

great option for documentation that contains a great deal of company<br />

or industry-specific terminology and/or acronyms.<br />

––<br />

Google Maps with custom locations can easily be created and embedded,<br />

and can provide useful content that is interactive.<br />

––<br />

Twitter has several types of buttons that can be used to increase the<br />

visibility of your Help, or encourage customers to follow your compa-<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

515


User Assistance<br />

ny on Twitter. “Share” buttons make it easy for customers to tweet the<br />

URL of the Help page; “Follow” buttons provide interactivity that ties<br />

social media to the Help system.<br />

––<br />

Twitter Search Widgets can be used to display what is being said<br />

about your company (and/or selected subjects) within your Help system.<br />

––<br />

Videos appeal to visual learners and require users to interact with<br />

the system if not set to autoplay (since users generally prefer to click<br />

“play” themselves, it is best to avoid that setting).<br />

––<br />

Adding DISQUS commenting/ratings features to your web-based<br />

Help systems. Live example: http://www.componentone.com/newimages/disqus/<br />

––<br />

Including email buttons in your Help to contact technical support<br />

or the documentation team add interactivity and (more importantly)<br />

make it easier for customers to contact your company. Consider including<br />

the URL of the Help topic in the body of the email to speed<br />

accuracy and response time.<br />

A few options for interactivity<br />

Outcomes and Considerations<br />

Well-implemented interactivity makes information more readable, exposes<br />

information layers, encourages discovery, and provides feedback<br />

mechanisms. Social media options can provide additional useful information,<br />

build a customer community, and increase Twitter followers.<br />

Adding interactivity should be balanced with good usability practices.<br />

Don’t overdo the click count, add unnecessary (or too much) interactivity,<br />

or alter established standards.<br />

Before implementing interactivity, consider the following: accessibility,<br />

translation, localization, and your customer’s access to the internet.<br />

516<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

References<br />

Bushell, David, “Bringing Interactivity To Your Website<br />

With Web Standards” Smashing Magazine (February<br />

3, 2011) http://coding.smashingmagazine.com/2011/02/03/<br />

bringing-interactivity-to-your-website-with-web-standards/<br />

Copeland, Dave, “Best Practices For Writing For Online Readers” Read-<br />

WriteWeb (March 16, <strong>2012</strong>) http://www.readwriteweb.com/archives/<br />

best_practices_for_writing_for_online_readers.php<br />

“Formulas for Readability”, Wikipedia, April 29, <strong>2012</strong> http://<br />

en.wikipedia.org/wiki/Readability<br />

Hughes, Michael, “Progressive User Adoption” UX matters blog http://<br />

www.uxmatters.com/mt/archives/2009/03/progressive-user-adoption.<br />

php<br />

Keeler, Mitch, “Add Interactivity With Google Web Elements” Lunarpages<br />

Newsletter http://www.web-hosting-newsletter.com/2009/05/29/<br />

add-interactivity-with-google-web-elements/<br />

Martin, Michael, “30 Ways to Improve Readability”<br />

Pro Design Blog http://www.problogdesign.com/<br />

blog-usability/30-ways-to-improve-readability/<br />

Phillips, Jon, “5 Tips For Improving Readability<br />

On Your Website” spyrestudios.com http://spyrestudios.<br />

com/5-tips-for-improving-readability-on-your-website/<br />

Sims, Roderick, “Interactivity: A Forgotten Art?” Instructional Technology<br />

Research Online (January 27, 1997) http://www2.gsu.edu/~wwwitr/<br />

docs/interact/<br />

Van Geel, Jeroen, “The Psychologist’s View of UX Design” Johnny Holland<br />

Magazine (February 21, <strong>2012</strong>) http://johnnyholland.org/<strong>2012</strong>/02/<br />

the-psychologists-view-of-ux-design/<br />

Additional Resources<br />

Google Maps: http://maps.google.com/<br />

Twitter Search Widgets: http://twitter.com/about/resources/widgets/<br />

widget_search<br />

Twitter Buttons: https://twitter.com/about/resources/buttons<br />

DISQUS: http://www.disqus.com/<br />

Contact Information<br />

Please send any questions or comments to Nicky Bleiel, Lead Information<br />

Developer, Doc-To-Help: nickyb@componentone.com. Follow me on Twitter<br />

at @nickybleiel and @DocToHelp.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

517


User Assistance<br />

UA 10<br />

Workshop<br />

Nutzer- und autorenfreundliche<br />

Wikis – wie geht das?<br />

Jonas Wäckerle und Mark Schubert, parson communication, Hamburg<br />

Viele Unternehmen setzen Wikis ein, um Informationen zu sammeln<br />

und zu verbreiten. Während die grundlegenden Funktionen von Wiki-<br />

Software das Erstellen von Inhalten sehr einfach machen, ist das Ergebnis<br />

nicht immer leicht zu nutzen. Dieser Workshop zeigt Möglichkeiten<br />

auf, Wikis für Nutzer und Autoren anwenderfreundlicher zu gestalten.<br />

Dabei kommt die Open-Source-Lösung Semantic MediaWiki zum Einsatz.<br />

Die grundlegenden Funktionen des Semantic MediaWiki werden<br />

unter dem Blickwinkel der Nutzerfreundlichkeit vorgestellt.<br />

Kategorien<br />

Seitenstruktur<br />

Datenqualität<br />

Wikis und ihre Probleme<br />

Abhängig von der eingesetzten Wiki-Software haben Benutzer von Wikis<br />

mit unterschiedlichen Problemen zu kämpfen.<br />

Häufig sind Informationen lediglich in Kategorien sortiert. Dem Nutzer<br />

präsentiert sich eine unsortierte Anhäufung an Wiki-Artikeln innerhalb<br />

der Kategorie. Das ist ausreichend für Inhalte, die wie Lexikoneinträge<br />

unabhängig voneinander stehen. Informationsprodukte in der Technischen<br />

Dokumentation lassen sich jedoch häufig nicht in dieser Form<br />

aufbereiten. Oft müssen Handlungsanweisungen in einer bestimmten<br />

Reihenfolge durchlaufen werden. Hierfür müssen Wiki-Artikel untereinander<br />

in Beziehung gesetzt werden. Eine reine Verknüpfung greift<br />

zu kurz.<br />

Hat der Nutzer eine Seite gefunden, geht die Suche nach der gewünschten<br />

Information weiter. Ohne Formatvorlagen ist das Erscheinungsbild<br />

von Wiki-Seiten oft uneinheitlich. Entwürfe unterscheiden sich nicht<br />

von Veröffentlichungen und gleiche Informationsklassen sind uneinheitlich<br />

strukturiert. Ursache ist die fehlende Trennung von Information<br />

und Layout. Autoren erstellen im Wiki die Inhalte und formatieren<br />

direkt im Seitentext. Zwar bieten Wikis Templates, aber zwingend ist<br />

deren Nutzung nicht. Konventionelle Wikis erschweren damit nicht nur<br />

das Lesen, sie verlangen auch unnötige Formatierungsarbeit vom Autor.<br />

Ein weiteres Problem konventioneller Wikis ist die Qualität der Information.<br />

Gleiche Daten sind häufig an verschiedenen Stellen verfügbar.<br />

Werden sie an einer Stelle geändert, sind sie an anderer Stelle nicht<br />

mehr aktuell. Auch gibt es meist keine Möglichkeit, zusätzliche Informationen<br />

zu einer Seite zu speichern, ohne die Seite zu überfrachten.<br />

So können Seiten in der Regel nicht markiert werden, um zum Beispiel<br />

Arbeitsabläufe abzubilden. Lediglich ein Vermerk im Text ist möglich.<br />

Dieser ist dann aber für alle Nutzer sichtbar.<br />

Semantic MediaWiki<br />

Abhängig von der eingesetzten Wiki-Software gibt es für die aufgeführten<br />

Probleme konventioneller Wikis unterschiedliche Lösungsansätze.<br />

Dieser Workshop befasst sich mit einer für das MediaWiki konzipierten<br />

Lösung, dem Semantic MediaWiki. Diese Erweiterung ergänzt das MediaWiki<br />

um semantische Eigenschaften. Wiki-Seiten können entsprechend<br />

ihren Inhalten ausgezeichnet werden. Das Ergebnis sind Seiten<br />

518<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

mit semantischen Eigenschaften, denen wiederum beliebige Werte<br />

zugewiesen werden. Diese semantischen Eigenschaften können wie Informationen<br />

einer Datenbank abgefragt werden. Die Ergebnisse lassen<br />

sich beliebig verwenden.<br />

Semantic MediaWiki bietet darüber hinaus weitere Funktionen, die als<br />

Semantic Bundle in einem Schritt installiert werden können. Zu diesen<br />

Funktionen gehören Formulare, verschiedene Ausgabeformate und<br />

Parser-Funktionen, die Skripte in Wiki-Seiten einsetzbar machen. Im<br />

Folgenden werden einige Funktionen vorgestellt.<br />

Semantische<br />

Eigenschaften<br />

Semantische Abfragen<br />

Semantische Formulare<br />

Möglichkeiten des SMW Bundle – Beispiele<br />

Die Grundlage des Semantic MediaWiki sind semantische Eigenschaften<br />

von Seiten. Sowohl der Name als auch die erlaubten Werte einer<br />

Eigenschaft können im Semantic MediaWiki frei gewählt und festgelegt<br />

werden.<br />

Autoren einer Seite können semantischen Eigenschaften direkt im<br />

Wiki-Editor im Fließtext setzen. Die Syntax für solche Eigenschaften<br />

ähnelt der Syntax von Verknüpfungen im MediaWiki. In folgendem Beispiel<br />

wird der Seite „Coffee Master 2000“ die Eigenschaft „waterTank-<br />

Volume“ zugewiesen und der Wert im Text angezeigt.<br />

Der Coffeee Master 2000 verfügt über eine Tankvolumen von [[water-<br />

TankVolume::1910]]mm.<br />

Doch nicht immer sollen semantische Informationen auf der Wiki-Seite<br />

sichtbar sein. Eine leicht veränderte Syntax ermöglicht es, semantische<br />

Eigenschaften zu setzen, ohne dass diese im Fließtext angezeigt werden.<br />

Im folgenden Beispiel wird der Seite „Coffee Master 2000“ die semantische<br />

Eigenschaft „workstatus“ zugewiesen und der Wert „draft“ gesetzt.<br />

{{#set: workstatus=draft }}<br />

Semantische Eigenschaften einer Seite können im Fließtext einer anderen<br />

Seite abgefragt werden. In folgendem Beispiel wird auf der Seite<br />

„Coffee Master 2000“ die Bestellnummer eines Entkalkers abgefragt.<br />

Die Abfrage zeigt den Wert der Eigenschaft „bestellNummer“ an, wie er<br />

auf der Seite „Entkalker 2000“ gesetzt ist. Ändert sich die Bestellnummer<br />

auf der Ausgangsseite, wird der Text aktualisiert.<br />

Reinigen Sie den Coffeee Master 2000 nur mit dem Entkalker Nr.<br />

{{#show: Entkalker CM2000 | ?bestellNummer}}.<br />

Neben der Anzeige von Eigenschaftswerten einer speziellen Seite<br />

können auch Listen mit Seiten angezeigt werden, die bestimmte Bedingungen<br />

erfüllen. Im folgenden Beispiel wird auf der Seite „Offene<br />

Aufgaben“ eine Tabelle mit Seiten angezeigt, für die die Eigenschaft<br />

„workstatus“ auf den Wert „draft“ gesetzt ist. Die Tabelle zeigt in der linken<br />

Spalte Verknüpfungen auf die Seiten und in der rechten Spalte die<br />

Werte der Eigenschaft „workstatus“ an.<br />

{{#ask: [[workstatus::draft]] | ? workstatus }}<br />

Die im Semantic Bundle enthaltene Erweiterung Semantic Forms erlaubt<br />

es, Formulare für Autoren anzulegen. Diese Formulare sind verbindlich<br />

und mit Templates verknüpft. Dadurch wird eine einheitliche<br />

Struktur und Gestaltung von Seiten derselben Informationsklasse garantiert.<br />

Formulare können wiederum den inhaltlichen Kategorien des<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

519


User Assistance<br />

Wikis zugewiesen werden. So werden auch beim späteren Bearbeiten<br />

der Seite immer die vorgesehenen Formulare verwendet.<br />

Das folgende Beispiel erstellt in dem Formular „CoffeeMaker“ ein Feld,<br />

in dem der Bearbeitungsstatus der Wiki-Seite erfasst wird. Als Standardwert<br />

wird „draft“ vorgegeben.<br />

{{{for template|Metadata}}}<br />

{{{field|workstatus|default=draft}}}<br />

{{{end template}}}<br />

Ausblick<br />

Semantische Eigenschaften ergänzen Wiki-Seiten um zusätzliche Informationen.<br />

Diese Informationen sind Grundlage der Funktionalität des<br />

Semantic MediaWiki.<br />

––<br />

Semantische Eigenschaften können frei nach Anforderungen definiert<br />

werden.<br />

––<br />

Seiten können markiert werden.<br />

––<br />

Seiten können gefiltert aufgelistet werden.<br />

––<br />

Informationen auf Seiten können wiederum innerhalb anderer Seiten<br />

abgefragt werden.<br />

Dadurch ergeben sich vielfältige Möglichkeiten, Informationen zielgruppenspezifisch<br />

zu präsentieren. Abfragen generieren Portalseiten<br />

für Nutzer und Administratoren einer Software. Semantische Eigenschaften<br />

bilden Relationen zwischen Seiten ab, um inhaltliche Beziehungen<br />

für den Leser darzustellen. Auch Arbeitsabläufe lassen sich<br />

abbilden und unterstützen. Nicht zuletzt helfen Formulare bei der einheitlichen<br />

Strukturierung und Formatierung von Informationen und<br />

verhelfen dem Wiki zu einem einheitlichen Erscheinungsbild.<br />

Die aufgeführten Möglichkeiten sind dabei nur ein kleiner Ausschnitt<br />

der Einsatzmöglichkeiten des Semantic MediaWiki. Zahlreiche andere<br />

Erweiterungen bauen die Grundfunktionalität weiter aus.<br />

Für Rückfragen: mark.schubert@parson-com.com<br />

520<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 11<br />

Workshop<br />

Kurze und knackige<br />

Anforderungen<br />

Scrum, Sprints und<br />

Inkremente<br />

Karteikarten und Bierdeckel: User Stories<br />

für Dokumentation und Entwicklung<br />

Anne Hoffmann & Ann-Cathrin Mackenthun, parson communication, Hamburg<br />

In der agilen Software-Entwicklung werden Anforderungen nicht mehr<br />

in Pflichten- und Lastenheften geschrieben, sondern in Form von handlichen<br />

User-Stories festgehalten, die auf einer Karteikarte oder einem<br />

Bierdeckel Platz haben. Doch wie schreiben Sie kurze und knackige<br />

Anforderungen, die nützlich für die Entwickler sind und eine gute Basis<br />

für aufgabenorientierte Dokumentation darstellen?<br />

Die Verwendung von User Stories als Anforderungsbeschreibungen<br />

für die Software-Entwicklung geht auf agile Entwicklungsverfahren<br />

wie Scrum zurück. Ein nach Scrum geführtes Projekt wird nicht von<br />

Anfang an durchgeplant. Stattdessen arbeiten die Entwickler in kurzen<br />

Entwicklungszyklen, Sprints genannt. Zudem werden nur kleine und in<br />

sich geschlossene Funktionen (Inkremente) entwickelt, z. B. eine neue<br />

Schaltfläche mit einer Druckfunktion. Diese Inkremente bestehen aus<br />

allen notwendigen Einzelbestandteilen, wie z. B. Datenbankanbindung,<br />

funktionalem Code und Oberfläche. Theoretisch kann die Software am<br />

Ende jedes Sprints mit den neuen Funktionen ausgeliefert werden.<br />

Abb. 1: Inkrement in der Software-Entwicklung<br />

User Stories<br />

Kryptische Notizen<br />

Die Definition von Anforderungen in Scrum unterscheidet sich deutlich<br />

von anderen, herkömmlichen Entwicklungsmethoden. Bei der Definition<br />

der Anforderungen wird der Nutzer in den Mittelpunkt gerückt. Die<br />

User Stories beantworten dem Entwickler kurz und knapp die wichtigsten<br />

Fragen: Wer braucht warum welche Funktion? Für das Beispiel mit<br />

der Druckfunktion könnte die User Story folgendermaßen lauten: „Als<br />

Labor-Mitarbeiter möchte ich die grafische Darstellung des Ergebnisses<br />

der Untersuchung 3aXX direkt aus dem Grafik-Dialog heraus drucken<br />

können.“<br />

Was sich so einfach liest, ist im Alltag der Software-Entwicklung nicht<br />

immer so einfach umzusetzen. Oft wird ein Teil der Informationen weggelassen,<br />

weil „das macht eh Kollege Meier, der weiß schon, was gemeint<br />

ist“. Oder das Team schreibt direkt die technische Umsetzung auf,<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

521


User Assistance<br />

Gute User Stories<br />

schreiben<br />

etwa „auf Graf_008erg noch print_graf3 einbinden“. Doch nicht immer<br />

werden solche Anforderungen sofort umgesetzt, die Software entwickelt<br />

sich mit jedem Sprint weiter und nach ein paar Wochen weiß keiner<br />

mehr, was mit solch einer kryptischen Notiz gemeint war.<br />

Um dem vorzubeugen, helfen einfache Eselsbrücken. Im ersten Schritt<br />

wendet man das Formulierungsmuster [MC] an: Als [wer] möchte ich<br />

[welche Funktion] damit ich [warum]? Die drei „Ws“ sind einfach zu<br />

ersetzen. Die genaue Form ist dabei nicht entscheidend, wichtig ist, dass<br />

die Informationen enthalten sind. Etwas detaillierter sind die INVEST-<br />

Kriterien für Anforderungen [BW]:<br />

––<br />

I – Independent: Ist es eine in sich geschlossene und von anderen<br />

Anforderungen unabhängige Anforderung?<br />

––<br />

N – Negotiable: Weiß ich als Entwickler, was der Nutzer braucht, und<br />

kann somit verschiedene Lösungen für die technische Umsetzung<br />

verhandeln?<br />

––<br />

V – Valuable: Ist diese Funktion wirklich wichtig? Hat sie einen Geschäftswert?<br />

––<br />

E – Estimatable: Kann ich für diese Anforderung abschätzen, wie lange<br />

ich brauche? Liegt die Zeitschätzung unter 2 Tagen?<br />

––<br />

S – Small: Ist es wirklich das kleinstmögliche Inkrement oder kann<br />

ich die Anforderung in mehrere Inkremente aufbrechen?<br />

––<br />

T – Testable: Kann ich die Umsetzung der Anforderung testen? Welche<br />

Angaben fehlen mir, damit ich weiß, was ich testen muss?<br />

Abb. 2: INVEST-Kriterien auf User Story anwenden<br />

Vom Bierdeckel<br />

zum Handbuch<br />

Doch warum sind die User Stories, die die Entwickler nutzen, nun für<br />

Technische Redakteure interessant? Vor allem, weil sich die User Stories<br />

fast allein zu einem aufgabenbasierten Handbuch zusammenfügen.<br />

Es ist sofort klar, in welches Handbuch die neu programmierte Funktion<br />

gehört, in unserem Beispiel ins Handbuch für Labor-Mitarbeiter. Auch<br />

die Tätigkeit, das Ausdrucken, steht schon direkt in der User Story und<br />

522<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

Vorteile für<br />

Dokumentation<br />

und Entwicklung<br />

Quellen<br />

kann im entsprechenden Kapitel eingefügt werden. Und wenn an anderer<br />

Stelle die Durchführung der Untersuchung 3aXX beschrieben ist,<br />

kann dort einen Querverweis auf das neue Kapitel mit der Druckfunktion<br />

angelegt werden. So einfach war das Handbuchschreiben noch nie.<br />

Es lohnt sich sowohl für die Entwicklung als auch für die Dokumentation,<br />

wenn die User Stories gut formuliert sind. Die Entwickler können<br />

die Funktionen programmieren, die die Benutzer wirklich brauchen,<br />

und nicht die, die sie sich aus den Informationen zusammenreimen.<br />

Und Technische Redakteure profitieren von der aufgabenbasierten Beschreibung<br />

der User Story. Wenn Sie als Technischer Redakteur die Abläufe<br />

in einem agilen Software-Projekt kennen, können Sie sich gezielt<br />

die benötigten Informationen holen. Und wer weiß, vielleicht haben Sie<br />

in Zukunft sogar Interesse, bei der Formulierung der User Stories zu<br />

helfen? Immerhin sind eindeutiges Formulieren sowie das Vertreten der<br />

Nutzersicht genau unsere Stärken.<br />

[MC] Mike Cohn, http://www.mountaingoatsoftware.com/uploads/presentations/User-Stories-Norwegian-Developers-Conference-<strong>2012</strong>.pdf,<br />

12.09.<strong>2012</strong><br />

[BW] Bill Wake, http://xp123.com/articles/invest-in-good-stories-andsmart-tasks/,<br />

12.09.<strong>2012</strong><br />

für Rückfragen: anne.hoffmann@parson-com.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

523


User Assistance<br />

UA 12<br />

Workshop<br />

Best Practices for Mobile Outputs<br />

Nicoletta A. Bleiel, ComponentOne, a division of GrapeCity, inc., Pittsburgh, USA<br />

Introduction<br />

Developing Mobile outputs is the latest challenge for technical communicators,<br />

but more traditional outputs – such as desktop Help — are often<br />

developed simultaneously. In this workshop, we‘ll discuss how to create<br />

and structure Mobile Outputs in a single sourcing environment. We will<br />

also discuss the other uses for Mobile output, such as Field Service Team<br />

and Tourism Resources.<br />

Graphics and Tables<br />

Table of Contents<br />

Terminology<br />

Tips and Best Practices<br />

You should avoid large graphics and tables, because users will have to<br />

“swipe” to view/read them. To solve this issue, you can use conditions to<br />

designate one version of a graphic for desktop Help; another (smaller, or<br />

more targeted) version for Mobile. You may even want to consider eliminating<br />

some graphics in your Mobile outputs altogether because they<br />

take longer to load than text. Reduce the file size of those images you<br />

need to keep.<br />

It is best to keep the Table of Contents to no more than two levels, so customers<br />

can find information in two taps. Since they can’t view all the TOC<br />

levels at one time (as they can in desktop Help), this makes information<br />

more findable. Of course, they can use the “back” button to navigate, but<br />

that can get frustrating, and customers will most likely be using one hand.<br />

Keep topic names in the Table of Contents short, so the entire topic name<br />

has a better chance of appearing on the screen. (This will vary by device,<br />

so there is no standard length limit.) You can create a specialized Table of<br />

Contents for Mobile outputs if you wish.<br />

Standard software terminology – “click” for example – does not apply<br />

in Mobile. You may want to use “tap” instead. This is easy to accomplish<br />

when single-sourcing by creating and using variables (reusable chunks of<br />

text). You may find this “touch gestures reference guide” useful for learning<br />

terminology: http://www.lukew.com/ff/entry.asp?1071<br />

Mobile Output and its browser-based counterpart<br />

524<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

Writing Style<br />

Formatting<br />

Video<br />

Indexes<br />

Testing<br />

Since the screen is smaller, and users on mobile devices may be more<br />

distracted, you want to write more minimalist, easy-to-scan topics. Keep<br />

information short and to the point. You can manage different versions of<br />

the same topic easily in a single-sourcing environment using conditions.<br />

Collapsible navigation (which also adds to the usability of desktop Help)<br />

is a great way to make information more readable in Mobile outputs.<br />

Bulleted and numbered lists may take up valuable real estate in Mobile<br />

outputs; experiment with using conditions to create lists without bullets<br />

and numbering and see if they are more readable in Mobile outputs.<br />

When creating links within topics, make sure none are placed too close<br />

together, because users could touch more than one link at a time. You<br />

may need to increase the size of buttons in Mobile outputs to accommodate<br />

the fact that most people use their thumbs to navigate.<br />

Approximately one billion YouTube videos are streamed on cell phones<br />

every day, so you may want to consider adding additional videos for<br />

Mobile outputs. Using more video and less text may be the optimum mix<br />

for your Mobile outputs, and videos are also valuable in desktop Help.<br />

Indexes are not necessarily needed in Mobile outputs; if you’ve created<br />

one for desktop Help, you may choose to hide it in Mobile outputs.<br />

Make sure to test your Mobile outputs on as many devices as possible<br />

(you can also use emulators for testing). A handy utility to check mobile<br />

friendliness is the W3C mobileOK Checker at http://validator.w3.org/<br />

mobile/<br />

Further Reading and References<br />

Ten Best Practices for Your Mobile Website: http://socialmedia.<br />

biz/<strong>2012</strong>/05/31/10-best-practices-for-your-mobile-website/<br />

Ten Mobile Site Best Practices: http://googlemobileads.blogspot.<br />

com/2011/11/gomo-ten-mobile-site-best-practices.html<br />

Mobile Web Design Best Practices: http://www.noupe.com/how-tos/<br />

mobile-web-design-tips-and-best-practices.html<br />

Mobile in the Enterprise Infographic from gigaom.com: http://gigaom.<br />

com/collaboration/infographic-the-enterprise-mobile-explosion/<br />

Touch Gesture Reference Guide by Craig Villamor, Dan Willis, and Luke<br />

Wroblewski http://www.lukew.com/ff/entry.asp?1071<br />

Mobile Help Best Practices: http://our.componentone.com/<strong>2012</strong>/01/25/<br />

mobile-help-best-practices-part-2/<br />

Hans van der Meij on Minimalism: http://users.edte.utwente.nl/meij/<br />

minimalism.htm<br />

Carroll, John M. The Nurnberg Funnel: Designing Minimalist Instruction<br />

for Practical Computer Skill, MIT Press, 1990<br />

Carroll, John M. (Editor) Minimalism Beyond the Nurnberg Funnel, MIT<br />

Press, 1998<br />

Welinske, Joe. Developing User Assistance for Mobile Apps, WritersUA,<br />

2011<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

525


User Assistance<br />

STC Intercom Magazine, November 2011 issue “Tech Comm on the<br />

Move: Mobile Communication Technologies and Strategies” http://intercom.stc.org/magazine/november-2011/<br />

Please send any questions or comments to Nicky Bleiel, Lead Information<br />

Developer, Doc-To-Help: nickyb@componentone.com. Follow me on Twitter<br />

at @nickybleiel and @DocToHelp.<br />

526<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 13<br />

Workshop<br />

Business Case: Wir gestalten eine User<br />

Assistance nach strategischer Ausrichtung<br />

Alexander Hendrix, CAPE design GmbH, Palma de Mallorca und Erlangen<br />

So tun als ob: so lernten wir als Kinder. Wie sollte es anders funktionieren<br />

innerhalb von nur zwei wertvollen Stunden?<br />

Sie sind ein Sucher und Umdenker. Ihre Worte folgen nicht dem üblichen<br />

Business Bullshit und einer oberflächlichen Branchenterminologie.<br />

Sie sind fest entschlossen, mit „User Assistance“ Geschäftserfolge<br />

zu erzielen und Ihren höchst spezifischen Beitrag dazu zu leisten. Willkommen<br />

im Team.<br />

Lassen Sie uns beginnen.<br />

Stellen Sie sich vor, die Marketing-Abteilung einer großen Organisation<br />

richtet eine Initiative an die Führung, für eine neue Produktgeneration<br />

die bestehende User Dokumentation weltweit zu überdenken. Die Geschäftsleitung<br />

stimmt zu, ein Budget bereitzustellen und eine Taskforce<br />

zu bilden, mit der Auflage, ein überzeugendes Konzept einzureichen.<br />

Sehen Sie Ihre Chance?<br />

Hier sind meine Alternativen für das Produkt:<br />

––<br />

A) ein umfassendes cockpitseitiges Informationssystem für Piloten<br />

einer bedeutenden deutschen Fluggesellschaft,<br />

––<br />

B) ein diagnostisches Bildgebungssystem für die klinische Routine<br />

und Forschung (z. B. MR) für den nordamerikanischen, europäischen<br />

und chinesischen Markt,<br />

––<br />

C) eine Auswertungs- und Darstellungssoftware für die kosmologische<br />

Forschung, die die NASA als didaktische Applikation auch<br />

webbasiert einer interessierten Öffentlichkeit zur Verfügung stellen<br />

will.<br />

Wählen Sie, und wir fangen an.<br />

Wie gehen wir vor?<br />

Dies wird eine höchst interaktive Angelegenheit. Natürlich lege ich<br />

Ihnen passende Szenarien, Use Cases, Persona-Modelle und Brand<br />

Identities vor, um Ihrem weiteren Vorgehen Richtung zu geben. Doch<br />

was ich Ihnen bieten will, ist nicht Information, sondern Transformation.<br />

Es wird Ihnen buchstäblich Hören und Sehen vergehen. Sie werden<br />

in kürzester Zeit in unterschiedliche Rollen schlüpfen und Perspektiven<br />

erfahren, die Ihnen bisher entgangen sind. Sie werden kommunizieren<br />

wie ein Verrückter, Sie werden stehen, sitzen, liegen. Schreien und lachen.<br />

Das Ergebnis werden Sie dennoch rational begründen können.<br />

Meine Aufgabe für Sie: Bereiten Sie eine strategische Entscheidungsvorlage<br />

für den Vorstand vor. Strategisches Denken ist Denken in Optionen<br />

und „was wäre, wenn ...“ – und ich weiß, dass Sie das können, sobald<br />

Sie dazu ermuntert werden und nicht von Ihrer Unternehmenskultur<br />

und den üblichen Abteilungsbarrieren davon abgehalten werden (der<br />

Normalzustand in den meisten Unternehmen). Helfen Sie mit, ein ultimatives<br />

Ziel zu definieren, das alle begeistert, und die erwarteten Erfolgskriterien<br />

für das Projekt, darunter natürlich Eckpunkte einer User<br />

Experience mit „Wow-Effekt“.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

527


User Assistance<br />

Priorität haben werden für Sie weder sogenannte „Kundenanforderungen“<br />

noch die Verlockungen der Berater, die Ihnen nahelegen, mobile<br />

Dokumentation zu machen, Tablets zu nutzen oder Social Media. Das<br />

sind nur Taktiken. Wir wollen die Strategie ändern.<br />

Für den Erfolg entscheidend ist, dass Sie die „einschränkenden Bedingungen“<br />

definieren und sich nicht den Einschränkungen anderer beugen,<br />

einschließlich Ihrer Kunden oder Chefs. Aber auf eine Weise, die<br />

jene anderen überzeugt.<br />

Sie lernen hier nicht das, was Sie bisher sowieso nicht konnten. Sie lernen<br />

Resistenz gegenüber den Einflüsterungen der Mittelmäßigkeit. Sie<br />

lernen, Ihre bisherigen Fähigkeiten in einem Rahmen anzuwenden, der<br />

alles ändert.<br />

Wie helfe ich Ihnen?<br />

In meiner Rolle als Moderator werde ich Ihnen Paradigmen und Praxen<br />

vorlegen, die zum Umdenken und neuen Handeln anregen sollen<br />

(z. B. worin menschliche Kognition tatsächlich besteht, wie man Blue<br />

Sky Konzepte in eine internationale Marktforschung einschmuggelt<br />

usw.).<br />

In meiner Rolle als Coach werde ich Ihnen bei Ihrer Arbeit Mut machen<br />

und zudem laufend Rückmeldungen aus dem Teilnehmerkreis<br />

abfragen.<br />

In meiner Rolle als Chefdesigner werde ich zu den gemachten Vorschlägen<br />

begründet sagen: „ja“ oder „nein“, und diese Entscheidung ist<br />

maßgebend.<br />

Welches Ergebnis können wir erwarten?<br />

Wir wollen die Welt nicht mit einer weiteren pathologischen Online-<br />

Hilfe beglücken, die sich irgendeinem sogenannten „Content Management<br />

System“ unterwerfen muss.<br />

Sie haben das Design und Modell eines strategischen Konzepts in<br />

der Hand und vielleicht sogar einen kleinen Papierprototypen, den<br />

man nicht nur usability-testen, sondern zum Patent anmelden könnte.<br />

Wichtige Erfahrung wird sein, dass es nicht auf Tools & Co. ankommt,<br />

sondern auf den richtigen „Mindset“, auf Menschenkenntnis und<br />

Überzeugungskraft.<br />

für Rückfragen: hendrix@cape.de<br />

528<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

UA 14<br />

Tutorial<br />

Designing for the searching user:<br />

Are you still designing manuals<br />

nobody finds any answers in?<br />

Jonatan Lundin, Excosoft AB, Sweden<br />

Introduction<br />

Today, professional knowledge workers spend up to 30% of their time<br />

on searching for information. Many times a search is not successful,<br />

meaning that a lot of productive time is wasted. But, new possibilities<br />

such as efficient search engines and social media collaboration means<br />

that knowledge workers are being more efficient in finding information.<br />

Knowledge workers prefer information sources that provide reliable<br />

information at a low cost.<br />

Knowledge workers are sometimes users of technical products. Your<br />

business may be at stake if your company product documentation is difficult<br />

to find information in. When your competitors provide user manuals<br />

that are easy to search, your company might face the consequence of<br />

losing its business. This risk is increasing as the Google generation will<br />

soon be in charge as decision makers. Technical communicators have<br />

an opportunity to design documentation that becomes a business asset.<br />

But to do so you must understand the information seeking behaviors of<br />

users to know how to design manuals with high findability. To provide<br />

user manuals designed on the book paradigm, meaning that the search<br />

user interface is an arbitrary static hierarchy of titles – table of content<br />

– like in a PDF or on-line help, is a dead end. This presentation will<br />

introduce you to information seeking behaviors among users and how<br />

to design for findability using a design methodology and architecture<br />

called SeSAM.<br />

Users are focused on solving a problem, need or requirement<br />

Human beings are goal driven. There is an intention behind each human<br />

act. Users of technical products are also goal driven; they want<br />

to get things done. That is why humans are using technical products,<br />

for example office software or industrial hardware. Because they have<br />

found out that a product is the best way to solve a need, problem or<br />

requirement. They recognize a need, decide to do something about it<br />

when the pain of not solving the need is greater than the pain of finding<br />

and implementing a solution. The primary goal of any user when interacting<br />

with a product is to solve the need as fast, efficiently, reliable and<br />

securely as possible, not do tasks with the product because they are fun<br />

to do.<br />

Users construct a mental model of the product they interact with<br />

Humans store semantic knowledge about the world as for example<br />

schemas. A schema is representation of something, like a technical<br />

product. A technical product schema says that technical products are<br />

means used to solve a need, something I denote the primary goal of a<br />

user. The schema also tells us that a human often must interact with<br />

the product to make it solve the primary goal, that is, a user has to do<br />

various tasks throughout the product lifecycle. These tasks are done to<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

529


User Assistance<br />

reach, something I denote, the secondary goals. A number of secondary<br />

goals, for example install, configure and use, must be reached to solve a<br />

primary goal.<br />

Now, when users see or interact with the user interface of a particular<br />

product, the product schema is invoked and “filled in” as the user constructs<br />

a mental model about the current product. The mental model<br />

tells the user a lot of things, for example what specific primary goals the<br />

current product can solve and what specific tasks must be done to solve<br />

specific secondary goals. Users try to employ a strategy from the mental<br />

model on how to interact with the product to reach both the primary<br />

and secondary goals.<br />

Users are active and goal oriented when trying to solve a need<br />

Users are focused on doing real tasks to reach real goals. The product<br />

interaction starts out from wanting to reach a secondary goal.<br />

How confident the user is about the mental model probably affects the<br />

behavior since users are “energy calculative” and try to find the path of<br />

least effort. If a user is uncertain about the mental model and how to<br />

do a task, the user would probably not start to try the product since the<br />

consequence could be a waste of a lot of energy before the goal is finally<br />

reached. Then it is better to first get a confirmation on the strategy,<br />

by finding additional knowledge about how to do. If the user is certain<br />

about the mental model and strategy, then the most energy saving behavior<br />

is to start to follow it since putting effort on doing something else,<br />

like reading about a task, is a waste of energy.<br />

When do users experience a problem and what do they do?<br />

Users end up in a problem situation for a number of reasons. A user<br />

can perceive the mental model to be clear or vague and the user can be<br />

certain or uncertain about the mental model. But the perceived model<br />

can also be more or less in accordance with the product design. A user<br />

can for example be certain and perceive to have a correct mental model,<br />

were it is incorrect. When such a user is trying to do a task the outcome<br />

is probably a failure because the user is not following any of the possible<br />

paths required to use the product successfully. The user gives up<br />

when all possible problem solving solutions are tried and decides to find<br />

external help.<br />

The user senses a gap in knowledge which leads to an information<br />

need. Users start to search for information to bridge the gap. The user is<br />

located in a search situation. Users formulate a third goal strategy which<br />

is to find information to resolve the problematic situation. Users form a<br />

“mental question” that is related to the secondary goal and in turn the<br />

primary goal. Users display an information seeking behavior.<br />

How does a user find help? Who can answer?<br />

There are in practice two parties that can answer user questions: other<br />

users and the community of individuals that represents the manufacturer.<br />

Users often turn to other users, like colleagues, friends etc. Another<br />

user is anyone who is perceived to have the answer. Social media has a<br />

huge impact since now the whole world of users is reachable.<br />

530<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

A manufacturer of a technical product has a responsibility to provide<br />

answers to all questions directed to him. A manufacturer can take on<br />

a predictive or reactive approach to answer questions. In a reactive<br />

approach, questions are answered as they arise, which the support<br />

department is responsible for. In a predictive approach, technical communicators<br />

are predicting user questions (or that is what technical<br />

communicators should be doing) and preparing the answers before the<br />

question is stated. This approach is possible since technical communicators<br />

often work in a pre-release mode.<br />

What is SeSAM all about?<br />

SeSAM is a design methodology and architecture for technical communicators<br />

to design technical documentation. SeSAM is a methodology<br />

to predict user questions and design effective search user interfaces to<br />

make answers findable, built on a faceted browsing principle. SeSAM<br />

is based on a taxonomical approach to design, which means that user<br />

questions are predicted and classified using multiple facet taxonomies<br />

that are derived from the primary, secondary and third user goals.<br />

jonatan.lundin@excosoft.se<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

531


User Assistance<br />

UA 15<br />

Workshop<br />

Hands-On HTML5<br />

Alan Houser, Group Wellesley, Inc., Pittsburgh, USA<br />

The current popular version of the language of the World Wide Web,<br />

HTML 4, is more than 10 years old. In the time since HTML 4 was originally<br />

designed, Web text and graphics have been supplemented by multimedia,<br />

Web applications, and rich interactivity.<br />

HTML5 more fully supports the Web‘s current and future capabilities,<br />

and maintains the vision of a standards-based Web. Although today’s<br />

World Wide Web provides rich capabilities, HTML5 was designed with<br />

simplicity in mind. In this workshop, we will explore HTML5 support for<br />

structure and semantics, by developing HTML5 web pages.<br />

The Basics of an HTML5 Web Page<br />

––<br />

Doctype Declaration<br />

––<br />

Document Metadata<br />

––<br />

Document Sections<br />

––<br />

Content Groups<br />

––<br />

Inline Semantics<br />

Doctype Declaration<br />

HTML5 documents begin with the following DOCTYPE declaration:<br />

.<br />

Contrast this with a common form of the HTML 4 DOCTYPE<br />

declaration:<br />

<br />

The HTML5 doctype declaration is evidence of several goals in HTML5<br />

design:<br />

––<br />

Simplicity: The HTML5 DOCTYPE is terse and easy to remember.<br />

––<br />

HTML5 is envisioned as a living specification. The specification is<br />

expected to evolve over time, as new features are proposed by the<br />

community and are supported by browser vendors. HTML documents<br />

should not require a particular version number to be appropriately<br />

displayed.<br />

Document Metadata<br />

HTML5 document-level metadata elements provide containers for information<br />

about the document. These include items such as the document<br />

title, styling information, and other document-level information.<br />

Elements in this category include , , and .<br />

These elements are largely unchanged from previous versions of<br />

HTML.<br />

Document Sections<br />

HTML5 provides improved markup for labeling and grouping document<br />

sections. This greatly facilitates display of HTML5 content on different<br />

devices with different display characteristics. It can also substantially<br />

532<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


User Assistance<br />

improve handling of web content by screen readers and other alternate<br />

means for accessing content.<br />

HTML5 defines a new element for grouping related content.<br />

The element contains navigation elements. , ,<br />

and also have special meaning in HTML5.<br />

This workshop will pay particular attention to these elements, as they<br />

form the structure of an HTML5 web page.<br />

Content Groups<br />

These elements wrap paragraph-level contents. Examples include <br />

(paragraph), (ordered list), (unordered list).<br />

These elements are largely unchanged from previous versions of<br />

HTML.<br />

HTML5 supports the element, used in previous versions of HTML<br />

for identifying content groups. HTML5 strongly encourages authors to<br />

avoid the element, and use the appropriate HTML5 elements for<br />

grouping content.<br />

Inline Elements<br />

These elements wrap words and phrases within paragraph-level content.<br />

Examples include , , .<br />

These elements are largely unchanged from previous versions of<br />

HTML.<br />

Like previous versions of HTML, HTML5 supports the element<br />

for labeling words and phrases with arbitrary semantics.<br />

Resources<br />

W3C HTML5: Edition for Web Authors:<br />

http://dev.w3.org/html5/spec-author-view/<br />

W3C HTML5 working group: http://www.w3.org/html/wg/<br />

W3C HTML5 Working Draft: http://www.w3.org/TR/html5/<br />

WHATWG: http://www.whatwg.org/<br />

WHATWG HTML5 spec:<br />

http://www.whatwg.org/specs/web-apps/current-work/multipage/<br />

Dive Into HTML5 by Mark Pilgrim http://diveintohtml5.info/<br />

HTM5 for Web Designers by Jeremy Keith<br />

Pro HTML5 Programming by Peter Lubbers<br />

If you have any questions please contact: arh@groupwellesley.com<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

533


Visuelle Kommunikation


Visuelle Kommunikation<br />

VISU 1<br />

Fachvortrag<br />

Adobe Captivate & HTML5:<br />

E- und M-Learning aus einem Guss!?<br />

Martin Uhrig, tecwriter.de – Training & Consulting, Ettlingen<br />

„Mobile Learning“ – in aller Munde, in der Praxis jedoch meist noch Zukunftsmusik<br />

– nicht zuletzt weil die Technologien noch reifen, die Zeit<br />

knapp und geeignete Werkzeuge Mangelware sind. Dieser Vortrag soll<br />

zeigen, wie ein ganzheitliches Konzept von E- und M-Learning anhand<br />

eines Praxisbeispiels mit Adobe Captivate aussehen kann.<br />

Veranlassung<br />

M-Learning ermöglicht es dem Nutzer, an jedem beliebigen Ort, zu<br />

jeder beliebigen Zeit, (interaktive) Lerneinheiten zu bearbeiten. Eine<br />

ideale Möglichkeit, um Leer- und Wartezeiten auszufüllen. Dabei hat<br />

M-Learning große Chancen, eine bedeutende Größe auf dem Gebiet der<br />

Wissensvermittlung zu werden. In der Theorie sollte eine mobile Lerneinheit<br />

im Idealfall eigenen didaktischen Rahmenbedingungen folgen.<br />

In der Praxis wird allerdings der Ruf nach Lerneinheiten immer lauter,<br />

die zentral erstellt und per Knopfdruck sowohl als E- als auch als M-<br />

Learning-Version publiziert werden.<br />

HTML5<br />

Workflow<br />

Einschränkungen<br />

Lernplattformen<br />

E- und M-Learning mit Adobe Captivate<br />

Die Entwicklung von HTML5 schreitet voran und auch Captivate publiziert<br />

in der sechsten Version direkt in dieses Format. Damit ist der Weg<br />

frei für Lerneinheiten, die gleichzeitig für Desktop-Systeme sowie mobile<br />

Endgeräte erstellt und bereitgestellt werden können. Das reduziert<br />

den Entwicklungsaufwand, spart Zeit und Geld.<br />

Sie können Captivate-Projekte zugleich im SWF- wie auch im HTML5-<br />

Format veröffentlichen und auf diesem Wege sicherstellen, dass Ihre<br />

Ergebnisse für nahezu 100 % aller Zielgeräte zur Verfügung stehen.<br />

Aktuell werden in Captivate bei der HTML5-Veröffentlichung folgende<br />

Objekte nicht unterstützt:<br />

−−<br />

Externe Flash-Animationen (Widgets) und Flash-Funktionen<br />

−−<br />

Text-, Mausklick- und Folienübergangsanimationen<br />

−−<br />

Rollover-Beschriftungen, -Bilder, -Minifolien, -Smartformen<br />

−−<br />

Kurzantwort-, Zuordnungs-, Lückentext- sowie Likert-Fragenfolien<br />

−−<br />

Fragenpools und Zufallsfragenfolien<br />

Auch wenn diese aktuellen Einschränkungen auf den ersten Blick umfassend<br />

wirken mögen, stellen sie doch nur eine Minderheit der Möglichkeiten<br />

von Captivate dar. Eine ordentliche Planung vorausgesetzt,<br />

können deshalb auch heute schon unkompliziert hochwertige M-Learning-Einheiten<br />

entstehen.<br />

Sie können Inhalte aus Captivate sowohl im SWF- als auch im HTML5-<br />

Format über eine Lernplattform bereitstellen. Dadurch können sehr<br />

interessante Lernwelten entstehen: Lernumgebungen, in denen Sie es<br />

Ihren Teilnehmern ermöglichen, einen Kurs sowohl auf einem Desktop-<br />

System als auch auf einem mobilen Endgerät zu beginnen, zu unterbrechen<br />

und auf demselben oder einem anderen Gerät genau an der<br />

zuletzt bearbeiteten Stelle fortzusetzen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

537


Visuelle Kommunikation<br />

Ablauf des Vortrages<br />

Im Rahmen dieses Vortrages lernen Sie das Autorenwerkzeug Adobe<br />

Captivate 6 kennen. Dabei liegt der Fokus insbesondere auf der Konzeption,<br />

Veröffentlichung und Bereitstellung von E- und M-Learning-<br />

Einheiten. Das Vorgehen wird Ihnen anhand eines Praxisbeispiels<br />

vorgestellt.<br />

Literatur- und Linkempfehlungen<br />

Der Blog von tecwriter.de mit wöchentlich erscheinenden Artikeln zu<br />

Captivate: www.tecwriter.de/wordpress<br />

Uhrig, Martin (<strong>2012</strong>): Adobe Captivate 6: Erfolgreiche Screencasts und<br />

E-Learning-Anwendungen erstellen. Berlin: ePubli GmbH (ISBN:<br />

978-3-8442-2846-5)<br />

Uhrig, Martin (2010): Adobe Captivate 5: Erfolgreiche Screencasts und<br />

E-Learning-Anwendungen erstellen. Berlin: ePubli GmbH (ISBN:<br />

978-3-86931-736-6)<br />

Kontakt für Rückfragen: uhrig@tecwriter.de<br />

538<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

VISU 2<br />

Fachvortrag<br />

Ohne Worte – visuelle Vermittlung<br />

von Informationen<br />

Prof. Anja Grunwald, Hochschule Karlsruhe – Technik und Wirtschaft<br />

Bilder verwenden – warum?<br />

Die Aufgaben der Technischen Redakteure werden umfangreicher:<br />

Immer komplexere technische Produkte verlangen ebenso komplexe<br />

Dokumentationen. Hinzu kommen stetig kürzer werdende Produktlebenszyklen<br />

und Fragen des Übersetzungsmanagements, etwa in Form<br />

der z. B. von der Maschinenrichtlinie geforderten Übersetzung und Lokalisierung<br />

der Dokumentation für sämtliche Zielländer des Produktes.<br />

Das Ersetzen der Texte in sprachneutrale (Achtung: nicht gleich kulturneutrale!)<br />

Bilder ist sowohl aus Kostenperspektive als auch im<br />

Sinne der Attraktivität der Dokumentationen sinnvoll: Während große<br />

Textmengen den Nutzer eher abschrecken, sind Bilder zumeist motivierender<br />

und verschaffen den Lesern einen schnellen Überblick.<br />

Unterschiede zwischen Text und Bild<br />

Nur selten kann eine Dokumentation vollständig durch Bilder ersetzt<br />

werden. Für welchen Zweck aber wird welches Medium sinnvoll eingesetzt?<br />

Worin besteht überhaupt der Unterschied zwischen Text und<br />

Bild?<br />

−−<br />

Bilder haben den Vorteil gegenüber Texten, dass sie ganzheitlich und<br />

simultan wahrgenommen werden. Texte hingegen müssen linear<br />

Wort für Wort gelesen werden.<br />

−−<br />

Können Bilder vor allem Räumliches oder Objekthaftes sowie Farben<br />

oder Materialität gut darstellen, erfassen Texte besser Abstraktes sowie<br />

kausale Zusammenhänge – aber auch komplexe temporale Strukturen,<br />

die über eine reine Abfolge hinausgehen.<br />

Die unterschiedlichen Möglichkeiten der beiden Medien stehen dabei<br />

nicht in Konkurrenz zueinander, sondern machen sie zu Partnern, die<br />

sich gut ergänzen.<br />

Bilder rezipieren – wie?<br />

Während Sprache an einem komplexen – mehr oder weniger eindeutigen<br />

– Regelwerk orientiert ist, das wir zunächst intuitiv und später in<br />

der Schule auch analytisch erlernen, sind wir bei der Rezeption von Bildern<br />

auf uns selbst gestellt. Die Visual literacy, also die Fähigkeit, Informationen,<br />

die in Form von Bildern dargestellt werden, zu deuten, ist nur<br />

an wenigen Stellen Bestandteil der schulischen Ausbildung. Trotzdem<br />

oder gerade deshalb sollte ein Technischer Redakteur genau wissen,<br />

wie Bilder vom Betrachter rezipiert werden, um Bildmaterial sinnvoll zu<br />

erstellen.<br />

Für die Informationsvermittlung durch Bilder sind hierbei drei Kategorien<br />

hilfreich: Wirkung, Ikonizität und Konvention.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

539


Visuelle Kommunikation<br />

Wirkung<br />

Wenn wir eine Sprache nicht sprechen, können wir einen Text nicht<br />

verstehen. Der Text kann seine Botschaft nicht entfalten. Der Wirkung<br />

eines Bildes aber kann sich der Betrachter nicht entziehen – auch wenn<br />

er die Botschaft, die übermittelt werden soll, nicht versteht.<br />

Die unmittelbare Wirkung eines Bildes knüpft direkt an verschiedene<br />

Erfahrungen an, die Menschen im Laufe ihres Lebens gemacht haben.<br />

Hierzu gehören Körper- und Umwelterfahrungen ebenso wie Erfahrungen<br />

aus dem soziokulturellen Umfeld. So reagieren wir auf Farben (z. B.<br />

kalt/warm), Formen (z. B. hart/weich) und Proportionen (z. B. ausgewogen,<br />

spannungsvoll), organisieren und strukturieren Gesehenes automatisch<br />

ohne unser bewusstes Dazutun (Gestaltgesetze, Trennung von<br />

Figur und Grund, räumliches Sehen).<br />

Die reine Wirkung eines Bildes ist für Technische Dokumentationen<br />

natürlich nicht ausreichend, spielt aber für deren werbenden Charakter<br />

eine wesentliche Rolle: Bilder können positiv oder negativ auf<br />

den Rezipienten wirken, können abschrecken oder Interesse wecken,<br />

können und sollen den Charakter eines Produktes oder einer Marke<br />

widerspiegeln.<br />

Ikonizität<br />

In Technischen Dokumentationen steht meist das Abbilden von Produkten<br />

im Vordergrund – und damit die Ikonizität, also die Ähnlichkeit<br />

zwischen Abbild und Original. Anhand von Farben, Formen oder anderen<br />

spezifischen Merkmalen, die dem Original gleichen, können wir als<br />

Betrachter Objekte identifizieren.<br />

Dabei ist es nicht zwingend von Vorteil, die größtmögliche Ähnlichkeit<br />

zu erzeugen. Oftmals sind auch verschiedene Grade von Abstraktionen<br />

mittels unterschiedlicher Darstellungstechniken (Fotografie, Illustration,<br />

Strichzeichnung – farbig oder schwarz-weiß) von Vorteil, um auf<br />

Wesentliches zu verweisen.<br />

In Bildern wird die dreidimensionale Welt auf zwei Dimensionen reduziert.<br />

Damit eröffnet auch die gezielte Auswahl verschiedener Projektionsformen<br />

(Parallelprojektionen – 2D und 3D, Perspektiven) unterschiedliche<br />

Möglichkeiten zwischen Maß- und Wahrnehmungstreue.<br />

Konventionen<br />

Wenn Wissen und Informationen über die Ähnlichkeit hinaus visuell<br />

explizit und präzise vermittelt werden sollen, steht der Technische Redakteur<br />

vor der Herausforderung, stringente Konventionen einzuführen<br />

bzw. umzusetzen.<br />

Konventionen beruhen auf Festlegungen und Regelungen. Diese<br />

können<br />

−−<br />

in Form von (inter-)nationalen Normen vorliegen (z. B. Farben und<br />

Formen der Sicherheitszeichen oder die Bedeutung bestimmter Piktogramme);<br />

−−<br />

individuell für einzelne Dokumente festgelegt werden (z. B. das Einfärben<br />

von Bauteilen, die in einer Handlungsanweisung bewegt werden<br />

sollen, oder die Zuweisung von Farben einzelner Kapitel eines<br />

Produktkataloges).<br />

540<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

Hinzu kommen Mittel der Aufmerksamkeitssteuerung, wie Pfeile, Umrandungen,<br />

Ausschnittvergrößerungen, farbige Hervorhebungen und<br />

Texturen.<br />

Fazit<br />

Bilder stehen im Spannungsfeld der drei Bereiche Wirkung, Ikonizität<br />

und Konvention.<br />

Visuelle Vermittlung von Informationen im Spannungsfeld von Wirkung,<br />

Ikonizität und Konvention<br />

Der Wirkung eines Bildes kann sich der Betrachter nicht entziehen. Sie<br />

ist direkt und unmittelbar, allerdings auch diffus – jedes Bild kann auf<br />

verschiedene Menschen unterschiedlich wirken. Konventionen innerhalb<br />

einer Darstellung sind hingegen nicht selbstverständlich, sondern<br />

müssen erlernt werden. Dafür sind diese Konventionen jedoch präzise,<br />

da man sich auf die konkrete Bedeutung der Zeichen (Farben, Formen<br />

etc.) geeinigt hat. Je nachdem, was mit einer Darstellung erreicht werden<br />

soll, kann der Schwerpunkt innerhalb dieses Spannungsfeldes verschoben<br />

werden. In der Kunst oder auch in der Werbung wird oftmals<br />

nur auf Wirkung abgezielt, die Bedeutung darf offen bleiben. In Katalogen<br />

reicht meist das Wiedererkennen von Objekten durch Ähnlichkeit<br />

zum Original. Bei Warnhinweisen hingegen muss schon aus sicherheitstechnischer<br />

Perspektive und aufgrund der Produkthaftung aus der<br />

Abbildung deren präzise Bedeutung hervorgehen.<br />

Die Bedeutung von Konventionen kann besonders dann gut erfasst und<br />

erlernt werden, wenn sich die Darstellung auf die Ikonizität (z. B. ikonisches<br />

Piktogramm) und die Wirkung (Rot fordert mehr Aufmerksamkeit<br />

als Grün) bezieht.<br />

Die Aufgabe des Technischen Redakteurs besteht somit darin, sich in<br />

diesem Spannungsfeld zurechtzufinden und für den jeweiligen Kommunikationszweck<br />

das jeweils geeignete Mittel für die Erstellung von<br />

Bildern zu wählen – als reine Bildanleitung oder auch im Kontext begleitender<br />

Texte.<br />

für Rückfragen: anja.grunwald@hs-karlsruhe.de<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

541


Visuelle Kommunikation<br />

VISU 3<br />

Fachvortrag<br />

Parallelisierung der Konstruktion<br />

und Produktkommunikation mit<br />

SolidWorks und 3DVIA Composer<br />

Ralf Otto, SolidWorks, Haar<br />

Produktkommunikation – eine Herausforderung für Unternehmen,<br />

die Kunden, Zulieferern und Entscheidungsträgern umfassende Informationen<br />

bezüglich Produktspezifikationen und -funktionalitäten<br />

bereitstellen.<br />

Zusätzliches Gewicht erhält die Produktkommunikation, wenn betrachtet<br />

wird, welche Bedeutung die Technische Dokumentation und die<br />

multimediale Veröffentlichung für die Entwicklungszeiten bis zur finalen<br />

Freigabe und somit den Return on Investment des Unternehmens<br />

hat.<br />

Im besten Fall werden bestehende CAD-Produktdaten in der Technischen<br />

Kommunikation zeitnah zur Konstruktion aufgewertet und für<br />

die effiziente und effektive Verteilung von Produktinformationen an<br />

technische und nicht-technische Empfänger genutzt.<br />

Herkömmliche Ansätze der Technischen Dokumentation bieten leider<br />

nur wenige Ausgabe-Möglichkeiten und sind unflexibel in Bezug auf<br />

Änderungen in der Entwurfsphase des Produkts. Auch der Nutzen und<br />

die Qualität von starren 2D-Ausgaben müssen sich im Wertewandel der<br />

mobilen Arbeitswelt rechtfertigen.<br />

Die Integration der Software für Technische Kommunikation – 3DVIA<br />

Composer – in den Entwicklungsprozess zeigt innovative Perspektiven<br />

auf, die digitale Produktdokumentation als Wettbewerbsvorteil zu<br />

nutzen.<br />

für Rückfragen: ralf-dieter.otto@3ds.com<br />

542<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

VISU 4<br />

Fachvortrag<br />

Abbildungen in<br />

Betriebsanleitungen<br />

helfen den Anwendern<br />

durch schnellere<br />

Erfassbarkeit, dem<br />

Auftraggeber durch<br />

ein reduziertes<br />

Textvolumen.<br />

Mit Fotos, Illustrationen,<br />

3D-Animationen<br />

und Videos stehen<br />

grundsätzlich<br />

verschiedene Medien<br />

zur Auswahl<br />

Effizienter Einsatz von Grafik und Bild<br />

in der Technischen Dokumentation<br />

Dirk Meißner, Kothes! Technische Kommunikation GmbH & Co. KG, Kempen<br />

Klaus Vossen, Corel GmbH, Unterschleißheim<br />

Der Weg zum „einfach und gut erstellten Bild“ in der Technischen Dokumentation<br />

scheint oft lang und steinig. So kommt es, dass viele Leser<br />

von Betriebsanleitungen durch Textwüsten und bildarme Landschaften<br />

stolpern und das notwendige Verständnis auf der Strecke bleibt.<br />

Der redaktionelle Alltag wird von Zeit- und Termindruck beherrscht.<br />

Nicht nur die Recherche und die Erstellung des Dokuments, auch die<br />

Übersetzung und die Publikation benötigen Zeit. Die Bildbearbeitung<br />

und ein damit verbundener gelungener Einsatz von Fotos, Vektor- und<br />

Pixelgrafiken kommt da oft zu kurz, da im Allgemeinen eine ausgeglichene<br />

visuelle Darstellung in Betriebsanleitungen oft als zu aufwändig<br />

und somit als Zeitfresser gilt.<br />

Dabei wirken Abbildungen in Betriebsanleitungen nicht nur unterstützend<br />

für den Redakteur, sondern helfen in ganz besonderem Maße den<br />

Lesern und Anwendern der Dokumentation!<br />

Vorteile durch den Einsatz von Abbildungen:<br />

−−<br />

Schnellere Erfassbarkeit von (räumlichen) Zusammenhängen<br />

−−<br />

Leichte Übertragbarkeit vom Bild auf die Realität, eine sprachenund<br />

kulturübergreifende Verständlichkeit<br />

−−<br />

Abbau des Textvolumens<br />

−−<br />

Allgemein: Qualitätssteigerung der Technischen Dokumentation<br />

−−<br />

Imagegewinn und Konkurrenzvorteil<br />

−−<br />

Kostenersparnis bei Übersetzungen durch reduzierten Textumfang<br />

Im Vortrag werden Bedenken und Vorurteile ausgeräumt, die häufig<br />

geäußert werden als Argumente gegen den Einsatz von visuellen Elementen<br />

in der Technischen Dokumentation:<br />

−−<br />

Aufwändige Erstellung<br />

−−<br />

Quelldaten (z. B. endgültige Konstruktionszeichnungen, Fotos der<br />

fertigen Anlage) sind zu spät erhältlich für die Erstellung der Dokumentation<br />

−−<br />

Verwaltungsaufwand: Dokumentation wird für viele unterschiedliche<br />

Publikationswege benötigt (Formate, Größen etc.)<br />

Methoden, Tipps und Beispiele zur einfachen und effizienten Erstellung<br />

von Übersichten, handlungsorientierten oder schematischen Abbildungen<br />

sind die Grundsäulen des Vortrags.<br />

Welches Bild macht wo Sinn?<br />

Die Auswahl der Darstellungstypen steht an erster Stelle. Abhängig vom<br />

Vorwissen der jeweiligen Zielgruppe und den gegebenen Möglichkeiten<br />

muss festgelegt werden, welche Bildquelle für die jeweilige Darstellung<br />

sinnvoll ist.<br />

Fotos schaffen Nähe. Fotos bilden die Realität ab und schaffen dadurch<br />

bei einer breiten Zielgruppe ein Höchstmaß an Verständnis. Handgriffe,<br />

bestimmte Bewegungen mit Werkzeugen oder Bauteilen inklusive der<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

543


Visuelle Kommunikation<br />

geforderten persönlichen Schutzausrüstung sind auf Fotos gut, einfach<br />

und in wenigen Bearbeitungsschritten darstellbar.<br />

Mit Vektorgrafiken (Illustrationen) lassen sich komplexe Abbildungen<br />

wie Übersichtsdarstellungen von großen Maschinen oder Anlagen deutlich<br />

besser darstellen als mit Fotos. Weiter dienen Vektorgrafiken der<br />

Darstellung von Schnitten, Explosionsansichten, aber auch handlungsorientierten<br />

Abbildungen.<br />

Welche Quellen sollten genutzt werden?<br />

Die Frage nach den Bildquellen stellt sich als Nächstes:<br />

−−<br />

Welche Bildquellen stehen zur Verfügung?<br />

−−<br />

Kann ich die Maschine/Anlage in einer Fotorecherche komplett ablichten?<br />

−−<br />

Können Montage oder Demontagearbeiten und durchzuführende<br />

Wartungstätigkeiten fotografiert werden?<br />

−−<br />

Passt die Recherche zeitlich in den Projektrahmen?<br />

Besteht die Möglichkeit einer Fotorecherche nicht, stehen als eine sichere<br />

und mittlerweile vielfach vorhandene Quelle 3D-CAD-Daten aus<br />

der Konstruktion zur Verfügung. Diese 3D-Daten/Modelle liegen normalerweise<br />

bereits in einer frühen Projektphase vor. 3D-CAD-Daten<br />

können mit dem passenden Werkzeug direkt im Format der Konstruktionsanwendung<br />

geöffnet und mit wenigen Handgriffen zu einer Illustration<br />

umgewandelt und abgeändert werden.<br />

544<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

Vorteile bei der Verwendung von 3D-Modellen:<br />

−−<br />

Erstellung von (animierten) Explosionsansichten<br />

−−<br />

Export zu Strichzeichnungen oder Pixelgrafiken<br />

−−<br />

Vordefinierte Ansichten<br />

−−<br />

Minimaler Aktualisierungsaufwand durch (teil-)automatisierte Nachführung<br />

von Design-Änderungen<br />

Weitere „Bildquellen“ sind zum Beispiel CAD-Zeichnungen, Prozess-<br />

und Instrumentendiagramme, als 3D-Aufstellungsplan oder als<br />

Schnittstellenzeichnungen.<br />

Mit einem Werkzeug, das diese verschiedenen Quellen allesamt nutzen<br />

(also verarbeiten) kann, ist bereits ein großer Schritt in Richtung effizienter<br />

Nutzung von visuellen Elementen für die Technische Dokumentation<br />

getan.<br />

Mit den passenden<br />

Hilfsmitteln für<br />

Erstellung und<br />

Verwaltung von<br />

Abbildungen werden<br />

visuelle Elemente in<br />

der Dokumentation<br />

leicht einsetzbar.<br />

„Aufwändige Erstellung“? ... Es geht auch einfach<br />

Schaffen Sie sich kleine Helfer bei der Grafikbearbeitung und nutzen<br />

Sie clevere Werkzeuge:<br />

−−<br />

Eigene Makros zur automatischen Bildgrößen- und Auflösungseinstellung<br />

−−<br />

Arbeitsvorlagen<br />

−−<br />

Softwareinterne oder eigens erstellte Symbole wie Pfeile, Werkzeuge<br />

oder Handbewegungen<br />

−−<br />

Positionsnummern oder -buchstaben<br />

Einige der oben genannten Hilfsmittel erfordern anfänglich einen höheren<br />

Aufwand, machen sich aber über die Verwendungsdauer mehr als<br />

bezahlt.<br />

Entscheidend ist auch die Nachhaltigkeit eines zu erstellenden Bildes.<br />

Es ist stets sinnvoll, sich beim Erstellen einer Abbildung Gedanken zu<br />

machen, ob und wie eine Abbildung in der Dokumentation wiederverwendet<br />

werden kann.<br />

Beispiele für wiederverwendbare Darstellungen:<br />

Schematische Transportdarstellungen<br />

(dokumentenübergreifend<br />

wiederverwendbar)<br />

Montage und Demontage eines Bauteils<br />

in einer Abbildung (kapitelübergreifend<br />

wiederverwendbar)<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

545


Visuelle Kommunikation<br />

Abbildungen können<br />

wie Textelemente<br />

als Bausteine in<br />

einer strukturierten<br />

Dokumentation<br />

verwendet werden.<br />

Ein Redaktionssystem<br />

hilft beim Aufbau und<br />

der Einhaltung der<br />

Dokumentationsstruktur<br />

– in Text und Bild.<br />

Wie kommt das Bild in die Dokumentation?<br />

Wie kommt das Bild in die Dokumentation? Bearbeiten, zwischenspeichern,<br />

exportieren, in das Dokument laden … und und und ... – es gibt<br />

einfachere Wege!<br />

Grafik-Tools können in ein Redaktionssystem eingebunden werden, so<br />

dass grafische Elemente (Bilder, Illustrationen) genau so wie Textabsätze<br />

als Bausteine behandelt werden und in Dokumentationen (auch<br />

dokumentenübergreifend!) an passender Stelle eingesetzt, abgeändert<br />

und mit der kompletten Dokumentation publiziert werden.<br />

Der Vortrag zeigt am Beispiel des Redaktionssystems „COSIMA go!“<br />

und des Grafiktools „Corel DESIGNER®“ Beispiele zum Erstellen, Bearbeiten<br />

und Publizieren von Abbildungen aus dem Redaktionssystem<br />

heraus.<br />

Das Ziel: Anwender<br />

und Auftraggeber<br />

überzeugen – mit<br />

hoher Qualität durch<br />

gute Lesbarkeit und<br />

kostengünstiger<br />

Dokumentation<br />

durch effiziente<br />

Erstellung einer<br />

visuellen Technischen<br />

Dokumentation.<br />

Fazit:<br />

Visuelle Darstellungen bereichern die Technische Dokumentation und<br />

vereinfachen die Lesbarkeit.<br />

Mit geeigneten Werkzeugen und einem Redaktionssystem ist die Erstellung<br />

nicht nur weniger aufwändig, die grafischen Darstellungen helfen<br />

bei der kosten- und zeitsparenden Erstellung und Aktualisierung der<br />

Technischen Dokumentation.<br />

Fotos, Vektorillustrationen und 3D-Animationen können je nach den<br />

eigenen Möglichkeiten und dem Einsatzzweck der Dokumentation als<br />

geeignetes Mittel gewählt werden.<br />

Die Beispiele zeigen es, der Einsatz von grafischen Darstellungen erfolgt<br />

mit einem klaren Ziel vor Augen: Zufriedene Kunden und Auftraggeber<br />

dank qualitativ hochwertiger und kostengünstig erstellter<br />

Dokumentation.<br />

für Rückfragen:<br />

klaus.vossen@corel.com<br />

d.meissner@kothes.de<br />

546<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

VISU 5<br />

Fachvortrag<br />

Und … Action! Wie Filme die<br />

Wissenslandschaft bereichern<br />

Melanie Denner, Pädagogische Hochschule, Heidelberg<br />

Diana Fuchs, SEW-EURODRIVE GmbH & Co KG, Bruchsal<br />

Filme sprechen als audiovisuelle Medien die zwei wichtigsten Sinnesorgane<br />

des Menschen an, Auge und Ohr. Mit dieser Kombination ist es<br />

möglich, beim Lernen eine bessere Gedächtnisleistung zu erbringen.<br />

Auditive Informationen werden besser behalten, wenn eine bildhafte<br />

Vorstellung vorhanden ist. Dieser Mehrwert kann natürlich gezielt im<br />

Trainingsbereich genutzt werden. Lernen wird durch den Einsatz von<br />

audiovisuellen Medien anschaulicher, interessanter und effektiver und<br />

weckt beim Trainingsteilnehmer eine positive Grundhaltung dem Lernen<br />

gegenüber. Durch Bewegung und Interaktion im Film können zusätzliche<br />

Informationen übertragen werden. Diese sind auch noch für<br />

den Lerner einfach zu lesen, denn für das Lesen von Filmen sind keine<br />

besonderen Fertigkeiten notwendig.<br />

Vermittelte Informationen werden schneller verstanden und verbreiten<br />

sich rascher.<br />

Legetrickfilm<br />

Die Herausforderung liegt darin, Wissen einfach, unterhaltsam und in<br />

kurzer Zeit zu vermitteln. Der Legetrickfilm erfüllt genau diese Ansprüche,<br />

er ist ein kurzes Video-Erklärformat. Es ist einfach aufgebaut: Gezeichnete<br />

Illustrationen werden von zwei Händen auf einer weißen Fläche<br />

bewegt. Parallel zu den Illustrationen ist ein Sprechertext zu hören.<br />

Der Sprechertext ist der akustische Begleiter der optischen Information,<br />

der Fluss der gezeigten Bilder wird durch den Sprechertext nicht unterbrochen.<br />

Illustrationen, Bewegung und Text ergänzen sich gegenseitig,<br />

um Sachverhalte oder Prozesse zu erläutern. Legetrickfilme können<br />

somit komplexe Sachverhalte einfach und verständlich erklären.<br />

Als Unterstützung der charmanten Darstellung dient das Sounddesign.<br />

Bewegungen und Zeichnungen werden bei Bedarf mit Sounds hervorgehoben<br />

und mit Sprechertext ergänzt. Der Sprechertext wird von<br />

einer realen Person gesprochen, das erweckt mehr Sympathie, als eine<br />

computergenerierte Stimme es kann. Das gesprochene Wort wird dann<br />

nicht nur durch den Text bestimmt, sondern zusätzlich durch Klang und<br />

Betonung.<br />

Durch den hohen Abstraktionsgrad und die natürliche Darstellung<br />

funktioniert der Legetrickfilm über alle Zielgruppen hinweg.<br />

Filmproduktion<br />

Für die Produktion eines Legetrickfilms ist eine überschaubare Menge<br />

an Materialien und Ausrüstung erforderlich. Im ersten Schritt in<br />

der Pre-Produktion wird ein Drehbuch erarbeitet. Darin werden die<br />

Szenen kurz skizziert, Sprechertext ausformuliert und alle benötigten<br />

Illustrationen aufgeführt. Die Illustrationen erstellen wir mit einem<br />

vektorbasierten Grafik- und Zeichenprogramm, in diesem Fall Adobe<br />

Illustrator. Im Verlauf der Produktion wird als Erstes der Drehort eingerichtet.<br />

Um die Legetrickfilme in guter „weißer“ Qualität aufnehmen<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

547


Visuelle Kommunikation<br />

zu können, haben wir eine Trickfilmbox gebaut. Diese Box bietet einen<br />

rein weißen Untergrund und optimale Lichtverhältnisse zum Drehen.<br />

Beleuchtet wird die Box mit 10 Leuchtmitteln, die Kamera wird an einer<br />

Aussparung an der Decke festgesteckt. Sie steht dann rechtwinklig zur<br />

Aufnahmefläche. Als Aufnahmegerät verwenden wir einen Digital HD<br />

Video Camera Recorder.<br />

Trickfilmbox mit Beleuchtung, Aussparung in der Decke für die Kamera<br />

Alle Szenen werden in der Box in chronologischer Reihenfolge gedreht.<br />

Das Handmodel bewegt die Illustrationen und am Ende jeder Szene<br />

wird die Fläche leergewischt. Wird ein Detail falsch bewegt, muss die<br />

ganze Szene wiederholt werden. Legetrickfilme werden in einer Einstellung<br />

gefilmt, das heißt, es sind keine Schwenks oder Zooms erforderlich.<br />

Dies erleichtert den Produktionsprozess, da die Kamera einmal<br />

aufgebaut, ausgerichtet und eingerichtet wird. Der zweite Schritt der<br />

Produktion ist die Aufnahme des Sprechertextes. Für die Tonaufnahmen<br />

verwenden wir einen portablen WAV/MP3 Recorder. Bei der Aufnahme<br />

ist darauf zu achten, dass der Aufnahmeort absolut ruhig und<br />

schallarm ist.<br />

Die Post-Produktion besteht aus dem Schnitt der Rohaufnahmen. Beim<br />

Schnitt werden die einzelnen Einstellungen in die vorgegebene Reihenfolge<br />

montiert. Darauf abgestimmt werden die Sprechertexte und die<br />

Soundeffekte. In unserem Fall verwenden wir für die Post-Produktion<br />

das Film-Videoschnittprogramm Adobe Premiere.<br />

für Rückfragen:<br />

melanie.denner.w@sew-eurodrive.de<br />

diana.fuchs.da-pt@sew-eurodrive.de<br />

548<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

VISU 6<br />

Tutorial<br />

Erstellung, Aufbereitung und Integration<br />

von 2D-Grafiken und 3D-PDF-Modellen<br />

in technische Dokumente<br />

Mirko Schön, STIEBEL ELTRON GmbH & Co. KG, Holzminden<br />

Ulrich Isermeyer, Adobe Systems GmbH, München<br />

In der Regel werden hauptsächlich Bilder oder 2D-Grafiken wie isometrische<br />

Darstellungen oder Explosionszeichnungen in technische<br />

Dokumente eingebunden. Die 3D-PDF-Technologie gibt es zwar schon<br />

länger, aber viele scheuten in der Vergangenheit den Aufwand oder<br />

hatten Bedenken wegen der Datensicherheit. Dieses Tutorial behandelt<br />

anhand von Praxisbeispielen der Firma Stiebel Eltron die Aufbereitungsmöglichkeiten<br />

von 2D-Grafiken mit Adobe Illustrator CS6. Die<br />

Erstellung und Aufbereitung von 3D-CAD-Modellen über Adobe Acrobat<br />

mit dem 3D-PDF-Converter und die anschließende Integration in<br />

Adobe Framemaker ist Bestandteil des Tutorials.<br />

Einsatz von Adobe Illustrator für 2D-Illustrationen bei STIEBEL ELTRON<br />

Der Einsatz von Adobe Illustrator in der technischen Illustration bei<br />

STIEBEL ELTRON beschränkt sich hauptsächlich auf das Aufarbeiten<br />

der über die 3D-Konstruktionsmodelle gewonnenen 2D-Zeichnungen.<br />

Über ProEngineer/CREO werden die abgeleiteten Zeichnungen als<br />

DXF an Illustrator übergeben. Diese enthalten bereits alle für die Illustrationen<br />

notwendigen Isometrien, Explosionen und/oder Maße.<br />

Warum ProEngineer/CREO mit Adobe Illustrator und<br />

nicht eines der 3D-Illustrationsprogramme?<br />

Wir haben uns aus verschiedenen Gründen für den Weg entschieden,<br />

die 3D-Bearbeitung in ProEngineer/Creo vorzunehmen und die Aufbereitung<br />

der 2D-Daten mit Illustrator zu gestalten. Die Hauptgründe<br />

waren die nicht zufriedenstellenden Performance-Leistungen der 3D-<br />

Illustrationsprogramme bei den immer größer werdenden 3D-Modellen<br />

und die Tatsache, dass unsere Konstruktion mit ProEngineer/Creo<br />

arbeitet.<br />

Um aus diesen Zeichnungen anschauliche und leicht verständliche<br />

Illustrationen zu erzeugen, bedienen wir uns hauptsächlich folgender<br />

Werkzeuge bzw. Techniken von Adobe Illustrator CS6:<br />

Aufbereitung der Zeichnungen in mehreren Schritten<br />

Zu Anfang müssen die Linienstärken und Farben auf ein abgestimmtes<br />

Format gebracht werden. Hierzu bedienen wir uns der Möglichkeit, mit<br />

Illustrator gleichartige Konturfarben und Konturstärken zu erkennen<br />

und über die komplette Zeichnung zu markieren. Mit dieser Funktionalität<br />

sind die Konturen/Linien mit ein paar Klicks auf unseren Standard<br />

eingestellt.<br />

Hervorheben von Bauteilen oder Bedienelemente<br />

Um einzelne Bauteile oder Bedienelemente in den Fokus zu setzen,<br />

können einzelne Flächen durch direktes Einfärben oder bei nicht<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

549


Visuelle Kommunikation<br />

vollständig geschlossenen Pfaden mit dem „Interaktiv-malen-Werkzeug“<br />

hervorgehoben werden. Es kommt auch vor, dass komplexere<br />

Bauteile hervorgehoben werden müssen. Mit der Nutzung des „Zeichenstift-Werkzeuges“<br />

sind diese einfach und schnell umrandet und<br />

können, da ein geschlossener Pfad entsteht, auch gleich eingefärbt<br />

werden.<br />

Bauteile hervorheben<br />

Lupen erstellen<br />

Bei komplexen Bauteilen ist es in Printmedien oft nur mit einer Lupe<br />

möglich, Details in ausreichender Größe darzustellen, ohne die Information<br />

der Position/Lage zu verlieren.<br />

Um diese herzustellen, verwenden wir die „Schnittmaskenfunktion“<br />

oder das „Radiergummi-Werkzeug“. Im Grunde ist so eine Lupe recht<br />

schnell erzeugt. Zuerst muss der Bereich, der gezeigt werden soll, kopiert<br />

werden. Je nachdem welche Form als Lupe dienen soll, wird z. B.<br />

eine Ellipse über das zu zeigende Detail des kopierten Zeichnungsbereiches<br />

gelegt. Im nächsten Schritt wird entweder die „Schnittmaskenfunktion“<br />

ausgeführt oder mit dem „Radiergummi-Werkzeug“<br />

freigestellt.<br />

Lupe<br />

550<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

Bibliotheken<br />

Eine große Arbeitserleichterung stellen die Bibliotheken dar, die wir mit<br />

Werkzeugen, Händen, Lupenvorlagen, Schraffuren u. v. m. gefüllt haben.<br />

Vom 3D-CAD-Modell zum 3D-PDF<br />

In Acrobat 9 Pro Extended war ein 3D-CAD-Konverter mit über 40 verschiedenen<br />

Formaten enthalten, der 3D-PDFs umwandeln konnte. Mit<br />

dem mitgelieferten 3D-Reviewer konnte man diese 3D-Modelle anpassen,<br />

mit anderen 3D-Modellen zusammenführen, Animationen erstellen<br />

und auch 2D-Illustrationen als EPS oder PDF erstellen, die dann mit<br />

Adobe Illustrator weiterbearbeitet werden konnten. Seit Acrobat X Pro<br />

ist dieser 3D-CAD-Konverter und der 3D-Reviewer als Tetra4D 3D PDF<br />

Converter Plug-in erhältlich.<br />

Das Tutorial zeigt den Workflow vom 3D-CAD-Modell zum animierten<br />

3D-PDF-Dokument. Dabei werden die verschiedenen Möglichkeiten<br />

anhand unterschiedlicher Beispiele aufgezeigt.<br />

Framemaker mit 3D Stückliste, Animation oder Bauteil-Verknüpfung<br />

Durch den Import eines U3D-Modells kann Framemaker schon seit<br />

Version 8 diese 3D-Daten direkt in das Dokument einlesen und als 3D-<br />

PDF ausgeben.<br />

Seit der Version Framemaker 11 ist es zudem möglich, direkt die einzelnen<br />

3D-Ansichten, Bauteile oder Animationen als Textverknüpfung<br />

einzufügen. Auch eine Stückliste aus dem 3D-Modell kann von Framemaker<br />

automatisch generiert werden. Nach dem Export als 3D-PDF-<br />

Dokument reagiert das Dokument entsprechend interaktiv, spielt Animationen<br />

ab oder lässt Bauteile auswählen und anzeigen.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

551


Visuelle Kommunikation<br />

Textverknüpfung von 3D-Bauteilen in Framemaker 11<br />

für Rückfragen:<br />

mirko.schoen@stiebel-eltron.de<br />

ulrich.isermeyer@adobe.com<br />

552<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

VISU 7<br />

Tutorial<br />

Illustrationen aus 3D-Daten erstellen<br />

Thomas Schwarzer, commatec GbR, Gießen<br />

Sven Sonntag, Sonntagsfilm, Kronau<br />

Nahezu alle Produkte werden heutzutage in 3D-CAD-Programmen<br />

konstruiert. Diese 3D-CAD-Daten eignen sich hervorragend als Ausgangsbasis<br />

für die Technische Dokumentation. Im Umfeld der TD ist<br />

bislang vor allem 3D-PDF als Anwendung in den Fokus getreten, gepusht<br />

durch Adobe und andere Anbieter. Das Format 3D-PDF hat viele<br />

Vorzüge und Anwendungsbereiche, jedoch erscheint es für klassische,<br />

umfangreiche Betriebsanleitungen ungeeignet.<br />

Wie kann man jedoch hochwertige Illustrationen für klassische Betriebsanleitungen<br />

aus den 3D-CAD-Daten erstellen? Wie sehen die<br />

Prozesse auf Seiten des Redakteurs und des Illustrators aus? Was ist bei<br />

den einzelnen Prozessschritten zu beachten? Welche Optimierungspotenziale<br />

gibt es?<br />

Dieses Tutorial soll Ihnen dabei helfen, Antworten auf diese Fragen<br />

zu finden. An Beispielen aus verschiedenen Projekten zeigen wir<br />

Ihnen die Vorgehensweise zur Erstellung und die Möglichkeiten von<br />

3D-Illustrationen.<br />

Prozessworkflow<br />

In diesem Tutorial beleuchten wir die Prozesse sowohl aus Sicht des<br />

Redakteurs (R) als auch aus Sicht des Illustrators (I). Die beiden Berufsfelder,<br />

in denen wir als Referenten tätig sind, unterscheiden sich so<br />

stark, dass uns dies angemessen erscheint.<br />

Konzept (R+I)<br />

Konzeptionelle Überlegungen sind vor dem Einsatz von 3D-Illustrationen<br />

unerlässlich. Neben den klassischen Festlegungen für Abbildungen<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

553


Visuelle Kommunikation<br />

müssen weitere Entscheidungen in einem Team getroffen werden: Wie<br />

hoch soll der Grad an Fotorealismus sein? Dies betrifft die Oberflächen,<br />

Reflexe, Schatten und Transparenz. Wie sollen Objekte hervorgehoben<br />

werden? Welche Bewegungspfeile sollen verwendet werden oder sollen<br />

Tätigkeiten z. B. durch eine Hand visualisiert werden?<br />

Bilder definieren (R)<br />

Die Bildvorgabe ist ein entscheidender Schritt: Der Redakteur muss<br />

dem Illustrator verständlich machen, welche Illustrationen benötigt<br />

werden. Mit Worten lassen sich Bilder prinzipiell schlecht beschreiben.<br />

Besser sind Fotos und alte Grafiken, die mit zusätzlichen Informationen<br />

angereichert werden müssen: Perspektive, Ausschnitt, geöffnete oder<br />

demontierte Teile, Dateiname etc. Trotzdem kann es hier zu Missverständnissen<br />

kommen, die dann leider zu Nacharbeit führen.<br />

Pre-Production (I)<br />

Die Pre-Production ist die Planungsphase für die Produktion der<br />

eigent lichen Bilder/Illustrationen. Es muss unter anderem eine Prioritätsliste<br />

erstellt werden, die festlegt, wann welche Illustration erstellt<br />

wird, um einen optimalen Arbeitsprozess im Erstellen und Rendern zu<br />

haben.<br />

Production (I)<br />

In der Production werden die eigentlichen Illustrationen erstellt. Verwendet<br />

werden dabei vorhandene Konstruktionsdaten oder auch neu<br />

erstellte 3D-Daten. Daraus werden dann Previews für den Illustrator<br />

erstellt. Sind die Previews geprüft und ohne Beanstandung, werden die<br />

Illustrationen final gerendert. Unter Rendering versteht man das Erzeugen<br />

von Bildmaterial aus 3D-Daten.<br />

Prüfen der Previews und Finals (R)<br />

Bei den ersten gelieferten Illustrationen ist eine gründliche Prüfung<br />

nötig: Ist die Beschaffenheit der Oberflächen korrekt wiedergegeben?<br />

Sind alle Teile der Baugruppe in den Daten enthalten, auch die, die sich<br />

hinter Abdeckungen verbergen, die jedoch für bestimmte Wartungsarbeiten<br />

benötigt werden?<br />

Anschließend wird jede einzelne Illustration geprüft, am besten im<br />

Kontext des Textes. Änderungswünsche werden anschließend an den<br />

Illustrator zurückgegeben. Hierbei haben sich Webmeetings bewährt,<br />

damit Redakteur und Illustrator auch bei entfernten Standorten die<br />

Illustrationen besprechen können.<br />

Post-Production (I)<br />

Das gerenderte Bildmaterial wird zu den finalen Illustrationen zusammengebaut.<br />

Die Post-Production bestimmt den finalen „Look“ der Illustration.<br />

Die Illustrationen werden für den Druck vorbereitet.<br />

Verwenden der Illustrationen (R)<br />

Auch die gelieferten Previews können schon im Layoutprogramm<br />

verwendet werden, etwa für Prüfumläufe. Wenn für Preview und Final<br />

das gleiche Dateiformat verwendet wird und auch der Dateiname<br />

554<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

beibehalten wird, kann die Preview später problemlos durch das Final<br />

ersetzt werden.<br />

Optimieren des Konzepts (R+I)<br />

In der ersten Projektphase haben wir noch versucht, mit Excel-Listen<br />

einen Überblick über den Status der Illustrationen zu behalten: Welche<br />

sind als Preview verfügbar, welche müssen noch mal überarbeitet<br />

werden, welche fehlen noch? Diese Pflege in Excel ist mühsam und<br />

fehleranfällig zugleich. Relativ bald sind wir dann dazu übergegangen,<br />

die Statusinformation als XMP-Metadaten mithilfe von Adobe Bridge zu<br />

speichern.<br />

Durch einen eigenständigen Illustrationsleitfaden haben wir eine weitere<br />

Professionalisierung erreicht. Der Leitfaden definiert den Stil der<br />

Illustration, die Farbverwendung, Hervorhebungen etc. Außerdem sind<br />

darin auch die Tools und Prozesse zur Illustrationserstellung festgelegt<br />

(z. B. Farbmanagement-Workflow, PDF/X1a).<br />

Fazit<br />

3D-Illustrationen können so gestaltet werden, dass sie wie ein Foto wirken.<br />

Sie eignen sich daher optimal für Produktdarstellungen. Durch die<br />

natürliche Perspektive und optisch ansprechende Gestaltung werden<br />

Verständlichkeit erhöht und Leseanreize gesetzt.<br />

Gegenüber der Strichillustration (Isometrie) bietet die 3D-Illustration<br />

durch die natürliche Perspektive eine bessere Orientierung. Auch bei<br />

Bildausschnitten ist die aktuelle Position von Bauteilen in Bezug zum<br />

Gesamtprodukt eindeutig. Zudem kann die Perspektive einfach angepasst<br />

werden, während bei Strichillustrationen neu gezeichnet werden<br />

muss.<br />

Im Vergleich zu professionellen Fotos liegt der Hauptvorteil der 3D-<br />

Illustration darin, dass schon Bilder erstellt werden können, obwohl<br />

das Produkt noch gar nicht im Serienstand zur Verfügung steht (Time<br />

to Market). Ein anderes Problem beim Einsatz von Fotos ist, dass dem<br />

Redakteur die Bedien- und Wartungsschritte zum Zeitpunkt des Photoshootings<br />

oft noch nicht genau genug bekannt sind. Während bei der<br />

Fotografie schlimmstenfalls ein neues Photoshooting nötig wird, lassen<br />

sich Perspektive und Bildausschnitt bei 3D-Illustrationen nachträglich<br />

ändern oder auch Bauteile demontieren.<br />

Ein anderer Aspekt ist die bessere und breitere Nutzbarkeit: Zum einen<br />

lassen sich 3D-Illustrationen (ähnlich wie Fotos, jedoch im Gegensatz<br />

zur Strichillustration) auch für andere Zwecke nutzen, wie z. B. für<br />

Präsentationen oder Produktkataloge. Zum anderen lassen sich die<br />

bereinigten 3D-Daten auch als Ausgangsbasis für Animationsfilme<br />

verwenden.<br />

Empfehlungen<br />

Sammeln Sie eigene Erfahrungen mit einem Start-Projekt! Suchen Sie<br />

sich ein Produkt, das nur eine überschaubare Anzahl an Illustrationen<br />

benötigt. Oder wählen Sie vorhandene Bilder zu verschiedenartigen<br />

Produkten, die Sie als 3D-Illustrationen erstellen lassen. Achten Sie<br />

in jedem Fall darauf, dass Bilder aus jedem Hauptteil der Anleitung<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

555


Visuelle Kommunikation<br />

enthalten sind (Produkterklärung, Bedienung, Wartung). So stellen Sie<br />

sicher, dass Ihr Konzept alle Aspekte umfasst.<br />

Vor allem: Planen Sie ausreichend Zeit ein, in der das neue Illustrationskonzept<br />

entwickelt und durch die entsprechenden Abteilungen<br />

freigegeben werden kann.<br />

Für Rückfragen:<br />

thomas.schwarzer@commatec.de (R)<br />

sven.sonntag@sonntagsfilm.net (I)<br />

556<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

VISU 8<br />

Workshop<br />

Piktogramme selbst entwickeln<br />

Thomas Emrich, itl Institut für technische Literatur AG, München<br />

Nie ist der Wunsch nach einer Universalsprache über kulturelle und<br />

Landesgrenzen hinweg so ausgeprägt und dringlich gewesen wie zur<br />

heutigen Zeit.<br />

Im Zeitalter der globalisierten Märkte, d. h. der zunehmenden weltweiten<br />

Verflechtung in allen Bereichen (Wirtschaft, Politik, Kultur, Umwelt,<br />

Kommunikation etc.) müssen Menschen unterschiedlichster Nationen<br />

und Sprachen miteinander kommunizieren.<br />

Industrieunternehmen entwickeln und produzieren ihre Produkte<br />

längst nicht mehr nur für lokale Märkte, sondern möglichst für einen<br />

weltumspannenden Markt. Dementsprechend muss auch die produktbegleitende<br />

Dokumentation jeden Kunden in der Welt erreichen, egal<br />

welche Sprache er spricht.<br />

Die Erstellung und Übersetzung der Dokumentation in alle erforderliche<br />

Sprachen stellt heute große Herausforderungen an logistische,<br />

zeitliche und kostenseitige Aspekte.<br />

Warum also nicht ein Kommunikationsmittel nutzen, das keine Übersetzung<br />

benötigt, also nonverbal informiert? Bilder und Piktogramme<br />

begegnen uns schon seit geraumer Zeit überall dort, wo Verkehrsknoten<br />

und Treffpunkte Menschen der ganzen Welt zusammen bringen: Flughäfen,<br />

Bahnhöfe, Messen, Hotels usw.<br />

Bildliche Darstellungen und Piktogramme können zumindest teilweise<br />

schriftliche Informationen ersetzen. Ob dies Informationen auf Messetafeln,<br />

in Anleitungen, Schulungsunterlagen, menügeführte Benutzeroberflächen,<br />

Websites oder auf dem Produkt selbst sind, sie können<br />

Sprachbarrieren überwinden. Dies gelingt allerdings nur, wenn auch<br />

interkulturelle Gegebenheiten berücksichtigt werden.<br />

Definition<br />

Die Stärken von Piktogrammen und ihre Einsatzfelder<br />

Ein Piktogramm ist laut Wikipedia „ein Bildsymbol, das eine Information<br />

durch vereinfachte grafische Darstellung vermittelt“. Man unterscheidet<br />

zwischen ikonischen, symbolischen Piktogrammen und einer<br />

Mischung von beiden.<br />

Ikonische Piktogramme haben Ähnlichkeit mit dem Referenzobjekt<br />

oder Referenz-Sachverhalt, z. B. abgeschnittene Finger auf einem<br />

Sicher heitspiktogramm. Dagegen sind symbolische Piktogramme<br />

willkürlich, sie haben keine Ähnlichkeit mit dem Referenzobjekt/<br />

-sachverhalt.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

557


Visuelle Kommunikation<br />

Was Piktogramme<br />

leisten können<br />

Ein Beispiel hierfür ist das Dreieck mit dem Ausrufezeichen. Die Bedeutung<br />

„Achtung“ oder „Warnung“ müssen die Adressaten erst lernen.<br />

Bei der Mischform ist die Einordnung oft schwierig. Der Schnee- oder<br />

Eiskristall ist zwar ein ikonisches Symbol, er soll aber vor Kälte warnen.<br />

Piktogramme sind „Eyecatcher“, sie ziehen unweigerlich den Blick auf<br />

sich und dominieren den Text.<br />

Sie wirken motivierend und auflockernd durch ihre Formen, Farben,<br />

und durch den Weißraum, der sie umgibt.<br />

Bilder werden schneller wahrgenommen und i. d. R. besser verstanden<br />

als Text. Textliche Darstellung von Dingen oder Handlungsabläufen<br />

sind letztlich codierte Bilder. Sie sind klein und haben wenig Elemente,<br />

so dass keine Durchmusterung mit den Augen notwendig ist.<br />

Piktogramme sollen sprachliche und interkulturelle Grenzen überwinden<br />

und Übersetzungskosten einsparen.<br />

Sie stellen Informationen komprimiert dar und benötigen daher wenig<br />

Platz.<br />

Wo die Grenzen liegen<br />

Beim Anleiten mit Bildern dürfen Konventionen (Gewohnheiten) der<br />

Zielgruppe(n) keinesfalls außer Acht gelassen werden. Dabei gilt es, das<br />

Vorwissen der Zielgruppe zu berücksichtigen, denn „man sieht nur, was<br />

man kennt“. Der Kulturkreis, aus dem die Zielgruppe kommt, hat häufig<br />

Auswirkungen auf das Aufnehmen von Informationen. Als Beispiel<br />

dient die Leserichtung im arabischen Sprachraum im Vergleich zum<br />

Romanischen.<br />

Der Symbolwert von Farben ist nicht kulturübergreifend. Ein und dieselbe<br />

Farbe kann in der einen Kultur mit positiven Werten belegt sein<br />

und in einer anderen mit negativen. In östlichen Kulturen wie z. B.<br />

Japan ist Weiß die Farbe der Trauer und des Todes, bei uns hingegen<br />

symbolisiert Weiß das Licht oder Reinheit und Unschuld.<br />

Komplexe Bilder zu verstehen, erfordert eine höhere Konzentration als<br />

das Lesen von Text.<br />

Grund: Bilder werden intuitiv wahrgenommen, d. h. die Bildwahrnehmung<br />

ist individuell nach Interessen und Gewohnheiten, somit nicht<br />

vorherseh- und steuerbar.<br />

Grenzen zeigen Bilder/Piktogramme z. B. bei der Darstellung von abstrakten<br />

Inhalten, verknüpften und komplexen Aussagen, zeitlichen<br />

Folgen usw.<br />

558<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

Typische Einsatzfelder in der Technischen Dokumentation<br />

−−<br />

Kennzeichnung von Sicherheits- und Warnhinweisen<br />

−−<br />

Unterstützen der Orientierung und Navigation in produktbegleitenden<br />

Kommunikationsmitteln, wie Broschüren, Datenblättern, Katalogen,<br />

Anleitungen, Serviceinformationen, Schulungsunterlagen,<br />

Websites, Onlineshops, usw.<br />

−−<br />

Erklären von Bedienelementen auf dem Produkt, z. B. in Fahrzeugen,<br />

auf Mobiltelefonen oder auf Medizingeräten<br />

−−<br />

Innerhalb von menügeführten Benutzeroberflächen als „Bedienknopf“<br />

selbst zum Anklicken oder Drücken auf Touchpanels<br />

Schemata<br />

Wie Piktogramme verstanden werden<br />

Damit Piktogramme schnell und leicht verstanden werden, müssen bei<br />

der Entwicklung einige Grundlagen des Bildverstehens wie auch verschiedene<br />

Gestaltungsregeln berücksichtigt werden.<br />

Jeder Mensch verfügt über entsprechende Schemata, d. h. Vorstellungen<br />

über das Aussehen von Objekten, die öfter in seinem Erfahrungsbereich<br />

auftreten.<br />

Figur-Grund-Gliederung<br />

Markante Objekte<br />

Einfache und<br />

prägnante Objekt<br />

Geschlossene Objekte<br />

Nehmen wir das Beispiel „Auto“: Es besteht aus Elementen wie Räder,<br />

Karosserie, Lenkrad, Scheinwerfer usw. Es genügt die Darstellung von<br />

nur wenigen markanten Elementen, um das Objekt zu erkennen.<br />

Ein abgebildetes Objekt wird beim Betrachten mit einem im Gedächtnis<br />

vorhandenen Schema abgeglichen. Wenn sich eine Übereinstimmung<br />

ergibt, ist das Objekt identifiziert.<br />

Ein Grundprinzip ist, dass Objekte von dem sie umgebenden Hintergrund<br />

getrennt werden. Dies wird durch die Gestaltprinzipien der „Figur-Grund-Gliederung“<br />

unterstützt:<br />

−−<br />

Nähe/Ähnlichkeit: Benachbarte bzw. ähnliche Elemente werden zu<br />

einer Gruppe zusammengefasst.<br />

−−<br />

Abgeschlossener Umriss: Linien oder Elemente werden zu einer geschlossenen<br />

Gestalt zusammengefasst.<br />

−−<br />

Stetige Fortsetzung: Eine Linie wird gemäß ihrem einfachsten Verlauf<br />

fortgesetzt.<br />

−−<br />

Gemeinsamer Bereich oder Umschließung: Elemente innerhalb einer<br />

Umrahmung werden als Gruppe zusammengefasst.<br />

−−<br />

Zusammenhang: Miteinander verbundene Elemente bilden eine Einheit.<br />

Objekte können mit Strichen oder gefüllten Flächen (Rasterung, vollflächiges<br />

Schwarz oder Farbe) dargestellt werden. Striche müssen markant<br />

und dick genug sein, damit das Objekt gut erkennbar ist.<br />

Objekte so einfach wie möglich gestalten, ohne dass die Erkennbarkeit<br />

leidet. Details verzögern das Erkennen und lenken eher ab. Der Betrachter<br />

hält sich zu lange mit der Identifizierung auf.<br />

Sowohl das gesamte Piktogramm als auch einzelne Objekte sollen in<br />

sich geschlossen wirken. Dies kann durch eine Umrahmung oder durch<br />

einen vollflächigen Hintergrund erzielt werden.<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

559


Visuelle Kommunikation<br />

Mehrere Objekte<br />

Größe<br />

Farbe<br />

Piktogrammreihe<br />

1. Zentrale Bildaussage<br />

definieren:<br />

2. Zielgruppe(n)<br />

eingrenzen:<br />

Wenn mehrere Objekte in einem Piktogramm eingesetzt werden, müssen<br />

sie „zusammenarbeiten“ und als Einheit wirken. Einzelne Objekte<br />

dürfen nicht um die Aufmerksamkeit des Betrachters wetteifern.<br />

Das Piktogramm soll ohne Blickbewegung sofort erkannt werden. Dazu<br />

muss sich die Größe nach der Leseentfernung richten. Bei normaler<br />

Leseentfernung entspricht der Bereich des scharfen Sehens etwa der<br />

Größe eines 10-Cent-Stücks. Piktogramme, die zu einer Piktogramm-<br />

Reihe gehören, sollten immer gleich groß sein.<br />

Farbe hilft Bildelemente hervorzuheben, sie sollte jedoch sparsam und<br />

nicht einfach als Schmuckelement eingesetzt werden. Bunte Bilder<br />

helfen wenig, gezielt eingesetzte Farbe kann aber bei konsequentem<br />

Einsatz die Aufmerksamkeit steuern und den Anwender leiten. Farbverläufe<br />

möglichst vermeiden.<br />

Bei einer Piktogrammreihe muss jedes Bild auf den ersten Blick erkennbar<br />

und von anderen unterscheidbar sein.<br />

Wichtig ist ein einheitlicher Stil, wenn eine Reihe von Piktogrammen<br />

entwickelt werden soll. Dabei möglichst den gleichen Blickwinkel und<br />

die gleichen Farben, Pfeile, Linien, Schatten usw. wählen.<br />

Sieben Schritte zur Entwicklung eines Piktogramms<br />

Was soll das Piktogramm aussagen oder bewirken? Was ist die Botschaft?<br />

Hilfreich ist es, die Zielaussage mit wenigen Sätzen oder Stichworten<br />

zu beschreiben.<br />

Je genauer die Zielgruppe eingegrenzt werden kann, desto präziser<br />

kann die Symbolik gewählt werden und umso größer ist die Wahrscheinlichkeit,<br />

dass die Inhalte verstanden werden. Je weniger definiert<br />

die Zielgruppe ist, desto universeller muss die Symbolik sein. Auch<br />

kulturelle Unterschiede spielen mitunter eine Rolle. Ein Hinweis auf ein<br />

Restaurant würde z. B. in Asien anders aussehen als in Europa.<br />

3. Grenzen der<br />

Darstellung erkennen:<br />

Das Symbol für „Geld“ wird sich in verschiedenen Ländern durch unterschiedliche<br />

Währungszeichen unterscheiden. Bilder sollen möglichst<br />

aus dem Erfahrungsbereich der Zielgruppe stammen (Schemata<br />

berücksichtigen).<br />

Wenn die Botschaft bildlich schwer zu vermitteln ist, bietet es sich an,<br />

eine Bild-/Text-Kombination einzusetzen. In einer Anleitung kann man<br />

ein Piktogramm am Beginn einmal erläutern, es muss dann nicht mehr<br />

bei jedem Auftreten erklärt werden. Grenzen wie z. B. abstrakte Inhalte,<br />

verknüpfte und komplexe Aussagen bewusst machen und bei Bedarf<br />

erläutern.<br />

560<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>


Visuelle Kommunikation<br />

4. Piktogramme<br />

entwerfen und<br />

skizzieren:<br />

5. Reduktion und<br />

Generalisierung<br />

des Inhalts:<br />

6. Grafische Umsetzung<br />

vorbereiten:<br />

7. Umsetzung prüfen<br />

und überarbeiten:<br />

Handskizzen sind am besten geeignet, um Inhalte und Formen zu entwickeln.<br />

Der Einsatz des Computers ist hierbei eher hinderlich. Zu sehr<br />

ist man mit den Möglichkeiten der Software beschäftigt, anstatt sich<br />

auf den Entwicklungsprozess zu konzentrieren. Der Computer verlangt<br />

zwangsläufig eine exakte Arbeitsweise, was die Kreativität eher<br />

behindert.<br />

Den typischen Vertreter (Prototyp) einer Gruppe von Objekten herausarbeiten.<br />

Das beste Ergebnis wird erreicht, indem Probanden aus einem<br />

Satz vorgegebener Piktogramme (bzw. Skizzen) das repräsentativste<br />

auswählen. Mit dem Prototyp ist kein konkretes Objekt, z. B. ein ganz<br />

bestimmter Flugzeugtyp gemeint, sondern sozusagen der Oberbegriff<br />

aller Flugzeugtypen. Dies kann nur durch Reduktion auf die wenigen<br />

Objektelemente erreicht werden, die allen Typen der Kategorie Flugzeug<br />

entsprechen. Dazu sollte man einen Blickwinkel auswählen, der<br />

die prägnanten Elemente deutlich zeigt. Auch berücksichtigen, dass<br />

später evtl. skaliert werden muss.<br />

Für die Umsetzung am Computer sollte man auf die Hilfe von Profis<br />

zurückgreifen. Nur ein ausgebildeter Grafiker besitzt die nötige Erfahrung<br />

und beherrscht die entsprechenden Techniken und Tools, um ein<br />

professionelles Ergebnis zu erzeugen. Der Grafiker sollte möglichst früh<br />

in den Entwicklungsprozess eingebunden werden.<br />

Nur durch Tests mit Probanden kann die Wirkung der Piktogramme<br />

überprüft werden. Professionelles Usability Testing ist natürlich die<br />

sicherste Methode. Aber auch durch Beobachtung und Befragung eines<br />

selbst ausgesuchten kleinen Kreises von möglichen Anwendern lassen<br />

sich Schwachstellen aufdecken und die Ergebnisse verbessern. Die<br />

gewonnenen Erkenntnisse werden dann umgesetzt und erneut getestet,<br />

bis das Ergebnis dem gestellten Anspruch gerecht wird.<br />

Um die interkulturellen Aspekte zu berücksichtigen, können z. B. Ländervertretungen<br />

des Unternehmens in die Tests einbezogen werden.<br />

für Rückfragen: thomas.emrich@itl.eu<br />

<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />

561

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!