tekom-Jahrestagung 2012 - ActiveDoc
tekom-Jahrestagung 2012 - ActiveDoc tekom-Jahrestagung 2012 - ActiveDoc
tekom-Jahrestagung 2012 in Wiesbaden Zusammenfassungen der Referate
- Seite 2 und 3: Herausgeber: tcworld GmbH Verantwor
- Seite 4 und 5: Inhalt Forum 82079 82079/3 Roland S
- Seite 6 und 7: INF 9 Dr. Britta Görs: Modularisie
- Seite 8 und 9: LT 6 Horst Liebscher: Mehrwerte ohn
- Seite 10 und 11: PKM 5 Dr.-Ing. Michael Schaffner, D
- Seite 12 und 13: UA 6 Dr. Stefan Schnabel, Dr. Matth
- Seite 15 und 16: Forum 82079 82079/3 Fachvortrag Gru
- Seite 17 und 18: Forum 82079 Fazit Die neue IEC 8207
- Seite 19 und 20: Forum 82079 für fortlaufenden Text
- Seite 21 und 22: Forum 82079 Bedingungen (zum Beispi
- Seite 23 und 24: Forum 82079 entstanden sind. An die
- Seite 25: Forum 82079 Anleitung pur? Fazit Li
- Seite 29 und 30: Content Management CM 1 Partnerprä
- Seite 31 und 32: Content Management Sprachversion au
- Seite 33 und 34: Content Management Reifegrad der Co
- Seite 35 und 36: Content Management Gehen Sie es an!
- Seite 37 und 38: Content Management Literatur [1] St
- Seite 39 und 40: Content Management Mit Sprungmarken
- Seite 41 und 42: Content Management CM 5 Fachvortrag
- Seite 43 und 44: Content Management Prüfung gegen d
- Seite 45 und 46: Content Management Konzept Das Gesa
- Seite 47 und 48: Content Management CM 7 Workshop Mo
- Seite 49 und 50: Content Management Hinweis Funktion
- Seite 51 und 52: Content Management Grundlagen Ex
<strong>tekom</strong>-<strong>Jahrestagung</strong><br />
<strong>2012</strong><br />
in Wiesbaden<br />
Zusammenfassungen der Referate
Herausgeber: tcworld GmbH<br />
Verantwortlich: Dr. Michael Fritz<br />
Redaktion und Layout: Elisabeth Gräfe<br />
Kontakt: info@<strong>tekom</strong>.de<br />
© Copyright 10/<strong>2012</strong><br />
tcworld GmbH<br />
Rotebühlstr. 64<br />
70178 Stuttgart<br />
Fon 0711 65704-0<br />
Fax 0711 65704-99<br />
E-Mail info@<strong>tekom</strong>.de<br />
www.<strong>tekom</strong>.de<br />
Alle Rechte vorbehalten.<br />
Die Verantwortung für den Inhalt liegt bei den Autoren. Alle Abbildungen,<br />
Fotos und Grafiken stammen von den Verfassern der Beiträge,<br />
soweit nicht anders angegeben.<br />
Die Urheberrechte der Verfasser werden durch die Veröffentlichung<br />
dieses Bandes nicht berührt.<br />
Jede Vervielfältigung – auch auszugsweise – bedarf der ausdrücklichen<br />
schriftlichen Genehmigung des Urhebers.
Themen:<br />
Forum 82079<br />
CM – Content Management<br />
CS – Content Strategies<br />
HUW – Hochschule und Wissenschaft<br />
IM – International Management<br />
INF – Informationsdesign<br />
JTR – Junge Technische Redakteure<br />
KAR – Karriere<br />
KAT – Katalogerstellung<br />
LOC – Lokalisierung und Übersetzung / Localization<br />
LT – Sprachtechnologie / Language Technology<br />
MOB – Mobile Dokumentation / Mobile Documentation<br />
NORM – Gesetze, Normen, Richtlinien<br />
OTS – Offene technische Standards<br />
PKM – Personal- und Kostenmanagement<br />
Social Media<br />
TA – Professionelles Schreiben / Technical Authoring<br />
TERM – Terminologie / Terminology<br />
UA – User Assistance<br />
VISU – Visuelle Kommunikation
Inhalt<br />
Forum 82079<br />
82079/3 Roland Schmeling: IEC 82079-1: Sicherheitshinweise 15<br />
82079/4 Prof. Dr. Gertrud Grünwied: Anleitungen in<br />
elektronischen Medien 18<br />
82079/5 Dr. Gabriela Fleischer: Anleitungen für Verbraucher 20<br />
82079/6 Jens-Uwe Heuer: Rechtliche Grundlagen 22<br />
82079/7 Roland Schmeling: IEC 82079-1: Herstellung der<br />
Konformität mit dieser Norm 24<br />
Content Management<br />
CM 1 Marco Aeschimann, Dr. Alexander Mehling:<br />
Katalogproduktion bei SAUTER: Vorher und heute nach Einführung<br />
des PIM- und Redaktionssystems 29<br />
CM 2 Michael Müller-Hillebrand: Erst „Content“-Strategie, dann<br />
CMS (vielleicht) 32<br />
CM 3 Prof. Dr. Wolfgang Ziegler: Wie (gut) wird unser CMS<br />
genutzt? REx-Kennzahlen für das Content Management 36<br />
CM 4 Julia Schairer, Thiemo von Gillhaußen:<br />
Software-Dokumentation unter Zeitdruck – Oberfläche, Online-<br />
Hilfe und Handbuch aus einem Guss 38<br />
CM 5 Victor Linnemann: Revisionsprozesse im Redaktionssystem 41<br />
CM 6 Bernd Klötzl, Karsten Schrempp: Prozessoptimierung bei<br />
Putzmeister: Einführung eines Redaktionssystems mit PI-Mod und<br />
SAP-Schnittstelle 44<br />
CM 7 Ute Mitschke: Module al gusto – Dokumente<br />
maßgeschneidert modularisieren 47<br />
CM 8 Edgar Hellfritsch: Code und Texte aus Datentabellen<br />
generieren mit MS Excel 50<br />
CM 9 Mareike von der Stück, Elvis Ališic: Zwei rechts, zwei links,<br />
zwei fallenlassen – Strickmuster zur Bestandsdatenmigration 53<br />
CM 10 Lisa Pietrangeli: Selecting the Best Technology to Support<br />
Your Content Reuse Strategy 55<br />
Content Strategies<br />
CS 6 Sarah S. O’Keefe: Transforming Technical Content into a<br />
Business Asset 59<br />
CS 8 Andrew Bredenkamp: Content Quality: Three Dimensions to<br />
Creating Content that Works 62<br />
4<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
CS 11 Sarah S. O’Keefe: Building a Business Case for<br />
Content Strategy 64<br />
Hochschule und Wissenschaft<br />
HUW 1 Prof. Dr. Michael Meng: Technische Kommunikation als<br />
Forschungsgegenstand: Fragen, Ergebnisse, Perspektiven 69<br />
HUW 2 Ana Hoffmeister: Sprachtechnologie aus der<br />
Anwenderperspektive – Ergebnisse eines Forschungsprojekts 73<br />
International Management<br />
IM 1 Brian Cho, Danbi Kwak: Status of Mobile Documentation in<br />
South Korea 79<br />
IM 2 Toshimasa Yamazaki: How Japanese companies reflect the<br />
voices of customers on their products 81<br />
IM 3 Thomas Hayk: Tenders, biddings, requests for…<br />
How customers get what they really need 86<br />
IM 4 Dr. Axel Poestges: Improve the Efficiency and Quality of<br />
your Localization Management based on the Global Information<br />
Management Self Assessment 89<br />
IM 7 Tony Lee: Machine Translation in Action 92<br />
IM 8 Ivo Sturzenegger, L. Simeon: Technical writing for the<br />
machinery industry in India: a success story 95<br />
IM 9 Nicoletta A. Bleiel: Developing and Delivering Robust<br />
Sample Projects as User Assistance 98<br />
Informationsdesign<br />
INF 1 Grit Mückstein, Armin Müller: Der Speck muss weg!<br />
Schlankheitskur für das Geberit Datenmodell 105<br />
INF 2 Michael Brand: Konfigurierbare Dokumentation –<br />
Dokumentationsaufbau und Publikation bei hochvarianten<br />
Produkten 108<br />
INF 3 Margit Becher: Responsive Webdesign 112<br />
INF 4 Elke Grundmann: Variantenmanagement in der<br />
Technischen Dokumentation 116<br />
INF 6 Martin Holzmann: Minimalism neu gedacht oder was<br />
gehört eigentlich in eine Dokumentation rein? 118<br />
INF 7 Diana Fuchs, Alexander Gassmann: Unterwegs auf der<br />
eigenen Wissenslandkarte 121<br />
INF 8 Brigitte Grether: Informationsmodelle mit Hilfe von<br />
semantischen Elementen maßschneidern 125<br />
INF 10 Johannes Dreikorn, Jörg Palm: Wenn maximale Flexibilität<br />
gefragt ist: Redaktionsleitfaden für eine tagesaktuelle Support-<br />
Datenbank 127<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
5
INF 9 Dr. Britta Görs: Modularisierung 130<br />
INF 11 Pascal Kesselmark: Microsoft Batch – ein nützlicher Helfer<br />
für tägliche Routinen 131<br />
Junge Technische Redakteure<br />
JTR 1 Kirsten Brettschneider: Frauen, Männer und Technik –<br />
Bedienungsanleitungen geschlechtergerecht gestalten 135<br />
JTR 3 Ute Klingelhöfer: Projektorganisation für kleine Teams –<br />
mobil, sozial und über den Wolken 138<br />
Karriere<br />
KAR 1 Dr. Sylvia Fischer: Effektiv kommunizieren 143<br />
KAR 2 Frank Fleury: Was nun? Kreativitätstechniken für alle Fälle 145<br />
KAR 3 Heidi Wahl: Seien Sie kein Frosch! Nehmen Sie Ihr Leben<br />
in die Hand. 146<br />
KAR 4 Heidi Wahl: Tempo raus, Ruhe rein! 149<br />
Katalogerstellung<br />
KAT 1 Dr. Stefan Dierssen, Thomas Lutz: Kernaspekte und<br />
Basiskonzept zur Umsetzung eines durchgängigen ETK-<br />
Erstellungsprozesses 155<br />
KAT 2 Peter Pfalzgraf: Von PLM zum Katalog –<br />
Integrationsszenarien 160<br />
KAT 3 Rainer Börsig: Print-Katalog, Homepage und Online-Shop<br />
aus einer Quelle?! – Erfahrungen aus der Praxis 163<br />
KAT 4 Bernd Neugebauer, Robert Schäfer: Ersatzteilkataloge<br />
automatisiert erstellen mit SAP ERP und CATALOGcreator® 167<br />
KAT 5 Mike Fischer, Kevin Johnson: In einem System alle<br />
Katalogbestandteile erstellen: System-Cockpit für PIM und<br />
Technische Kommunikation 170<br />
KAT 6 Susanne Löhrer, Karsten Schrempp: Ein Atlas statt<br />
mehrerer Kataloge – eine Wegbeschreibung zum Erfolg 173<br />
Lokalisierung und Übersetzung / Localization<br />
LOC 1 Daniel Busch, Thomas Wedde: Tanz der Doubletten<br />
Skriptgestützte Analyse und Optimierung von Translation Memorys 179<br />
LOC 2 Melanie Siegel: Automatische Autorenunterstützung für das<br />
Postediting in der Maschinellen Übersetzung 182<br />
LOC 3 Dr. Brigitte Herrmann, Michael Oettli: Siemens<br />
Online Verification Tool: IT-Lösung zur Optimierung des<br />
Verifizierungsprozesses bei Siemens Healthcare 185<br />
6<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
LOC 4 Dr. Robert Wenzel: Der Widerspenstigen Zähmung:<br />
Abteilungsübergreifender QM-Prozess 187<br />
LOC 5 Jörgen Danielsen, Harald Elsen: MTM: Wie sollte eine echte<br />
Integration zwischen MT und TM aussehen? 191<br />
LOC 6 Andreas Ljungström: Möglichkeiten und Grenzen<br />
computerunterstützter Qualitätssicherung – ein Praxisvergleich 192<br />
LOC 7 Johann Plennert: Datenqualität im Ausgangstext:<br />
Formatierungsqualität unter der Lupe 195<br />
LOC 8 Richard Ishida, Christian Lieske, Jan Nelson, Felix Sasaki:<br />
Highlights, Holes in and Hopes for the “Multilingual Web” 198<br />
LOC 11 Uwe Muegge: The need for speed: How to ensure the<br />
completion of your most urgent translation projects within<br />
three days 201<br />
LOC 12 Alberto José Viralhadas Ferreira: An Organic Mechanism:<br />
Effective Localization QA in Agile Development Environments 203<br />
LOC 15 Shirley Yeng: What constitutes a healthy localization<br />
department? 206<br />
LOC 17 Uta Kreimeier: Automated monolingual term extraction<br />
through spelling check: a case study 207<br />
LOC 18 Tiene Vertriest, Eef Blommaart: Snapshot of Machine<br />
Translation 209<br />
LOC 20 Michael Carl Enderstein, Pavel Schick: Einführung von<br />
maschinellen Über setzungsprozessen in einer mittel ständischen<br />
Übersetzungsagentur 211<br />
LOC 22 Ingo Schumann, Mathan Sivaloganathan: Post-Editing<br />
maschineller Übersetzung in der Praxis 214<br />
LOC 23 Thomas Imhof: Übersetzer und Softwareentwickler<br />
verändern gemeinsam die Übersetzungsbranche 217<br />
LOC 24 Susanne Dahlén: Eight steps to get in control of quality 219<br />
LOC 25 Prof. Ana Elisa Ribeiro, Sabrina Bauer: Multimodal Texts:<br />
Reading, comprehension and writing, in Brazil and in Germany 222<br />
Sprachtechnologie / Language Technology<br />
LT 1 Binke Fiedler, Kerstin Berns: Deutschland sucht den<br />
Super‐Workflow 229<br />
LT 2 Aljoscha Burchardt, Michael Schneider: Integration von<br />
MT in den LSP‐Workflow: Eine Pilotstudie 231<br />
LT 3 Ursula Reuther: Regelbasiertes Schreiben –<br />
sprachübergreifender Ansatz oder sprachabhängige Regelwerke 234<br />
LT 4 Harald Elsen, Dr. Andrew Bredenkamp: Komplexität des<br />
Lifecycle-Managements multilingualer Inhalte 237<br />
LT 5 Stefan Kreckwitz: Informationssicherheit in<br />
Übersetzungsprozessen 240<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
7
LT 6 Horst Liebscher: Mehrwerte ohne mehr Worte:<br />
Terminologie im synergetischen Kontext von Maschine und Mensch 243<br />
LT 7 Prof. Dr. Christoph Rösener: Reif für die Prüfung? –<br />
Linguistische Verfahren zur Kontrolle von Translation Memorys 247<br />
LT 8 Richard Sikes, Melissa Biggs: Globalization Business<br />
Intelligence Analysis and Reporting Systems 251<br />
LT 12 Stephan Böhmig, Dave van den Akker: Business Intelligence<br />
in cloud-based Translation Environments 257<br />
LT 13 Nathalie De Sutter, Joachim Van den Bogaert: A (terminology)<br />
service layer for Moses SMT 260<br />
LT 14 Françoise Bajon, Christian Schwendy, Xavier Maza, Raymund<br />
Prins: MT Post-Editing: the Language Service Provider perspective 263<br />
Mobile Dokumentation / Mobile Documentation<br />
MOB 2 Martin Rüegg: RTFM (Real & Touchable Front-end Matter)<br />
Oder: Nutzer bestimmen das Was/Wie/Wann. 269<br />
MOB 3 Claudia Gerhardt, Georg Eck: Techniken, Formate und<br />
Möglichkeiten mobiler Technischer Dokumentation 270<br />
MOB 4 Aleš Chyba, Robert Erfle: Das mobile Bordbuch 273<br />
MOB 5 Andreas Volpert: Mobile First – Anforderungen an die<br />
Prozesse zur Erzeugung mobiler Dokumentation 278<br />
MOB 7 Ralph Muhsau: APPetithappen aus der Praxis: Physical<br />
World Connection und Content-Aufbereitung für mobile Doku 281<br />
MOB 8 Gyanesh Talwar, Nandini Gupta: Creating ePubs and other<br />
mobile device outputs using TCS and its point products 284<br />
MOB 9 Juergen Lumera: Is Augmented Reality the Future of<br />
Technical Documentation 286<br />
MOB 10 Martin Rüegg: RTFM (Real & Touchable Front-end Matter)<br />
Or: Users decide on What/How/When. 289<br />
MOB 11 Chris Laska: The business case for mastering liquid content 290<br />
MOB 12 Martin Häberle: Apps für Technische Redakteure 293<br />
MOB 13 Falk Aupers: 3D-visualisierte Dokumentation für Wartung,<br />
Training und Verkaufsunterstützung auf mobilen Endgeräten 295<br />
MOB 14 Georg O. Herriger: Abenteuer TecDoc: Thesen zum<br />
Paradigmawechsel in der Technischen Dokumentation 299<br />
MOB 15 Prof. Dr. Michael Bauer: Autorensysteme für mobile<br />
Anwendungen – Totgesagte leben länger 302<br />
MOB 17 Werner Hofmeister: Mobile Service-Dokumentation auf<br />
iPad, Android & Co. 305<br />
MOB 19 Dieter Gust: Technische Dokumentation auf mobilen<br />
Medien: Märchen, Mist und Möglichkeiten 308<br />
MOB 20 Jörg Ertelt: eBooks in der Technischen Dokumentation 314<br />
8<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
NORM 1 Jens-Uwe Heuer: CE-Kennzeichnung und CE-Richtlinien –<br />
Mythos und Wahrheit 319<br />
NORM 2 Abraham de Wolf: The Machine and Copyrights /<br />
Die Maschine und das Recht 322<br />
NORM 4 Jens-Uwe Heuer: Aktuelle Rechtsentwicklungen für die<br />
Technische Dokumentation 323<br />
NORM 5 Roland Schmeling: Neue ANSI Z535 – vom vernünftigen<br />
Umgang mit Sicherheitshinweisen 325<br />
NORM 6 Gerhard Lierheimer: Der „Guide“ zur Maschinenrichtlinie<br />
2006/42/EG 327<br />
NORM 7 Matthias Schulz: Podiumsdiskussion: Technische Redaktion<br />
als Normenstelle? 329<br />
NORM 8 Volker Krey: Aufbau eines CE-Managementsystems 331<br />
Offene technische Standards<br />
OTS 1 Ulrich Pelster: XML – Standard oder proprietär? 335<br />
OTS 2 Klaus-Dirk Schmitz: TBX – ein Standard für den Austausch<br />
terminologischer Daten: Anforderungen, Probleme, Verbesserungen 338<br />
OTS 3 Dr. Thomas Meinike: 3.0-Updates von XSLT und XPath auf<br />
einen Blick 341<br />
OTS 4 Dr. Thilo Buchholz, Christian Lieske: DITA für die<br />
multilinguale, modulare, multi-modale Produktion von SAP-<br />
Lerninhalten 344<br />
OTS 5 Jörg Rogge: Nachhaltige logistische Unterstützung in<br />
Zeiten des Wandels am Beispiel der ASD-Spec S1000D, S2000M<br />
und S3000L 347<br />
OTS 6 Alexander Witzigmann: HTML5 – die neue ‚Silver Bullet‘<br />
für die Verteilung technischer Information? 349<br />
OTS 7 Marijana Prusina: Mit DITA um die Welt 352<br />
OTS 8 Ulrich Isermeyer: Neue Möglichkeiten des PDF-Standards<br />
ISO 32000 in der Technischen Dokumentation 354<br />
Personal- und Kostenmanagement<br />
PKM 1 Dr.-Ing. Michael Schaffner: Wie sich die TK im Human<br />
Capital Management positionieren kann 359<br />
PKM 2 Dr.-Ing. Axel Poestges: ‚Offer to Operation‘ Dokumentation:<br />
Herausforderungen für Prozesse und Systeme der Technischen<br />
Dokumentation 363<br />
PKM 3 Stefan Magerstedt, Dirk Wilke: Outsourcing der gesamten<br />
Dokumentation 366<br />
PKM 4 Constantin Walter: Ressourcenplanung im<br />
Übersetzungsmanagement 369<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
9
PKM 5 Dr.-Ing. Michael Schaffner, Dr.-Ing. Wolfgang Sturz: Aufbau<br />
eines Kennzahlensystems für Technische Kommunikation 370<br />
PKM 6 Dr.-Ing. Axel Poestges: Ihre individuelle<br />
Standortbestimmung in Sachen Lokalisierungsmanagement 371<br />
PKM 7 Isabelle Fleury: Houston, …! Problemlösungsprozess in<br />
Dokumentation und Übersetzung 374<br />
Social Media<br />
SOCIAL MEDIA Sarah Maddox: Engaging readers in your<br />
documentation – how and why with social media 379<br />
Professionelles Schreiben / Technical Authoring<br />
TA 2 Tony Self: Working with a Style Guide within DITA 385<br />
TA 3 Jang F.M. Graat: Write less, say more – The added value of<br />
minimalism 388<br />
TA 4 Scott Prentice: EPUB3: What does it offer, and is it ready? 391<br />
TA 5 Jang F.M. Graat, Susanne Dahlén: Changing the engine<br />
without stopping the car 394<br />
TA 6 Leah Guren: The Usability of Layout: Advanced<br />
Visual Editing 396<br />
TA 7 Barbara Jungwirth: Writing for Global Audiences 398<br />
TA 8 Herbert Kaiser: Simplified Technical English – Ja oder Nein?<br />
Eine Entscheidungshilfe für Unternehmen 400<br />
TA 9 Rouven Andersson, Dr. Britta Görs: Entdeckungsbericht:<br />
Redakteure der Firma MENCK erkunden ihre Zielgruppe 403<br />
TA 10 Marc Achtelig: Do you speak Deutsch? Produkte mit<br />
englischen Benutzeroberflächen auf Deutsch beschreiben 406<br />
TA 11 Achim Götz: Mehrdeutigkeiten – finden, auflösen,<br />
vermeiden 410<br />
TA 12 Harry Stricker: Gesucht und gefunden: Premium<br />
Dokumentation verlangt Premium Index! 413<br />
TA 13 Dr. Christian Schindelin, Bernd Growek: Instruktionsdesign<br />
als Leitfaden für die Technische Redaktion bei der Erstellung von<br />
eLearnings 416<br />
TA 15 Nolwenn Kerzreho, Tony Self: Educating DITA 420<br />
TA 16 Jang F.M. Graat: Crossing the divide – Advanced techniques<br />
for conversion to structured FrameMaker 423<br />
TA 17 Andreas Baumert, Annette Verhein-Jarren: Sprachregeln<br />
und Redaktionsleitfaden 425<br />
TA 18 Nandini Gupta, Gyanesh Talwar: Technical Authoring: Zero<br />
to S1000D in 1 hour 45 minutes 428<br />
TA 19 Russ Ward: Light Programming for Technical Writers 430<br />
10<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
TA 20 Scott Prentice: Hands On with EPUBs 432<br />
TA 21 Leah Guren: Adding Value through Glossaries 435<br />
Terminologie / Terminology<br />
TERM 1 Dr. François Massion, Rainer Lotz: Terminologie für<br />
modulare Produkte am Beispiel Konica Minolta (CoLa) 439<br />
TERM 2 Bernd Lenhart, Stefan Ziesche: Terminologiemanagement<br />
für VDI-Richtlinien 442<br />
TERM 3 Dr. Rachel Herwartz, Dr. Holger Brüggemann: Mit Excel<br />
und Prüftool: Terminologieverwaltung und -prüfung konzernweit<br />
einführen 445<br />
TERM 4 Susanne Arndt: Terminologie now – und was kommt dann?! 447<br />
TERM 5 Regina Krüger: Vom Finden und unternehmensweiten<br />
Managen von Terminologie 454<br />
TERM 6 Dr. Birte Lönneker-Rodman: Terminologie zwischen<br />
normativer Referenz und deskriptiver Dokumentation 457<br />
TERM 7 Christian Stein: Von der Terminologie zum semantischen<br />
Netz: Wissensmanagement und Ontologien 460<br />
TERM 8 Blanca Nájera Villar: ECQA Certified Terminology<br />
Manger – Basic 462<br />
TERM 9 Klaus-Dirk Schmitz: Terminologische Informationen und<br />
Dienste für Spracharbeiter 467<br />
TERM 10 Christiane Jäger, Klaus Fleischmann: Terminologie –<br />
fit für die Zukunft 470<br />
TERM 11 Rainer Lotz: Unternehmen in der Terminologiefalle 474<br />
TERM 12 Lars Schiller: Auch Wörter sind Zeichen – auf der Suche<br />
nach der Vorzugsbenennung hilft die Semiotik 476<br />
TERM 14 Tamara Arndt, Dr. Rachel Herwartz: Der Terminologiekreis:<br />
Unternehmensweite Abstimmungsprozesse planen und leiten 479<br />
TERM 15 Christine Schmacht, Ilka Kurfess: Der Weg zum effizienten<br />
Terminologiemanagement 481<br />
User Assistance<br />
UA 1 Marc Achtelig: Soziale Funktionen zu verträglichen Kosten 487<br />
UA 2 Romana Oehmig, Tanja Bader: Wie nutzen die Kunden<br />
unsere Dokumentation? Interviewmethoden und Anwendungsfälle 492<br />
UA 3 Hansjörg Kögel, Age Knossen: Fahrzeugspezifische<br />
Serviceinformationen zur Optimierung des After-Sales 495<br />
UA 4 Kai Weber: Addicted to Meaning: How Good Technical<br />
Communication is Like Bad Magic Tricks 497<br />
UA 5 Ulrike Parson: Chaotic Wiki versus Structured Authoring 504<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
11
UA 6 Dr. Stefan Schnabel, Dr. Matthias Kammerer: ARIA in der<br />
Dokumentation 508<br />
UA 7 Harald Hermann: Ein Open-Source-Hilfe-Viewer<br />
zeigt es allen 511<br />
UA 8 Waltraud Winter, Uwe Reißenweber: The Cosmopolitan<br />
Information Topic 514<br />
UA 9 Nicoletta A. Bleiel: Adding Useful Interactivity to<br />
Online Help 515<br />
UA 10 Jonas Wäckerle, Mark Schubert: Nutzer- und<br />
autorenfreundliche Wikis – wie geht das? 518<br />
UA 11 Anne Hoffmann, Ann-Cathrin Mackenthun: Karteikarten<br />
und Bierdeckel: User Stories für Dokumentation und Entwicklung 521<br />
UA 12 Nicoletta A. Bleiel: Best Practices for Mobile Outputs 524<br />
UA 13 Alexander Hendrix: Business Case: Wir gestalten eine User<br />
Assistance nach strategischer Ausrichtung 527<br />
UA 14 Jonatan Lundin: Designing for the searching user: Are you<br />
still designing manuals nobody finds any answers in? 529<br />
UA 15 Alan Houser: Hands-On HTML5 532<br />
Visuelle Kommunikation<br />
VISU 1 Martin Uhrig: Adobe Captivate & HTML5:<br />
E- und M-Learning aus einem Guss!? 537<br />
VISU 2 Prof. Anja Grunwald: Ohne Worte – visuelle Vermittlung<br />
von Informationen 539<br />
VISU 3 Ralf Otto: Parallelisierung der Konstruktion und<br />
Produktkommunikation mit SolidWorks und 3DVIA Composer 542<br />
VISU 4 Dirk Meißner, Klaus Vossen: Effizienter Einsatz von Grafik<br />
und Bild in der Technischen Dokumentation 543<br />
VISU 5 Melanie Denner, Diana Fuchs: Und … Action! Wie Filme<br />
die Wissenslandschaft bereichern 547<br />
VISU 6 Mirko Schön, Ulrich Isermeyer: Erstellung, Aufbereitung<br />
und Integration von 2D-Grafiken und 3D-PDF-Modellen in<br />
technische Dokumente 549<br />
VISU 7 Thomas Schwarzer, Sven Sonntag: Illustrationen aus<br />
3D-Daten erstellen 553<br />
VISU 8 Thomas Emrich: Piktogramme selbst entwickeln 557<br />
12<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Forum 82079
Forum 82079<br />
82079/3<br />
Fachvortrag<br />
Grundlegender Ansatz<br />
Warnschilder<br />
ANSI Z535<br />
Arten von Hinweisen<br />
IEC 82079-1: Sicherheitshinweise<br />
Roland Schmeling, Schmeling + Consultants GmbH, Heidelberg<br />
Das Thema Sicherheitshinweise (die Norm spricht von „safety-related<br />
information“ – also sinngemäß „sicherheitsbezogene Informationen“) ist<br />
eine der wesentlichen Neuerungen der neuen IEC 82079-1 gegenüber<br />
der Vorgängernorm IEC 62079 von 2001.<br />
Der grundlegende Ansatz des Normungsgremiums ist dabei,<br />
−−<br />
eine Regelung zu schaffen, die der verbreiteten ANSI Z535 nicht<br />
widerspricht, so dass eine gleichzeitige Erfüllung der Anforderungen<br />
der ANSI Z535 wie auch der IEC 820791 möglich ist, und<br />
−−<br />
die Regelungen auf die prinzipiellen Punkte zu beschränken.<br />
Vor allem der zweite Punkt führt dazu, dass die Norm keinen „Style<br />
guide“ zur Gestaltung von Sicherheits- und Warnhinweisen bietet,<br />
sondern lediglich den Rahmen absteckt. Dieses Vorgehen lässt genügend<br />
Spielraum, um unterschiedliche Ansätze bei der Gestaltung zu<br />
realisieren.<br />
Darüber hinaus spielt auch die ISO 3864-2 „Graphical symbols – Safety<br />
colours and safety signs – Part 2: Design principles for product safety<br />
labels“ eine Rolle: Diese Norm steht für die internationalen Regelungen<br />
rund um Warnschilder auf Produkten. Hinsichtlich der Warnschilder<br />
verweist die IEC 82079-1 sinnvollerweise auf die ISO 3864-2. Aufgrund<br />
langjähriger Zusammenarbeit des zuständigen ISO-Gremiums mit dem<br />
Gremium ANSI Z535 sind hier bereits Vereinheitlichungen entstanden.<br />
Zu den wichtigsten Vereinheitlichungen gehören:<br />
−−<br />
Vereinheitlichte Signalworte: DANGER, WARNING, CAUTION<br />
−−<br />
gemeinsames Signalwort-Panel mit dem Gefahrenzeichen der ISO<br />
(Dreieck mit Ausrufezeichen, Schwarz auf gelbem Grund) anstelle<br />
des Gefahrenzeichens der ANSI<br />
−−<br />
Möglichkeit, ISO-Zeichen auf Warnschildern zu verwenden: Warnzeichen<br />
(schwarze Symbole im Dreieck auf gelbem Grund), Verbotszeichen<br />
(schwarze Symbole auf weißem Grund in rotem Kreis,<br />
durchgestrichen) und Gebotszeichen (weiße Symbole auf blauem<br />
kreisförmigem Grund)<br />
Mehr zu den Regeln der ANSI Z535 wird im Vortrag NORM 5 „Neue<br />
ANSI 535“ erläutert.<br />
Der zentrale Ansatz der IEC 82079-1 ist die Unterscheidung von drei<br />
Arten sicherheitsbezogener Informationen, die in der Norm geregelt<br />
werden:<br />
−−<br />
grundlegende Sicherheitshinweise („safety notes“)<br />
−−<br />
Warnhinweise („warning messages“)<br />
−−<br />
Warnschilder („product safety labels/safety signs”)<br />
Die grundlegenden Sicherheitshinweise korrespondieren mit den<br />
„grouped safety messages“ der ANSI Z535.6 und bilden im Wesentlichen<br />
das klassische Sicherheitskapitel. Die Warnhinweise werden in der<br />
ANSI Z535.6 differenziert „section safety messages“, „embedded safety<br />
messages“ und „property damage messages“. Die Warnschilder nach<br />
ISO 3864-2 regeln den Bereich, der in der ANSI Z535.4 behandelt wird.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
15
Forum 82079<br />
Die strikte Trennung der ANSI von Sicherheit für Personen und Gefahr<br />
von Sachschäden vollzieht die IEC 82079-1 nicht.<br />
Die folgende Übersicht zeigt die Hinweisarten der ANSI Z535 im Vergleich<br />
zur IEC 82079-1:<br />
Inhalte von<br />
sicherheitsbezogenen<br />
Informationen<br />
Hinsichtlich des Inhalts von Sicherheitshinweisen legt die IEC 82079-1<br />
strukturell fest, dass sowohl Sicherheitshinweise als auch Warnhinweise<br />
die Art der Gefahr, die Folgen bei Nichtbeachtung und die Maßnahmen<br />
zur Vermeidung angeben müssen. Speziell bei Sicherheitshinweisen<br />
fehlen in der Praxis häufig die Folgen bei Nichtbeachtung – diese<br />
Anforderung „hat es also in sich“.<br />
Ansonsten wird inhaltlich wenig festgelegt; die Norm verlagert sinnvollerweise<br />
die Verantwortung in den Prozess der Risikobeurteilung einschließlich<br />
der Zielgruppenanalyse. Aus diesem Prozess heraus muss<br />
über die Relevanz von sicherheitsbezogenen Informationen im Einzelfall<br />
entschieden werden.<br />
Die Norm bietet jedoch eine Liste möglicher Inhalte an, zu denen<br />
gehören:<br />
−−<br />
bestimmungsgemäße Verwendung<br />
−−<br />
Grenzen der Verwendung, beispielsweise hinsichtlich der Anwendung,<br />
Materialien, Werkzeuge oder Umgebungsbedingungen<br />
−−<br />
Schutzeinrichtungen zur Installation oder Aktivierung durch den<br />
Anwender<br />
−−<br />
persönliche Schutzausrüstungen<br />
−−<br />
Warnungen für besonders gefährdete Personengruppen, beispielsweise<br />
Kinder<br />
−−<br />
mögliche Gesundheitsrisiken<br />
−−<br />
Anforderungen an die Anwender<br />
−−<br />
Anzeichen dafür, dass das Produkt nicht mehr sicher ist, beispielsweise<br />
durch Abnutzung oder Alterung<br />
−−<br />
sichere Entsorgung<br />
−−<br />
Erklärung der Symbole, Signalworte und Warnschilder<br />
−−<br />
Warnungen vor Gefahren durch vorhersehbaren (Fehl-)gebrauch<br />
16<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Forum 82079<br />
Fazit<br />
Die neue IEC 82079-1 bietet ein solides und dennoch flexibles Gerüst<br />
für die Entwicklung konsistenter Sicherheits- und Warnhinweise in<br />
Übereinstimmung mit ANSI Z535. Erstmalig wird die Unterscheidung<br />
von Sicherheitshinweisen und Warnhinweisen auf internationaler Normungsebene<br />
eingeführt. Wesentlich für die Produktsicherheit ist jedoch<br />
auch der Inhalt von Sicherheits- und Warnhinweisen, weshalb der Prozess<br />
der Zielgruppenanalyse und Risikobeurteilung von zentraler Bedeutung<br />
ist.<br />
für Rückfragen: r.schmeling@schmeling-consultants.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
17
Forum 82079<br />
82079/4<br />
Fachvortrag<br />
Anleitungen in elektronischen Medien<br />
Prof. Dr. Gertrud Grünwied, Steinbeis Beratungszentrum Dokumentation und Usability –<br />
EVIDOC, Stuttgart<br />
Die Forderung nach der Aufbereitung und Weitergabe von Benutzerinformationen<br />
in elektronischer Form wird zunehmend lauter – sowohl<br />
von Ersteller- als auch von Nutzerseite. Verschiedene EU-Richtlinien<br />
und die offiziellen Guides dazu beschränken allerdings den Einsatz<br />
elektronischer Medien bei der Darbietung von Benutzerinformationen.<br />
Welchen Standpunkt vertritt dazu die neue Norm?<br />
Welche Formate von Medien definiert die Norm IEC 82079-1?<br />
Die Norm fasst unter elektronischen Medien alle Formate zusammen, die<br />
auf Displays anzeigbar sind. Dazu gehören Videos, in Software eingebettete<br />
Anleitungen, interaktive Multimedia-Anwendungen, Websites,<br />
Online-Hilfe-Systeme, Kontexthilfen, druckbare Handbücher in elektronischen<br />
Austauschformaten und Kollaborations-Applikationen wie<br />
Blogs und Wikis. Bei den druckbaren Anleitungen geht die Norm davon<br />
aus, dass das Layout identisch zur gedruckten Version ist, also ohne Anpassung<br />
an das Lesen am Bildschirm. Die Festlegung auf ein oder mehrere<br />
Medien für die Anleitungen sollte früh im Entwicklungsprozess der<br />
Dokumentation stattfinden.<br />
Der Mehrwert elektronischer Anleitungen<br />
Elektronische Dokumentation bietet didaktische Vorteile. Allerdings<br />
droht der Anwender mit der Komplexität und Informationsdichte überflutet<br />
zu werden. Wichtig ist darum laut Norm, dass beispielsweise<br />
Handlungsschritte auch in der korrekten Reihenfolge der Bedienung<br />
aufgeführt werden oder bei umfangreichen Arbeitsabläufen visuelle<br />
und auditive Medien das Verständnis des Benutzers unterstützen. Für<br />
sicherheitsrelevante Informationen gelten im elektronischen Bereich<br />
dieselben Anforderungen wie für Druckdokumentation.<br />
Die Norm widmet den Anforderungen an die Benutzerinteraktion in<br />
elektronischen Medien einen eigenen Absatz: expandierbare Navigationsbäume,<br />
gängige Navigationselemente und aufklappbare Abschnitte<br />
über anklickbare Zwischenüberschriften sind demnach Stand der<br />
Technik. Druckfunktionen sollten bei elektronischen Handbüchern<br />
sowie in Online-Hilfen vorgesehen sein. Wichtig sind bei Online-Hilfen<br />
und Multimedia die vielfältigen Arten von elektronischen Suchfunktionen.<br />
Falls das Produkt über Benutzungsoberflächen verfügt, müssen<br />
die Hilfe informationen weitgehend in diese integriert oder über einen<br />
Hilfe-Button direkt aufrufbar sein.<br />
Wie sollten Anleitungen in elektronischen Medien gestaltet sein?<br />
Grundsätzlich gibt die Norm vor, dass Anleitungen in Form elektronischer<br />
Medien denselben Anforderungen an Lesbarkeit, Verständlichkeit<br />
und Visualisierung unterliegen, wie sie auch für Druckdokumente in<br />
dieser Norm definiert sind. So fasst die Norm Textgrößen und Symbolhöhen<br />
für gedruckte und elektronische Formen zusammen. Die minimalen<br />
Textgrößen für Drucksachen und Display-Anzeigen betragen für<br />
beispielsweise Überschriften, Warnungen und Dezimalzahlen 12 pt und<br />
18<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Forum 82079<br />
für fortlaufenden Text 10 pt. Für die Anzeige auf mobilen Geräten und<br />
mehrfach gefaltete Broschüren werden etwas geringere Werte verlangt.<br />
Einen hohen Stellenwert nimmt die barrierefreie Gestaltung ein. Bei<br />
den multimedialen Informationen sind Audio-Dateien von Bedeutung<br />
sowie Animationen mit Untertiteln und Sprachausgaben; bei Internet-<br />
Anwendungen gelten generell die Web Content Accessibility Guidelines<br />
(WCAG) des World Wide Web Consortium.<br />
Was ist bei der Weitergabe zu beachten?<br />
Für Anleitungen, die von Websites herunterladbar sind, gibt die Norm<br />
vor, dass dies ohne Änderungen an den gängigen Betriebssystemen und<br />
Anzeigeprogrammen möglich sein muss. Benötigte Software muss unmittelbar<br />
herunterladbar sein. Der Download muss zeitlich unbegrenzt<br />
möglich sein.<br />
Ergänzung oder Ersatz der gedruckten Anleitung?<br />
Hersteller stellen sich oft die Frage, ob elektronische Informationsprodukte<br />
die gedruckten ergänzen oder gar ersetzen dürfen. Da sich die<br />
Norm auf beliebige Produkte und Dienstleistungen erstreckt, ist diese<br />
Frage nicht eindeutig zu beantworten. Die Norm verweist darauf, dass<br />
die alleinige Bereitstellung von Dokumentation in einem elektronischen<br />
Format in vielen Fällen gemäß gesetzlichen Vorschriften nicht<br />
zulässig ist. Falls die Dokumentation (legal) ausschließlich elektronisch<br />
vorhanden ist, muss dies sowie die Art des Mediums und die benötigten<br />
Anzeige programme deutlich erkennbar zum Zeitpunkt des Verkaufs auf<br />
der Verpackung angezeigt werden.<br />
Usability: Neue Anleitungen und Medien auf dem Prüfstein<br />
Welche Form der Dokumentation schlussendlich der Benutzer leicht<br />
versteht, kann laut Norm ein Usability-Test entscheiden. Gerade bei der<br />
Entwicklung neuer Anleitungen und Medien können Benutzer hilfreichen<br />
Aufschluss über Erwartungshaltungen, Nutzungsverhalten und<br />
Akzeptanz geben und damit die Qualität der medialen Informationsprodukte<br />
steigern.<br />
Kontakt: gruenwied@evidoc.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
19
Forum 82079<br />
82079/5<br />
Fachvortrag<br />
Anleitungen für Verbraucher<br />
Dr. Gabriela Fleischer, Verbraucherrat des DIN, Berlin<br />
Gebrauchsanleitungen werden gelesen!<br />
Entgegen der landläufigen Meinung lesen Verbraucher Gebrauchsanleitungen.<br />
Umfragen zeigen, dass Verbraucher in erster Linie zur<br />
Gebrauchsanleitung greifen, wenn sie ein Problem mit dem Produkt<br />
haben und eine Lösung finden wollen. Sie nutzen die Anleitungen aber<br />
auch, um gezielt Informationen nachzuschlagen oder bei der Inbetriebnahme<br />
des Produkts.<br />
Verbraucher stufen die Bedeutung der Wichtigkeit von Anleitungen als<br />
„sehr hoch“ ein bei Haushaltsgeräten, Unterhaltungselektronik, Heimwerkergeräten,<br />
Telekommunikationsgeräten und Computer-Hardware.<br />
Auch aus Sicht des Fachhandels nimmt die Bedeutung der Gebrauchsanleitungen<br />
zu, was unter anderem mit der zunehmenden Komplexität<br />
vieler technischer Geräte zusammenhängt. Je komplizierter die Bedienung<br />
und je umfangreicher die Funktionen der Produkte sind, umso<br />
wichtiger sind gut handhabbare und verständliche Anleitungen<br />
Die Gebrauchsanleitung ist „Teil“ der Produktqualität!<br />
Stiftung Warentest bewertet beispielsweise in vergleichenden Produkttests<br />
auch die Gebrauchsanleitung. Nach Aussagen des Fachhandels<br />
sollten Hersteller großen Wert auf die Qualität ihrer Anleitung legen.<br />
Die IEC 82079-1 aus Verbrauchersicht<br />
Die IEC 82079-1 stellt aus Verbrauchersicht wichtige Anforderungen<br />
und gibt gute Empfehlungen in Bezug auf Gebrauchsanleitungen. Wichtige<br />
Festlegungen enthält die 82079 unter anderem<br />
−−<br />
zu Zielgruppen: Der Grad der Beschreibung und die Einzelheiten<br />
der Informationen müssen dem Wissen und den Bedürfnissen der<br />
Zielgruppe(n) angepasst werden. Die Berücksichtigung der Bedürfnisse<br />
muss auf einer Zielgruppenanalyse basieren für die bei Verbraucherprodukten<br />
empirische Untersuchungen empfohlen werden.<br />
Unterschiedliche Informationen für verschiedene Zielgruppen müssen<br />
der jeweiligen Gruppe klar zugeordnet sein und die jeweilige<br />
Zielgruppe muss am Beginn definiert werden.<br />
−−<br />
zur Verständlichkeit: Gebrauchsanleitungen müssen in einer für die<br />
allgemeine Öffentlichkeit verständlichen Fachsprache verfasst sein.<br />
Es gibt Empfehlungen, wie der Inhalt einer Gebrauchsanleitung verständlich<br />
aufgebaut werden kann durch die Beachtung anerkannter<br />
Kommunikationsprinzipien. Bei der Anwendung von graphischen<br />
Symbolen müssen diese für die Zielgruppe der Anleitung verständlich<br />
sein. Signale und Anzeigen, die Fehler und Warnung melden,<br />
müssen verständlich und dokumentiert sein. Unvermeidbare Fachbegriffe,<br />
die für die beabsichtigte Zielgruppe nicht leicht verständlich<br />
sind, müssen aufgelistet und erklärt sein.<br />
−−<br />
zur Leserlichkeit: Eine bestmögliche Leserlichkeit wird erreicht,<br />
wenn das Verhältnis von Schriftart, Schriftgröße, Anzahl der Zeichen<br />
pro Linie und Zeilenabstand optimiert ist. Es werden Beispiele gegeben,<br />
welche Schriften und graphischen Symbole unter verschiedenen<br />
20<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Forum 82079<br />
Bedingungen (zum Beispiel Anleitungen, die bei einem Abstand bis<br />
zu 1 Meter betrachtet werden, oder Anleitungen als Informationsblätter)<br />
als Minimalgröße empfohlen werden. Angesprochen wird auch<br />
die Leserlichkeit von Anleitungen, die auf der Produktoberfläche<br />
oder Verpackungen gegeben werden.<br />
−−<br />
zur Qualität von Übersetzungen: Übersetzungen sind von Fachübersetzern<br />
oder Spezialisten, die grundlegende Kenntnisse in technischer<br />
Kommunikation haben, mit dem Fachgebiet vertraut und<br />
fließend in der ursprünglichen und der Zielsprache sind, zu verantworten.<br />
−−<br />
zum Nutzen und Einsatz von empirischen Methoden: Um herauszufinden,<br />
welche Bedürfnisse und Vorkenntnisse die Zielgruppen<br />
haben oder ob eine Anleitung die Erwartungen der Zielgruppe auch<br />
erfüllt oder verständlich ist, werden verschiedene empirische Methode<br />
empfohlen und kurz umrissen.<br />
In dieser Zusammenfassung sind nur einige Aspekte herausgegriffen.<br />
Die Norm stellt auch in anderen Bereichen wie zur konsistenten Bezeichnung<br />
und Beschreibung von Inhalten, zu sicherheitsrelevanten<br />
Informationen, zum Prozess der Planung und Vorbereitung einer Anleitung<br />
wichtige Anforderungen bzw. sie gibt Hilfestellungen, damit für die<br />
Zielgruppe „Verbraucher“ gute und verständliche Gebrauchsanleitungen<br />
erstellt werden können.<br />
Ausblick<br />
Innerhalb der Verbraucherszene werden weitere Themen/Schwerpunkte<br />
diskutiert, die aus Verbrauchersicht in der IEC 82079 zukünftig<br />
stärker berücksichtigt werden sollten. Es ist zu prüfen, wie die Bedeutung<br />
der Anleitung als wichtiger Teil der Produktqualität stärker in den<br />
Blickpunkt genommen werden kann.<br />
Quellen<br />
Verbraucherrat des DIN (Hg.): Bedienungs- und Gebrauchsanleitungen:<br />
Probleme aus Verbrauchersicht und Lösungsansätze zur Verbesserung<br />
technischer Anleitungen. Berlin, 2009<br />
Verbraucherrat des DIN (Hg.): Bedienungs- und Gebrauchsanleitungen:<br />
Folgen fehlerhafter Anleitungen am Markt und Lösungsvorschläge zur<br />
Verbesserung technischer Anleitungen. Berlin, 2010<br />
IEC 82079-1 Ed. 1.0: <strong>2012</strong>-08<br />
Preparation of instructions for use – Structuring, content and presentation<br />
– Part 1: General principles and detailed requirements<br />
gabriela.fleischer@din.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
21
Forum 82079<br />
82079/6<br />
Fachvortrag<br />
Rechtliche Grundlagen<br />
Jens-Uwe Heuer, Luther Rechtsanwaltgesellschaft, Hannover<br />
In der Praxis lässt sich z. B. aufgrund der Fragen im <strong>tekom</strong>-Webforum<br />
ablesen, dass in gewisser Hinsicht eine „Normgläubigkeit“ in der Technischen<br />
Dokumentation herrscht. In Bezug auf die rechtlichen Anforderungen<br />
und den Zusammenhang zur neuen IEC 82079 sind daher einige<br />
Erläuterungen über die Hintergründe und Zusammenhänge zu geben.<br />
Vertragsrecht und IEC 82079<br />
Aus Sicht des Vertragsrechts ist vom Verkäufer geschuldet, dem Käufer<br />
eine taugliche Benutzerinformation zur Verfügung zu stellen. Die<br />
Vertragsparteien sind grundsätzlich frei, über spezifische Vorgaben im<br />
Vertrag genau zu definieren, wie diese Benutzerinformation zu gestalten<br />
ist. In der Regel wird davon jedoch kein Gebrauch gemacht.<br />
Fehlen ins Einzelne gehende vertragliche Vorgaben, bleibt auf den gesetzlichen<br />
Rahmen zurückzugreifen. Danach wird ein Produkt geschuldet,<br />
das den üblichen Beschaffenheitsvorgaben entspricht.<br />
Eine wesentliche Quelle für die „übliche Beschaffenheit“ sind technische<br />
Normen. An dieser Stelle würde bei der Bewertung der Benutzerinformation<br />
auf die IEC 82079 zurückgegriffen. Sind wichtige in dieser<br />
Norm enthaltene Vorgaben, z. B. zur Analyse der Zielgruppe, nicht beachtet<br />
und stellt der Verkäufer in diesem Sinne „unverständliche“ Benutzerinformation<br />
zur Verfügung, so führt dies zum Gewährleistungsfall.<br />
In erster Linie bleibt dann nachzuerfüllen und z. B. eine taugliche<br />
Benutzerinformation nachzuliefern.<br />
Gelingt dies nicht, ist der Käufer frei, vom Vertrag zurückzutreten.<br />
An dieser Stelle bleibt auf Folgendes hinzuweisen: Der Verkäufer kann<br />
sich hier nicht von der Verantwortung mit dem Argument freizeichnen,<br />
die Benutzerinformation sei Sache des Herstellers. Rechtlich ist der<br />
Verkäufer in der Verpflichtung gegenüber dem Käufer. Er hat wiederum<br />
durch vertragsrechtlichen Rückgriff auf den Hersteller sicherzustellen,<br />
dass er eine taugliche Benutzerinformation erhält. Besteht dazu allerdings<br />
keine Möglichkeit, z. B. weil zwischenzeitlich die Ansprüche des<br />
Verkäufers gegenüber dem Hersteller aus Mängelgewährleistung verjährt<br />
sind, so bleibt der Verkäufer in der Verpflichtung gegenüber dem<br />
Käufer und muss auf eigene Kosten eine taugliche Benutzerinformation<br />
zur Verfügung stellen.<br />
Produkthaftung und IEC 82079<br />
Nach Produkthaftung schuldet der Hersteller eine Benutzerinformation,<br />
die in der Lage ist, beim Gebrauch des Produktes Sachgefahren<br />
oder die Gefahr von Körperschäden zu verhindern. Maßstab hierzu<br />
ist der Stand von Wissenschaft und Technik. Dies führt zu folgender<br />
Erkenntnis:<br />
Die Einhaltung technischer Normen genügt hier nicht, um den Anforderungen<br />
gerecht zu werden. Technische Normen gelten nämlich als<br />
anerkannte Regeln der Technik. Es ist durchaus nicht selten, dass bei<br />
Veröffentlichung der Norm diese bereits veraltet ist, weil durch wissenschaftliche<br />
Untersuchungen bereits andere Verfahren oder Methoden<br />
22<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Forum 82079<br />
entstanden sind. An diesen neuen Erkenntnissen hat sich der Hersteller<br />
auszurichten. Er darf nicht dabei auf dem Stand der Normen verharren.<br />
In diesem Sinne wird die IEC 82079 auch nur das untere Level dessen<br />
sein, was die Benutzerinformation tatsächlich zu leisten hat. In der<br />
Realität wird die 82079 allerdings auch nicht entscheidend sein, wenn<br />
es um die Frage geht, ob eine taugliche Benutzerinformation entstanden<br />
ist. Gradmesser für die Tauglichkeit ist vielmehr, ob alle Risiken,<br />
die in der Risikoanalyse ermittelt worden sind, auch in der gebotenen<br />
Art und Weise Berücksichtigung gefunden haben. Hinzu kommt eine<br />
sachgerechte Berücksichtigung der Kenntnisse der Nutzergruppe und<br />
auch Einschluss des Produktfehlgebrauchs. An dieser Stelle lässt sich<br />
festhalten, dass vom Hersteller eine individuelle Analyse gefordert ist<br />
und die Arbeit am jeweiligen Einzelfall. Dabei mag die IEC 82079 eine<br />
der Grundlagen bilden. Der bloße Verweis auf die Einhaltung der Norm<br />
genügt indessen nicht.<br />
Produktsicherheitsrecht und IEC 82079<br />
Im Kern hat das Produktsicherheitsrecht dieselbe Ausrichtung wie das<br />
Produkthaftungsrecht. In Bezug auf die IEC 82079 bleibt allerdings abzuwarten,<br />
ob diese Norm dem Bestand an Normen zugehören wird, bei<br />
dem die Einhaltung der grundlegenden Sicherheitsanforderungen im<br />
Sinne von § 3 ProdSG vermutet wird („Konformitätsvermutung“). Wahrscheinlich<br />
werden allerdings die Marktüberwachungsbehörden durchaus<br />
auf diese Norm zurückgreifen, um die Qualität einer Benutzerinformation<br />
zu bewerten. Dies war bereits Praxis bei der Vorgängernorm, der<br />
62079. In diesem Sinne wird der IEC 82079 eine faktische Bedeutung<br />
zukommen.<br />
Mit anderen Worten: Hält ein Unternehmen die IEC 82079 nicht ein bzw.<br />
kann ein Unternehmen nicht nachweisen, dass die IEC 82079 bei der<br />
Entstehung der Technischen Dokumentation Berücksichtigung findet,<br />
so wird eine Marktüberwachungsbehörde Zweifel daran haben, ob das<br />
Thema „Produktsicherheit“ in dem Unternehmen beherrscht wird.<br />
für Rückfragen: jens.heuer@luther-lawfirm.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
23
Forum 82079<br />
82079/7<br />
Fachvortrag<br />
Checkliste?<br />
Hilfspersonal?<br />
Abschließender<br />
Anforderungskatalog?<br />
Präzise Anforderungen?<br />
IEC 82079-1: Herstellung der<br />
Konformität mit dieser Norm<br />
Roland Schmeling, Schmeling + Consultants GmbH, Heidelberg<br />
Angesichts der ohnehin hohen und weiterhin gestiegenen Bedeutung<br />
der IEC 62079 und damit der zu erwartenden Bedeutung der<br />
IEC 82079‐1 stellt sich zu Recht die Frage, wie die Konformität mit der<br />
Norm sichergestellt werden kann.<br />
Die Norm widmet der Beantwortung dieser Frage eigens das Kapitel 7.<br />
In diesem Kapitel sind wichtige Aussagen enthalten, die mit einigen<br />
Fehlverständnissen der Vergangenheit aufräumen.<br />
Bisher herrschte die Meinung vor, dass eine Checkliste ausreicht, um<br />
eine Anleitung gegen die Anforderung der Norm zu prüfen. Das ist<br />
falsch.<br />
Richtig ist, dass ein fundiertes Verständnis der gesamten Norm unabdingbar<br />
ist, um eine Prüfung nach der Norm durchführen zu können.<br />
Bisher herrschte die Meinung vor, dass mit Hilfe der Checkliste auch<br />
„Hilfspersonal“ in der Lage ist, die Prüfung nach der Norm durchzuführen.<br />
Auch dies ist falsch.<br />
Richtig ist, dass die Prüfung einer Anleitung nach der Norm eine der<br />
höchsten Anforderungen an die Qualifikation der Prüfer stellt. Die Qualifikation<br />
von Verantwortlichen für die Informationsentwicklung wird<br />
in der Norm erstmalig beschrieben (Kapitel 4.2). Dabei werden Attribute<br />
wie „Experte“ und „Spezialist in der technischen Kommunikation“<br />
verwendet.<br />
Bisher herrschte die Meinung vor, dass es einen abschließenden Katalog<br />
an Anforderungen gibt, den eine Anleitung erfüllen muss. Das ist<br />
falsch.<br />
Richtig ist, dass die Norm fordert, dass die spezifischen Anforderungen<br />
an eine konkrete Anleitung im Einzelfall zunächst recherchiert werden<br />
müssen. Dabei geht es nicht nur um produktspezifische Normen, sondern<br />
auch um „weichere“ Faktoren wie die Zielgruppenanalyse und die<br />
Risikobeurteilung.<br />
Damit kommen jedoch auch Aspekte des Informationsentwicklungsprozesses<br />
in den Fokus einer Konformitätsprüfung. Ein seriöses Prüfprogramm<br />
für die Konformität muss folgerichtig auch den Erstellungsprozess<br />
hinterfragen.<br />
Bisher herrschte die Meinung vor, dass die normativen Anforderungen<br />
an eine Anleitung präzise definiert sind oder zumindestens präzise definiert<br />
werden können. Das ist falsch.<br />
Richtig ist, dass die Norm den Prüfprozess als subjektiv beschreibt.<br />
Die Prüfung nach der Norm besteht danach in einer Beurteilung durch<br />
einen Experten anhand der Kriterien der Norm mit dem Ergebnis weitgehend<br />
subjektiver Optimierungsvorschläge. Dem liegt die Erkenntnis<br />
zugrunde, dass Informationsqualität nicht in gleicher Weise gemessen<br />
werden kann wie beispielsweise die Entflammbarkeit eines Kabels oder<br />
die Größe eines möglicherweise verschluckbaren Kleinteils.<br />
24<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Forum 82079<br />
Anleitung pur?<br />
Fazit<br />
Literatur<br />
Diese Tatsache stellt hohe Anforderungen an beispielsweise Prüfhäuser,<br />
die entsprechende Prüfungen anbieten. Hier sollte bei der Wahl<br />
eines externen Prüfpartners auf entsprechende Prüferfahrung geachtet<br />
werden.<br />
Bisher herrschte die Meinung vor, dass eine Anleitung allein auf Basis<br />
der Anleitung geprüft werden kann. Das ist falsch.<br />
Richtig ist, dass die IEC 82079-1 zwingend die Prüfung der Anleitung<br />
zusammen mit dem Produkt vorschreibt. Dass dies sinnvoll ist, muss<br />
wohl nicht weiter ausgeführt werden.<br />
Erstmalig setzt sich die Norm ausführlicher mit der Konformitätsprüfung<br />
auseinander und trifft Aussagen auf einer realistischen Basis. Bei<br />
der unternehmensinternen Prüfung auf Konformität sollte den Umständen<br />
Rechnung getragen werden, dass eine hohe Qualifikation, angepasste<br />
Prüfprogramme, dokumentierte Standards, geregelte Prozesse<br />
und eine konstruktive interne Kommunikation zwischen Prüfer und<br />
Redakteur wie auch in der gesamten Redaktion wesentliche Faktoren<br />
für den Erfolg mit Blick auf die angestrebte kontinuierliche Verbesserung<br />
sind.<br />
Roland Schmeling: Qualitätssicherung etablieren – Abläufe und Mittel<br />
von Qualitätsmanagement in der Technischen Redaktion, in: Technische<br />
Kommunikation 05/12<br />
für Rückfragen: r.schmeling@schmeling-consultants.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
25
Content Management
Content Management<br />
CM 1<br />
Partnerpräsentation<br />
Katalogproduktion bei SAUTER:<br />
Vorher und heute nach Einführung<br />
des PIM- und Redaktionssystems<br />
Marco Aeschimann, Fr. Sauter AG, Schweiz, Basel<br />
Dr. Alexander Mehling, Noxum GmbH, Deutschland, Würzburg<br />
SAUTER sorgt weltweit als führender Lösungsanbieter von Gebäudeautomation<br />
in „Green Buildings“ für gute Klimaverhältnisse in Lebensräumen.<br />
Zur Umsetzung der Ziele in der Produktkommunikation hat<br />
SAUTER ein PIM- und Redaktionssystem eingeführt. Damit wurden die<br />
inhaltliche Qualität, die Kosten und Termintreue bei der Erstellung von<br />
Katalogen und Technischer Dokumentation, im Übersetzungsprozess<br />
und bei der Beschickung des Webportals mit Produktinformationen<br />
optimiert.<br />
Dieser zweite Vortrag zu dem Projekt von SAUTER und Noxum zeigt<br />
die Veränderungen und Ergebnisse in der Katalogproduktion, die die<br />
System einführung bewirkt hat. Er stellt und beantwortet Fragen wie<br />
„Werden Kunden nun bei Produktauswahl und Bestellung besser unterstützt?“<br />
Dazu werten die Referenten die Qualität in der Produktkommunikation<br />
sowie das Feedback aus dem eigenen Haus und der Kunden<br />
aus.<br />
Systemeinführung: Erwartungen und Erfahrungen<br />
SAUTER definierte seine Erwartungen an und Ziele für das zukünftige<br />
Redaktionssystem. Die Herausforderung lag in der Erstellung und<br />
Produktion des Katalogs in mehreren Sprachen für unterschiedliche<br />
Zielgruppen. Produktbeschreibung, technische Datentabellen, Anwendungssituationen<br />
für jedes Produkt und jede Sprache sollten immer<br />
genau die gleiche Informationsarchitektur und ein identisches Layout<br />
haben.<br />
Die Umsetzung der Anforderungen gelang: Das PIM- und Content Management<br />
System von Noxum stellt die zentralen Systemfunktionen wie<br />
Benutzerverwaltung, Rechte- Versions-, Übersetzungsmanagement und<br />
Datenablage sowie die Kopplung von den Drittsystemen PDM/PLM,<br />
Web-CMS und TMS bereit. Es gibt Workflows zu Datenpflege, Übersetzung,<br />
Publikation, für Planungs-Tools werden die Daten bereitgestellt.<br />
Auf einer Bedienoberfläche und aus einem System heraus werden<br />
nahtlos die Aufgaben des Product Information Management und Content<br />
Management umgesetzt. Durch Übersetzungsmanagement und<br />
die Anbindung von Translation Memory Systemen reduzieren sich die<br />
Aufwände für die Übersetzungsprojekte spürbar. Die vollautomatische<br />
Katalogproduktion ermöglicht ohne Risiko Last-Minute-Änderungen an<br />
Preisen und technischen Daten.<br />
Veränderungen in der Katalogproduktion<br />
Der Nutzen der Systemeinführung lässt sich anhand der Veränderungen<br />
in der Katalogproduktion aufzeigen. Dazu stellt sich die Frage, ob<br />
die Produktinformationen nun schneller fertig werden. Die Antwort<br />
lautet „Ja, viel schneller“: Durch die Datenkonsolidierung und die<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
29
Content Management<br />
Erstbefüllung des Systems wurden die Inhalte standardisiert. Daraus<br />
ergeben sich die Möglichkeiten der Mehrfachverwendung der Produktdaten,<br />
Texte, Bilder und Informationseinheiten. Es können außerdem<br />
konsequent einheitliche Layouts genutzt werden. Diese Faktoren<br />
führen zu erheblicher Beschleunigung der Katalogerstellungsprozesse<br />
und noch dazu zur Qualitätssteigerung.<br />
Mit der Verbesserung in der Katalogproduktion gehen die Verbesserungen<br />
in der Technischen Dokumentation einher. Auch hier haben sich<br />
Erstellungszeit, Übersetzungszeit und Publikationszeit wie erwartet<br />
entwickelt. Es gilt zu ermitteln, inwiefern sich das Projekt auf das ganze<br />
Unternehmen positiv ausgewirkt hat, d. h. auch, inwiefern Produkte<br />
zukünftig schneller auf dem Markt positioniert werden können. Die<br />
Entwicklungen in den nächsten Quartalen werden hierauf die Antwort<br />
liefern.<br />
Auch Veränderungen der Print-Auflage der Kataloge werden sich in<br />
Zukunft abzeichnen. Noch setzen die SAUTER Kunden auf den gedruckten<br />
Katalog, und der erscheint bisher ein Mal im Jahr. Es ist zu<br />
erwarten, dass sich die Nutzer in Zukunft den allgemein sich verändernden<br />
Nutzungsgewohnheiten anpassen und vermutlich verstärkt<br />
auf das digitale Medium umsteigen. Dann könnte sich die Print-Auflage<br />
reduzieren und Druckkosten eingespart werden.<br />
Käme z. B. die Anforderung nach häufigeren Katalogpublikationszyklen<br />
auf SAUTER zu, könnten diese erfüllt werden. Die Automatisierung und<br />
Prozessoptimierung in der Katalogproduktion, definierte Workflows und<br />
die stetige Datenpflege und Übersetzungsmanagement würden eine<br />
Publikation quasi per Knopfdruck ermöglichen.<br />
Projektergebnis und Ausblick – Aufbruch in der Produktkommunikation<br />
Die Anforderungen an die Technische Redaktion und die Katalogproduktion<br />
waren nicht mehr mit „Adhoc-Arbeit“ zu meistern. Mit der Systemimplementierung<br />
und Datenkonsolidierung wurde der Wandel von<br />
Adhoc-Arbeit hin zu kontinuierlicher Content-Pflege und damit einer<br />
quasi „Adhoc-Publikationsbereitschaft“ geschafft.<br />
Die Systemeinführung brachte bei der Redaktion erstmals auch ein<br />
gemeinsames Verständnis der PIM-Prozesse. Das konsistente Datenmodell<br />
im PIM-System ermöglicht schnell und einfach Publikationsplanungen.<br />
SAUTER kann jetzt auch von der erheblichen Verkürzung<br />
der Produktionszeiten bei den zielgruppenorientierten Publikationen<br />
profitieren.<br />
Zusätzlich ist eine deutliche Qualitätssteigerung in der Produktkommunikation<br />
– wohlgemerkt bei reduzierten Kosten – zu beobachten. Die<br />
Qualitäts- und Kostenvorteile sind auch in jeder weiteren crossmedialen<br />
Publikation der Produktkataloge zu erwarten und bereits bei der<br />
Publikation der Online-Kataloge spürbar geworden.<br />
Das PIM-System erfährt nicht nur die Akzeptanz der Nutzer aus dem<br />
eigenen Hause: Es unterstützt auch die Kunden. Sie profitieren bei<br />
ihrer Bestellung durch bessere, verständlichere Produktinformationen<br />
und schnellere Auffindbarkeit. Zusätzlich können sie mit Smart phones<br />
z. B. über die QR-Codes aus dem Print-Katalog die entsprechenden<br />
Zusatzinformationen auf der SAUTER Website in der jeweiligen<br />
30<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Sprachversion aufrufen. Die Interessenten gelangen dann direkt zu den<br />
Datenblättern und den ergänzenden technischen Unterlagen.<br />
Die Unterstützung des Vertriebs durch das PIM-System schlägt sich inzwischen<br />
in einer erfreulichen Umsatzentwicklung nieder. Die Kunden<br />
führen ihre Bestellungen selbständig durch, es kommen wenige Rückfragen<br />
und der Service konnte deutlich entlastet werden.<br />
Informationsservice: QR-Codes im Produktkatalog bieten den<br />
Direktzugang zur Online-Produkteseite<br />
für Rückfragen:<br />
marco.aeschimann@ch.sauter-bc.com<br />
mehling@noxum.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
31
Content Management<br />
CM 2<br />
Workshop<br />
Erst „Content“-Strategie,<br />
dann CMS (vielleicht)<br />
Michael Müller-Hillebrand, DOCUFY GmbH, Bamberg<br />
Bevor auch nur an die Einführung eines Redaktionssystems gedacht<br />
werden kann, sollte eine klare Strategie bezüglich des Umgangs mit<br />
Inhalten vorliegen. Das umfasst neben Erzeugung, Verteilung und Kontrolle<br />
des „Content“ auch die Kenntnis des „Business Case“. Im Bereich<br />
der Technischen Kommunikation ist Dokumentation niemals Selbstzweck,<br />
sondern muss sich geschäftlich rechtfertigen wie alle anderen<br />
Entscheidungen auch. Auf der Basis dieses Wissens lassen sich die<br />
Kriterien für die Auswahl eines CMS leichter und präziser definieren<br />
und gewichten.<br />
Inspiriert zur Beschäftigung mit diesem Thema wurde ich durch die<br />
Webseite http://www.contentstrategy101.com und das im September<br />
<strong>2012</strong> dazu erschienene Buch „Content Strategy 101“ von Sarah S.<br />
O’Keefe and Alan S. Pringle. Vielen Dank!<br />
Warum Strategie?<br />
Was ist eine Content-Strategie?<br />
Es geht hierbei nicht um die Art und Weise der Strukturierung von<br />
Inhalten, es geht nicht um DITA und/oder andere Strukturierungsverfahren.<br />
Es geht darum, wie Sie die notwendigen Inhalte – den „Content“<br />
– erstellen, verteilen und kontrollieren, um die damit zusammenhängenden<br />
geschäftlichen Ziele zu erreichen. Es geht um den Plan zur<br />
Erzeugung, Verteilung und Kontrolle von Inhalten.<br />
Es geht in der Technischen Kommunikation – schon dieser Begriff impliziert,<br />
dass es um mehr geht als einfach „ein Handbuch zu schreiben“<br />
– seit einigen Jahren um ziemlich komplexe Dinge:<br />
––<br />
die Bedürfnisse internationaler Märkte<br />
––<br />
kürzere Entwicklungszyklen<br />
––<br />
mehr Produktvarianten oder individuell konfigurierte Produkte<br />
––<br />
zunehmende gesetzliche Anforderungen<br />
Um dem gerecht zu werden, reicht es nicht, einfach nur zu „schreiben“,<br />
der große Blick für die Zusammenhänge ist gefordert. Und ohne die<br />
richtige Strategie bleibt die Technische Dokumentation ein lästiger Kostenfaktor,<br />
statt ein wichtiger Wert für das Unternehmen zu sein. Denn<br />
es geht darum,<br />
––<br />
auch internationale Märkte mit jeweils den richtigen Inhalten zu<br />
versorgen,<br />
––<br />
die Kosten des technischen Support zu senken,<br />
––<br />
die Kundenzufriedenheit zu stärken,<br />
––<br />
die gesetzlichen Anforderung mit minimalem Aufwand zu erfüllen<br />
und nicht zuletzt:<br />
––<br />
die Kosten für die Informationserstellung zu senken.<br />
Bei den Kosten dürfen nicht nur interne und externe Aufwände zu<br />
Buche schlagen, sondern auch positive Effekte wie das Vermeiden von<br />
Risiken oder eine bessere Position im Wettbewerb müssen eingerechnet<br />
werden.<br />
32<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Reifegrad der<br />
Content-Erstellung<br />
Wesentliche Vorteile<br />
Aspekte verschiedener<br />
Szenarios<br />
Beispiel für Strategien<br />
Die Bandbreite an Strategien reicht von der Nicht-Strategie bis zum<br />
bloßen Erfüllen rein regulatorischer Anforderungen. Letztlich geht es<br />
nicht um großartige Literatur, sondern um die optimale Balance von<br />
Anforderungen und Kosten.<br />
In der Annahme, dass Sie bereits erkannt haben, „etwas muss sich ändern“,<br />
können Sie davon ausgehen, dass Kosten entstehen werden. Diese<br />
Kostenschätzungen müssen Sie den Einsparungen gegenüberstellen,<br />
um einen brauchbaren Business Case zu erhalten.<br />
Ein wichtiger Einflussfaktor ist der Punkt, von dem Sie starten. Sarah<br />
O’Keefe und Alan Pringle sprechen vom „Reifegrad der Content-Erstellung“:<br />
––<br />
Ebene 1: Mist auf der Seite. Vielleicht etwas grob formuliert, aber gemeint<br />
ist der völlige Mangel an inhaltlicher und formaler Konsistenz<br />
in den Inhalten – vielleicht abgesehen vom vorgedruckten Papier mit<br />
Firmenlogo …<br />
––<br />
Ebene 2: Layoutvorgaben. Es werden Layoutstandards eingehalten,<br />
aber es gibt eine Vielzahl von Methoden, um das zu erreichen.<br />
––<br />
Ebene 3: Template-basierend. Die Erfassung von Texten und Grafiken<br />
sowie deren Formatierung erfolgt nach Regeln, die ein konsistentes<br />
Erscheinungsbild ergeben.<br />
––<br />
Ebene 4: Strukturierte Inhalte. Hier folgen auch die Inhalte einer<br />
vorgegebenen Strukturierung, was in der Regel XML bedeutet. Alle<br />
Informationen sind vorhersehbar und konsistent strukturiert.<br />
––<br />
Ebene 5: Inhalte in einer Datenbank. Die Inhalte einer Datenbank<br />
können „auf interessante Art und Weise gesucht und manipuliert<br />
werden“.<br />
Lösungen der Ebenen 1 oder 2 sind nicht ausreichend. Und nicht jede<br />
Firma benötigt eine Lösung der Ebene 5, aber je größer die Differenz<br />
zwischen der gegenwärtigen und der benötigten Ebene ist, desto größer<br />
ist die Herausforderung.<br />
Konsistenz bei der Erstellung der Informationen führt zu Konsistenz<br />
beim Leser und damit zur Steigerung des Vertrauens in das Produkt.<br />
Beschleunigung der Produktionsprozesse bedeutet eine aktuellere Informationen,<br />
die damit oft auch relevanter für die Anwender sind.<br />
Automatisierte Formatierung schließlich reduziert die Kosten für jede<br />
Version jedes Medienobjekts in jeder Sprache. Multiplizieren Sie das<br />
einmal aus.<br />
Die konkreten Bedürfnisse jeder Firma sind hoch individuell und es<br />
gibt keine Patentlösung. Aber jenseits der Lieferung von PDF-Dokumenten,<br />
die für den Druck gestaltet wurden, sollten Sie folgende Möglichkeiten<br />
in Betracht ziehen:<br />
––<br />
Konvertierung bestehender Inhalte nach HTML<br />
––<br />
Inhalte vereinfachen, so dass eine Konvertierung nach HTML möglich<br />
wird<br />
––<br />
Verzicht auf individuelle Formatierungen<br />
––<br />
Einsatz von Open Source Tools („free, but not cheap“)<br />
––<br />
Wechsel von PDF zu HTML als führendes Format, PDF-Erstellung<br />
durch Konvertierung<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
33
Content Management<br />
Berücksichtigung<br />
der Kosten<br />
––<br />
Wechsel zu Topic-orientierter Erstellung<br />
––<br />
Schulung der Mitarbeiter zum Topic-orientierten Schreiben<br />
––<br />
Stücklisten-gesteuerte Dokument-Erstellung<br />
––<br />
Effizienter Review-Prozesses, z. B. durch Topic-Orientierung<br />
––<br />
Verbesserung der Zusammenarbeit zwischen Technischer Redaktion<br />
und Support<br />
––<br />
Optimierte Zusammenarbeit mit dem Übersetzungsdienstleister<br />
––<br />
Schulung der Mitarbeiter, um übersetzungsfreundliche Texte zu erstellen<br />
––<br />
Einsatz eines „Author Memory“ Tools<br />
––<br />
Automatisches Layout ohne manuelle Eingriffsmöglichkeiten, oder<br />
zumindest „heavy templatized“<br />
––<br />
Mitverwendung vorhandener Daten aus anderen Quellen (Datenbanken)<br />
Zu diesen konzeptonellen Überlegungen kommen noch ganz konkrete<br />
Kosten:<br />
––<br />
Lizenzkosten: Berücksichtigen Sie auch Folgejahre (Wartungskosten)<br />
und Änderungen bei der Anzahl der benötigten Lizenzen.<br />
––<br />
Migration: Es gibt verschiedene Methoden mit mehr oder weniger<br />
hohem Anteil externer Kosten.<br />
––<br />
Schulungen: Neue Werkzeuge und vor allem neue Prozesse werden<br />
nur dann effektiv sein, wenn die Beteiligten wissen, wie sie richtig<br />
eingesetzt werden.<br />
––<br />
Beratung: Sind Sie Spezialist für den Entwurf einer Content Strategy?<br />
In vielen Fällen lassen Sie sich besser helfen.<br />
––<br />
Spätere Optimierungen: Nach der Ersteinrichtung werden Sie voraussichtlich<br />
weiteres Optimierungspotential erkennen.<br />
Um keine bösen Budget-Überraschungen zu erleben, schätzen Sie auf<br />
der Kostenseite eher großzügig.<br />
Wie lassen sich diese Strategien auf CMS abbilden?<br />
Eine Lösung der Ebene 5 verlangt den Einsatz eines CMS oder Redaktionssystems.<br />
Der Einsatz eines Web-CMS ist oft nicht ausreichend, da<br />
diese Systeme in der Regel nicht für die Wiederverwendung von Inhalten<br />
entworfen sind.<br />
Wenn Sie sich davon verabschieden können, jedes Dokument manuell<br />
nachbearbeiten zu müssen, können Sie den offensichtlichsten Gewinn<br />
beim Einsatz eines CMS einstreichen: vollautomatische Formatierung!<br />
Damit erhalten Sie auch ein konsistentes Erscheinungsbild aller Ausgabeformate,<br />
also die Ebenen 2 und 3 inklusive.<br />
Da diese Systeme heutzutage alle XML-basiert arbeiten, sind die Vorteile<br />
der Ebene 4 bereits eingeschlossen. Wie stark semantisch die Inhaltsstruktur<br />
sein muss, entscheidet sich nach anderen Kriterien.<br />
Aber über all das hinaus bietet Ihnen ein CMS aufgrund der Verfügbarkeit<br />
von automatisch ermittelten und manuell gesetzten Metadaten<br />
noch weitergehende Automatisierungsmöglichkeiten, wie die erwähnte<br />
Dokumentationsgenerierung aufgrund externer Daten z. B. aus dem<br />
Bestellwesen. Aber solche Optimierungen kommen oft erst im zweiten<br />
Schritt und müssen sich dann erneut einer Business-Case-Betrachtung<br />
unterwerfen.<br />
34<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Gehen Sie es an!<br />
Analysieren Sie die Technische Dokumentation in Ihrem Hause, klären<br />
Sie, ob damit die geschäftlichen Ziele erreicht werden. Und wenn Sie<br />
Änderungsbedarf ermitteln, gehen Sie ganz nüchtern an die Zahlen.<br />
Ganz egal, ob am Ende das Budget für die von Ihnen favorisierte Lösung<br />
steht, ob es ein Redaktionssystem sein darf oder nur kleine Effizienzsteigerungen<br />
an der bestehenden Umgebung: Gehen Sie es an!<br />
für Rückfragen: mmh@docufy.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
35
Content Management<br />
CM 3<br />
Fachvortrag<br />
Wie (gut) wird unser CMS genutzt?<br />
REx-Kennzahlen für das Content Management<br />
Prof. Dr. Wolfgang Ziegler, Hochschule Karlsruhe, Fakultät Informationsmanagement und<br />
Medien, Studiengang Kommunikation und Medienmanagement<br />
Die Argumentation für die Einführung von Content-Management-<br />
Systemen (CMS) basiert in der Regel auf der effizienten Wiederverwendung<br />
von modularen Inhalten. Auf dieser beruhen zudem die<br />
erwünschten Einsparungen bei internen Bearbeitungszeiten von Dokumentationen<br />
sowie von externen Dienstleistungen wie der Übersetzung<br />
von Content. Allerdings werden bisher kaum systematische Untersuchungen<br />
betrieben, wie die CMS in der Praxis langfristig genutzt<br />
werden.<br />
Für quantitative Analysen wurden bereits grundlegende Definitionen<br />
von Kennzahlen für die Technische Dokumentation und für entsprechende<br />
Dokumentationsprojekte eingeführt [1]. Für die Untersuchung<br />
und Darstellung der speziellen Arbeitsweise innerhalb der Content-<br />
Management-Systeme wurde darüber hinaus eine spezifische Kennzahlensystematik<br />
erarbeitet [2]. Die Kennzahlen können über CMSspezifische<br />
Mechanismen mit Hilfe eines Standard-XML-Formates<br />
exportiert und ausgewertet werden [3]. Dieses Format wurde als<br />
Report-Exchange-Format (REx) definiert [4]. Die (R)Exporte enthalten<br />
dabei u. a. die Basisinformationen zur Wiederverwendung von Content.<br />
Die Auswertungen liefern daraus statistische Nutzungskennzahlen<br />
zur Wiederverwendung und Visualisierungen der relevanten Größen.<br />
Die REx-Methodik ist damit ein Ausgangspunkt für ein internes CMS-<br />
Monitoring und für branchenweite CMS-Studien. In einer ersten Phase<br />
wurden bisher (R)Exporte aus Produktivsystemen verschiedener Anbieter<br />
erstellt und ausgewertet.<br />
Die Vorabergebnisse dieser Kennzahlen zeigen u. a. die real vorliegenden<br />
Wiederverwendungen. Hierbei ergibt sich im Maschinenbau häufig<br />
eine effiziente Wiederverwendungsrate von 80–100 % bezogen auf den<br />
Inhalt von Dokumenten. Die (Wieder-)Verwendungszahl der einzelnen<br />
Module streut dabei stark und liegt in der Regel bei nur einem Bruchteil<br />
aller Dokumente. Deutlich zu erkennen ist die häufig postulierte (inverse)<br />
Abhängigkeit der Modulgröße von der Wiederverwendungshäufigkeit<br />
von Modulen.<br />
Insgesamt kann mit der REx-Methodik eine Vielzahl von Mittelwerten,<br />
Verteilungen und Korrelationen von Größen ermittelt werden, die für<br />
eine Darstellung und Optimierung der Arbeitsweise mit einem CMS<br />
hilfreich sind. Zudem stellt die REx-Methodik auch aus wissenschaftlicher<br />
Sicht ein Instrument für die Weiterentwicklung der Content-Management-Konzepte<br />
und für branchen- oder produktbezogene Benchmarks<br />
dar.<br />
36<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Literatur<br />
[1] Straub D., Grau M., Fritz M.: „101 Kennzahlen für die Technische<br />
Kommunikation“, <strong>tekom</strong>, Stuttgart (2008)<br />
[2] Ziegler W.: „Metrische Untersuchung der Wiederverwendung im<br />
Content Management“, Hochschule Karlsruhe (2008)<br />
[3] Oberle C.: „Kennzahlen für das Content Management – Auswertung<br />
und Visualisierung von Daten im Report Exchange Format (REx-Format)“,<br />
Master-These Hochschule Karlsruhe (2010)<br />
[4] http://www.home.hs-karlsruhe.de/~ziwo0001/rex/intro.html<br />
für Rückfragen: wolfgang.ziegler@hs-karlsruhe.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
37
Content Management<br />
CM 4<br />
Partnerpräsentation<br />
Software-Dokumentation unter<br />
Zeitdruck – Oberfläche, Online-Hilfe<br />
und Handbuch aus einem Guss<br />
Julia Schairer, Dürr Dental AG, Bietigheim-Bissingen<br />
Thiemo von Gillhaußen, Fischer Computertechnik GmbH, Radolfzell<br />
Software-Anleitungen stellen das Redaktionsteam immer wieder vor<br />
neue Herausforderungen: Zeitnah zum Code-Freeze der Software muss<br />
die Anleitung sowohl als kontextsensitive Online-Hilfe als auch als<br />
Handbuch bereitgestellt werden.<br />
Der Vortrag zeigt, welchen Weg die Technische Redaktion und die Software-Entwicklung<br />
von Dürr Dental für die neue Software-Generation<br />
gemeinsam gehen, um die Software-Oberfläche und Anleitungen effizient<br />
und hochwertig zu erstellen.<br />
PDF-Handbuch in<br />
18 Sprachen<br />
Software-Texte<br />
vom Entwickler<br />
Ausgangspunkt<br />
Das Medizintechnik-Unternehmen Dürr Dental entwickelt und produziert<br />
neben verschiedensten Geräten auch Software, z. B. eine Imaging-<br />
Software, mit der Röntgen- und Videobilder erstellt, verwaltet und bearbeitet<br />
werden können. Die Anwender der Software sind Zahnärzte und<br />
Zahnarzthelferinnen.<br />
Das Handbuch mit rund 170 Seiten und ca. 300 Screenshots wurde<br />
bisher in InDesign in 18 Sprachen erstellt und im PDF-Format mit<br />
wenigen Sprungmarken in die Software eingebunden. Die Erstellungszeit<br />
des Handbuchs war auf den Testzeitraum der Software (6 Wochen)<br />
begrenzt. Deshalb wurden die Screenshots nur in Deutsch und Englisch<br />
erstellt und die Sprungmarken, die manuell in die einzelnen PDFs eingepflegt<br />
werden mussten, auf ein Minimum begrenzt.<br />
Die Oberflächen-Texte der Software erstellten die Software-Entwickler<br />
während der Programmierung, auf Konsistenz und Verständlichkeit<br />
wurde dabei nur marginal geachtet. Die Lokalisierung erfolgte durch<br />
Export und Import von Excel-Tabellen.<br />
Mit der neuen Software-Generation, einer vollständigen Neuentwicklung,<br />
und der Einführung des XML-Redaktionssystems TIM-<br />
RS ® Professional stiegen auch die Ansprüche und Wünsche an die<br />
Software-Dokumentation.<br />
Anleitungen mit XML erstellen<br />
Im Redaktionssystem TIM-RS ® Professional erfolgt die Erfassung redaktioneller<br />
Inhalte vollständig auf Basis von XML. Damit werden die Inhalte<br />
Layout-neutral erfasst, unabhängig von deren Weiterverarbeitung.<br />
Aus der gemeinsamen Datenbasis werden heute sowohl InDesign-Dokumente<br />
(PDF) als auch die neue Software-Hilfe als HTML-Applikation<br />
mit Navigation, Suche und Index in das Format XLIFF publiziert.<br />
38<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Mit Sprungmarken gezielt helfen<br />
Von der Software-Entwicklung wird zu jedem (Teil-)Screen eine interne,<br />
sprechende ID vergeben, die den Teil der Software eindeutig<br />
identifiziert.<br />
Der Redakteur kennzeichnet beim Erstellen der Dokumentation die<br />
beschreibenden Module in der Dokumentstruktur mit diesen IDs<br />
(HelpID).<br />
Bei der Publikation der Software-Hilfe wird die Dokumentstruktur<br />
anhand der HelpIDs aufgeteilt. Für jede HelpID wird in der fertigen<br />
Software-Hilfe eine eigene HTML-Seite erstellt.<br />
In der späteren Anwendung hat der Benutzer die Möglichkeit, zu jeder<br />
Zeit die Hilfefunktion zu nutzen. Diese sucht mittels der HelpID die<br />
entsprechende kontextbezogene HTML-Seite und zeigt diese an.<br />
Screenshots erstellen, verwalten und verwenden<br />
Parallel zur Software-Entwicklung werden bereits vorläufige Screenshots<br />
vollautomatisch generiert. Über eine spezielle Importfunktion<br />
werden diese „Platzhalter“ frühzeitig in das Redaktionssystem importiert<br />
und verwendet.<br />
Nach Fertigstellung und Lokalisierung der Software werden die finalen<br />
Screenshots in 21 Sprachen generiert. Die Platzhalter werden dann<br />
automatisch überschrieben und in den XML-Modulen aktualisiert.<br />
Über diesen Mechanismus ist es auch möglich, die Sprachvarianten<br />
hinzuzufügen und zu aktualisieren. Bei bereits freigegebenen Grafiken<br />
wird eine neue Version erzeugt, wodurch die Vorgängerversion sofort<br />
veraltet.<br />
Software-Texte: Entwicklersprache verständlich machen<br />
Einen wichtigen Einfluss auf die Bedienbarkeit einer Software haben<br />
die Texte der Software-Oberfläche, die eindeutig, verständlich und<br />
konsistent sein sollen. Deshalb werden die Texte der neuen Software-<br />
Generation von der Technischen Redaktion bearbeitet.<br />
Die Software-Entwickler unterbreiten zunächst einen Vorschlag in<br />
„Entwicklersprache“, der aufgrund des internationalen Teams deutsch<br />
oder auch englisch sein kann. Daraus entwickelt der Technische Redakteur<br />
die deutschen Texte, die anschließend in die verschiedenen Sprachen<br />
übersetzt werden.<br />
Als Austauschformat für die Software-Texte dient das standardisierte<br />
XLIFF-Format, das im Translation-Memory-System Transit NXT mit konsistenter<br />
Terminologie und in einem einheitlichen Workflow übersetzt<br />
wird. Für den Kontext der Texte in der Software erhält der Technische<br />
Redakteur zusätzlich eine HTML-Datei mit Screenshots und dazugehörigen<br />
Texteinträgen.<br />
Paralleler<br />
Erstellungsprozess<br />
Zeit sparen und Qualität verbessern<br />
Da die Software in Modulen aufgebaut und entwickelt wird, kann der<br />
Technische Redakteur parallel zur Software-Entwicklung arbeiten. Sobald<br />
ein Software-Modul freigegeben ist, werden sowohl die Software-<br />
Texte als auch die Anleitung für dieses Modul erstellt und übersetzt.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
39
Content Management<br />
Screenshots in<br />
allen Sprachen<br />
Bessere Sprungmarken<br />
Verschiedene<br />
Publikationen<br />
Statt die Screenshots mühsam einzeln zu erstellen, werden die automatisch<br />
erstellten Screenshots rasch in die Anleitung eingebunden und<br />
aktualisiert. Der Software-Anwender profitiert von Screenshots in seiner<br />
Sprache.<br />
Durch die einmalige Zuordnung der Sprungmarken in der XML-Dokumentstruktur<br />
entfällt die manuelle Nacharbeit der fertigen Software-<br />
Hilfe in allen Sprachen. Dadurch können, mit wenig Aufwand, viele<br />
Sprungmarken gesetzt und die Effizienz der kontextsensitiven Hilfe<br />
verbessert werden.<br />
Aus der layout-neutral erstellten Anleitung werden mehrere Formate<br />
publiziert. Somit können die Vorzüge verschiedener Medien (kontextsensitive<br />
HTML-Applikation und PDF als gesammeltes Nachschlagewerk)<br />
ohne zusätzlichen Aufwand genutzt werden.<br />
Ausblick<br />
Die erste Software von Dürr Dental mit der neuen Umsetzung der Hilfe<br />
wird 2013 auf den Markt kommen. Die Umsetzung weiterer Wünsche ist<br />
geplant:<br />
Eine Referenzierung der Software-Texte in den XML-Bausteinen soll<br />
sicherstellen, dass die zitierten Texte in der Software-Hilfe immer dem<br />
aktuellen Stand der Software entsprechen.<br />
Kurze Videosequenzen sollen für die „Ersten Schritte“ in die Software-<br />
Hilfe integriert werden, um dem Anwender einen leichteren Einstieg in<br />
die Software zu verschaffen.<br />
Mittels Filterung der XML-Inhalte abhängig von der Publikation werden<br />
aus einer Dokumentstruktur verschiedene Publikationen mit unterschiedlichen<br />
Informationstiefen erstellt.<br />
Kurzfristig wurde bereits eine zusätzliche Anforderung, die im Rahmen<br />
von Geräte-Neuentwicklungen entstanden ist, umgesetzt: Eine Hilfe, die<br />
auf der Bedienoberfläche (Touchscreen) eines Gerätes integriert wird.<br />
Dabei wird die gleiche Technik verwendet. Zum Einbinden der Hilfe in<br />
die Firmware erfolgt die Publikation im XLIFF-Format mit eingebettetem<br />
HTML.<br />
für Rückfragen:<br />
schairer.j@duerr.de<br />
Gillhaussen@fct.de<br />
40<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
CM 5<br />
Fachvortrag<br />
Externe Faktoren<br />
Interne Faktoren<br />
Revisionsprozesse im Redaktionssystem<br />
Victor Linnemann, neo communication ag, Kreuzlingen, Schweiz<br />
Einleitung<br />
Das neue Redaktionswerkzeug wurde eingeführt und initial befüllt. Alle<br />
Inhalte sind freigegeben, übersetzt, fachlich und terminologisch einwandfrei.<br />
Nun beginnt die Uhr zu ticken: Nach und nach verwandeln<br />
sich die wertvollen Inhalte trotz Freigabe in fragwürdige, revisionsbedürftige<br />
Objekte …<br />
Nicht die Inhalte verändern sich bzw. verlieren ihren beschreibenden<br />
Wert, sondern der durch sie beschriebene Teil der realen Welt verändert<br />
sich und relativiert den Wert der konkreten, ihn beschreibenden<br />
Inhalte.<br />
Externe Faktoren, die eine inhaltliche Revision notwendig machen, sind<br />
neben Veränderungen in der zu beschreibenden Produktewelt auch<br />
Änderungen in der Terminologie und der Übersetzung der Inhalte. Auch<br />
Veränderungen an Redaktionsleitfäden, Richtlinien und Normen können<br />
als Verursacher umfangreicher Revisionen festgemacht werden.<br />
Daneben gibt es interne Gründe, warum die Inhalte in einem Redaktionssystem<br />
revisionsbedürftig sein können: Das Single Source Prinzip<br />
wurde nicht konsequent angewendet, es wurde mangels Prüfautomatismen<br />
gegen Strukturregeln verstoßen, Dokumente wurden per Massenimport<br />
im Rahmen einer Migration ins Redaktionssystem importiert<br />
u.s.w.<br />
Motivation und Fragestellung<br />
Der zu diesem Vortrag führende Gedanke war ursprünglich, unterschiedlichen<br />
Textsorten in einem Redaktionssystem spezifische Haltbarkeitsintervalle<br />
zuzuordnen. Ein Marketingtext verfällt ein Jahr nach<br />
der letzten Änderung, ein Modul des Typs Allgemein hält sich unbegrenzt,<br />
das Verfallsdatum eines Technischen Datenblatts orientiert sich<br />
an den Entwicklungszyklen des Unternehmens. Aus diesen Metadaten<br />
könnte ein projektbezogener Report generiert werden, der dem Redakteur<br />
zusätzliche Informationen bei der Wiederverwendung von Modulen<br />
bietet. Denn „redaktionell freigegeben“ und „in aktueller Übersetzung<br />
vorliegend“ sind Zustände eines Moduls im Redaktionssystem, die<br />
nicht mit den dynamischen Veränderungen der Sachverhalte der realen<br />
Welt synchronisiert sind. Wenn sich diese Veränderungen aber zyklisch<br />
ereignen, dann kann ein solcher Report zumindest annäherungsweise<br />
abbilden, welche Module genauer betrachtet werden sollten.<br />
Die zuerst befragten Redakteure waren der Auffassung, dass ein solches<br />
Regelwerk ihnen keine wertvollen Informationen liefern kann, weil<br />
schlussendlich jeder Redakteur „seine“ Module genau kennen sollte,<br />
andererseits bestand die Befürchtung, dass sie mit dem Überprüfen der<br />
„abgelaufenen“ Module lediglich eine zusätzliche, zeitfressende Aufgabe<br />
erhalten würden.<br />
Daraufhin wurde die Fragestellung erweitert, um sinnvolle(re) Anwendungen<br />
für automatisiert erstellte Revisionslisten in Redaktionssystemen<br />
zu finden: Welche Technologien bieten sich aktuell an, um den<br />
Revisionsprozess im Redaktionssystem zu unterstützen?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
41
Content Management<br />
Statische und<br />
dynamische Kennzahlen<br />
Kennzahlen und<br />
Interaktion<br />
Kennzahlen<br />
Die Anwendung des Single Source Prinzips mit dem Redaktionssystem<br />
kann durch die Analyse der relationalen Bezüge der Module und Ressourcen<br />
untereinander geprüft werden. Das Messen der Wiederverwendungshäufigkeit<br />
von Modulen und kleineren Einheiten kann Aufschluss<br />
über die zu erwartende Kostensenkung im Dokumentationsprozess und<br />
die mitunter entstehende höhere Konsistenz der im Redaktionssystem<br />
komponierten Texte geben. Die wohl bekannteste Methodik zur Ermittlung<br />
von Kennzahlen für den redaktionellen Prozess im deutschsprachigen<br />
Raum ist REx.<br />
Die Analyse liefert zunächst statische Kennzahlen zur Verwendungshäufigkeit<br />
von Modulen und Wörtern. Eine naheliegende Erweiterung<br />
der Auswertungsmethodik bestünde darin, den zeitlichen Verlauf der<br />
Wiederverwendungen im Redaktionssystem nachzuzeichnen, um<br />
Trends in der Anwendung des Systems erkennen und steuernd eingreifen<br />
zu können.<br />
Die Zielgruppe für statische und dynamische Kennzahlen scheint recht<br />
eindeutig die Redaktionsleitung zu sein. Den Redakteur in seinem<br />
Umfeld unterstützt das zunächst wenig. Indessen lassen sich die auf<br />
Wiederverwendung ausgerichteten Kennzahlen auch so auswerten,<br />
dass der Redakteur genau diejenigen Module in einer Trefferliste versammelt<br />
findet, die in seinem Projekt nur ein einziges Mal verwendet<br />
werden. Umgekehrt kann ein gewisser Argwohn gegenüber stereotyp in<br />
jeder Bedienungsanleitung vorkommenden Inhalten sehr gesund sein.<br />
Die Auswertung der Kennzahlen erfolgt in diesem Fall nicht grafisch<br />
(Informationscockpit), sondern in der Form einer hierarchisch gegliederten<br />
Modulliste. Über diese kann der Redakteur dann relativ einfach<br />
diejenigen Inhalte aufsuchen, die er genauer betrachten möchte.<br />
Optimierung der Wiederverwendung durch Ähnlichkeitssuche<br />
Redaktionssysteme bieten, wenn Technische Dokumentation im Fokus<br />
des Anbieters steht, oft Schnittstellen zu einer Autorenunterstützung an.<br />
Bei der Translation-Memory-gestützten Variante werden die im Translation<br />
Memory gespeicherten und indizierten Übersetzungseinheiten in<br />
der Ausgangssprache durchsucht, um dann während des Schreibens im<br />
Editor per Suche im Hintergrund ähnliche Sätze und Phrasen im Vergleich<br />
zu dem soeben Geschriebenen in einer Trefferliste anzuordnen.<br />
Das Einfügen eines Satzes aus der Liste anstelle der soeben geschriebenen<br />
Variante kann die Übersetzungskosten reduzieren und die Textkonsistenz<br />
erhöhen.<br />
Eine Redaktionssystems-gestützte Autorenunterstützung bietet den<br />
großen Vorteil, dass sich nicht nur Sätze aus Inhalten des Redaktionssystems<br />
wiederverwenden lassen, sondern auch die Module, aus denen<br />
sie stammen.<br />
Die Implementierung einer Ähnlichkeitssuche auf der technischen<br />
Grundlage der (vorhandenen) Autorenunterstützung liefert Revisionslisten,<br />
die dem Redakteur helfen, redundant vorhandene oder ähnliche<br />
Module zu identifizieren und zusammenzuführen.<br />
42<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Prüfung gegen den Redaktionsleitfaden<br />
Regeln mit Bezug auf die Makrostruktur (Teilbäume) und die Mikrostruktur<br />
(strukturierter Inhalt) lassen sich oft formal fassen. Ein XMLbasierter<br />
Standard, der über die mit DTD und XML Schema prüfbaren<br />
Strukturen hinaus kombinierte Tests von Struktur, Inhalt und Metadaten<br />
ermöglicht, ist ISO Schematron. Die Implementierung setzt entweder<br />
eine API für das Navigieren im Repository voraus, oder das auszuwertende<br />
Dokument muss im XML-Format vorliegen.<br />
Eine entsprechende Revisionsliste könnte z. B. diese Treffer enthalten:<br />
––<br />
Handlungsanweisungen mit mehr als n Handlungsschritten<br />
––<br />
Überschriften, die mit einem Artikel beginnen<br />
––<br />
veraltete Module (siehe unter „Motivation und Fragestellung“)<br />
––<br />
falsch komponierte Dokumente (die gegen die DTD valide sind)<br />
Terminologieprüfung im Hintergrund<br />
Die Prüfung der Inhalte auf die Einhaltung vorgegebener Terminologie<br />
setzt voraus, dass verbotene Benennungen und Synonyme miterfasst<br />
werden. Allerdings funktioniert Terminologieerkennung nicht bei allen<br />
bzw. nicht zuverlässig bei einigen Sprachen (inflektierende Sprachen,<br />
zu geringe Ähnlichkeit beim Stemming u.s.w.). Beim Aufbau einer entsprechenden<br />
Revisionsliste ist darauf zu achten, dass Terminologieänderungen<br />
in der Ausgangssprache nicht zwangsläufig zu Änderungen in<br />
der jeweiligen Zielsprache führen (es gibt alle drei Kombinationen). Bei<br />
allen Einschränkungen ergibt sich aber auch hier eine sinnvolle Revisionsliste.<br />
Die Implementierung setzt derzeit die Kopplung von Systemen<br />
unterschiedlicher Anbieter voraus.<br />
Fazit<br />
Die Unterstützung von Revisionsprozessen im Redaktionssystem ist<br />
teilweise mit Bordmitteln, teilweise über die Implementierung offener<br />
Standards mit überschaubarem Aufwand realisierbar. Speziell Tests gegen<br />
die weichen Regeln des Redaktionsleitfadens und die Optimierung<br />
der Wiederverwendung durch Ähnlichkeitssuche können nach Meinung<br />
des Autors einen wertvollen Beitrag zu Textqualität und Kostenentwicklung<br />
leisten. Einzelne Entwicklungsprojekte laufen bereits. Darum:<br />
Augen auf beim Messebesuch!<br />
Literaturhinweise und Links<br />
Report Exchange Format (REx):<br />
http://www.home.hs-karlsruhe.de/~ziwo0001/rex/intro.html<br />
(Homepage von Prof. Dr. W. Ziegler)<br />
ISO Schematron: http://www.schematron.com/<br />
für Rückfragen: victor.linnemann@neo-comm.ch<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
43
Content Management<br />
CM 6<br />
Partnerpräsentation<br />
Prozessoptimierung bei Putzmeister:<br />
Einführung eines Redaktionssystems<br />
mit PI-Mod und SAP-Schnittstelle<br />
Bernd Klötzl, Putzmeister Concrete Pumps GmbH, Bodnegg<br />
Karsten Schrempp, PANTOPIX GmbH & Co. KG, Aichtal<br />
Es ist ein alter Traum, im variantenreichen Sondermaschinenbau aus<br />
einer Maschinenkarte oder Fertigungsstückliste adäquate Technische<br />
Dokumentation zu erzeugen. Wir zeigen, wie wir das bei Putzmeister für<br />
Betonpumpen umgesetzt haben.<br />
Ausgangslage<br />
Variantenvielfalt<br />
Die Herausforderung<br />
Die Ausgangslage ist einfach: Für eine Betonpumpe gibt es eine optionale<br />
Funktion, repräsentiert durch eine Baugruppe, z. B. die Spülwasserpumpe.<br />
Je nach Typ der Betonpumpe, z. B. fahrbar oder stationär,<br />
unterscheidet sich die Art des Einbaus. Damit gibt es Unterschiede in<br />
Detailfunktionen in der Bedienung und bei der Wartung. Anspruch und<br />
Stand der Redaktion ist die auftragsspezifische Dokumentation.<br />
Bei alleine über 20 Typen fahrbarer Betonpumpen mit etwa hundert<br />
kombinierbaren Optionen und kundenspezifischen Erweiterungen<br />
ergibt sich damit eine Variantenvielfalt, die aus dem augenscheinlichen<br />
Serienprodukt eine Sondermaschine macht.<br />
Ziele des Projekts<br />
––<br />
Das bestehende, auf Quicksilver und einer MS Access-Datenbank<br />
basierende Redaktionssystem sollte abgelöst werden.<br />
––<br />
Es sollte weiterhin die auftragsspezifische Dokumentation erstellt<br />
werden können, bei einer Reduktion des dazu notwendigen Aufwands.<br />
––<br />
Es sollte ein Redaktionskonzept entwickelt werden, das basierend<br />
auf einem oder mehreren Maximaldokumenten und mit intelligenten<br />
Filtermechanismen zu einer Vereinfachung und Beschleunigung der<br />
Redaktions- und Publikationsprozesse führt.<br />
––<br />
Die Filter sollten über eine Schnittstelle zu SAP auftragsspezifisch<br />
beliefert werden.<br />
––<br />
Während des Projekts ergab sich eine Erweiterung des Projekts von<br />
einem Geschäftsbereich (PCP, Betonpumpen, Sondermaschinen) auf<br />
zwei weitere Geschäftsbereiche (Putzmeister Mörtelmaschinen, weitgehend<br />
Serienmaschinen, und Putzmeister Solid Pumps, Anlagenbau),<br />
die beide mit möglichst identischen Prozessen in der Nutzung<br />
des Redaktionssystems integriert werden sollten.<br />
––<br />
Das neue System mit seinen Prozessen sollte übersichtlich und handhabbar<br />
bleiben.<br />
Der Auswahlprozess für das Redaktionssystem erfolgte nach den üblichen<br />
Standards und ist nicht Gegenstand dieses Vortrags. Es wird COSI-<br />
MA PI-Mod von Docufy eingesetzt.<br />
44<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Konzept<br />
Das Gesamtkonzept wurde über eine Diplomarbeit vorbereitet. Sie zeigte<br />
auf, dass bei der Einführung einer entsprechenden Materialklassifikation<br />
in der Stückliste und einer passenden Modularisierung im CMS<br />
die Erstellung von Maximaldokumenten mit Filterkriterien möglich ist.<br />
Ebenso wurden zwei Komplikationen erkennbar:<br />
––<br />
Die Stücklisten sind nicht vollständig, da manche Standardfunktion<br />
nicht als Baugruppe in der Stückliste erscheint.<br />
––<br />
Für mehrfach verbaubare Baugruppen ist der Einbauort nur implizit<br />
(und nicht immer regelbasiert) aus der Stückliste ablesbar.<br />
Daraus ergab sich, dass zumindest in einer ersten Ausbauphase ein redaktionelles<br />
Überarbeiten der Stücklisteninformationen notwendig war.<br />
Materialklassen in<br />
der Stückliste<br />
PI-Mod<br />
Produktklassifikation<br />
PI-Mod<br />
Informationsklassen<br />
Maximaldokumente<br />
Filter<br />
Umsetzung<br />
Im Stammdatenmanagement wurde ein zusätzliches Feld eingeführt.<br />
In Abstimmung mit der Redaktion wird bei der Anlage eines Materials<br />
abgestimmt, ob dieses Material (z. B. eine Baugruppe) dokumentationsrelevant<br />
ist. In diesem Fall wird in dieses Feld eine Kennung für die<br />
Materialklasse eingetragen.<br />
Als Datenmodell für die Modularisierung wird PI-Mod eingesetzt. Für<br />
jedes Topic wird das „P“ für die Produktklassifikation über die Materialklasse<br />
oder die Materialnummer einer Baugruppe gefüllt, je nach<br />
Allgemeingültigkeit der Information. Da wir dieses Metadatenkonzept<br />
über die Funktion der Gültigkeiten des CMS abbilden, haben wir zudem<br />
die Möglichkeit, Inhalte innerhalb eines Topics mit einer Gültigkeit zu<br />
versehen, was wir zu einer gezielten Filterung einsetzen.<br />
Gleichzeitig haben wir die Möglichkeit, zu einem Material Informationen<br />
zu verschiedenen Informationsklassen zu füllen. Damit stellen wir<br />
sicher, dass z. B. Bedien- und Wartungsinformationen erfasst werden. Es<br />
gibt keine übergreifenden Regelungen, sondern Baugruppen-abhängig<br />
wird entschieden, welche Informationsklassen mit Inhalten versehen<br />
werden.<br />
Je nach Geschäftsbereich und Produktpalette erstellen wir Maximaldokumente,<br />
die kontinuierlich gepflegt werden. Sie sind nach dem obigen<br />
Schema modularisiert. Für einen Kundenauftrag wird eine Kopie eines<br />
Maximaldokumentes angelegt, die mit den entsprechenden Filtern versehen<br />
und gegebenenfalls individuell angepasst wird. Über diesen Mechanismus<br />
verlieren wir zwar für das auftragsspezifische Dokument die<br />
Weiterentwicklung des Maximaldokuments, was aus unserer Sicht aber<br />
keinen gravierenden Nachteil bedeutet.<br />
Eine Erweiterung des Redaktionssystems stellt uns Filter als redaktionelle<br />
Objekte zur Verfügung, die gespeichert, überarbeitet und versioniert<br />
werden können. Damit können wir einerseits Materialklassen<br />
nachpflegen, die nicht über die Stückliste geliefert werden. Andererseits<br />
können wir für „ähnliche“ Aufträge vorhandene Filter verwenden. Es<br />
hat sich als sinnvoll erwiesen, nicht nur mit einem Filter zu arbeiten,<br />
das einen ganzen Auftrag abdeckt, sondern typenspezifische Standardfilter<br />
als Basis zu nutzen und zusätzliche Auftragsspezifika über eigene<br />
Filter abzudecken. In der Praxis bedeutet das, dass einem Maximaldokument<br />
mehrere Filter zugewiesen werden können.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
45
Content Management<br />
Aktueller Status: Der Redaktionsprozess<br />
Die Erstellung einer kundenspezifischen Dokumentation erfolgt in den<br />
folgenden Schritten:<br />
––<br />
SAP liefert eine kundenspezifische Fertigungsstückliste<br />
––<br />
Aus dieser Liste wird ein Filter generiert und im CMS abgelegt<br />
Gleichzeitig erhalten wir eine Delta-Informationen zu im CMS nicht<br />
vorhandenen Gültigkeiten und/oder Materialnummern<br />
––<br />
Der Redakteur erstellt eine Kopie des Maximaldokuments für den<br />
Kundenauftrag. Der aus den SAP-Daten erstellte Filter und entsprechende<br />
Basis-Filter (mit Typinformationen) werden an dieses Maximaldokument<br />
gehängt.<br />
––<br />
Die Filter und das Dokument können redaktionell überarbeitet werden.<br />
––<br />
Publikation<br />
Fazit<br />
Auf der Basis einer grundlegenden Konzeption haben wir ein effizientes<br />
Werkzeug für die Redaktion aufgebaut.<br />
Für Rückfragen:<br />
kloetzlb@pmw.de<br />
karsten.schrempp@pantopix.de<br />
46<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
CM 7<br />
Workshop<br />
Module al gusto – Dokumente<br />
maßgeschneidert modularisieren<br />
Ute Mitschke, Ovidius GmbH, Berlin<br />
Beim Aufbau modularer Dokumentation wird großer Wert auf die Auswahl<br />
einer geeigneten XML-Struktur gelegt. Wiederverwendung von<br />
Inhalten und Effizienz des Systems beim Publizieren werden gleichzeitig<br />
durch die Klassifizierung der Inhalte und Vereinbarungen zur Modulgröße<br />
beeinflusst.<br />
Wird ein Content-Management-System (CMS) eingeführt, entstehen<br />
Module mit den unterschiedlichsten Inhalten, die vom Redakteur bei<br />
der Arbeit mit dem CMS leicht gefunden, eindeutig identifiziert und im<br />
gewünschten Kontext zusammengestellt werden müssen.<br />
Was ist das Schwierige am Finden einer effektiven Benennung für Module?<br />
Es ist der Wunsch, mit ständig wechselnden Suchkriterien das<br />
Modul über die Benennung aus einer nicht mehr überschaubaren Vielzahl<br />
wiederfinden zu können.<br />
Wer sucht, der findet?<br />
Folgende Szenarien sind vorstellbar:<br />
1. Jemand sucht alle Module, in denen das Wort „Schraubenzieher“ vorkommt.<br />
2. Es soll ein Modul gefunden werden, in dem die Reinigung eines Filters<br />
von Ölresten beschrieben wird.<br />
3. Die Anleitung für Produkt 1 muss überarbeitet werden, da es eine<br />
funktionale Änderung gibt, die nur Produkt 1 betrifft. Wie müssen die<br />
Module gekennzeichnet werden, damit nur die Module von Produkt 1<br />
und nur die aus den Kapiteln Inbetriebnahme und Bedienung gefunden<br />
werden?<br />
4. Es soll ermittelt werden, ob es Module gibt, für die ein konkreter Autor<br />
Inhalte für Service-Handbücher verfasst hat.<br />
5. Die Anleitungen von Produkten, die im kommenden Monat auf den<br />
Markt gehen sollen, müssen um einen Sicherheitshinweis für die<br />
Betriebssicherheit ergänzt werden. Davon betroffen sind nur die<br />
Produkte einer Produktklasse und nur die Abschnitte für das Kapitel<br />
Bedienung. Wie müssen die Module gekennzeichnet worden sein,<br />
damit konkret diese Module leicht gefunden werden?<br />
Die Beispiele zeigen, dass es empfehlenswert ist, in der Konfiguration<br />
des CMS die Möglichkeit vorzusehen, Module mit ausreichend vielen<br />
Metadaten auszuzeichnen, um mit deren Hilfe gezielt nach ihnen suchen<br />
zu können. Durch jedes Metadatum wird dabei eine bestimmte<br />
Perspektive definiert, nach der gesucht werden kann.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
47
Content Management<br />
Wie ein Filtern nach Maschinen- und Handbuchtyp aussehen kann, zeigt<br />
die Abbildung.<br />
Informationen für Metadaten klassifizieren<br />
Es hat sich bewährt, die Handbuch-Typen (Betriebsanleitung, Serviceanleitung,<br />
Schulungshandbuch usw.) und die nach Maschinenrichtlinie<br />
erforderlichen Kapitel (Installation/Inbetriebnahme, Bedienung,<br />
Fehlerbehebung usw.) als Metadatum zu definieren. Welche anderen<br />
Metadaten zusätzlich sinnvoll sind, kann je nach Anwendungsfall sehr<br />
unterschiedlich sein.<br />
Für Firmen mit einer konkreten Produktstruktur nach Produktklassen<br />
und -gruppen, mit wenigen Zusatzoptionen und ohne Varianten, die<br />
sehr umfangreiche Dokumentationen erstellen (z. B. im Flugzeugbau),<br />
ist es sinnvoll, in den Modulen die Produktzugehörigkeit anzugeben.<br />
Ist die Produktpalette einer Firma sehr breit gefächert, variantenreich<br />
und der Innovationsgrad sehr hoch, wird die Produkt-Kennzeichnung<br />
in der Vielzahl kleiner, allgemeingültiger Module zu aufwendig. In diesem<br />
Fall empfiehlt es sich, bestimmte Produkt-Merkmale und -Funktionen<br />
als Kennzeichnung zusammenzustellen.<br />
Da nicht nur die Dokumentationsabteilung mit der Produktvielfalt umgehen<br />
muss, sondern die Produktionsplanung und Fertigung davon<br />
genauso betroffen sind, lohnt es, sich in anderen Betriebsbereichen anzuschauen,<br />
wie dort die Vielfalt der Produkte handhabbar klassifiziert<br />
wird.<br />
Das konkrete Vorgehen im Workshop<br />
1. Vorstellen der Beispiel-Firma, deren Produktstruktur und vier konkreter<br />
Produkte.<br />
Als Beispielfirma dient eine fiktive Bohrmaschinen produzierende<br />
Firma, die Bohrmaschinen verschiedener Größe, Leistung,<br />
48<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
Hinweis<br />
Funktionsumfang und Aufstellung (Standbohrmaschinen und Handbohrmaschinen)<br />
produziert.<br />
2. Erarbeiten des prinzipiellen Inhalts für ein Beispielkapitel einer BA<br />
nach Maschinenrichtlinie.<br />
Die Teilnehmer erhalten ein Arbeitsblatt, auf dem 3 verschiedene Abschnitte<br />
aus Kapiteln „Bedienung“ aufgelistet sind. Sie sollen auf dem<br />
Arbeitsblatt die Abschnitte in ihrer Gültigkeit den Produkten zuordnen.<br />
Mögliche Ergebnisse sind: z. B. Gültigkeit für alle Produkte, für eine<br />
Produktklasse oder für ein spezielles Produkt.<br />
In einem Folgeschritt werden die Inhalte analysiert und inhaltlich zu<br />
verschiedenen Informationstypen zugeordnet: z. B. Handlungsanweisung,<br />
Beschreibung, Technische Daten<br />
Die Ergebnisse werden auf dem Flipchart festgehalten.<br />
3. Definition der Perspektiven, zu denen Module konkret zugeordnet<br />
werden können.<br />
Hierzu gibt es eine Vorstellung von konkret im Redaktionsalltag vorkommenden<br />
Aufgaben, die es notwendig machen, Module schnell zu<br />
finden.<br />
Ziel dieser Aufgabe ist es, zu erkennen, unter welchem Gesichtspunkt<br />
bzw. welcher Perspektive ein Modul gesucht werden könnte.<br />
Im Ergebnis werden 6 Kriterien zusammengestellt, die einem Modul<br />
für die konkrete Situation als Metadatum beigefügt werden sollten, um<br />
beim Suchen zu den gewünschten Ergebnissen zu kommen.<br />
4. Gruppenweises Schreiben von Beispiel-Modulen und Klassifizieren<br />
der erarbeiteten Module.<br />
Auf einem Arbeitsblatt sind 3 Beispieltexte für Module enthalten. Je<br />
Gruppe soll ein Beispieltext überarbeitet und die konkreten Metadaten<br />
zugeordnet werden.<br />
Ziel: Finden von Formulierungsfehlern, um das Modul wiederverwendbar<br />
zu gestalten, Erkennen unpassender Modulgrenzen und das Anwenden<br />
der gefundenen Klassifizierungskriterien.<br />
5. Zusammenfassung der Ergebnisse und des Verfahrens<br />
Hier wird in einer Übersicht verallgemeinert, wie Kriterien für die Klassifizierung<br />
von Modulen ermittelt werden können und welche Auswirkungen<br />
das auf die inhaltliche Gestaltung von Modulen hat.<br />
Während des Workshops arbeiten die Teilnehmer nicht mit Computertechnik.<br />
Es ist empfehlenswert, Schreibgeräte und Textmarker<br />
mitzubringen.<br />
für Rückfragen: ute.mitschke@ovidius.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
49
Content Management<br />
CM 8<br />
Tutorial<br />
Code und Texte aus Datentabellen<br />
generieren mit MS Excel<br />
Edgar Hellfritsch, doctima GmbH, Fürth<br />
Hin und wieder steht man als Technischer Redakteur oder als Content<br />
Administrator vor der Aufgabe, eine größere Reihe von Datensätzen<br />
umzuformen oder umzustrukturieren. Produkt- und Stücklisten, Term-<br />
Vorschläge für das Terminologie-Management, die Ausgabe der Befehlszeile<br />
„c:\> DIR /S > dir.txt“ – Sie kennen sicher eigene Beispiele aus<br />
Ihrem Alltag. Dabei kann es sich um Excel- oder CSV-Dateien handeln<br />
oder beliebige andere Listen-Formate.<br />
Je nachdem, wie umfangreich die Daten sind und wie häufig sie neu<br />
konvertiert werden müssen, lohnt sich eine elaborierte Skript- oder<br />
Programm-Lösung. Oder man überlegt sich, die Verarbeitung manuell<br />
durchzuführen.<br />
Für viele Aufgaben bietet sich ein unaufwändiger Zwischenweg an.<br />
Tabellenkalkulationen wie MS Excel können bereits mit Kenntnis einiger<br />
weniger Formeln und ein bisschen logischem Denken überraschend<br />
komplexe Konvertierungen erledigen. Alternativen wie OpenOffice e. a.<br />
bieten mit leichten Abwandlungen ähnliche Möglichkeiten.<br />
Vorteile des hier vorgestellten Ansatzes:<br />
––<br />
Geringe Vorkenntnisse, keine Programmierung nötig<br />
––<br />
Schnelle Ergebnisse<br />
––<br />
Wiederverwendbare Funktionalität<br />
––<br />
Effizienz- und Qualitätsgewinn gegenüber manuellem Arbeiten<br />
Ein einfaches Beispiel<br />
Das nachfolgende Beispiel ist branchenneutral-instruktiv gewählt.<br />
Quelle: Attributierte Datensätze<br />
Avatar Science-Fiction 2009<br />
Beetlejuice Fantasy 1989<br />
Coraline Fantasy 2009<br />
Dave Comedy 1993<br />
Um die folgende Ausgabe zu erreichen, müssen Sie lediglich die folgenden<br />
Excel-Mechanismen anwenden: Daten sortieren, Wenn-Dann-<br />
Abfrage, Zellinhalte vergleichen, Zellinhalte und Texte verketten.<br />
Ziel: Hierarchische XML-Struktur<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
50<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
<br />
<br />
<br />
Grundlagen<br />
Excel ist dazu da, Datenkolonnen zu erfassen und, für die etwas versierteren<br />
Anwender, diese auch auszuwerten. Neben den meist verwendeten<br />
logischen und mathematischen Berechnungsformeln erlaubt Excel<br />
auch einfache Bearbeitungsschritte für textuelle Inhalte.<br />
Einfaches Beispiel: Zellinhalte aus Spalten A und B verketten<br />
A B C (Formel) C (Anzeige)<br />
1 Avatar Science-Fiction =A1&“, “&B1 Avatar, Science-Fiction<br />
2 Dave Comedy =A2&“, “&B2 Dave, Comedy<br />
Excel ist sehr intelligent beim Kopieren und Verschieben von Formeln<br />
(was Segen und Fluch bedeuten kann, in diesem Fall ist es eher Ersteres).<br />
Wenn Sie eine Formel einmal, z. B. für den Datensatz in Zeile 1,<br />
definiert haben, können Sie sie sehr leicht für alle weiteren Datensätze<br />
übernehmen. Die Zeilen- bzw. ggf. Spaltennummern werden beim Kopieren<br />
angepasst.<br />
Sie können Formeln miteinander kombinieren, sie ineinander verschachteln.<br />
Hier ist insbesondere die Formel WENN interessant.<br />
Einfaches Beispiel: Comedy-Filme hervorheben<br />
A B C (Formel) C (Anzeige)<br />
1 Avatar Science- =WENN(B1=“Comedy“; A1&“, “&B1;““)<br />
Fiction<br />
2 Dave Comedy =WENN(B2=“Comedy“; A2&“, “&B2;““) Dave, Comedy<br />
Mit diesen wenigen Hilfsmitteln lässt sich bereits sehr viel erreichen.<br />
Für die oben gezeigte Transformation ist kein weiteres Excel-Knowhow<br />
nötig. Um die transformierten Daten weiter zu verwenden (z. B.<br />
im XML-Editor Ihres CMS), genügt es im einfachsten Fall, die generierten<br />
Zellen zu markieren und sie mit Copy/Paste in Ihre Software zu<br />
übernehmen.<br />
Interessante Aspekte<br />
Im Beispiel sehen Sie eine einfache Umstrukturierung der Datensätze<br />
nach einem Attribut (hier: das Genre). Das ist relativ leicht nachzuvollziehen,<br />
aber bereits mehr, als man mit Suchen und Ersetzen lösen kann.<br />
Richtig interessant wird es, wenn weitere Aspekte hinzukommen.<br />
––<br />
Die Kategorisierung der Daten erfolgt über mehrere Ebenen. Im Beispiel<br />
könnte man noch nach Erscheinungsjahr strukturieren.<br />
––<br />
Die Daten enthalten kommagetrennte Listen. Im Beispiel könnte es<br />
sich dabei um eine Liste der beteiligten Schauspieler handeln.<br />
––<br />
Die Daten sollen in der Ausgabe mehrfach verwendet werden. Im<br />
Beispiel könnte man statt dem hier gezeigten XML HTML-Code generieren:<br />
zunächst eine Auswahlbox mit allen Titeln, als Zweites dann<br />
eine Liste von HTML-Containern mit allen Daten des Datensatzes.<br />
Wählt man einen Titel aus, erscheint der entsprechende Container.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
51
Content Management<br />
––<br />
Die Daten enthalten Attribute, aus denen sich Verweise bzw. Hyperlinks<br />
erzeugen lassen. Im Beispiel könnte das eine zusätzliche Spalte<br />
mit der IMDb-ID des Films sein (International Movie Database, z. B.<br />
tt0327597 mit dem Link http://www.imdb.com/title/tt0327597/ für den<br />
Titel Coraline).<br />
––<br />
Die Daten benötigen für die weitere Verarbeitung eindeutige IDs, die<br />
sich mit Excel datensatzweise generieren lassen.<br />
––<br />
Die Daten enthalten formatierte Zahlenwerte. Datumswerte, Prozentund<br />
Geldwerte sind für Excel zunächst nackte Zahlen, deren Darstellung<br />
als Datum oder Prozentzahl erst durch die Formatierungs-<br />
Eigenschaften der Zelle entsteht. Verwendet man solche Zahlenwerte<br />
in Textverkettungen, muss die Formatierung eigens erfolgen.<br />
Weiterführende Möglichkeiten<br />
Die hier vorgestellte, programmierfreie Lösung hat natürlich ihre<br />
Grenzen. Bequemere und flexiblere Mechanismen – beispielsweise ein<br />
HTML-Export auf Knopfdruck – lassen sich in Excel mit Visual Basic<br />
realisieren. Aber das ist ein ganz anderes Kapitel und soll in diesem<br />
Tutorial nur kurz als Ausblick gezeigt werden.<br />
Für Rückfragen: edgar.hellfritsch@doctima.de<br />
52<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
CM 9<br />
Workshop<br />
Zwei rechts, zwei links, zwei fallenlassen –<br />
Strickmuster zur Bestandsdatenmigration<br />
Mareike von der Stück, Elvis Ališic, Schmeling + Consultants GmbH, Heidelberg<br />
Nur wenige Unternehmen können es sich leisten, nach der Einführung<br />
eines neuen Redaktionswerkzeugs mit der Dokumentationserstellung<br />
wieder bei null anzufangen. Gewöhnlich muss für einen effizienten<br />
Produktivstart zumindest ein Teil der Bestandsdaten in die Struktur der<br />
neuen Schreibumgebung übertragen (migriert) werden.<br />
Für die Bestandsdatenmigration gibt es unterschiedliche Strategien:<br />
––<br />
Migration mit viel oder wenig Automatisierung<br />
––<br />
Migration großer Datenvolumina auf Vorrat oder einzelner Dokumente<br />
nach Bedarf<br />
––<br />
Migration mit umfangreicher oder nur punktueller Überarbeitung der<br />
Inhalte<br />
Abhängig von der Ausgangssituation hat jede Strategie ihre Berechtigung<br />
und fordert einen bestimmten Aufwand. Um die eigene Ausgangssituation<br />
und den zu erwartenden Aufwand besser einschätzen zu können,<br />
sind folgende vorbereitende Überlegungen hilfreich:<br />
––<br />
Entspricht die Qualität der Bestandsdaten der SOLL-Qualität der<br />
Inhalte, die zukünftig mit dem neuen Werkzeug erstellt werden?<br />
––<br />
Welche Bestandsdaten und in welchem Umfang sollen sie in die neue<br />
Umgebung übertragen werden?<br />
––<br />
Mit welchen Mitteln und in welchen Schritten können die Bestandsdaten<br />
übertragen werden?<br />
Diskrepanzen zwischen IST- und SOLL-Qualität ermitteln<br />
Eine gründliche Analyse der Inhalte zeigt, wie weit die inhaltliche Qualität<br />
der Bestandsdaten von der SOLL-Qualität entfernt ist, und gibt<br />
Aufschluss darüber, in welchem Umfang die Bestandsdaten inhaltlich<br />
überarbeitet werden müssen. Die Kriterien, nach denen die Analyse<br />
durchgeführt wird, müssen aus dem übergeordneten Projektziel abgeleitet<br />
werden.<br />
Mit der Entscheidung für ein neues Redaktionswerkzeug ist das Ziel<br />
verbunden, die Dokumentation effizienter zu erstellen. Typischerweise<br />
soll die höhere Effizienz über eines oder mehrere der folgenden Teilziele<br />
(Qualitätskriterien) für die Dokumentation erreicht werden:<br />
––<br />
zielgruppengerechte Inhalte<br />
––<br />
übersetzungsgerechte Inhalte<br />
––<br />
konsistente Formulierung und Struktur<br />
––<br />
optimale Kürze<br />
––<br />
Aktualität<br />
––<br />
Modularität und Wiederverwendbarkeit<br />
Bestimmung und Umfang der zu migrierenden Daten<br />
Die quantitative Bewertung gibt Aufschluss darüber, welche Bestandsdaten<br />
man bei der Migration priorisieren sollte. Häufige quantitative<br />
Bewertungskriterien für Bestandsdaten sind:<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
53
Content Management<br />
––<br />
Gibt es von dem beschriebenen Produkt viele Varianten oder ist es<br />
ein „Einzelkind“?<br />
––<br />
Wird das beschriebene Produkt regelmäßig geändert und weiterentwickelt<br />
oder ist es bereits abgekündigt?<br />
––<br />
Wird das beschriebene Produkt in neue Märkte vertrieben?<br />
Auch organisatorische und qualitative Aspekte können bei der Bestimmung<br />
der zu migrierenden Daten eine Rolle spielen, z. B.<br />
––<br />
standardisierte Inhalte, die in Zusammenarbeit mit mehreren Abteilungen<br />
erstellt wurden<br />
––<br />
Inhalte, die nach speziellen normativen Anforderungen entwickelt<br />
wurden<br />
Mittel und Schritte der Bestandsdatenmigration<br />
Nachdem die Qualitätsziele und der Umfang der zu migrierenden Inhalte<br />
bestimmt sind, muss geprüft werden, wie die Daten in die neue<br />
Schreibumgebung übertragen werden können. Hier spielen sowohl<br />
technische und strukturelle Aspekte eine Rolle.<br />
Technisch:<br />
––<br />
Kann man (außer mit Copy&Paste) Daten aus dem Quell- ins Zielformat<br />
portieren?<br />
––<br />
Sind Zwischen-Transformationen nötig?<br />
––<br />
Können wichtige Informationen beim Übertragen verloren gehen?<br />
Strukturell:<br />
––<br />
Ist eine klare Gliederung der Inhalte zu erkennen?<br />
––<br />
Wurden bereits konsistente Formatvorlagen oder Elemente benutzt?<br />
––<br />
Wie nahe kommt die Gliederung und Formatierung an die SOLL-<br />
Strukur im neuen Redaktionswerkzeug?<br />
Die Ergebnisse dieser Betrachtung helfen dabei einzuschätzen, ob man<br />
bei der Migration eine Automatisierung einsetzen kann und ob man die<br />
Inhalte und die Struktur der Daten besser vorbereitend noch im alten<br />
Werkzeug überarbeitet oder erst in der Nachbearbeitung im neuen<br />
Redaktionswerkzeug.<br />
für Rückfragen:<br />
m.vonderstueck@schmeling-consultants.de<br />
e.alisic@schmeling-consultants.de<br />
54<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Management<br />
CM 10<br />
Presentation<br />
Selecting the Best Technology to<br />
Support Your Content Reuse Strategy<br />
Lisa Pietrangeli, ThirtySix Software<br />
Companies need to take advantage of content reuse in order to save<br />
time, save money, and generate higher quality documentation. A successful<br />
content reuse implementation requires a well-planned, well<br />
thought out content reuse strategy and a technology that effectively<br />
supports this strategy. Often, technical communicators must lead this effort<br />
because they are working with the content, tools, and writing teams<br />
who are critical to the success of any content reuse and management<br />
efforts.<br />
Selecting the right technology isn‘t easy. There is no universal one-sizefits-all<br />
content reuse solution. There are countless vendor products,<br />
each differing in features, functionality, price, and complexity. With<br />
all these possibilities it‘s easy to get lost. However, by taking a wellplanned<br />
and disciplined approach to evaluating these technologies, you<br />
can be sure to select the right solution for your organization.<br />
This presentation outlines a practical approach for how to identify and<br />
evaluate content reuse technologies to ensure you select the one that<br />
best supports your content reuse strategy. In addition, we will emphasize<br />
the importance of having a sound content strategy in place before<br />
you begin shopping for the right technology.<br />
Through real-world examples and using some very practical handouts,<br />
participants will leave with clear next steps in mind and a great starting<br />
point. By setting priorities, identifying the company’s true needs, and<br />
learning how to evaluate tools intelligently, technical communicators<br />
will lead the way for their companies to save time, money, and produce<br />
consistently higher quality content.<br />
lisap@thirtysix.net<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
55
Content Strategies
Content Strategies<br />
CS 6<br />
Presentation<br />
Transforming Technical Content<br />
into a Business Asset<br />
Sarah S. O’Keefe, Scriptorium Publishing, Raleigh-Durham, USA<br />
Technical content is often the last in line for investment and innovation,<br />
but poor content has profound effects inside and outside the organization.<br />
Before relegating technical content to the “necessary evil” role with<br />
minimal investment, consider whether it might actually be less expensive<br />
to create high-quality technical information.<br />
The issues to consider are:<br />
−−<br />
The real cost of low-cost documentation<br />
−−<br />
How to create an efficient content development process<br />
−−<br />
Whether high-quality documentation can lower the cost of technical<br />
support<br />
−−<br />
The most cost-effective way to share technical content across the<br />
enterprise<br />
The fallacy of low-cost documentation<br />
In many organizations, management pays as little attention as possible<br />
to content. Content development is assigned to administrative staff<br />
using whatever tools are lying around (usually Microsoft Office) or outsourced<br />
to the lowest bidder.<br />
It is acceptable to assess your organization’s content requirements and<br />
embark on a strategy of producing indifferent content cheaply (the<br />
“meh” strategy). The vast majority of organizations who adopt a laissezfaire<br />
attitude, however, have not thought through the implications.<br />
Here are some typical business problems that have bad documentation<br />
as their root cause:<br />
−−<br />
Call volume to technical support is high.<br />
−−<br />
Product returns are high and sales are lost.<br />
−−<br />
Missing content.<br />
−−<br />
Cannot deliver required formats.<br />
−−<br />
Ugly content contradicts premium product messaging.<br />
−−<br />
Huge globalization costs.<br />
−−<br />
Technical support and other internal organizations are creating content<br />
that duplicates documentation.<br />
Efficient technical content development<br />
The process of creating technical information includes writing text,<br />
creating graphics, recording audio, and the like. A basic prerequisite for<br />
good content strategy is that the content should be of good quality—accurate,<br />
concise, and complete.<br />
An efficient workflow with professional technical communicators creating<br />
high-value information is typically the least expensive option (better,<br />
faster, and cheaper). This correlation is explained by the following<br />
factors:<br />
−−<br />
Reuse versus copy and paste. Copying and pasting is quick and easy<br />
initially, but it is hard to maintain over time because of information<br />
duplication.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
59
Content Strategies<br />
−−<br />
Formatting. “Quick-and-dirty” formatting is also unmaintainable.<br />
−−<br />
Production. Instead of converting content from one format to another<br />
manually, a professional workflow generates the proper outputs automatically.<br />
A one-time configuration effort replaces the repeated conversion<br />
task.<br />
−−<br />
Localization. Better-organized content and automated production<br />
result in much lower localization costs.<br />
A rough estimate is that writers spend around 20 percent of their time<br />
on formatting tasks in less-efficient content development environments.<br />
The right tools and technologies will make your content development<br />
process more efficient. (The wrong tools, even when they are “free,” can<br />
be very expensive.) An efficient process is one where the tools and technologies<br />
that are in place help you produce the content you need, in the<br />
formats you need, and when you need it.<br />
Reducing the cost of technical support<br />
Live technical support, whether provided via phone, email, or chat, is<br />
expensive because it is provided one-to-one. Technical content, by contrast,<br />
is one-to-many and less expensive per person—assuming that<br />
you have a reasonable number of readers. Many people can use a single<br />
installation guide without increasing the cost of the document. Therefore,<br />
many large companies measure the effectiveness of improved<br />
content by looking for call deflection—a reduction of technical support<br />
incidents.<br />
Call deflection isn’t the only way in which technical documentation can<br />
reduce support costs. If technical content is both reliable and easily<br />
searchable, support agents can quickly find the specific information a<br />
customer needs—and shorten the average time per call.<br />
Better content results in fewer calls because users find the information<br />
before picking up the phone. You can evaluate the cost of producing and<br />
distributing technical content against the cost of providing technical<br />
support. For large organizations, which may receive thousands or tens<br />
of thousands of technical support calls per day, reducing calls by just<br />
one or two percentage points results in huge cost savings.<br />
Technical content is not just for customers. It is also a valuable asset<br />
inside your organization, particularly for the technical support team.<br />
The technical support staff is responsible for helping customers to use<br />
a product successfully. The technical support organization desperately<br />
needs technical content—and the sooner it’s available, the better.<br />
Technical content that is locked down in PDF files and print is not particularly<br />
useful to support agents. Support agents need quick answers<br />
to questions, so they need the ability to search all technical content<br />
quickly. They might be able to use the index or table of contents of a<br />
single printed book to find what they want, but given a library of books,<br />
an online search is the only reasonable option.<br />
Content collaboration across the organization<br />
Historically, technical communication, marketing, and other departments<br />
developing content did not work closely with each other. Today,<br />
collaboration is increasing. Instead of working in isolation, departments<br />
60<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Strategies<br />
are identifying shared content assets and pooling their resources to<br />
develop this content more efficiently.<br />
Technical communication and marketing usually “own” large amounts<br />
of content. But there are other, less obvious places where high-value<br />
information is created:<br />
−−<br />
Product design and development<br />
−−<br />
Training and education<br />
−−<br />
Technical support<br />
−−<br />
Software<br />
−−<br />
Product interface labels<br />
−−<br />
Web services<br />
−−<br />
Sales<br />
Sharing content across departments improves the overall product quality<br />
by ensuring that customers receive consistent information and a unified<br />
message. At the same time, content sharing eliminates redundancy,<br />
which reduces the cost of content development.<br />
Excerpted from Content Strategy 101: Transform Technical Content into<br />
a Business Asset by Sarah S. O’Keefe and Alan S. Pringle, ISBN 978-0-<br />
9828118-4-9. The full text of the book is available online at<br />
www.contentstrategy101.com.<br />
okeefe@scriptorium.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
61
Content Strategies<br />
CS 8<br />
Workshop<br />
Content Quality: Three Dimensions<br />
to Creating Content that Works<br />
Andrew Bredenkamp, Acrolinx, Berlin<br />
This workshop delivers practical exercises in writing content which<br />
works – moving from a high-level content strategy to the detail of deciding<br />
which content to write and ultimately to make it engage your<br />
audience.<br />
The workshop will be divided into three sessions reflecting three key<br />
dimensions to creating successful content. Good content needs to be<br />
people-ready, global-ready and search-ready.<br />
People-Ready<br />
Making your content people-ready means ensuring that you are writing<br />
for your target audience in a language they can understand.<br />
It also needs to be focused on solving a particular need they have. This<br />
means writing in a disciplined task- and solution-oriented way. Note:<br />
this is useful even for marketing content!<br />
The third aspect of people-readiness – especially, but not exclusively, for<br />
English content – involves making content easier to read by non-native<br />
speakers of the language.<br />
Of course being “people-ready” is the over-arching goal for all your content,<br />
and thinking hard about who will read your content and why will<br />
significantly increase your chances of success.<br />
Global-Ready<br />
This used to mean translation-friendly writing – but this has become<br />
much more complex in the last few years.<br />
We are moving into a new phase of automation around translation and<br />
localization. The dominance of translation memories as the overwhelming<br />
technological support for translation is under serious threat from<br />
machine translation (MT). Of course, these approaches are not mutually<br />
exclusive.<br />
The key idea is that preparing content for going global is more complex<br />
than it used to be. There are many studies on how to prepare content<br />
for rule-based MT, but what of new statistical methods for MT, such as<br />
those popularized by Google and Bing? What does it mean to write content<br />
for MT in this new paradigm?<br />
Even if you are not translating the content yourself with MT, it is now<br />
increasingly likely that your content will be translated by a publicly<br />
available MT engine. How can you ensure that it survives this in the<br />
best possible shape?<br />
As you move to high-growth new markets in Africa and Asia, what will<br />
this mean for your translation strategy? How can you prepare yourself<br />
for translating into hundreds of target languages?<br />
Of course, supporting the needs of non-native speakers is also an aspect<br />
of global-readiness.<br />
62<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Strategies<br />
Search-Ready<br />
The key to a successful content strategy is to get the right content to<br />
the right people at the right time. But how? Many organizations expend<br />
huge effort on portals and their infrastructure for content delivery. Unfortunately<br />
the only content delivery channel which matters for most<br />
customers is Google, or their favourite search engine. For most organizations,<br />
content which is not findable by search engines is invisible.<br />
How can you make sure your content is ready to be found by your customers?<br />
We will look in detail at how the short fashion for crude SEO is<br />
already losing effectiveness and what is replacing SEO as best practice<br />
around making your content findable by your customers.<br />
Until recently, search optimization was very much restricted to the domain<br />
of marketing content. This has changed dramatically as companies<br />
have realized that (a) many customers consult “after-sales” content,<br />
before they buy and (b) that findability is in fact just as important in the<br />
context of customer support.<br />
Andrew.Bredenkamp@acrolinx.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
63
Content Strategies<br />
CS 11<br />
Workshop<br />
Building a Business Case for Content Strategy<br />
Sarah S. O’Keefe, Scriptorium Publishing, Raleigh-Durham, USA<br />
Content people, as a group, are terrible at business cases. In discussions<br />
about content challenges, the content creators usually have a long list<br />
of valid complaints about bad tools, inefficient processes, and generally<br />
wasted resources. But at the first mention of a potential solution that<br />
costs more than $100, content creators respond, “Oh, they will never approve<br />
that. We never get any money.”<br />
It is true that “they”—which is to say upper management—do not respond<br />
well to requests for large sums of money. What they do understand<br />
is business cases, such as, “To prevent us from wasting Y amount<br />
of resources every year, we need X amount of money this year,” and X is<br />
smaller than Y.<br />
Building a business case requires you to quantify how an investment<br />
(in tools, technology, training, or anything else) will improve business<br />
results. It is not sufficient to claim that your content strategy will contribute<br />
to business goals; you must estimate the improvement and show<br />
that the results are worth the investment. It helps when your estimates<br />
are obviously erring on the conservative side and the savings shown are<br />
still compelling.<br />
Estimating the business value<br />
Increased content reuse and efficient localization are the most common<br />
ways to show value in a business case for technical content.<br />
For reuse, you contrast the cost of writing or maintaining a topic with<br />
the cost of reusing a topic automatically. If the proposed system can<br />
increase the amount of reuse, you have a clear cost savings. Typical tech<br />
comm estimates in this area are as follows:<br />
−−<br />
Current reuse: 5 percent<br />
−−<br />
Estimated reuse with new strategy: 20 percent<br />
If the cost of maintaining a topic is estimated at €100 and the organization<br />
has approximately 4000 topics, then a 15 percent increase in reuse<br />
results in savings of €60,000. If all of the topics are updated in a typical<br />
year, this is a yearly cost savings.<br />
For localization, you need to look at the cost of reformatting translated<br />
text. In less-efficient environments, that cost is approximately 50 percent<br />
of the overall content localization cost. But in this example, we will<br />
use a more conservative 25 percent:<br />
−−<br />
Cost of localization, per word: €0.10<br />
−−<br />
Percentage of localization cost associated with formatting: 25 percent<br />
Again, we assume 4000 pages of content being translated and 250 words<br />
per page. The cost is therefore €100,000 per target language. If formatting<br />
is automated, the organization saves €25,000 per target language in<br />
each localization pass.<br />
64<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Content Strategies<br />
Note: There are also cost<br />
savings associated with<br />
increasing reuse, which<br />
decreases the amount<br />
of content sent for<br />
localization, but those<br />
are not calculated here.<br />
There are additional possibilities for cost savings, including the<br />
following:<br />
−−<br />
Sharing content across the organization (rather than just within technical<br />
communication content)<br />
−−<br />
Decreasing time to market<br />
−−<br />
Opening new markets (by increasing the number of supported languages)<br />
−−<br />
Eliminating manual conversion from one format to another<br />
−−<br />
Efficiently creating customized information products<br />
Estimating implementation costs<br />
With a reasonable estimate of cost savings, you can turn your attention<br />
to the implementation side. The proposed system must be scaled appropriately.<br />
For example, if you estimate savings of €100,000 per year,<br />
a system that costs €1 million is not going to work. Ideally, you want to<br />
show a positive return within three years. 12–18 months is better. Thus,<br />
a reasonable cost for your system would be in the range of €100,000 to<br />
€250,000. But what if a less expensive system (€50,000) can deliver most<br />
of the cost savings (€75,000 per year)?<br />
The system you choose will affect the cost savings realized, so there is a<br />
process of weighing both sides of the business case to identify the best<br />
possible investment.<br />
The implementation cost estimate needs to consider the following components<br />
(not all will be present in all solutions)<br />
−−<br />
Software and tools licensing, including content management system,<br />
authoring tools, and publishing tools<br />
−−<br />
Content conversion<br />
−−<br />
Training<br />
−−<br />
Consulting<br />
−−<br />
Follow-on support<br />
A spreadsheet to help with the business case calculation is available<br />
online at bit.ly/TFPSLa<br />
Portions excerpted from Content Strategy 101: Transform Technical Content<br />
into a Business Asset by Sarah S. O’Keefe and Alan S. Pringle, ISBN<br />
978-0-9828118-4-9. The full text of the book is available online at<br />
www.contentstrategy101.com.<br />
okeefe@scriptorium.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
65
Hochschule und Wissenschaft
Hochschule und Wissenschaft<br />
HUW 1<br />
Fachvortrag<br />
Technische Kommunikation als<br />
Forschungsgegenstand: Fragen,<br />
Ergebnisse, Perspektiven<br />
Prof. Dr. Michael Meng, Hochschule Merseburg<br />
Wie Markus Nickl in verschiedenen Beiträgen herausgearbeitet hat, ist<br />
die Arbeit Technischer Redakteure in den letzten Jahren einem grundlegenden<br />
Wandel unterworfen, den Nickl als „Industrialisierung des<br />
Schreibens“ bezeichnet (z. B. Nickl, 2005). Kennzeichen dieses Prozesses<br />
sind zunehmende Standardisierung, Modularisierung, Prozessorientierung<br />
sowie eine größere Bedeutung von Forschung und Entwicklung.<br />
Brauchen wir mehr Forschung in der Technischen Kommunikation?<br />
Welche Bereiche kann Forschung hier in den Blick nehmen? Welche<br />
Ergebnisse hat die Forschung in den letzten Jahren geliefert?<br />
Brauchen wir mehr Forschung?<br />
Neben der Rechtssicherheit soll gute Technische Dokumentation vor<br />
allem drei Kriterien genügen: Sie soll lerneffektiv, vollständig und<br />
dazu kostengünstig zu produzieren, zu pflegen und zu verteilen sein.<br />
Wie jeder Praktiker aus eigener Erfahrung bestätigen kann, stellt der<br />
betriebliche Alltag Technische Redakteure sehr häufig vor Entscheidungen,<br />
bei denen diese Kriterien in Konflikt geraten. Welche Inhalte<br />
sollen in das Handbuch aufgenommen und wie ausführlich sollen diese<br />
Informationen dargestellt werden? Welche Inhalte sind zwingend erforderlich,<br />
um die zuverlässige Bedienung eines Geräts oder das Erlernen<br />
eines Softwareprogramms zu ermöglichen? Welche Information wird<br />
besser durch Sprache und welche besser durch Bilder und Screenshots<br />
vermittelt?<br />
Probleme wie diese können zwar mit Erfahrungswissen, „Best<br />
Practice“-Ansätzen und viel Bauchgefühl schnell einer pragmatischen<br />
Lösung zugeführt werden. Aber spätestens, wenn unterschiedliche<br />
Lösungsansätze konkurrieren, wird deutlich, dass die Basis für eine<br />
begründete und nicht allein ökonomisch getriebene Entscheidung für<br />
oder gegen einen Lösungsansatz oftmals fehlt. In diese Begründungslücke<br />
kann und muss angewandte Forschung zur Technischen Kommunikation<br />
stoßen.<br />
Was für Forschung brauchen wir?<br />
Mit Blick auf den Prozess der Technischen Kommunikation kann Forschung<br />
drei verschiedene Bereiche beleuchten (vgl. Krings, 1996): den<br />
Prozess der Erstellung Technischer Dokumentation, den Prozess der<br />
Rezeption Technischer Dokumentation durch die Anwender und die<br />
entstandenen Texte selbst. In jedem dieser Bereiche gibt es Ansatzpunkte<br />
für praxisrelevante Untersuchungen. Damit Forschung aber<br />
tatsächlich handlungsleitend werden kann, muss sie nach Krings (1996)<br />
folgende Kriterien erfüllen:<br />
−−<br />
Sie muss konkret sein und einen kausalen Zusammenhang zwischen<br />
Text-/Bildmerkmalen auf Merkmale der Textverarbeitung oder der<br />
Produktnutzung nachweisen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
69
Hochschule und Wissenschaft<br />
−−<br />
Sie muss verallgemeinerbar sein und für die Kommunikationsform<br />
„Technische Kommunikation“ gelten.<br />
−−<br />
Sie muss informativ sein, d. h. im Ergebnis lösungsorientiert und<br />
handlungsbezogen.<br />
Auf der Suche nach Begründungswissen nutzen Technische Redakteure<br />
bereits seit einiger Zeit Forschungsergebnisse aus Nachbardisziplinen<br />
wie z. B. der Kognitionswissenschaft. Siehe dazu beispielhaft Kösler<br />
(1990) und Ballstaedt (1997). In den letzten Jahren haben sich jedoch<br />
zusätzliche Forschungsstränge gebildet, die ganz direkt auf Gegenstand<br />
und Prozess der Technischen Kommunikation abzielen. Zwei Beispiele<br />
dafür werden nachfolgend erläutert.<br />
Beispiel 1: Sind Screenshots hilfreich?<br />
Screenshots (Bildschirmfotos) sind das wichtigste Visualisierungsmittel<br />
in der Softwaredokumentation. Screenshots können unterschiedliche<br />
Informationsarten repräsentieren, z. B. ein Ziel vorwegnehmen, das<br />
Resultat einer Handlung abbilden oder die Ausführung einer Handlung<br />
selbst unterstützen. Der Einsatz von Screenshots resultiert jedoch in<br />
deutlich umfangreicheren Handbüchern und erhöht die Kosten bei der<br />
Erstellung und Pflege von Dokumentation. Wirkt sich der Einsatz von<br />
Screenshots tatsächlich positiv auf die Benutzbarkeit von Handbüchern<br />
und den Lernerfolg aus? Welche Funktionen werden von Screenshots<br />
effektiv übernommen und welche Design-Aspekte sind zu beachten?<br />
Die bisherige Forschung zeigt:<br />
−−<br />
Handbücher, in denen Screenshots systematisch zum Einsatz kommen,<br />
bewirken, dass Anwender beschriebene Handlungen schneller<br />
ausführen können (van der Meij, 1998) und weniger Trainingszeit<br />
benötigen (van der Meij, 1996).<br />
−−<br />
Screenshots erleichtern die Koordination der Lerner-Aktivität zwischen<br />
Eingabemedium (Tastatur/Maus), Ausgabemedium (Bildschirm)<br />
und dem Handbuch (Gellevij & van der Meij, 2002).<br />
−−<br />
Screenshots erleichtern den Aufbau eines mentalen Modells und führen<br />
zu einem besseren Verständnis der Funktionsweise der erlernten<br />
Software (Gellevij & van der Meij, 2004).<br />
−−<br />
Positive Effekte werden stärker durch Screenshots befördert, in denen<br />
der Bildschirminhalt komplett abgebildet wird (van der Meij,<br />
2000).<br />
Beispiel 2: „Minimal Manuals“: Ist weniger mehr?<br />
Viele Studien haben sich mit der Effektivität des von John M. Carroll<br />
und Kollegen entwickelten und unter der Bezeichnung „Minimalismus“<br />
bekannt gewordenen Instruktionsmodells für Handbücher und Tutorials<br />
gewidmet. Zentrale Annahmen des minimalistischen Instruktionsmodells<br />
sind unter anderem die strikte Handlungsorientierung, die<br />
konsequente Ausrichtung beschriebener Funktionen und Handlungssequenzen<br />
auf praxisrelevante Nutzungsszenarien, die Unterstützung<br />
explorativen Lernens und der bewusste Verzicht auf Informationen, die<br />
Anwender selbständig aus dem Nutzungskontext ableiten können, sowie<br />
die systematische Unterstützung der Anwender bei der Analyse und<br />
Korrektur von Bedienfehlern. Der Minimalismus regte eine bis heute<br />
anhaltende rege Forschungstätigkeit an. Befördern minimalistische<br />
70<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Hochschule und Wissenschaft<br />
Handbücher insgesamt effektiveres Lernen? Welche der Design-Prinzipien<br />
wirken sich tatsächlich positiv auf das Lernen aus?<br />
−−<br />
Handbücher und Tutorials, die minimalistischen Design-Prinzipien<br />
folgen, sind traditionell gestalteten Materialien überlegen. Sie verkürzen<br />
die Trainingszeit und führen zu einem insgesamt besseren Lernerfolg<br />
(Carroll et al., 1988). Anwender können beschriebene Handlungen<br />
zudem schneller ausführen (Kühn, 2004).<br />
−−<br />
Die Wirksamkeit einzelner Designfaktoren des minimalistischen<br />
Modells ist nur teilweise erforscht. Die Übergewichtung von Information<br />
zu Hilfe im Problemfall wirkt sich positiv auf die Lernergebnisse<br />
aus (Lazonder & van der Meij, 1995). Die Betonung explorativen Lernens<br />
trägt hingegen nicht zum höheren Lernerfolg bei. Strukturierte<br />
Übungen erweisen sich hier als effektiver (Wiedenbeck & Zila, 1997).<br />
−−<br />
Anwender lesen und verarbeiten auch Information, die für die Handlungsausführung<br />
nicht zwingend erforderlich ist, z. B. Erläuterungen<br />
zur Funktionsweise eines Softwareprogramms. Ob diese zusätzliche<br />
Information zur Effizienz der Handlungsausführung beiträgt, ist jedoch<br />
unklar (Karreman et al., 2005; Edelmann, 2003).<br />
Perspektiven<br />
Neben ersten vorsichtigen Antworten wirft die hier diskutierte Forschung<br />
viele offene Fragen auf. Eine drängende Frage ist z. B. die, ob<br />
die vornehmlich anhand von Softwaredokumentation gewonnenen<br />
Ergebnisse auf andere Domänen übertragen werden können. Dennoch<br />
hat Forschung wie diese großes Potential, zu einer Verbesserung Technischer<br />
Dokumentation beizutragen.<br />
Themenbereiche, in denen erste Ergebnisse vorliegen, die aber zukünftig<br />
noch stärker durch Forschung adressiert werden sollten, betreffen<br />
z. B. die Optimierung von Handlungssequenzen (hier speziell die Rolle<br />
beschreibender neben anleitender Information), die Wirkung motivationaler<br />
Gestaltungselemente auf Lernerfolg und Benutzbarkeit, die<br />
Lerneffektivität unterschiedlicher Standardisierungsmethoden und die<br />
Optimierung Technischer Dokumentation für ältere Anwender. Praktiker<br />
sind aufgefordert, Fragen und Probleme aus dem Redaktionsalltag<br />
in diese Forschung einzubringen. Die Wissenschaftler an Hochschulen<br />
und Forschungseinrichtungen stehen vor der Aufgabe, angewandte Forschung<br />
zu verstärken, um Fragen aus der Alltagspraxis einer Antwort<br />
näher zu bringen.<br />
Literatur (Auswahl)<br />
Carroll, John M.; Smith-Kerker, Penny L.; Ford, Jim R.; Mazur-Rimetz,<br />
Sandra A. (1988): The Minimal Manual. In: Stephen Doheny-Farina<br />
(Hrsg.): Effective Documentation. What We Have Learned from Research.<br />
Cambridge, Mass: MIT Press, pp. 73–102.<br />
Gellevij, Mark; van der Meij, Hans (2004): Empirical Proof for Presenting<br />
Screen Captures in Software Documentation. Technical Communication<br />
51 (2), pp. 224–258.<br />
Krings, Hans P. (1996): Wieviel Wissenschaft brauchen Technische Redakteure?<br />
Zum Verhältnis von Wissenschaft und Praxis in der Technischen<br />
Dokumentation. In: Hans P. Krings (Hrsg.): Wissenschaftliche<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
71
Hochschule und Wissenschaft<br />
Grundlagen der Technischen Kommunikation. Tübingen: Gunter Narr<br />
Verlag, pp. 5–128.<br />
Kühn, Cornelia (2004): Handlungsorientierte Gestaltung von Bedienungsanleitungen.<br />
Lübeck: Schmidt-Römhild (<strong>tekom</strong> Hochschulschriften,<br />
10).<br />
van der Meij, Hans (2000): The role and design of screen images in<br />
software documentation. Journal of Computer Assisted Learning 16,<br />
pp. 294–306.<br />
van der Meij, Hans; Karreman, Joyce; Steehouder, Michael (2009): Three<br />
Decades of Research and Professional Practice on Printed Software<br />
Tutorials for Novices. Technical Communication 56 (3), pp. 265–292.<br />
für Rückfragen: michael.meng@hs-merseburg.de<br />
72<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Hochschule und Wissenschaft<br />
HUW 2<br />
Fachvortrag<br />
Sprachtechnologie aus der<br />
Anwenderperspektive – Ergebnisse<br />
eines Forschungsprojekts<br />
Ana Hoffmeister, Volkswagen AG, Wolfsburg<br />
„Ich glaube an das Pferd. Das Automobil ist nur eine vorübergehende<br />
Erscheinung“. So kommentierte Kaiser Wilhelm II. die Innovation des<br />
späten 19. Jahrhunderts. Nach 125 Jahren Automobilgeschichte können<br />
wir ihn heute eines Besseren belehren: Das Automobil ist ein weltweites<br />
Massenprodukt, die Automobilindustrie der umsatzstärkste Industriezweig<br />
Deutschlands und der Kaiser – ein technophober Skeptiker seiner<br />
Zeit?<br />
Von Innovatoren und Nachzüglern<br />
Menschen reagieren unterschiedlich auf Innovationen und akzeptieren<br />
diese in verschiedenen Geschwindigkeiten. Damals wie heute gibt es<br />
Nachzügler (engl.: laggards), die sich erst dann von einer Innovation<br />
überzeugen lassen, wenn sich diese als bewährter Standard in der Gesellschaft<br />
etabliert hat. Diese Anwendergruppe ist kaum risikobereit,<br />
dafür aber umso skeptischer und stärker in Traditionen verwurzelt.<br />
Innovatoren (engl.: innovators) hingegen – wir kennen sie alle – gehören<br />
immer zu den ersten, wenn es um die Anschaffung neuester Technologien<br />
geht. Neugierig und mit Selbstverständlichkeit testen sie neue Produkte<br />
und sind dem Rest der Gesellschaft immer einen Schritt voraus.<br />
Diese beiden Extrempositionen sind im Verhältnis zwar eine Minderheit,<br />
können aber die Akzeptanz einer Innovation fördern oder auch beeinträchtigen.<br />
Sie nehmen Einfluss auf die breite Masse, die sich früher<br />
oder später für oder gegen die Innovation entscheidet.<br />
Abb. 1: Typische Verteilung der Adoptionstypen nach Rogers [1]<br />
Einführung von Sprachtechnologie in der Praxis<br />
Sprachtechnologien sind Innovationen unserer Zeit und haben sich<br />
zum Teil bereits zu einem Massenprodukt entwickelt. Die Herstellerund<br />
Produktvielfalt auf dem Markt ist ein Spiegel dieser Entwicklung.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
73
Hochschule und Wissenschaft<br />
Wie unterschiedlich Anwender auf die Einführung von Sprachtechnologie<br />
reagieren, zeigen Ergebnisse eines Forschungsprojekts innerhalb<br />
der Technischen Dokumentation. [2]<br />
Über zwei Jahre wurde eine Gruppe von Technischen Redakteuren<br />
bei der Einführung eines Controlled Language Checkers und ihrer<br />
operativen Tätigkeit begleitet und befragt. Die Ergebnisse zeigen den<br />
Einfluss von anwenderbezogenen Faktoren auf die Qualität der Ergebnisse<br />
und den langfristigen Erfolg von Sprachtechnologie in der<br />
Unternehmenspraxis.<br />
Lernprozesse und Unterschiede in der Wahrnehmung von Sprachtechnologie<br />
bei Innovatoren und Nachzüglern konnten, neben dem Alter<br />
und der Qualifikation der Anwender, als Erfolgsfaktoren identifiziert<br />
werden. Ferner beeinflusste die persönliche Motivation der Anwender<br />
die Effizienz der Arbeitsabläufe mit dem Controlled Language Checker<br />
und somit auch die Qualität der geprüften Texte. In der Praxis können<br />
zwei verschiedene Motivationstypen beobachtet werden:<br />
1. Die Anwender arbeiten entweder aus Überzeugung und mit der Absicht,<br />
das Werkzeug vollständig zu beherrschen (intrinsisch motiviert)<br />
2. oder aufgrund von externen Faktoren, um eine Belohnung zu erhalten<br />
oder eine Bestrafung zu vermeiden (extrinsisch motiviert).<br />
Verschiedene Studien belegen, dass intrinsisch motiviertes Lernen<br />
vergleichsweise bessere Arbeitsergebnisse und vor allem langfristigere<br />
Lerneffekte erzeugt, als extrinsisch motiviertes Lernen. Dies macht sich<br />
in der Praxis in einem tieferen Verständnis über das eingesetzte Tool<br />
und somit in effizienten Arbeitsabläufen und qualitativ besseren Ergebnissen<br />
bemerkbar – Faktoren, die den Erfolg der eingesetzten Sprachtechnologie<br />
langfristig beeinflussen.<br />
Voraussetzungen für intrinsisch motiviertes Handeln ist die Erfüllung<br />
von drei Grundbedürfnissen des Menschen: [3]<br />
1. Kompetenzerleben<br />
2. Autonomieempfinden<br />
3. Soziale Eingebundenheit<br />
Mit der Erfüllung dieser Grundbedürfnisse und der Förderung intrinsischer<br />
Motivation ist ein langfristig erfolgreicher und effizienter Einsatz<br />
von Sprachtechnologie möglich.<br />
Handlungsempfehlungen<br />
In der Praxis liegt die Entscheidung, ob und in welchem Umfang<br />
Sprachtechnologie verwendet wird, selten bei den Anwendern selbst.<br />
Entscheidungsträger können jedoch durch den Blick auf die Anwender<br />
den erfolgreichen Einsatz von Sprachtechnologie beeinflussen. Aus der<br />
Praxis heraus kann daher Folgendes empfohlen werden, um die intrinsische<br />
Motivation stärker anzusprechen:<br />
−−<br />
Anwendern frühzeitig den Sinn und die Vorteile der Sprachtechnologie<br />
veranschaulichen. Dabei mit praktischen Beispielen arbeiten (z. B.<br />
mit dem Textmaterial der Anwender).<br />
−−<br />
Arbeitsauftrag bzgl. der Anwendung von Sprachtechnologie klar, verständlich<br />
und wirksam kommunizieren.<br />
74<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Hochschule und Wissenschaft<br />
−−<br />
Innovatoren frühzeitig identifizieren und als Multiplikatoren in der<br />
Einführungsphase einsetzen; Nachzügler mit zusätzlichen Hilfestellungen<br />
überzeugen.<br />
−−<br />
Kompetenzerleben und Selbstbestimmung in der Anwendung mit<br />
dem System hervorheben und ggf. fördern; das Bedürfnis nach sozialer<br />
Eingebundenheit durch Vernetzung und Austausch zwischen den<br />
Anwendern erfüllen.<br />
−−<br />
Regelmäßig Feedback einholen – Anwender kennen die Stärken und<br />
Schwächen des Systems; Kritik der Anwender als Chance zur Prozess-<br />
und Systemverbesserung ernstnehmen.<br />
Literatur<br />
[1] Rogers, E. M. (2003): Diffusion of innovations. New York, NY: Free<br />
Press.<br />
[2] Hoffmeister, A. (<strong>2012</strong>): Qualitätsmanagement in der Technischen<br />
Dokumentation. Am Beispiel der Volkswagen AG „After Sales Technik“.<br />
Saarbrücker Beiträge zur Sprach- und Translationswissenschaft. Band<br />
24. Frankfurt a. M.: Peter Lang (in Druck).<br />
[3] Deci, Edward L.; Ryan, R. M. (1993): Die Selbstbestimmungstheorie<br />
der Motivation und ihre Bedeutung für die Pädagogik. In: Zeitschrift für<br />
Pädagogik, S. 223–238.<br />
für Rückfragen: ana.hoffmeister@volkswagen.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
75
International Management
International Management<br />
IM 1<br />
Presentation<br />
Status of Mobile Documentation<br />
in South Korea<br />
Brian Cho, HansemEUG, Inc., Gyeonggi-do, South Korea<br />
Danbi Kwak, HansemEUG, Inc., Gyeonggi-do, South Korea<br />
Electronic manual development is gaining momentum in S. Korea<br />
Due to convenience and newly-introduced technologies, major manufacturers<br />
who develop consumer products in Korea are trying to offer<br />
their product manuals in electronic formats to provide supplemental explanations<br />
to end-users, rather than conventional paper manuals, which<br />
have significant limitations. In this presentation, we will categorize various<br />
types of electronic manuals from our recent experiences and show<br />
actual samples that were requested from global manufacturers who are<br />
based in S. Korea:<br />
−−<br />
PDF (conventional and plain)<br />
−−<br />
HTML (Cross-browsing or browser specific)<br />
−−<br />
Applications for specific platforms<br />
−−<br />
Movie clips for supplemental purposes<br />
Fertile environment for development of electronic documentation<br />
The favourable environment for developing software, an abundant<br />
workforce, and aggressive marketing has benefitted global manufacturers<br />
from Korea in other areas, but how does this environment benefit<br />
the documentation industry?<br />
Awareness of market demand for electronic documentation<br />
Most manufacturers are focused on publishing electronic formats and<br />
trying to embed documentation into the device or provide it on a website<br />
with the primary goal of minimizing printing and distribution costs.<br />
However, this approach has only resulted in additional costs to the<br />
manufacturer, because import regulations in several countries require<br />
printed documentation. So, does the market demand for electronic documentation<br />
present a real business opportunity?<br />
Proliferation of mobile devices in the market<br />
Due to many variations in operating systems and mobile devices in the<br />
market, configuring documentation to be viewable on mobile devices is<br />
a challenge to creating electronic documentation. Selecting the proper<br />
layouts and rendering engines is an important step.<br />
Readiness of the documentation industry to implement<br />
electronic documentation in Korea<br />
−−<br />
What workflows or processes are used to develop electronic documentation?<br />
−−<br />
Is Korea’s TC industry mature enough to implement or adopt the necessary<br />
methods and tools?<br />
−−<br />
Is the workforce sufficiently knowledgeable about the design and<br />
structure of electronic documentation?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
79
International Management<br />
Challenges faced when developing electronic documentation<br />
−−<br />
Platform specific or independent (cross-platform)?<br />
−−<br />
Screen sizes and resolutions, as well as readability concerns: browserrendering<br />
engines, widely-used screen sizes in desktops and portable<br />
devices, responsive web outputs, adaptive web outputs<br />
−−<br />
Cost-conscious mindset of clients and turnaround times<br />
−−<br />
Readily-available technologies and experts<br />
Predicting trends in electronic publishing<br />
−−<br />
Current environment: simple conversion from paper to electronic<br />
formats, gradual transition to platform-specific documentation<br />
−−<br />
Within five years: customized user experience based on usage patterns,<br />
enhanced search functions and app-based documentation<br />
−−<br />
In a decade: artificial intelligence engines, true personal assistance<br />
via interactions with end users<br />
If you have any questions please contact: briancho@ezuserguide.com<br />
80<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
IM 2<br />
Presentation<br />
How Japanese companies reflect the<br />
voices of customers on their products<br />
Toshimasa Yamazaki, Japan Technical Communicators Association, Tokyo, Japan<br />
A brand can be regarded as an accumulation of experiences. With the<br />
aim of giving customers the satisfaction of happiness and appreciation,<br />
Japanese manufacturers of home electric appliances study information<br />
collected on every aspect of customers’ purchase and use of products.<br />
The activities of “Customer Call Centers” which come in direct contact<br />
with customers, play a particularly influential role in improving products<br />
and increasing the number of repeat customers. This paper introduces<br />
examples of VOC activities using a case study of a home electric<br />
appliance manufacturer as an example.<br />
VOC case studies involving other industries will be introduced during<br />
presentations at tcworld <strong>2012</strong>.<br />
1. Case study: How a home electric appliance manufacturer makes<br />
use of the voice of customers (data provided by Panasonic)<br />
“VOC” stands for “Voice of Customer,” and Panasonic takes the voice of<br />
its customers very seriously, undertaking FOC activities aimed at hearing<br />
issues raised by customers and raising the level of management<br />
quality to resolve issues.<br />
This represents an actualization of Panasonic’s management philosophy,<br />
and is an activity that is incorporated into all work of all employees.<br />
Panasonic gathers VOC information through the customer contacts of its<br />
customer call center, sales force, and corporate clients (business partners).<br />
Panasonic regards VOC information as a “treasure trove” to be<br />
exploited in the interest of product development and improvements in<br />
functionality, quality, and service.<br />
Through its customer call center and development departments, Panasonic<br />
responds to and analyzes this valuable resource on a daily basis,<br />
and undertakes ongoing deliberations and improvement efforts in cooperation<br />
with the product projects, design, technology, quality, and marketing/sales<br />
departments.<br />
Step 1: The customer call center responds to telephone and mail inquiries<br />
received from customers on a daily basis.<br />
The sales department also receives VOC information from sales personnel<br />
and clients.<br />
Step 2: Collation of VOC information<br />
VOC information is recorded, entered into a database, and analyzed on a<br />
daily basis.<br />
Step 3: VOC info is used to identify needed improvements<br />
Based on VOC information, conditions that contribute to making products<br />
or use manuals difficult to use are analyzed and issues that require<br />
improvement are considered.<br />
Step 4: VOC info is used to improve products and manuals<br />
Deliberative committees are convened in departments responsible for<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
81
International Management<br />
product development or production of use manuals, and measures are<br />
taken to improve the quality of delivered products or services.<br />
Case 1: Improvement of package information<br />
Voice of customer<br />
−−<br />
Package markings indicating voltage of rechargeable EVOLTA batteries<br />
are small and hard to read<br />
−−<br />
Putting specs on package back makes them hard to find<br />
−−<br />
Unclear whether batteries can be used without charging immediately<br />
after purchase<br />
Before improvement<br />
After improvement<br />
Case 2: Web site (customer support page) improvement<br />
Voice of customer<br />
Would like to buy replacement consumable parts for faucet on unit<br />
kitchen, but can’t find part number of faucet<br />
Improvements made:<br />
−−<br />
Photographs of faucets placed on Web site together with part numbers.<br />
−−<br />
Exploded drawings provided for each model, indicating part numbers<br />
of consumable parts.<br />
82<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
2. Typical VOC utilization process (data provided by Panasonic)<br />
VOC information flow and product improvement<br />
Many of Japan’s manufacturers have built support systems that utilize<br />
the Web to provide customer support. This has produced a boom in “Instant<br />
support, 24 hours/day, 365 days/year,” and “Interactive Q&A-type<br />
support using rich media (video and audio).”<br />
The background for this is the attractiveness of Web support as a means<br />
of ameliorating dissatisfaction with support by telephone or printed<br />
material.<br />
(Main complaints about support by telephone or printed material)<br />
→ (With the introduction of Web support)<br />
Having to call is a bother → Web support can be used freely, without<br />
hesitation<br />
It’s hard to get through by phone. → Can be used at customer’s<br />
convenience<br />
Manual illustrations by themselves are hard to understand. → Can use<br />
actual product photos and videos<br />
Doesn’t provide the latest information. → Latest information can always<br />
be made available<br />
Which explanation applies to me? → Interactive assessment zeroes in<br />
on explanation fitting customer’s situation<br />
Explanations are complication and hard to understand. → Always evolving<br />
based on VOC info<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
83
International Management<br />
3. What do consumers expect of manuals?<br />
Following are the top ten printed manual improvements expected by<br />
consumers, ranked in order of priority.<br />
Source: “Consumer” magazine, published monthly by the Japan Consumers<br />
Association (May, 2009).<br />
1. Larger text size<br />
2. More concise explanations<br />
3. More use of illustrations and photographs<br />
4. Avoidance of specialized vocabulary<br />
5. Thinner manuals<br />
6. Elderly-friendly manuals<br />
7. Beginner-friendly manuals<br />
8. Putting main, “other” features into separate booklets<br />
9. Less use of phoneticized foreign words (such as katakana)<br />
10. Easy to use indexes and thumb tabs<br />
These improvement points can be regarded as the key issues in producing<br />
printed manuals for the Japanese market. “Greater noticeability of<br />
safety information” ranked 16th among consumers, but from the manufacturers’<br />
perspective, such information is of great importance.<br />
From the survey, achieving consumer satisfaction in manuals produced<br />
for multifunction products requires “concise clarity,” “writing in plain<br />
language,” “making safety information more prominent,” “extensive use<br />
of graphics,” and “greater attention to storability.”<br />
4. The 7 traits of good printed manuals<br />
A “good printed manual” must meet the following seven conditions.<br />
These conditions are excerpted from the evaluation standards used for<br />
judging in the Japan manuals contest that is sponsored by the Japan<br />
Technical Communicators Association Foundation, in which manuals<br />
are judged for composition, writing quality, and design.<br />
1. Understandability<br />
2. Accuracy<br />
3. Attractiveness<br />
4. Searchability<br />
5. Ease of use<br />
6. Usefulness<br />
7. Consideration for consumer protection<br />
These conditions should be used as a checklist when producing consumer<br />
instruction manuals for the Japanese market.<br />
The following are examples of three defects encountered in sub-standard<br />
printed manuals (from results of the Japan manuals contest).<br />
(1) Content not suited to consumer needs<br />
−−<br />
Needed information missing, or irrelevant information included<br />
−−<br />
Structure too complicated, or inconsistent informational hierarchies<br />
−−<br />
Too much information, resulting in manuals that are too thick<br />
84<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
(2) Text hard to understand<br />
−−<br />
Poor Japanese<br />
−−<br />
Excessive use of difficult technical terms<br />
−−<br />
Inconsistent use of Japanese characters or vocabulary<br />
(3) Unattractive design<br />
−−<br />
Relevant points not easy to understand<br />
−−<br />
High text density, small characters<br />
−−<br />
Boring, pedantic style<br />
Contact: yamazaki@jtca.org<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
85
International Management<br />
IM 3<br />
Presentation<br />
Tenders and<br />
biddings today<br />
Different criteria and<br />
levers for choosing<br />
products, systems<br />
and services<br />
Tenders, biddings, requests for…<br />
How customers get what they really need<br />
Thomas Hayk, Hitchensen AG, Zürich, Schweiz<br />
Tenders and biddings absorb a lot of time and money on customer’s<br />
and supplier’s side. To reduce the efforts and to concentrate on the real<br />
needs, existing patterns should be remodelled and procurement organizations<br />
should rethink current techniques.<br />
The presentation and discussion aims to elaborate on success factors<br />
to choose the right provider and solution for systems and services for<br />
content management or translation services.<br />
Since the 1960s the purchasing function has evolved from an administrative<br />
role (order placing) into an integrated and strategic function.<br />
Increasing outsourcing activities made it necessary to better control the<br />
supply chain. Nowadays third party spend exceeds 50% or more of the<br />
total revenue of globally acting companies.<br />
Therefore procurement methods and tools have been developed to<br />
serve the procurement of strategic (direct) materials for manufacturing.<br />
Recently these purchasing methods have also been used to manage indirect<br />
spend such as IT/Software or services. This is a problem. Let me<br />
explain why.<br />
Direct material<br />
Criteria for 3 rd party products for manufacturing have to be balanced in<br />
a triangle of cost, quality and availability. To achieve this, ideally standard<br />
components are to be used. Most manufacturing companies buy also<br />
a lot of customized parts. Depending on the complexity and quantity,<br />
these have to be produced on the right machine or with the ideal process<br />
(automatic, semi-automatic etc.) in order to fulfill cost and quality<br />
requirements.<br />
Levers to choose the right products<br />
In standardized RFQs/RFPs or other types for tendering, cost transparency<br />
and cost comparison is granted to the customer. That leads to a<br />
good understanding of the product. Standard contracts transfer most<br />
of the risks to suppliers and several negotiation rounds lead to a good<br />
result at the end. This is accompanied by standardized supplier and risk<br />
management processes to ensure compliance with policies. Depending<br />
on the balance of power suppliers mainly accept the dictate and try to<br />
find niches where their power is bigger and they can earn money.<br />
Systems<br />
Criteria for 3 rd party systems differ from those for products. A system<br />
mostly brings an own functionality that contributes to a high degree to<br />
the performance of the final “product” and thus has an influence on the<br />
competitiveness or supports productivity. Furthermore intelligent systems<br />
help to ensure sustainable growth in the future.<br />
86<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
Risks and threats<br />
Levers to choose the right systems and services<br />
Tenders, biddings or requests for quotation, proposal or information etc.<br />
which currently mostly focus on transparency and cost, regularly lead to<br />
wrong decisions when it comes to systems and services.<br />
What is said here mainly fits to systems but most of it is also true for<br />
services.<br />
Good systems and their successful integration into existing environments<br />
require mainly skills on the supplier side that cannot be measured:<br />
Ability to work in cross-functional and cross-company teams or<br />
knowledge sharing to enable common developments. Furthermore, deep<br />
knowledge of special technologies is mostly needed. Not to forget the<br />
engagement of every involved employee.<br />
Instead of a focus on cost, supplier and customer should focus on an<br />
alignment of interests. In addition to that they also must trust each<br />
other to ensure that both parties “run into the right direction”.<br />
The question to be answered during the bidding phase for systems and<br />
services is not: “What is the cheapest solution to my problem?” but “Who<br />
helps me to be competitive and innovative in the future?”<br />
Innovation is missed<br />
If customers don’t manage to choose the right suppliers or partners for<br />
systems and services, they are not prepared for future challenges on<br />
global markets where factor cost always can be underbid. Future competitiveness<br />
needs innovation throughout all product life cycle steps<br />
and via the whole supply chain.<br />
High non conformity cost (NCC)<br />
Empirical experience shows that 60–70% of follow-up cost appear during<br />
or after project execution but their cause is to be found during the<br />
decision phase. NCC examples are:<br />
−−<br />
Project target missed (time and/or budget)<br />
−−<br />
Rework before going life<br />
−−<br />
Rework after going life<br />
What goes wrong during the decision phase?<br />
The wrong questions are asked, misleading incentives such as “savings”<br />
are set and the courage for a big innovation and change is missing. If<br />
expectations are high, small innovations or adjustments to existing systems<br />
won’t deliver sufficient results.<br />
How to do it right?<br />
Cost-focused tenders or biddings are not suitable for systems and services.<br />
Below list of suggestions shall trigger discussions and change<br />
current techniques.<br />
−−<br />
Don’t incentivise cost savings.<br />
Sustainable long term success should be honored instead.<br />
−−<br />
Avoid concurrent targets among team members.<br />
For example don’t define for IT stuff that new systems must be avoided<br />
while other team members should spot new innovative software.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
87
International Management<br />
−−<br />
Don’t measure quality with certificates<br />
DIN EN ISO 9001 does not guarantee a good result. Quality can only<br />
be evaluated during or after the cooperation when the “honeymoon<br />
period” is over.<br />
−−<br />
Trust that the team comes up with the right decision.<br />
Employees are the most valuable resource in a company. Don’t control<br />
them.<br />
−−<br />
Define principles and guidelines instead of binding regulations.<br />
The more freedom a team has, the more responsible everyone acts.<br />
−−<br />
Staff the team (buying center) with the right persons and make sure<br />
that know how carrier are freed from daily work to participate.<br />
This is the most underestimated issue. A team consistent of e.g. a<br />
buyer, a quality manager and a business process specialist is not the<br />
right set-up.<br />
−−<br />
Have fair (real! win-win) contracts.<br />
Otherwise nobody feels comfortable to negotiate it with the supplier.<br />
−−<br />
Use agile methods to gain experiences with different suppliers in<br />
small projects.<br />
Gain experience during daily work. This requires upfront strategic<br />
planning to have adequate suppliers in place.<br />
−−<br />
Apply a no-tactics approach.<br />
Openly discuss interests and be fair in the team and towards suppliers.<br />
Try to increase the size of the cake instead of focusing on claiming<br />
the largest part (Be a baker not an eater).<br />
−−<br />
Conduct concept competitions instead of using “best of bread”<br />
Best of bread = the best parts of all supplier answers are copied to<br />
one tender specification and send out for a last best offer. With this<br />
method you lose the power of the different concepts. Stick to one<br />
concept.<br />
−−<br />
Involve suppliers in the very early project phase.<br />
Make use of their knowledge, quickly decide on the right concept and<br />
go with one supplier from that point.<br />
Contact: thomas.hayk@hitchensen.com<br />
88<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
IM 4<br />
Presentation<br />
Improve the Efficiency and Quality of your<br />
Localization Management based on the Global<br />
Information Management Self Assessment<br />
Dr. Axel Poestges, SDL, Stuttgart<br />
Global information management is a management system like quality<br />
and environmental management systems. As you would expect, global<br />
information management systems are tied strongly to business models<br />
and are of great strategic importance. As with any management system,<br />
the desired outcome of global information management is to create<br />
momentum for continuous improvement. However, in order to develop<br />
and optimize the system, it is essential to have a detailed understanding<br />
of the company’s background and current situation. Best practices available<br />
for attaining this knowledge are limited and truly goal-oriented<br />
tools are not well known, so how is it possible to optimize something if<br />
the tools and methods do not exist.<br />
Why is the Global Information Management system so important?<br />
Management systems have differing levels of strategic importance and<br />
vary considerably in the scope and depth of their influence throughout<br />
the lifecycle of a product. In turn, the information supply chain becomes<br />
more complex when a greater number of different resources are involved<br />
in the value creation process, and when the value creation process<br />
itself is interconnected on a more global scale. Companies that simply<br />
offer one product in specific local markets place different demands<br />
on the information supply chain than global players. Global Information<br />
Management is a complexity driver that is difficult to control and that<br />
also has a significant influence on costs. Companies that wish to create a<br />
global footprint must be experts in controlling their Global Information<br />
Management system; otherwise, the results of their globalization strategy<br />
will always be less than ideal.<br />
How is the Global Information Management Self Assessment used?<br />
The Global Information Management Self Assessment is an IT-supported<br />
tool for establishing requirements for your Global Information<br />
Management system. As the name suggests, the assessment is based<br />
on knowledge acquired from best practices used by successful global<br />
players, as well as a comprehensive range of benchmark information,<br />
to allow companies with a global orientation to establish themselves<br />
successfully.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
89
International Management<br />
The Global Information Management Self Assessment covers all areas of<br />
the Information Supply Chain and allows for an individual position fixing.<br />
The Global Information Management Self Assessment comprises three<br />
modules:<br />
−−<br />
Analysis<br />
−−<br />
Evaluation<br />
−−<br />
Interpretation<br />
The analysis module is based on a comprehensive questionnaire, which<br />
contains multiple-choice questions in addition to descriptions and<br />
questions to gather quantitative data. This questionnaire can either be<br />
answered separately by the relevant departments or it can be filled out<br />
together as part of a workshop lasting several days. Once all questions<br />
have been answered in full, the questionnaire is assessed using an ITsupported<br />
tool during the evaluation stage. The results are documented<br />
and presented by means of a wide range of diagrams with differing<br />
levels of detail.<br />
The main diagram is a spider‘s web chart showing the status at all phases<br />
of the information lifecycle compared to industry standards and best<br />
practices. This diagram allows gaps and areas requiring improvement<br />
within the company to be identified immediately.<br />
90<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
The spider’s web as main diagram of the Global Information Management<br />
Self Assessment shows, where the company stands compared to industry<br />
best practices.<br />
During the interpretation phase, the gaps that have been identified are<br />
compared to typical successful projects in comparable sectors and evaluated<br />
using the relevant benchmark data before potential for improvement<br />
is determined. Potential for improvement can then be represented<br />
immediately as a business case in a separate project.<br />
What results can be expected?<br />
The Global Information Management Self Assessment delivers clear<br />
priorities for action, provides a focus for associated tasks and supplies<br />
qualitative and quantitative objectives for systematic change management.<br />
Since the data is exclusively based on best practices from a range<br />
of industries, the examples provided with the project results can be<br />
used as a benchmark for subsequent activities. In this paper, two current<br />
examples involving clients at large global corporations will be presented.<br />
Both companies were able to optimize their Global Information<br />
Management strategy successfully using the results generated by the<br />
self assessment tool.<br />
Find out more about this topic during the workshop<br />
This paper can only provide a brief overview of a powerful tool like the<br />
Global Information Management Self Assessment. Anyone who would<br />
like to find out more about the methods and the tool itself is invited to<br />
attend the associated workshop (PKM6; Wednesday October 24, <strong>2012</strong>,<br />
11.15 a.m. to 1.00 p.m.). This workshop will provide a more detailed explanation<br />
of the entire concept and will give practical examples of data<br />
collection, evaluation and interpretation.<br />
If you have any questions, please contact: apoestges@sdl.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
91
International Management<br />
IM 7<br />
Presentation<br />
Machine Translation in Action<br />
Tony Lee, Saltlux, Inc., Seoul<br />
Recently, machine translation technologies have been used comprehensively<br />
in the technical translation industry. This means a great change in<br />
the translation industry, as commercial use of the machine translation<br />
system was considered taboo in the past due to poor quality. This presentation<br />
is to show the development and trend in machine translation<br />
and introduce various cases of the application, especially in Asia. In addition,<br />
we will present the guidelines for practical operation of the machine<br />
translation that allows high-quality, low-cost, and a large amount<br />
of translation in a short period of time. Last, this presentation demonstrates<br />
various cases of application of machine translation including<br />
mobile interpreters, and suggests the plans for its future development.<br />
Machine Translation Chronicle<br />
According to the Bible, there was only one language for humans prior to<br />
the Tower of Babel. At present, there are about 6900 spoken languages<br />
on earth. In Asia, there are 2200 different languages, which amount to<br />
almost 10 times compared to 230 languages used in Europe. Despite the<br />
fact that the language serves as the basis of knowledge transmission<br />
and the source of developing and maintaining the society and culture,<br />
it is mysterious to figure out how so many languages have individually<br />
been developed. The Bible, the world’s most widely translated book,<br />
has been translated into about 2200 languages. What do you think is<br />
the actual size of the commercial translation market? It is estimated<br />
at approximately 10–30 billion US dollars, though it is very difficult to<br />
correctly figure out. Then, why is it so difficult for translation vendors to<br />
ensure its profitability? Why is it so hard to find a remarkable innovation<br />
in translation industry for the past 5,000 years? In the middle of<br />
these questions is machine translation.<br />
The early idea of machine translation originates from René Descartes<br />
about 500 years ago. The first Machine Translation (MT) system actually<br />
operated was developed by the US government and IBM to automatically<br />
translate Russian into English in 1954 at the beginning of the Cold<br />
War era. The MT system was developed as the most important application<br />
when the computer was invented for the first time. The first MT<br />
system developed by IBM was able to translate about 10 sentences per<br />
second. The cost of the MT system is estimated at 4 million US dollars<br />
based on the current value. Not many people know that the computing<br />
power of Apple iPhone currently used by individuals is superior to<br />
that of the supercomputer used to send a man to the moon by National<br />
Aeronautic and Space Administration (NASA) in 1969. The computer<br />
technologies, which have undergone innovation for the last 50 years,<br />
currently allow big data processing based on cloud computing. This also<br />
provides a turning point for machine translation.<br />
Technical Landscape of MT<br />
Most of the initial MT systems have used a rule-based transfer method.<br />
As it became possible to use the superior computing power at a reasonable<br />
cost since 2000, the statistical machine translation (SMT) based<br />
on machine learning (ML) came into the spotlight. Actually, the recent<br />
92<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
MT systems including Google are rooted in SMT for the most part. It is<br />
apparent that SMT is a quite advanced technology that shows how the<br />
computer automatically learns the knowledge of translation and makes<br />
its own translations. SMT has a strong point that it is able to perform<br />
domain customization rapidly, if provided with sufficient corpus. Then,<br />
why is it impossible for SMT to substitute human translation? The reasons<br />
lie in its inferior translation quality and the inability of making<br />
“perfect lies” required occasionally for translation, as well as its technological<br />
characteristics that make it difficult for human to participate in<br />
and have a delicate control.<br />
Our expectation for the MT system is very clear: inexpensive and rapid<br />
post editing, high-quality translation, cost reduction, and easy implementation<br />
of the custom engine appropriate for the specific domain or<br />
customer. Additionally, it is required to ensure consistency in translation,<br />
immediate participation of human translators or project managers,<br />
and real-time quality improvement through active learning. I would like<br />
to show how these requirements apply to the recent MT systems in this<br />
presentation.<br />
The development of the MT systems for Asian languages began in Japan<br />
and Korea at the beginning of 1980. The focus of the development was<br />
on translation between English and Japanese or between English and<br />
Korea. However, high quality enough for commercial application was<br />
not ensured until the 2000s. Machine translation between Japanese and<br />
Korean showed 95% of accuracy with regard to the translation quality at<br />
the beginning of 2000, due to their similar language structures. So it was<br />
actually employed in various commercial services. The most popular<br />
language spoken worldwide is Chinese. Almost 15% of the world population<br />
is speaking Chinese, which amounts to the sum of the population<br />
using English, Spanish, and Hindi. The recent development of translation<br />
technologies is focused on translation from Chinese to Japanese,<br />
Korean, and English. However, satisfactory quality of translation seems<br />
a long way away. This presentation will introduce its specific cases,<br />
translation quality, and commercial application.<br />
Practical MTs for Technical Communication<br />
It is obvious that MT will be employed for the larger range of the Technical<br />
Communication (TC) industry. But the problem is how to employ<br />
insufficient quality of translation and the hard-to-handle MT system in<br />
the actual translation work. In this presentation, we will introduce the<br />
application system based on various MTs that Saltlux, Inc. has developed<br />
and applied for the past 20 years, and explain how to achieve practical<br />
quality at a reasonable cost. Especially, Saltlux, as a representative<br />
Multi-Language Vendor (MLV) in Asia, is providing high-quality human<br />
translation services. Saltlux aims to not only share the experience and<br />
vision in bringing about innovation in the translation industry through<br />
collaboration of machine and human. But it also searches for and expands<br />
the service for new groups of customers. To help your understanding,<br />
we will demonstrate the hybrid machine translation platform<br />
linked to the social network, and show the mobile translation capable of<br />
voice input and output.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
93
International Management<br />
The Art of War<br />
We are certain that it is almost impossible to replace human translation<br />
with machine translation for a considerably long period of time. The<br />
core competitiveness of the MT system is not to replace human translators,<br />
but to support them for their efficient work. For this, it is necessary<br />
to ensure the strategic system for facilitating human-machine collaboration<br />
and sharing and reapplying the translation knowledge. Especially,<br />
a new work process is required to dynamically train translators for getting<br />
familiar with the MT system to maximize the intellectual value of<br />
human beings, as well as performing the post-editing for the resultant<br />
translations conducted by the MT system.<br />
This presentation will provide a new form of a workflow for dynamic<br />
human-machine collaboration and the system idea based on the workflow.<br />
Additionally, we will also present the future development plan by<br />
explaining how the MT system combined with Computer-Aided Translation<br />
(CAT) communicates with humans via social network.<br />
For any further questions, please contact:<br />
Tony LEE, tony@saltlux.com<br />
Seokwhan SHIN, shshin@saltlux.com<br />
94<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
IM 8<br />
Presentation<br />
Technical writing for the machinery<br />
industry in India: a success story<br />
Ivo Sturzenegger, PackSys Global , Switzerland,<br />
L. Simeon, PackSys Global, India<br />
Introduction<br />
PackSys Global India (PSI) is part of the PackSys Global group of companies<br />
owned by Brückner Technology Holding (Germany). We have<br />
more than 50 years of experience in developing, manufacturing & marketing<br />
complex machineries globally. PackSys Global (India) is an engineering<br />
services arm of PackSys Global (Switzerland). Under the brand<br />
Conea, PackSys Global (India) offers design and documentation services<br />
to group companies as well as to other machinery manufacturers.<br />
In this document we give an overview of our current standards of technical<br />
documentation @ conea and the organisational environment enabling<br />
this.<br />
The dynamics of the environment at machine manufacturer’s and<br />
their customers, namely the increasing complexity of the machine, the<br />
shrinking time for machine development, customer expectations and<br />
the increasing focus on cost reduction made us to revamp our existing<br />
documentation processes and standards. We did an analysis and identified<br />
the areas on which we need to improve our documentation services.<br />
A summary of this analysis is given in the below table.<br />
This analysis gave us a clear indication of the direction which we need<br />
to take for revamping our documentation services. We had to invest not<br />
only in software but also in the complete environment surrounding our<br />
services. Some of the environmental factors were already available, but<br />
we had to adapt/add some others.<br />
The conea technical documentation environment<br />
1. Staff know-how:<br />
The best method to impart domain knowledge is to give exposure to the<br />
team on the machine which they are documenting. We organise regular<br />
visits for the documentation team to customer sites in India and also to<br />
Switzerland for training on the machines.<br />
The second most important skill is the core technical writing skill. The<br />
technical writers undergo training through the TcTrainNet – International<br />
training and certification program by <strong>tekom</strong>. In addition to this,<br />
we also organise regular English and German Language Certification<br />
Courses for the writers.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
95
International Management<br />
Requirements of customer documentation<br />
e-portal (Spare parts User manuals<br />
catalog)<br />
Manufacturer’s requirement<br />
Cost reduction for creation of manuals and for<br />
spare parts catalog.<br />
Documentation ready at the time of factory<br />
acceptance of machine<br />
Life cycle management of the data. The data in<br />
e-portal and manual corresponds to that of the<br />
machine at customer‘s end. Meaning, updates<br />
in the machine at customer‘s end are incorporated<br />
in the customer documentation<br />
Consistency of exploded<br />
views<br />
Consistency in structure<br />
and content of<br />
manual<br />
Reduce the possibility of reverse engineering<br />
with the information provided to customer<br />
Customer requirements<br />
Dependable and<br />
complete information.<br />
Information<br />
both for new and<br />
experienced staff<br />
Information @ click<br />
Inquiry/order @ click<br />
History of inquiry/order<br />
@click<br />
What are the frequently<br />
placed orders?<br />
What machines/options/<br />
size parts do we have?<br />
Solution<br />
Modularization and principle of re-use<br />
for manuals<br />
Single sourcing – Prepare once and<br />
publish in different formats<br />
Translation management using re-use,<br />
XML, translation memories<br />
Re-use of machine struture in PLM for<br />
automatic generation of spare parts<br />
catalog<br />
Change management and linking of the<br />
source data in PLM<br />
Use of structured authoring.Training<br />
of technical writers and illustrators for<br />
standardisation<br />
Use of exploded views instead of 2D section<br />
drawings<br />
Finalise the depth of information for<br />
each topic.Bring in organizational awareness<br />
of customer requirements and work<br />
on the domain knowledge of technical<br />
writers<br />
Make the information available online<br />
to customer enabling anytime/anywhere<br />
access.<br />
Online customer wise information<br />
2. Organisation:<br />
The roles and responsibilities of the documentation team members and<br />
the other department members with reference to documentation are<br />
clearly laid out.<br />
The management gives high importance for the development of high<br />
quality customer documentations. This not only motivates the documentation<br />
team members but also increases the co-operation of other departments<br />
with the documentation team.<br />
What type of persons to hire, and from where - is a critical aspect for<br />
effective recruitment. We have identified the limits and also the options<br />
available to us for this. The profession of technical writing is not well<br />
recognised in India, especially in the field of mechanical engineering. The<br />
candidates are given a clear picture of their career prospects in this field.<br />
96<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
The most important aspect of the conea team is the very low attrition<br />
rate. Some of our senior employees have been with the organisation<br />
for more than 14 years. The other senior employees have been with the<br />
organisation for a minimum of six years. This is basically due to the excellent<br />
opportunities we provide to our staff in career development and<br />
also because of the niche in which we are operating.<br />
3. Process:<br />
Consistency in offering high quality services is essential and this can be<br />
achieved only by well defined processes. We have defined standardised<br />
methods for handling projects of different kinds. The steps in project<br />
execution are mapped to the process flow at the machinery manufacturer<br />
to ensure timely completion of documentation projects.<br />
4. Tools:<br />
We use the following tools: PLM Publisher (CMS tool), Structured<br />
FrameMaker for authoring, Adobe illustrator and 3D via composer for<br />
illustration.<br />
Communication tools like; Skype, screen sharing software and video<br />
conference further helps us to bridge the gap between SME and the<br />
documentation team.<br />
The choice of tool was made based on the requirement analysis mentioned<br />
above.<br />
5. Standards<br />
The focus on compliance to the machine directive 2006/42/EC, EN<br />
82079, ANSI Z535.6, and also to company style guide is an essential part<br />
for ensuring repeatable delivery of high quality content.<br />
6. The focus on content<br />
We organise regular sessions for the writers and the SME on the importance<br />
of improving the content in the manuals. This has increased the<br />
awareness concerning the importance of content among both the writers<br />
and the SME.<br />
If you have any questions please contact:<br />
simeon@packsysglobal.com<br />
sturzenegger@packsysglobal.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
97
International Management<br />
IM 9<br />
Tutorial<br />
Developing and Delivering Robust<br />
Sample Projects as User Assistance<br />
Nicoletta A. Bleiel, ComponentOne, a division of GrapeCity, inc., Pittsburgh, USA<br />
Introduction<br />
One of the best ways to learn is informally, by example, and sample<br />
projects that customers can use to learn your application are a valuable<br />
addition to your product’s user assistance set. The best sample projects<br />
should demonstrate different functionality, best practices, and features<br />
— and also be easy-to-use. In this tutorial, we will discuss how to develop<br />
and roll out different types of sample projects.<br />
Why Sample Projects are Useful<br />
Because customers can:<br />
−−<br />
Become comfortable in the user interface quickly.<br />
−−<br />
Work in a real project with no harm.<br />
−−<br />
Add their own data/content (depending on the application).<br />
−−<br />
Learn concepts more quickly.<br />
−−<br />
Use the sample as a starting point for their own project, rather than<br />
beginning from scratch. People can be intimidated by “blank slates.”<br />
(Alan Cooper)<br />
−−<br />
Learn what the product is capable of doing.<br />
In addition, successful interaction with the product during the evaluation<br />
period can help sell the product.<br />
A SharePoint Sample Project Site<br />
The Sample Project Team<br />
Since sample projects have a number of objectives, and (depending<br />
on the product) technical challenges, the team working on the<br />
98<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
sample projects should span a number of departments. The Project<br />
Management, Marketing, Software Development, Web Development,<br />
and Technical Communication departments should all be included<br />
at various phases of the project. Everyone should agree on goals and<br />
responsibilities.<br />
After the initial rollout, you may want to ask your user community to<br />
contribute samples. Before the community is asked, the technology and<br />
guidelines for community samples will need to be developed by the<br />
team, and a plan put in place to encourage and reward contributions.<br />
Determining Objectives<br />
The team needs to decide early in the planning process what the sample<br />
projects should illustrate. Several concepts can be illustrated with<br />
careful planning, including: features, best practices, scenarios, product<br />
power (capabilities), ease of use, completed projects, end-user interaction,<br />
outputs, and development environments.<br />
Project Planning<br />
When planning out your sample projects, keep the following in mind:<br />
−−<br />
Data or content must yield meaningful results. If you want to demonstrate<br />
a number of features, make sure the sample has enough content.<br />
−−<br />
Avoid proprietary content and graphics.<br />
−−<br />
If you need a database, use one that is publicly available for download<br />
(if one of them fits your needs), if not, you may need to create or<br />
scrub one and make it available for download. Consider a web-based<br />
sample if setup will be too complex – especially if it is a web-based<br />
product.<br />
−−<br />
It is a good idea to establish themes for samples that you can use in<br />
other deliverables — for example, tutorials and training. The same<br />
data/content can be used across projects. This will provide a consistent<br />
experience for your customers, as well as save development time.<br />
−−<br />
Download of software and sample projects/content should be as easy<br />
as possible.<br />
−−<br />
If code snippets will be needed, make sure enough time is allotted to<br />
develop them.<br />
−−<br />
Provide descriptions of the samples, as well as instructions for using<br />
them.<br />
−−<br />
For desktop products, make sure there is a backup, or way to restore<br />
the samples to their original state. The samples should be included in<br />
the install.<br />
−−<br />
If developing a web-based sample, determine if a login will be needed<br />
and plan accordingly. Make sure the sample is tested on several<br />
browsers.<br />
Writing the Scripts<br />
Every sample should have a script or outline before sample creation<br />
begins. All objectives should be listed in the script so nothing is missed.<br />
When developing scripts remember that scenarios should be realistic,<br />
and familiar to the audience. Make sure the content/data developed will<br />
work in your scenarios (for example, if your software creates charts,<br />
make sure the data will create charts that are meaningful). When<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
99
International Management<br />
illustrating best practices, make sure to highlight those in the sample.<br />
You can use video, audio, or any other relevant medium to augment your<br />
samples.<br />
Exposing Samples using a Getting Started Wizard<br />
Distributing and Publicizing Samples<br />
Once samples are created, they need to be given visibility. There are a<br />
number of ways to do this. A few options: the product’s Getting Started<br />
Wizard, your website, the product interface, the online help/documentation.<br />
You can publicize them via webcasts, newsletters, blog posts and<br />
Tweets.<br />
Sample Projects on the Web<br />
Following are a variety of sample projects that take a wide range of<br />
approaches.<br />
ComponentOne Studio for SharePoint: http://webparts.componentone.<br />
com/SitePages/Home.aspx<br />
ComponentOne Studio for LightSwitch: http://demo.componentone.<br />
com/LightSwitch/Studio/<br />
Mathematicata: http://demonstrations.wolfram.com/ (Learn more:<br />
http://en.wikipedia.org/wiki/Wolfram_Demonstrations_Project)<br />
Unity: http://unity3d.com/support/resources/example-projects/<br />
Graphisoft: http://www.graphisoft.com/support/archicad/downloads/example_files10/index.html<br />
FTDI: http://www.ftdichip.com/Support/FTSwExamples.htm<br />
100<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
International Management<br />
Chief Architect: http://www.chiefarchitect.com/products/samples.html<br />
BPlans: http://www.bplans.com/sample_business_plans.php<br />
Ornamental Pro: http://www.ornamentalpro.com/opsample3.htm<br />
CeledyDraw: http://www.celedy.com/samples.html#row3<br />
A4 Desk Pro: http://www.a4deskpro.com/sample.php<br />
DemoBuilder: http://www.demo-builder.com/samples.html<br />
Astoundit: http://www.astoundit.com/products/reallistings/samples/index.html<br />
InduSoft: http://www.indusoft.com/mainpage.<br />
php?aricleid=27&type=InduSoft/web/studio/sample/application/IWS<br />
(All product and company names are the property of their respective<br />
owners.)<br />
Recommended Reading<br />
Cooper, Alan. About Face: The Essentials of User Interface Design, 1995.<br />
Carliner, Saul. Informal Learning Basics, <strong>2012</strong>.<br />
Please send any questions or comments to Nicky Bleiel, Lead Information<br />
Developer, Doc-To-Help: nickyb@componentone.com. Follow me on Twitter<br />
at @nickybleiel and @DocToHelp.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
101
Informationsdesign
Informationsdesign<br />
INF 1<br />
Partnerpräsentation<br />
Der Speck muss weg! Schlankheitskur<br />
für das Geberit Datenmodell<br />
Grit Mückstein, Dokuwerk KG, Friedrichshafen<br />
Armin Müller, Geberit International AG, Jona<br />
Die Ausgangssituation<br />
Sternenzeit 2-0-0-1: Die Geberit International AG (GIAG) entscheidet<br />
sich, eine Redaktionsumgebung einzuführen, die Katalog- und Redaktions<br />
system in sich vereint. Dem System ist ein funktionales Datenmodell<br />
hinterlegt, das sich am Lebenszyklus eines Produkts orientiert.<br />
Neben der Erstellung von Produktkatalogen und produktbegleitenden<br />
Dokumenten durch die GIAG soll das System auch die Vertriebsgesellschaften<br />
bei der Publikation marktspezifischer Dokumente<br />
unterstützen.<br />
2003 beginnt die Technische Redaktion der GIAG das System mit Katalogdaten<br />
und redaktionellen Daten zu befüllen. 2004 werden die ersten<br />
Kataloge und Produktinformationen publiziert.<br />
10 Jahre nach der Einführung des Redaktionssystems muss Geberit<br />
feststellen, dass dieses fast ausschließlich von der GIAG genutzt wird.<br />
Die Vertriebsgesellschaften arbeiten auf abweichenden Datenmodellen,<br />
dokumentenorientiert und ohne Redaktionssystem. Eine konzernweite<br />
einheitliche Technische Kommunikation wurde nicht erreicht.<br />
Was ist passiert?<br />
Durch die Verzahnung von Katalog- und Redaktionswelt ist das Redaktionssystem<br />
äußerst komplex und bedarf einer langen Einarbeitungszeit.<br />
Im Datenmodell sind strikte Regeln hinterlegt, die dem Redakteur<br />
eine gute Führung bei der Erfassung von Informationen geben, jedoch<br />
zu wenig Flexibilität bei der Verwendung der Informationsbausteine<br />
führen. Da die Vertriebsgesellschaften in ihren Publikationen Informationen<br />
lokalisiert und in anderen funktionalen Kontexten verwenden,<br />
wird kaum auf die Daten der GIAG zurückgegriffen.<br />
Neue Rahmenbedingungen aus dem Konzernmarketing<br />
2011 verabschiedet das Konzernmarketing ein neues Corporate Design,<br />
das konzernweit zu einem einheitlichen Kommunikationsauftritt führen<br />
soll. Die Technische Redaktion ist darin für die Einheitlichkeit technischer<br />
Publikationen verantwortlich. Diese Verantwortung kann sie aber<br />
nur wahrnehmen, wenn sie die Vertriebsgesellschaften stärker bei der<br />
Erstellung marktspezifischer Publikationen unterstützt. Damit kehrt<br />
eine Anforderung ins Zentrum der Aufmerksamkeit zurück, die durch<br />
das bisherige System nie richtig erfüllt wurde. Man sieht sich also immer<br />
zwei Mal im Leben - und dieses Mal muss die Technische Redaktion<br />
erfolgreicher sein.<br />
Sie zieht daraus drei grundlegende Konsequenzen:<br />
−−<br />
Technisch: Flexibilisierung des Datenmodells<br />
−−<br />
Gestalterisch: Umsetzung des neuen CDs in allen Publikationstypen<br />
−−<br />
Organisatorisch: Effizienzsteigerung, bei der Neuerstellung oder<br />
Überarbeitung von Publikationen<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
105
Informationsdesign<br />
Oder weniger kompliziert ausgedrückt: Alles muss einfacher, schöner<br />
und effizienter werden.<br />
Der Weg zum neuen Datenmodell<br />
Am Beginn des Weges zum neuen Datenmodell stand eine weitere prinzipielle<br />
Entscheidung: Die Katalogwelt wird von der Redaktionswelt<br />
getrennt! Damit braucht das neue Datenmodell strukturierte Katalogdaten<br />
nicht mehr zu berücksichtigen. Für die Katalogwelt wird ein eigenständiges<br />
PIM-System eingeführt.<br />
Doch für die Flexibilisierung des Datenmodells reicht es nicht aus, die<br />
Katalogdaten auszulagern. Für die Ursachen seiner Rigidität sind andere<br />
Schuldige zu suchen:<br />
−−<br />
Die Informationsbausteine sind als Informationsklassen entlang des<br />
Produktlebenszyklus definiert. Sie können nur innerhalb einer Informationskategorie<br />
wie z. B. Planung oder Montage verwendet werden.<br />
−−<br />
Die Informationsbausteine können durch die Möglichkeit der Untergliederung<br />
sehr umfangreich werden. Dadurch verringert sich die<br />
Wahrscheinlichkeit ihrer Wiederverwendbarkeit, z. B. für Publikationen<br />
der Vertriebsgesellschaften.<br />
Daraus folgt: Ein Umbau der Datenstruktur muss folgende Kriterien<br />
erfüllen:<br />
−−<br />
Bausteintypen reduzieren und dadurch Flexibilität erhöhen.<br />
−−<br />
Bausteingrößen reduzieren, um Wiederverwendung zu ermöglichen.<br />
Nach einer Reihe von Workshops, Disputationen und Detaildiskussionen<br />
entscheidet sich die Technische Redaktion der GIAG, eine völlig<br />
neue Ebene in das Datenmodell einzuziehen: Topics. Diese Topics sollen<br />
die neue Informationsbausteinebene bilden, da sie sich in einem wesentlichen<br />
Punkt von den bisherigen Informationsklassen unterscheiden:<br />
Sie sind semantisch nicht gebunden und können daher wesentlich<br />
flexibler verwendet werden.<br />
Konkret führt die Entscheidung zum topicorientierten Arbeiten zu dramatischen<br />
Effekten:<br />
−−<br />
Die Informationsbausteine werden einer Radikalkur unterzogen und<br />
von 40 auf 3 Bausteintypen reduziert<br />
−−<br />
Die semantische Struktur des Datenmodells wird zurückgebaut. Die<br />
Informationsklassen, die bisher die Bausteinebene bildeten, werden<br />
nur noch als Metadaten verwendet.<br />
Weitere Konsequenzen für die Technische Redaktion<br />
Jedes runderneuerte Datenmodell ist aber nur so gut, wie die organisatorischen<br />
Randbedingungen und die Menschen, die damit arbeiten, es<br />
zulassen. Informationsbausteine müssen z. B. im Bauch des Redaktionssystems<br />
effizient wiederauffindbar sein. Aus diesem Grund ist eine alte<br />
Idee wiederbelebt worden: die Trennung zwischen Informationserfassung<br />
und Publikation. Topics dürfen nur in der Erfassungsumgebung<br />
erstellt, verändert und gespeichert werden, da sie auf Publikationsseite<br />
in unterschiedlichsten strukturellen und funktionalen Kontexten<br />
wiederverwendet werden können und sollen. Um solche Regeln in<br />
die täglichen Arbeitsroutinen zu implementieren, hat die Technische<br />
106<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Redaktion einen neuen Redaktionsprozess eingeführt, der zur Qualitätssicherung<br />
vier Qualitygates vorsieht.<br />
Bleibt zum Schluss die Frage: Lohnt sich der ganze Aufwand? Ein erstes<br />
Auspendeln der Waagschale sagt „Ja“:<br />
Vorteile:<br />
−−<br />
Umsetzung eines einheitlichen CD über alle Dokumentarten und<br />
Vertriebsgesellschaften<br />
−−<br />
Unterstützung der Vertriebsgesellschaften bei der Erstellung Technischer<br />
Informationen<br />
−−<br />
Die Akzeptanz der Technischen Redaktion als konzernweite Fachstelle<br />
für Technische Kommunikation steigt<br />
„Nachteile“:<br />
−−<br />
Durch die Vielfalt der Informationen und Dokumenttypen steigt der<br />
Anspruch an die Technische Redaktion<br />
für Rückfragen:<br />
grit.mueckstein@dokuwerk.de<br />
armin.mueller@geberit.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
107
Informationsdesign<br />
INF 2<br />
Fachvortrag<br />
Konfigurierbare Dokumentation –<br />
Dokumentationsaufbau und Publikation<br />
bei hochvarianten Produkten<br />
Michael Brand, Heidelberger Druckmaschinen AG, Heidelberg<br />
Variantenreiche Produkte erfordern eine ausgeklügelte Modularisierung<br />
der Dokumentationsinhalte und einen leistungsfähigen Publikationsprozess,<br />
der aufgrund der variantenspezifischen Kundenauftragsdaten<br />
eine spezifische Dokumentation für den Kunden zusammenstellt.<br />
Bei gedruckter Dokumentation ist man bestrebt, möglichst nur die individuell<br />
relevante Unterlagenmenge in die auszuliefernden Exemplare<br />
einzubinden, um Druckkosten zu sparen und dem Anwender ein leichtes<br />
Zurechtfinden in der gedruckten Dokumentation zu ermöglichen. Je<br />
nach Umfang ist auch eine Aufteilung der Dokumentation auf verschiedene<br />
Ordner sinnvoll.<br />
Wird die Dokumentation auf Datenträgern bereitgestellt, kann eine große<br />
Menge zusätzlicher Unterlagen für verschiedene Produktvarianten<br />
auf dem Datenträger enthalten sein, ohne die Produktionskosten des<br />
Datenträgers zu erhöhen. Die Aufteilung und Gruppierung der einzelnen<br />
Themengebiete für den Anwender wird dabei durch ein konfigurierbares<br />
Auswahlmodul vorgenommen, das die individuelle Sicht des<br />
Anwenders auf die jeweils produktspezifisch benötigte Teilmenge der<br />
Dokumentation sicherstellt.<br />
Aufbau des Publikationsprozesses<br />
Die Dokumentationsinhalte für alle Produktvarianten zu einer Produktreihe<br />
werden in einem kontinuierlichen Engineering Change Prozess<br />
im Redaktionssystem laufend erstellt und gesammelt. Zu fest vorgegebenen<br />
Publikationsterminen erfolgt zyklisch die Publikation aller erstellten<br />
Unterlagen auf einen gemeinsamen Sammeldatenträger.<br />
Für die vom Kunden bestellte und individuell konfigurierte Druckmaschine<br />
wird kurz vor Auslieferung auf Basis der konkreten Auftragsdaten<br />
ein kundenspezifisches Auswahlmodul erstellt. Dieses<br />
Auswahlmodul macht die benötigte Teilmenge der Dokumente auf dem<br />
Sammeldatenträger zugänglich über eine kundenspezifische Interaktionsoberfläche<br />
und blendet die nicht benötigten Dokumente aus.<br />
Mit einem Sammeldatenträger können mehrere kundenspezifische<br />
Auswahlmodule kombiniert werden, wodurch mehrere unterschiedliche<br />
Gesamtdokumentationen entstehen.<br />
108<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Abb. 1: Kombination des Sammeldatenträgers mit kundenspezifischen<br />
Auswahlmodulen, DTM = Dokumententeilmenge<br />
Aufbau des technischen Variantenmodells<br />
In der Konstruktionsstückliste werden Varianten durch bedingte Stücklistenteile<br />
beschrieben. Bei einer späteren produktspezifischen Ableitung<br />
wird ein bedingter Stücklistenteil nur dann in der abgeleiteten<br />
produktspezifischen Stückliste berücksichtigt, wenn die Variantenbedingung<br />
für diesen Stücklistenteil erfüllt ist.<br />
Die technischen Variantenbedingungen in der Konstruktionsstückliste<br />
werden vom Konstrukteur nach festen vorgegebenen Regeln mit booleschen<br />
Operatoren formuliert. Bei Bedarf erhält der Konstrukteur Unterstützung<br />
bei der Abfassung und Formulierung der booleschen Variantenregel.<br />
Die exakt formulierten booleschen Variantenregeln bilden<br />
die Basis, um aus den Auftragsdaten eine produktspezifische Stückliste<br />
genau für die bestellte Variante maschinell ableiten zu können.<br />
Definition von<br />
Konfigurationsmodulen<br />
Auswahlvarianten<br />
Besonderheiten im Redaktionsprozess<br />
Für den Redaktionsprozess werden zunächst die Hauptvarianten einer<br />
Druckmaschine betrachtet, wie sie auch aus Kundensicht bei einer<br />
Bestellung angegeben sind. Zu diesen Hauptvarianten (auch Konfigurationsmodule<br />
genannt) werden standardisierte Schemazeichnungen<br />
erstellt, die für die spätere kundenspezifische Interaktionsoberfläche<br />
herangezogen werden.<br />
Um Dokumentationsinhalte einzelnen Hauptvarianten bzw. Konfigurationsmodulen<br />
zuzuordnen, werden innerhalb der Hauptvarianten<br />
Auswahlvarianten festgelegt, denen wiederum im Redaktionssystem die<br />
Dokumente zugeordnet werden. Zusätzlich wird die visuelle Positionierung<br />
einer Auswahlvariante innerhalb der Hauptvariante über einfache,<br />
geometrische Grundformen vorgenommen. Jede Auswahlvariante wird<br />
zusätzlich mit einer Grafik versehen, die ein visuelles Wiedererkennen<br />
in der Interaktionsoberfläche ermöglichen soll. Auch Varianten mit nur<br />
einer Ausprägung werden in dieses Schema aufgenommen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
109
Informationsdesign<br />
Abb. 2: Dokumentationszuordnung über Auswahlvarianten und<br />
Hauptvarianten/Konfigurationsmodule<br />
Verwendung von<br />
Stücklistenbaukästen<br />
als Auswahlvariante<br />
Variante Unterlagen<br />
Da Varianten über bedingte Stücklistenbaukästen beschrieben werden,<br />
werden diese Stücklistenbaukästen meistens direkt als Auswahlvariante<br />
verwendet.<br />
Manchmal ist der redaktionelle Aufwand deutlich geringer, wenn alle<br />
möglichen Varianten in einer zusammenhängenden Unterlage beschrieben<br />
werden können und nicht für jede Variante eine separate Unterlage<br />
erstellt werden muss. In einer solchen varianten Unterlage werden<br />
dann die einzelnen Abschnitte variantenspezifisch gekennzeichnet. Bei<br />
Ersatzteildokumentation werden z. B. innerhalb einer varianten Unterlage<br />
die einzelnen Bauteile nur in Verbindung mit der zugehörigen<br />
technischen Variantenbedingung angezeigt, die direkt aus dem PLM-<br />
System übernommen wird.<br />
Aufbau des Auswahlmoduls<br />
Aus den Auftragsdaten ergeben sich die zu einer Druckmaschine zugehörigen<br />
Konfigurationsmodule bzw. die kundenspezifische Interaktionsoberfläche<br />
sowie die kundenspezifisch relevante Dokumentenmenge.<br />
Da im Redaktionssystem alle Dokumente neben der Auswahlvariante<br />
auch mit einem Stücklistenreferenzbaukasten versehen werden, ist<br />
durch die produktspezifische Stückliste auch exakt die benötigte Dokumentenmenge<br />
für jede Produktvariante bestimmt.<br />
Das kundenspezifische Auswahlmodul enthält also eine auftragsbezogene<br />
Dokumentenmenge sowie eine auftragsbezogene Interaktionsoberfläche,<br />
die in Verbindung mit dem Sammeldatenträger eine individuelle,<br />
auftragsspezifische Dokumentation ergibt.<br />
Herausforderungen in der Praxis<br />
„Last Minute Änderungen“ am Auftrag oder Umrüstungen an bereits<br />
ausgelieferten oder installierten Druckmaschinen können mit<br />
diesem Konzept dadurch gelöst werden, dass ein neu generiertes<br />
110<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Auswahlmodul aufgrund des geringen Datenumfangs auch per „download“<br />
bereitgestellt werden kann und mit dem bereits ausgelieferten<br />
Sammeldatenträger eine neue Dokumentation ergibt, die dem neuen<br />
bzw. geänderten Auftrag mit geänderten Varianten entspricht.<br />
für Rückfragen: michael.brand@heidelberg.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
111
Informationsdesign<br />
INF 3<br />
Fachvortrag<br />
Responsive Webdesign<br />
Margit Becher, Hochschule Hannover<br />
Webseiten werden heute auf einer Vielzahl unterschiedlichster Geräte<br />
betrachtet. Dazu gehören Breitbildmonitore ebenso wie Smartphones.<br />
Laut Gartner Research wird es 2013 mehr Webzugriffe durch mobile<br />
Geräte als durch Desktopcomputer geben [1].<br />
Viele Websites basieren noch auf einem statischen Grid-Layout, optimiert<br />
für eine Auflösung von 1024 x 768 px, für mobile Geräte wurde/<br />
wird häufig eine mobile Version in einer Subdomain erstellt. Mit einer<br />
Vielzahl unterschiedlichster Geräte entsteht jedoch ein nicht vertretbarer<br />
Pflegeaufwand. Zudem sollte bedacht werden, dass viele Nutzer<br />
mehr als zwei Geräte parallel verwenden (Multiscreen Szenario), daher<br />
sollten Websites so gestaltet werden, dass es für den Nutzer keinen<br />
Unterschied macht, über welches Gerät er Informationen abruft. Konsistentes<br />
Design, d. h. insbesondere der grundlegende Aufbau und die<br />
Navigationsmechanismen, sollten für den Nutzer erkennbar bleiben.<br />
Gleichzeitig sollte aber auch stets der Nutzungskontext berücksichtigt<br />
werden.<br />
Responsive bedeutet „auf jemanden eingehen“, „reaktionsfähig bleiben“.<br />
Responsive Webdesign wurde bekannt durch einen Artikel von<br />
Ethan Marcotte [2]. Es bezeichnet eine Technik im Webdesign, bei der<br />
sich das Layout einer Webseite selbstständig und dynamisch an die Fähigkeiten<br />
des Endgerätes, z. B. Größe, Auflösung, anpasst.<br />
Vorgehensweise<br />
Responsive Design ist kein mobiles Design, sondern ein Design für<br />
alle Geräte. Daher sollte bei der Planung der Website zuerst der Inhalt<br />
(„Content First“, „Content Driven“) betrachtet werden und dann erst das<br />
Layout. Dies bedeutet konkret:<br />
−−<br />
Inhaltselemente definieren, Inhalte kategorisieren, nach ihrer Bedeutung<br />
sortieren und gruppieren.<br />
−−<br />
Breakpoints definieren. Dies sind die Stellen, an denen sich das Layout<br />
einer Website ändert, wenn die Inhalte auf Geräten mit unterschiedlich<br />
großen Displays dargestellt werden (s. Abb. 1).<br />
−−<br />
Verhaltensweise der Inhaltselemente auf verschieden großen Ausgabebildschirmen<br />
(wird dieser Inhalt benötigt, in welchem Detaillierungsgrad,<br />
evtl. nur als Link?) festlegen.<br />
−−<br />
Navigationsstruktur planen.<br />
Bezüglich der Navigationsstruktur erfordern mobile Geräte eine besondere<br />
Aufmerksamkeit: Buttons müssen groß genug sein, Dropdownmenüs<br />
dürfen nicht vom Hover-Effekt abhängig sein. Tipps finden sich in<br />
[3].<br />
112<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Abb. 1: Breakpoints und Anpassung von Inhaltselementen<br />
Viele Entwickler empfehlen bei der Konzeption den „Mobile First“-Ansatz.<br />
Statt vom Desktoprechner auszugehen und Inhalte auszublenden<br />
bzw. zu verkleinern, wird beim kleinsten Gerät gestartet. So erkennt<br />
man die zentralen Inhalte, die, die auf keinen Fall wegelassen werden<br />
können und in jeder Situation funktionieren müssen. Zudem ist es<br />
deutlich einfacher Details hinzuzufügen, als diese später entfernen zu<br />
müssen.<br />
Technische Umsetzung<br />
In CSS2 wurden bereits Medientypen (z. B. print, screen) eingeführt [4].<br />
Hiermit können spezielle Regeln für das Zielmedium notiert werden.<br />
CSS3 Media Queries haben seit Juni <strong>2012</strong> den Status „W3C Recommendation“<br />
[5]. Media Queries sind logische Ausdrücke, die die Angabe<br />
von Medientypen und bestimmten Medienmerkmalen (media features)<br />
miteinander verknüpfen, d. h., es werden Bedingungen formuliert,<br />
z. B. für die Fenstergröße des Browsers, bei deren Erfüllung bestimmte<br />
Stylesheet-Regeln angewandt werden. Somit erhält jedes Gerät spezifischen<br />
CSS-Code.<br />
Die wichtigsten Media Features sind:<br />
−−<br />
width, min-width, max-width: Breite, minimale bzw. maximale Breite<br />
des Browserfensters<br />
−−<br />
height, min-height, max-height: Höhe, minimale bzw. maximale Höhe<br />
des Browserfensters<br />
−−<br />
device-width, min-device-width, max-device-width: Breite, minimale<br />
bzw. maximale Breite des Gerätes<br />
−−<br />
device-height, min-device-height, max-device-height: Höhe, minimale<br />
bzw. maximale Höhe des Gerätes<br />
−−<br />
orientation: Ausrichtung des Gerätes (portrait oder landscape)<br />
−−<br />
resolution: Auflösung des Gerätes<br />
Abb. 2 zeigt Beispiele zur Verwendung von Media Queries.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
113
Informationsdesign<br />
Abb. 2: Beispiele für CSS Media Queries<br />
Damit die Umsetzung eines Responsive Designs funktioniert, ist noch<br />
Folgendes zu beachten:<br />
−−<br />
Keine festen Grid-Layouts: stattdessen Fluid-Grids (%-Angaben statt<br />
Pixel) verwenden.<br />
−−<br />
Keine festen Schriftgrößen: Schriftgrößen und Zeilenhöhen auf Basis<br />
von % und/oder em definieren.<br />
−−<br />
Keine festen Bildgrößen: Bilder sollten skaliert werden, evtl. ist hierfür<br />
JavaScript notwendig.<br />
−−<br />
HTML5 verwenden.<br />
Testen<br />
Für einen ersten Test eignen sich Online-Tools, z. B. The Responsinator<br />
[6]. Nach Eingabe der URL wird die Anzeige auf verschiedenen Geräten<br />
parallel simuliert, eine Navigation innerhalb der Webseiten ist<br />
möglich. Ein Online-Tool ersetzt natürlich nicht den „echten“ Test auf<br />
verschiedensten Geräten. Erleichtert wird der Test, wenn das kostenlose<br />
Programm Adobe Shadow [7] eingesetzt wird. Auf dem Desktoprechner<br />
wird das Programm und die entsprechende Erweiterung für den<br />
Browser Google Chrome installiert, auf jedem mobilen Gerät die Adobe<br />
Shadow App. Nun wird jede Webseite, die auf dem Desktoprechner<br />
aufgerufen wird, automatisch auch auf allen mobilen Geräten angezeigt.<br />
Ein integrierter Remote Debugger ermöglicht die Anzeige des DOM im<br />
mobilen Browser. Weiterhin können auf den Mobilgeräten Screenshots<br />
erstellt werden, die automatisch auf dem Desktoprechner gespeichert<br />
werden.<br />
Beispiele<br />
Abb. 3 zeigt einen Preview (über The Responsinator erstellt) der Webseite<br />
des CSS-Frameworks YAML [8] in 2 verschiedenen Versionen:<br />
links für ein iPad, rechts für ein iPhone. Eine umfangreiche Sammlung<br />
von Websites, die Responsive Webdesign umsetzen, wird von Eivind<br />
Uggedal unter mediaqueries.es [9] zur Verfügung gestellt.<br />
114<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Abb. 3: Verschiedene Ansichten von www.yaml.de<br />
Probleme<br />
Werden alle Inhalte geladen und Teile davon durch die CSS-Eigenschaft<br />
display:none versteckt und Bilder erst durch den Browser auf die passende<br />
(kleinere) Größe skaliert, kann es auf mobilen Geräten Performance-Probleme<br />
geben.<br />
Quellen<br />
[1] http://thenextweb.com/mobile/2011/01/06/<br />
the-great-rise-of-the-mobile-web/<br />
[2] Marcotte, E.: Responsive Webdesign. http://www.alistapart.com/<br />
articles/responsive-web-design/<br />
[3] http://www.elmastudio.de/webdesign/<br />
webseiten-navigationen-in-responsive-webdesigns-analysiert/<br />
[4] http://www.w3.org/TR/CSS21/media.html<br />
[5] http://www.w3.org/TR/css3-mediaqueries/<br />
[6] http://www.responsinator.com/<br />
[7] http://labs.adobe.com/technologies/shadow/<br />
[8] http://www.yaml.de<br />
[9] http://mediaqueri.es/<br />
für Rückfragen: margit.becher@fh-hannover.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
115
Informationsdesign<br />
INF 4<br />
Fachvortrag<br />
Variantenmanagement in der<br />
Technischen Dokumentation<br />
Elke Grundmann, Comet Communication GmbH, München<br />
Die Welt ist bunt, vielfältig und komplex, die Ansprüche und Bedürfnisse<br />
der Konsumenten sind es ebenso. Produkte müssen diesen Ansprüchen<br />
gerecht werden, wollen sie sich am Markt behaupten. Kunden<br />
warten heute nicht mehr jahrelang auf die Zuteilung eines Autos und<br />
sind zufrieden, wenn dieses vier Räder und ein Lenkrad hat. Viele weitere<br />
Details müssen stimmen: Technische Ausstattung, Leistungsfähigkeit,<br />
Design, Farbe etc. – schließlich will sich der einzelne Mensch von<br />
der Masse seiner Mitmenschen abheben.<br />
Automobilhersteller wie Audi starten in den 80er Jahren mit einem<br />
Audi 80, heute wird alleine der Audi A3 in 192 Varianten angeboten. In<br />
Kombination mit den möglichen Sonderausstattungen wird deshalb nur<br />
noch selten ein exakt gleiches Fahrzeug innerhalb eines Tages gebaut.<br />
Diesem Marktdruck ist nicht nur die Automobilindustrie ausgesetzt, er<br />
gilt für andere Branchen in gleicher Weise.<br />
Vielfältigste Kundenwünsche sollen individuell bedient werden. Viele<br />
ähnliche Produkte verursachen aber auch hohe Kosten und ein noch<br />
so zufriedener Kunde bringt gar nichts, wenn mit dem Verkauf eines<br />
Produktes kein Gewinn mehr erzielt werden kann. Um nicht in so eine<br />
Variantenfalle zu geraten, ist ein Variantenmanagement überlebenswichtig.<br />
Konzepte für Variantenmanagement haben im Maschinenbau<br />
eine lange Tradition und spielen auch in anderen Branchen eine immer<br />
größere Rolle. Diese Entwicklung hat auch Auswirkungen auf die Technische<br />
Dokumentation.<br />
Vom Maschinenbau lernen<br />
Die Kosten für die Varianten in der Technischen Dokumentation werden<br />
kaum gemessen, allerdings gilt hier das gleiche Prinzip wie in anderen<br />
Bereichen: je höher die Variantenanzahl, desto höher die Kosten.<br />
Man unterscheidet in der TD zwischen:<br />
−−<br />
Strukturvarianten (Die Dokumente unterscheiden sich hinsichtlich<br />
der Struktur)<br />
−−<br />
Modulvarianten (Die Dokumente unterscheiden sich in einzelnen<br />
Modulen)<br />
−−<br />
Fragmentvarianten (Die Dokumente unterscheiden sich in einzelnen<br />
Fragmenten innerhalb eines Moduls)<br />
Um die Kosten zu begrenzen, hat sich ein Variantenmanagement in der<br />
Technischen Dokumentation bewährt.<br />
Ziele eines Variantenmanagements<br />
Technische Dokumentation wird im Hinblick auf folgende drei Ziele<br />
analysiert:<br />
Sortimentbereinigung: Welche Varianten haben für den Anwender<br />
einen Nutzen, welche können ganz entfallen, welche kann man sinnvollerweise<br />
mit anderen Varianten zusammenführen? Mögliche Konsequenzen<br />
aus dem Analyseergebnis können sein:<br />
116<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
−−<br />
technische Details auslagern, z. B. in eine Tabelle mit Technischen<br />
Daten<br />
−−<br />
überflüssige Inhalte löschen und abstrahieren<br />
−−<br />
einheitliche Terminologie verwenden<br />
Modularisierung und Wiederverwendung: Auf Basis des Analyseergebnisses<br />
wird ein Modularisierungskonzept entwickelt, das die verschiedenen<br />
Ebenen Struktur, Modul und Fragment berücksichtigt.<br />
Variantenbildung bei der Publikation: Die Publikation von verschiedenen<br />
Dokumentvarianten kann schon im Vorfeld durch unterschiedliche<br />
Verfahren (z. B. durch Festlegen von Stücklisten oder Filterkriterien)<br />
wirtschaftlich gesteuert werden. Dabei entscheidet nicht die<br />
Technische Redaktion während der Erstellung, welche Module in einem<br />
bestimmten Dokument verwendet werden müssen. Diese Festlegungen<br />
werden im CMS hinterlegt. Die gewünschte Dokumentvariante wird<br />
anschließend gemäß den gewählten Kriterien erzeugt.<br />
Variantenmanagement<br />
mit MS Word<br />
Variantenmanagement<br />
mit CMS, Beispiel<br />
Author-it<br />
Realisierung mit verschiedenen Werkzeugen<br />
Die Umsetzung eines Variantenmanagements ist stark abhängig von<br />
den Möglichkeiten des gewählten Werkzeugs.<br />
Variantenmanagement mit MS Word ist möglich, aber nicht so komfortabel<br />
wie mit einem CMS. Um Strukturvarianten zu realisieren, modularisieren<br />
Sie Ihre Inhalte, indem Sie pro Kapitel eine Word-Datei anlegen.<br />
Erstellen Sie pro Variante sowie für wiederverwendete Inhalte ein<br />
Verzeichnis und speichern Sie die Modulvarianten unter dem gleichen<br />
Namen im Variantenverzeichnis. Fragmentvarianten, beispielsweise<br />
Warnhinweise, speichern Sie als Textbausteine mit Textmarken und<br />
referenzieren diese mittels der Feldfunktion IncludeText.<br />
Alternativ können Sie auch alle Module als einzelne Dateien anlegen<br />
und diese in Stücklisten mit MS Excel verwalten. Mit einem VBA Makro<br />
erzeugen Sie aus dieser Excel-Stückliste die variantenabhängigen<br />
Dokumente.<br />
Wesentlich effizienter lässt sich ein Variantenmanagement mit einem<br />
CMS wie Author-it umsetzen. In Author-it erstellen Sie Varianten von<br />
Büchern und Topics, um Struktur- oder Modulvarianten zu erzeugen.<br />
Aus dem ursprünglichen Objekt (Standardobjekt) wird so ein „Primary-<br />
Objekt“, das als solches in Author-it gekennzeichnet wird und als Basis<br />
dient. Sie legen fest, in welchen Modulen (Topics) welche Fragmente<br />
(eingebettete Topics) oder welche Grafikvarianten nötig sind. Bei der<br />
Publikation wählen Sie die Varianten aus und erhalten – ohne Nacharbeit<br />
– automatisch ein variantenspezifisches Dokument.<br />
Kontakt: grundmann@comet.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
117
Informationsdesign<br />
INF 6<br />
Fachvortrag<br />
Häufige Probleme<br />
Eine Methode zum<br />
Erlernen von Software<br />
Grundgedanken<br />
Grundprinzipien<br />
Minimalism neu gedacht oder was gehört<br />
eigentlich in eine Dokumentation rein?<br />
Martin Holzmann, ARAKANGA GmbH, Hanau<br />
Viele Dokumente erfüllen ihren Zweck nicht. Diese Dokumente sind mit<br />
viel Aufwand erstellt mit dem einzigen Resultat, dass Nutzer mit Informationen<br />
überfüllt werden, sie diese aber nicht nutzen können:<br />
−−<br />
Fachinformationen, in denen alle Details eines neuen oder geänderten<br />
Produktes beschrieben sind.<br />
−−<br />
Bedienungsanleitungen, in denen alle möglichen Funktionen in Form<br />
von Anleitungen beschrieben sind.<br />
−−<br />
Bedienungsanleitungen, die mit Hinweisen und Tipps und ergänzenden<br />
Informationen gespickt sind.<br />
Minimalism nach John M. Carroll<br />
Minimalism ist ein methodischer Ansatz zum Erstellen von Anwenderdokumentation<br />
– primär Softwaredokumentation – zum Zweck des<br />
Lernens. Die Methode wurde von John M. Carroll am IBMs User Interface<br />
Institute entwickelt und ist von ihm im Buch „ The Nürnberg<br />
Funnel: Designing Minimalist Instruction for Practical Computer Skill<br />
(Technical Communication, Multimedia, and Information Systems)“<br />
beschrieben.<br />
Ausgangspunkt war die Erkenntnis, dass Nutzer einer Software nicht<br />
zuerst umfangreiche Systembeschreibungen durcharbeiten, bevor sie<br />
die Software verwenden. Nutzer tendieren dazu, Software direkt zu<br />
verwenden und erst dann auf die Dokumentation zuzugreifen, wenn<br />
sich ihnen diese nicht erschließt, sie also Fehler machen oder ihr Ziel<br />
nicht erreichen. Daraus ergibt sich, dass die Dokumentation nicht<br />
primär vollständig sein muss – also alle nur denkbaren Aspekte der<br />
Anwendung beschreiben muss – sondern dass sie den Nutzer in einer<br />
Lernphase beim Lösen seiner Probleme helfen soll. Nutzer wollen nicht<br />
lesen, sondern handeln.<br />
Die wichtigsten Prinzipien des Minimalism<br />
−−<br />
Konkrete Aufgabenorientierung: Anwender wollen etwas tun, eine<br />
Aufgabe oder ein Problem lösen. Das Dokument muss dem Anwender<br />
beim Lösen der Aufgabe helfen, nicht ein System beschreiben.<br />
−−<br />
Anwenderziele und Aufgaben erkennen: Aufgabenorientierung setzt<br />
Zielgruppenkenntnis voraus. Vorhandenes Wissen muss nicht vermittelt<br />
werden.<br />
−−<br />
Weniger ist mehr: Nur Informationen geben, die Anwender beim<br />
Ausprobieren, Entdecken und Anwenden von Funktionen unterstützen.<br />
Anwender sind denkende Menschen – sie bilden sich beim Ausprobieren<br />
ihr eigenes mentales Modell, wie etwas funktioniert. Keine<br />
ermüdenden Details. Kurz schreiben – keine Füllworte etc.<br />
−−<br />
Topicorientierung: Wissen wird topicweise/themenweise vermittelt.<br />
Jeder Topic ist für sich selbst verständlich. Es gibt keine zwingende<br />
Lesereihenfolge zwischen den Topics.<br />
−−<br />
Fehlertoleranz: Informationen geben, die dem Anwender im Problemfall<br />
einen Lösungsweg aufzeigen.<br />
118<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
−−<br />
Testen des Resultats: Die Dokumente müssen Anwendungstest unterzogen<br />
werden. Die Erkenntnisse der Tests müssen wieder in die Dokumente<br />
eingearbeitet werden. Die Dokumente müssen anschließend<br />
ggf. wieder getestet werden (iterativer Prozess).<br />
Warum muss<br />
Minimalism neu<br />
gedacht werden?<br />
Der Lösungsansatz<br />
Ziele festlegen<br />
Inhalte festlegen<br />
Gruppieren und<br />
sequenzieren<br />
Einheitlich Gestalten<br />
und Formulieren<br />
Minimalism neu gedacht<br />
Wie beschrieben ist Minimalism eine Methode zum Erlernen von Software.<br />
Aber auch außerhalb der Domäne der Softwaredokumentation<br />
sind Nutzer von Informationen meist daran interessiert, schnell bestimmte<br />
Aufgaben zu lösen – Lesen von Dokumenten ist dabei ein notwendiges<br />
Übel, das Lesen ist aber nie das Ziel der Aktivität. Umfangreiche,<br />
komplizierte und unübersichtliche Dokumente schrecken ab,<br />
kosten Zeit und sind damit auch teuer – sie führen zu Fehlern, falschen<br />
Entscheidungen und verschwenden die Arbeitszeit von Mitarbeitern in<br />
Unternehmen. Minimieren der Dokumentation ist also ein – schon aus<br />
wirtschaftlichen Erwägungen heraus – anzustrebendes Ziel. Die Regeln,<br />
die für Softwaredokumentation/Lernsituationen aufgestellt wurden,<br />
lassen sich aber nicht 1:1 auf andere Bereiche übertragen – ein neuer<br />
Ansatz ist erforderlich.<br />
Unabhängig davon, welche Art Information erstellt werden soll, ist ein<br />
methodischer Lösungsansatz erforderlich, mit dessen Hilfe bestimmt<br />
werden kann, welche Informationen der Nutzer benötigt und welche<br />
nicht. Die folgenden 4 Schritte führen zu diesem Ziel:<br />
1. Ziel festlegen<br />
2. Inhalte festlegen<br />
3. Gruppieren und sequenzieren<br />
4. Einheitlich gestalten und formulieren<br />
Um die Ziele festzulegen, müssen die folgenden Fragen beantwortet<br />
werden:<br />
−−<br />
Für wen ist die Information?<br />
−−<br />
Wozu dient sie?<br />
Dies ist der wichtigste Schritt. Nur wenn der Ersteller weiß, wozu der<br />
Nutzer die Information benötigt, kann er entscheiden, welche Informationen<br />
für den Nutzer relevant sind.<br />
Um die Inhalte festzulegen, muss die folgende Frage beantwortet<br />
werden:<br />
−−<br />
Welche Informationen sind für das Erreichen der Ziele erforderlich?<br />
Das Beantworten dieser Frage führt zu einer an der Aufgabe gespiegelten<br />
Informationsmenge. Überflüssiges wird vermieden.<br />
Um die Gruppierung und Sequenzierung festzulegen, müssen die folgenden<br />
Fragen beantwortet werden:<br />
−−<br />
Welche Informationen gehören zusammen?<br />
−−<br />
In welcher Reihenfolge müssen die Informationen vermittelt werden,<br />
damit der Nutzer mentale Modelle aufbauen kann?<br />
Nachdem die notwendigen Informationen und deren notwendige Gruppierung/Sequenzierung<br />
erkannt sind, müssen passende Gestaltungsund<br />
Formulierungsmuster erstellt werden, die dann einheitlich auf die<br />
gesamte Informationsmenge angewendet werden. Die Muster sollen<br />
sich an bewährten und idealerweise erprobten Beispielen orientieren.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
119
Informationsdesign<br />
Resultat<br />
Alle entstehenden Informationen müssen immer am ersten Schritt gespiegelt<br />
werden: Sind sie für die Zielgruppe relevant und für die Aufgabe<br />
erforderlich?<br />
Das konsequente Ausfiltern überflüssiger Informationen durch die methodische<br />
Vorgehensweise minimiert den Umfang der erstellten Information.<br />
Das Nutzen von Gestaltungsmustern sorgt für eine einheitliche<br />
Gestaltung auch in größeren Gruppen. Nutzer erhalten nur noch die<br />
Informationen, die sie benötigen, und sparen dadurch Zeit<br />
Das Vorgehensmodel ist unabhängig von der Art der zu erstellenden<br />
Information und damit universell einsetzbar.<br />
für Rückfragen: martin.holzmann@arakanga.de<br />
120<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
INF 7<br />
Partnerpräsentation<br />
Allgemein<br />
In einer Organisation<br />
Unterwegs auf der eigenen Wissenslandkarte<br />
Diana Fuchs, SEW-EURODRIVE GmbH & Co KG, Bruchsal<br />
Alexander Gassmann, TTS GmbH, Heidelberg<br />
Zur Wissenslandkarte<br />
Eine Wissenslandkarte stellt Wissen grafisch dar. Unterschiedliche<br />
Wissensbereiche werden als „Länder“ dargestellt, mit Farben kann<br />
man unterschiedliche Wissensstände darstellen. Erstellt man eine<br />
Wissenslandkarte für sein eigenes Wissen, zeigt sie, welche Bereiche<br />
man beherrscht, wo man noch Schwächen hat oder was man sich noch<br />
aneignen möchte. Auch Verbindungen zwischen unterschiedlichen<br />
Wissensbereichen sind beispielsweise durch Flüsse visualisierbar. So<br />
ermöglicht die Landkarte außerdem eine strukturierte visuelle Darstellung<br />
des Lernprozesses.<br />
Die Wissenslandkarte jeder Person – und daher auch jedes Mitarbeiters<br />
in einem Unternehmen – sieht anders aus. Jeder hat ein anderes Wissen<br />
und möchte sich anders entwickeln. In einer Organisation besteht die<br />
Landkarte aber zum Teil aus gleichen Bereichen – den „Ländern“ –, da<br />
z. B. mehrere Mitarbeiter das Wissen zu einem Produkt benötigen.<br />
Ausgangssituation<br />
Unsere Aufgabe ist es, die Reisen unserer Mitarbeiter in unbekannte<br />
Gebiete ihrer Wissenslandkarte zu ermöglichen und zu planen. Dies tun<br />
wir in einem Blended-Learning-Ansatz, d. h., wir mischen unterschiedliche<br />
Lernformen für die Aus- und Weiterbildung unserer Mitarbeiter.<br />
In diesem Vortrag geht es um die Lernmittel, mit denen eigenverantwortlich<br />
gelernt wird, beispielsweise E-Learning-Einheiten. Bei diesen<br />
Lernmedien ist es noch wichtiger als bei Präsenztrainings, dem Lerner<br />
gerecht zu werden. In einem Präsenztraining ist der Trainer in Interaktion<br />
mit dem Lerner und kann spontan auf ihn reagieren. Diese Möglichkeit<br />
haben wir im Selbstlernbereich nicht, daher sollten die Interaktionen<br />
möglichst sorgfältig vorgeplant werden.<br />
Die Persona-Methode<br />
Wissen, wo man hinmöchte<br />
Je nach Zielgruppe sind unterschiedliche Länder auf der Wissenslandkarte<br />
interessant; insbesondere unterschiedliche „Regionen“ dieser<br />
Länder. Denn nicht jeder muss alles über ein Produkt wissen. Um<br />
denjenigen, den wir auf die Wissensreise schicken möchten, besser<br />
kennenzulernen, haben wir uns für die Zielgruppenanalyse nach der<br />
„Persona“-Methode entschieden.<br />
Die Persona ist eine Beschreibung einer fiktiven, archetypischen Person<br />
aus der Zielgruppe mit ihrem Arbeitsumfeld, aber auch ihrem privaten<br />
Umfeld und ihren Ansichten, ihrem Charakter.<br />
Für das Training wichtige Größen bei den Personas sind:<br />
−−<br />
Eine Status-quo-Bestimmung, um das Vorwissen konkret abbilden zu<br />
können.<br />
−−<br />
Eine genaue Aufgaben- und Schnittstellenbeschreibung, um ein<br />
Wissensprofil davon ableiten zu können. Das Wissensprofil ist die<br />
Grundlage für das Training und beantwortet die Frage: Was muss<br />
man wissen, um diese Aufgabe ausführen zu können?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
121
Informationsdesign<br />
Prozess als Rückgrat der<br />
Reisedokumentation<br />
Überblick verschaffen<br />
Interessengebiete<br />
erkunden<br />
Lernobjektstruktur<br />
für beste Effizienz der<br />
Reisedokumentation<br />
−−<br />
Ein Verständnis für den Tagesablauf der Person, um entscheiden zu<br />
können, wie lange Lerneinheiten dauern können, und einzuschätzen,<br />
wann sie vom Lerner bearbeitet werden.<br />
−−<br />
Hintergrundinformationen zur Person, wie private Umstände, um die<br />
Sprache der Zielgruppe sprechen zu können. Das schafft Glaubwürdigkeit<br />
und Akzeptanz, damit der Lernende sich auf das Lernmaterial<br />
einlässt.<br />
Die Unternehmensprozesse eignen sich gut als „Rückgrat“ der Lerninhalte.<br />
Folgende Vorteile ergeben sich:<br />
−−<br />
Den Mitarbeitern im Unternehmen sind diese Prozesse geläufig.<br />
−−<br />
Ein vorhergehende Trainingsbedarfsanalyse ermöglicht eine saubere<br />
Planung und Strukturierung des Wissens.<br />
−−<br />
Durch eine Struktur nach Lernobjekten, die im Prozessbaum geglie<br />
dert werden, kann eine redundanzfreie Trainingsdokumentation<br />
aufgebaut werden.<br />
−−<br />
Die prozessorientierte Strukturierung macht es bei Änderungen im<br />
System einfach zu ermitteln, welche Lernobjekte angepasst werden<br />
müssen.<br />
−−<br />
Eine Aktivierung von Rollenfiltern ermöglicht es einem Mitarbeiter;<br />
in einer gewissen Rolle nur die Trainingsinhalte zu sehen, die ihn<br />
betreffen.<br />
Die Reisevorbereitung<br />
Um so nah wie möglich an ein ideales Lernszenario für unsere Zielgruppen<br />
heranzukommen, haben wir ein Modularisierungskonzept erarbeitet,<br />
das der Wissenstiefe, dem Thema und den Lernanforderungen<br />
der Zielgruppen gerecht wird.<br />
Bevor die Reise losgeht, verschafft sich der Lerner einen Überblick –<br />
im übertragenen Sinne macht er auf jeden Fall die Sightseeing-Tour.<br />
Das hat zwei Vorteile: Egal welches Vorwissen jemand hat, er kann die<br />
Inhalte verstehen. Diejenigen, die sich noch tieferes Wissen aneignen<br />
möchten, haben Anknüpfungspunkte für spätere Informationen.<br />
Für diejenigen, die mehr als eine Sightseeing-Tour benötigen, gibt es<br />
verschiedene Schwerpunkte: Je nach Profil arbeitet sich der Lerner<br />
tiefer in bestimmte Regionen des „Landes“ ein.<br />
In unserem Konzept sind es die Kategorien Technik, Verkaufen, Service<br />
und noch einige Antriebstechnik-spezifische Punkte. Überlegen Sie, für<br />
welche Tätigkeit die Mitarbeiter die Informationen zu einem Produkt in<br />
Ihrem Unternehmen brauchen, und die Kategorien, die für Sie passend<br />
sind, werden sich Ihnen erschließen.<br />
Diverse Reiseveranstalter werden dasselbe Hotel in ihrem Prospekt haben.<br />
Wäre es nicht effizienter, wenn jeder Veranstalter in dem Reiseplan<br />
einen Link auf eine standardisierte und optimale Beschreibung des<br />
Hotels hätte? Genau dieses ermöglicht die Lernobjektstruktur:<br />
−−<br />
In dem Wissenspool werden sukzessiv Lernobjekte aufgebaut (E-<br />
Learning Sequenzen, Dokumente oder Links auf Wissen).<br />
−−<br />
Auf dem Wissenspool wird eine Strukturierung aufgesetzt nach Prozessen,<br />
Themen oder Kursen.<br />
−−<br />
Auf den Wissenspool kann auch direkt zugegriffen werden durch<br />
kontextsensitive Onlinehilfe (analog zum Scannen eines Barcodes<br />
122<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Template-Konzepte<br />
für beste Effizienz<br />
der Reiseunterlagenerstellung<br />
Krisengebiete<br />
bergen Gefahren<br />
Krisengebiete meiden<br />
auf der Werbung eines Veranstalters) oder durch Suche (Stichwort im<br />
Portal des Veranstalters).<br />
Bei dem Erstellen der Reiseunterlagen kann der Autor auf einem weißen<br />
Blatt Papier beginnen. Er hat dann aber maximal viel zu tun bezüglich<br />
der Inhalte, der Struktur und der Form seines Dokuments. Er wird<br />
sehr viel schneller sein bei Verwendung von vorgeplanten Templates:<br />
−−<br />
Es kann sinnvoll sein, ein System zu verwenden, das Inhalt und Form<br />
logisch trennt, so dass eine Anpassung der Form im Nachhinein sehr<br />
einfach wird.<br />
−−<br />
Die Vorstrukturierung sollte anwendbar sein auf Objekte (verwendete<br />
Bilder oder Textfelder), Seiten (vorgefertigte Seite mit Einleitung,<br />
Zusammenfassung, Fragen, Tabellen) und ganze Dokumente (Reisewerbung,<br />
Reiseprospekt, detaillierte Reiseunterlage).<br />
−−<br />
Durch diesen Ansatz kann sich der Reiseleiter auf die Inhalte konzentrieren<br />
und braucht sich nicht mehr um die Form bemühen. Dies<br />
macht ihn effizienter.<br />
−−<br />
Durch diesen Ansatz kann ein erzeugtes Lernobjekt nachträglich in<br />
einer ganz anderen Form publiziert werden, z. B. bei Wiederverwendung<br />
des Inhalts durch eine andere Reiseagentur.<br />
Die Reise beginnt<br />
Es gibt Krisengebiete, in die Sie als Autor Ihren Wissensreisenden keinesfalls<br />
schicken sollten. Diese Gebiete bergen im Wesentlichen folgende<br />
Gefahren:<br />
−−<br />
Verständigungsprobleme: Wenn Sie nicht die Sprache Ihres Lerners<br />
sprechen und zu wenig oder das falsche Anschauungsmaterial liefern,<br />
wird er Sie nicht verstehen. Ohne das Verstehen kann nachhaltiges<br />
Lernen nicht stattfinden. Es entsteht Frust beim Lerner – er<br />
bricht die Reise ab.<br />
−−<br />
Akute Unlust: Ist die Motivation zum Lernen die falsche, besteht nur<br />
geringe Aussicht auf Erfolg. Das neu erworbene Wissen direkt anwenden<br />
zu können, ist die beste Motivation zum Lernen.<br />
−−<br />
Stress oder Langeweile: Ist die Lernkurve zu steil oder zu flach, fühlt<br />
sich der Lerner über- bzw. unterfordert. In beiden Fällen entsteht<br />
Frust und er wird die Reise abbrechen.<br />
Sie können diese Gefahren meiden, indem Sie:<br />
−−<br />
Lernziele und dazu passende Inhalte strukturiert in einem Drehbuch<br />
und Storyboard erfassen, bevor Sie mit der Umsetzung beginnen.<br />
So vermeiden Sie, zu viel, zu wenig oder unpassenden Inhalt in die<br />
Lerneinheit einzuarbeiten.<br />
−−<br />
Die Informationen so oft wie möglich in einen Arbeitskontext setzen.<br />
−−<br />
Übungen zu den neuen Informationen anbieten, so dass das Wissen<br />
gleich angewendet werden kann.<br />
−−<br />
Die Informationen so darstellen, dass sie optimal wahrgenommen<br />
werden können. Beispielsweise dem Lerner bekannte Bedienmuster<br />
aufgreifen, Interaktionen deutlich von Informationen unterscheidbar<br />
machen, dem Lerner die Orientierung im System so einfach wie möglich<br />
machen.<br />
−−<br />
Die Informationen so darstellen, dass sie auf die Zielgruppe abgestimmt<br />
sind. Beispielsweise Beispiele aus der „Welt“ der Zielgruppe<br />
als Erläuterung von Funktionsprinzipien nutzen, Vorlieben der Ziel-<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
123
Informationsdesign<br />
gruppe bei Anschauungsmaterial berücksichtigen (technikorientierte<br />
Mitarbeiter ziehen Realbilder Animationen vor), Vorwissen der Lerner<br />
berücksichtigen.<br />
−−<br />
Am Anfang Ihres Projektes die betroffenen Prozesse und Rollen genau<br />
analysieren, um daraus einen Inhaltsplan zu erzeugen, der nach<br />
Prozessen gegliedert ist. Dies ermöglicht die Vermeidung von doppelten<br />
Inhalten.<br />
−−<br />
Am Anfang Ihres Projektes die notwendigen Templates gut zu überdenken.<br />
Dies ermöglicht danach eine wesentlich schnellere Arbeit<br />
der Autoren.<br />
für Rückfragen:<br />
diana.fuchs.da-pt@sew-eurodrive.de<br />
alexander.gassmann@tt-s.com<br />
124<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
INF 8<br />
Workshop<br />
Informationsmodelle mit Hilfe von<br />
semantischen Elementen maßschneidern<br />
Brigitte Grether, Belimed Sauter AG, Sulgen<br />
Was ist ein Informationsmodell in der Technischen Dokumentation?<br />
Ein Informationsmodell für einen Dokumenttyp bildet die Struktur des<br />
Dokuments ab. Dabei kann man zwischen dem Makromodell (z.B. Dokument<br />
besteht aus Deckblatt, Impressum, Kapiteln und Abbildungsverzeichnis)<br />
und dem Mikromodell (z.B. jedes Kapitel besteht aus Titel<br />
und ein bis mehreren Absätzen, jeder Absatz kann aus Textkörper und<br />
Listen bestehen, jede Liste enthält ein bis mehrere Listeneinträge)<br />
unterscheiden. Das Informationsmodell kann, muss aber nicht in einer<br />
Document Type Definition (DTD) oder einer XML Schema Definition<br />
(XSD) umgesetzt werden. Auch wenn ein nicht XML-basiertes Textverarbeitungsprogramm<br />
verwendet wird, kann ein Informationsmodell<br />
für die Erstellung von Formatvorlagen hilfreich sein, wenn auch die<br />
Verschachtelung von Elementen ohne die Verwendung von XML in der<br />
Regel nicht dargestellt werden kann.<br />
Warum überhaupt ein neues Informationsmodell?<br />
Es gibt ja bereits bewährte Informationsmodelle für die Technische<br />
Dokumentation, wie DocBook, DITA oder PI-Mod. Auch die Hersteller<br />
von Redaktionssystemen liefern meistens eine brauchbare DTD oder<br />
XSD mit. Da müsste doch eigentlich eines passen, sollte man meinen,<br />
oder mit nur kleinen Anpassungen dazu gebracht werden, zu passen.<br />
Dennoch gibt es zwei Veranlassungen dafür, ein eigenes, neues Informationsmodell<br />
zu entwickeln:<br />
−−<br />
Man will einen neuen Dokumenttyp abbilden.<br />
−−<br />
Man will neue Wege gehen.<br />
Als Beispiel für einen neuen Dokumenttyp erwähne ich die Qualifizierungsdokumente<br />
für Anlagen für die Pharmaindustrie, die von unserer<br />
Dokumentationsabteilung ins Redaktionssystem übernommen werden<br />
sollten. Sie bestehen aus standardisierten Prüfanweisungen und Prüfprotokollen<br />
mit genauen Vorgaben für ihre Struktur. Mit dem vorhandenen<br />
Informationsmodell, der mit dem Redaktionssystem TIM-RS<br />
gelieferten FrameMaker-EDD, die auf Anleitungstexte ausgerichtet war,<br />
konnten sie nicht abgebildet werden.<br />
Was die neuen Wege betrifft, so bin ich zwar auch der Meinung, dass<br />
man nicht jeden Tag das Rad neu erfinden muss, aber ab und zu muss<br />
jemand die ausgetretenen Pfade verlassen und etwas ganz anders machen<br />
als bisher, sonst gibt es nie einen Fortschritt.<br />
Warum semantische Elemente verwenden?<br />
Die semantischen Elemente werden von Rockley (2003: 311f.) beschrieben.<br />
Rockley unterscheidet für jeden Dokumenttyp zwei Informationsmodelle:<br />
Das Informationsproduktmodell (Makromodell) zeigt die<br />
Grobstruktur des Dokumenttyps, das Elementmodell (Mikromodell) die<br />
vorkommenden Bausteintypen und die darin enthaltenen Elemente.<br />
Rockley verwendet die Bezeichnung «Element» nicht im Sinne eines<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
125
Informationsdesign<br />
XML-Elements, sondern im allgemeinen Sinne von Grundbestandteil,<br />
Komponente. Sie unterscheidet zwischen semantischen Elementen und<br />
nicht semantischen Elementen (semantic vs. base elements). Ein semantisches<br />
Element sagt etwas über den Inhalt und die Funktion seines<br />
Inhalts aus (Bsp.: Handlungsanweisung), während ein nicht semantisches<br />
Element nur etwas über die Struktur sagt (Bsp.: Liste). Rockley<br />
(2003: 319) empfiehlt, nach Möglichkeit semantische Elemente zu verwenden,<br />
insbesondere wenn in einem strukturierten Editor gearbeitet<br />
wird.<br />
Die Verwendung von semantischen Elementen bringt folgende Vorteile:<br />
−−<br />
Erleichterung beim Erfassen einer XML-Datei: Der Autor muss nicht<br />
umfangreiche Regeln beachten, sondern erkennt gleich an den Namen<br />
der Elemente, welche wann verwendet werden müssen.<br />
−−<br />
Mehr Möglichkeiten beim Verarbeiten einer XML-Datei: Textteile<br />
mit gleicher Struktur, aber unterschiedlicher Funktion können beim<br />
Publizieren unterschiedlich dargestellt werden. Falls man eine XML-<br />
Datei durch XSLT umwandeln will, hat man mit semantischen Elementen<br />
ebenfalls viel mehr Möglichkeiten.<br />
Wann passt das Informationsmodell für den Dokumenttyp?<br />
Es gibt nie eine einzige richtige Lösung. Es gibt aber bessere und<br />
schlechtere Lösungen. Eine gute Lösung zeichnet sich dadurch aus,<br />
dass sie die Wirklichkeit so genau abbildet, wie es für die Texterfassung<br />
und für die Verarbeitung des erfassten Texts nötig ist.<br />
Ein gutes Informationsmodell hat folgende Eigenschaften:<br />
−−<br />
Es fasst zusammen, was zusammengehört, und trennt, was nicht zusammengehört.<br />
−−<br />
Es behandelt Gleiches gleich und Ungleiches ungleich.<br />
−−<br />
Es ist eindeutig in der Benennung der Elemente.<br />
Nicht zuletzt ist das Erstellen von Informationsmodellen auch eine<br />
Sache der Übung und Erfahrung. Deshalb werden wir im Workshop an<br />
zwei Beispielen von Dokumenten verschiedene Informationsmodelle<br />
erarbeiten und danach gleich selber testen und vergleichen.<br />
Rockley, Ann (2003): Single Sourcing and Information Design. In: Albers,<br />
Michael J. / Mazur, Beth (Hrsg.): Content and Complexity. Information<br />
Design in Technical Communication. Mahwah, N.J: Lawrence Erlbaum,<br />
S. 307–335.<br />
brigitte.grether@bluewin.ch<br />
126<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
INF 10<br />
Tutorial<br />
Rollenverteilung<br />
im Projekt<br />
Anlass<br />
Spannungsfeld<br />
Wenn maximale Flexibilität gefragt<br />
ist: Redaktionsleitfaden für eine<br />
tagesaktuelle Support-Datenbank<br />
Johannes Dreikorn, doctima GmbH, Fürth<br />
Jörg Palm, DATEV eG, Nürnberg<br />
Zu unserem Tutorial hier eine Zusammenfassung der wichtigsten fachlichen<br />
Aspekte.<br />
−−<br />
Johannes Dreikorn (doctima): Begleitet als externer Berater die gesamte<br />
Konzeption des Leitfadens. Hauptaufgaben: Entwicklung der<br />
Regeln, Erstellung von Mustertexten, Konzeption und Erstellung des<br />
Redaktionsleitfadens als Dokument.<br />
−−<br />
Jörg Palm (DATEV): Als Spezialist für die Entwicklung sprachlicher<br />
Standards für die Service-Kommunikation bei DATEV mitverantwortlich<br />
für Definition und Prüfung der Regeln. Jetzt zuständig für<br />
die Weiterentwicklung des Leitfadens und die Einbindung der Regeln<br />
in das Sprachqualitätswerkzeug Acrolinx.<br />
Die Herausforderung: Spagat zwischen Vollständigkeit und Anwendbarkeit<br />
Von Anleitungen über steuerliche Fachinformationen bis hin zu Administrations-Know-how:<br />
In über 6.500 online abrufbaren Dokumenten<br />
versorgt der Softwarehersteller DATEV seine Kunden mit tagesaktuellen<br />
Support-Informationen.<br />
Im Zuge eines konzeptionellen und technischen Relaunches der Support-Datenbank<br />
soll der Redaktionsleitfaden überarbeitet werden. Die<br />
Ziele: Übersichtliche und wiedererkennbare Dokumentstrukturen, die<br />
den Lesern eine schnelle und sichere Orientierung ermöglichen. Und<br />
eine lesefreundliche Aufbereitung der (Detail-)Informationen, um den<br />
Handlungserfolg sicherzustellen.<br />
Der Leitfaden muss dabei einen Spagat vollbringen: Er soll einerseits<br />
klare Standards für alle regelungsbedürftigen Dokumentbereiche vorgeben<br />
(Primat der Vollständigkeit und Einheitlichkeit). Andererseits<br />
muss er als Regelwerk hinreichend flexibel sein, um den Autoren Raum<br />
zu geben für situationsbedingte Lösungen (Primat der Anwendbarkeit).<br />
Die Herausforderungen:<br />
−−<br />
Großes thematisches Spektrum der Support-Datenbank; es reicht von<br />
buchhalterischem Fachwissen („Korrekte Verbuchung des Frühstücks<br />
auf einer Reisekostenabrechnung“) bis hin zu EDV-technischen Fragen.<br />
−−<br />
Inhomogene Zielgruppen wie Führungskräfte, Sachbearbeiter, IT-<br />
Spezialisten. Sie alle sollen durch die Support-Datenbank in ihrem<br />
Informationsbedarf unterstützt werden.<br />
−−<br />
Unterschiedliche Informationsanlässe; die Support-Datenbank wird<br />
zu ganz unterschiedlichen Anlässen zu Rate gezogen: Bei der täglichen<br />
Arbeit (z. B. fachliche Fragen), im Fehlerfall, bei der Wartung<br />
oder Neueinrichtung des EDV-Systems etc.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
127
Informationsdesign<br />
Der Leitfaden: Modulares Nachschlagewerk<br />
Wir haben uns entschieden, den Leitfaden als Nachschlagewerk anzulegen,<br />
das die Autoren bedarfsweise zu Rate ziehen können. Konzeptionshilfe<br />
war uns dabei ein linguistisches Textmodell, das die<br />
sprachlichen Phänomene in einem Text (und damit den potenziellen<br />
Regelungsbedarf) in drei Ebenen aufteilt:<br />
−−<br />
Makro-Ebene: Bestimmt die Typisierung der Informationen, das heißt<br />
Struktur und Aufbau der Support-Dokumente bis zur Überschriftenebene.<br />
−−<br />
Meso-Ebene: Definiert Struktur- und Darstellungsvorgaben für die<br />
Inhalte eines Dokuments, zum Beispiel Handlungsanweisungen oder<br />
Signalelemente.<br />
−−<br />
Mikro-Ebene: Regelt Fragen von Terminologie und Formulierung.<br />
Das dreistufige Textmodell in Anlehnung an: Martin Ley (2005): Kontrollierte<br />
Textstrukturen. Heidelberg.<br />
Makro-Ebene:<br />
Dokumenttypen<br />
Meso-Ebene:<br />
Standardelemente<br />
Zentraler Gedanke des Leitfadens ist die Klassifizierung der Informationen<br />
durch Dokumenttypen. Ausgangspunkt ist also die Frage,<br />
welche Art von Inhalten in einem Dokument steht. Häufig benötigte<br />
Dokumenttypen:<br />
−−<br />
Anleitung<br />
−−<br />
Hintergrund<br />
−−<br />
Tipp<br />
−−<br />
Fehler und Abhilfen<br />
Die Wahl des Dokumenttypen entscheidet für den Autor, welche Regeln<br />
er auf der nachgeordneten Meso-Ebene (Standardelemente) und<br />
Mikro-Ebene (Formulierung) wählt. Eine Anleitung „funktioniert“ damit<br />
anders als ein „Hintergrund“ oder ein Dokument vom Typ „Fehler und<br />
Abhilfen“.<br />
Diese inhaltsorientierte Typisierung haben wir ganz bewusst gewählt.<br />
Alternative Konzepte wie z. B. die Typisierung nach Zielgruppen (Führungskraft,<br />
Fachbearbeiter, IT-Spezialist) oder nach Informationsanlässen<br />
(Installation, Einarbeitung, Programmnutzung) haben wir<br />
verworfen, weil es für die Gestaltung des Dokuments letztlich keinen<br />
Unterschied macht, in welcher Situation ein Problem auftritt oder in<br />
welcher Rolle sich der Leser befindet.<br />
Regelt die Makro-Ebene vor allem, was in einem Dokument steht und<br />
wie es im Groben gegliedert ist, geht es auf der Meso-Ebene („Standard<br />
elemente“ im Leitfaden) darum, wie die konkreten Inhalte dargestellt<br />
werden. In diesem Zusammenhang haben wir funktionale<br />
128<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
Mikro-Ebene:<br />
Terminologie und<br />
Formulierung<br />
Textmodule identifiziert, für die über alle Dokumenttypen hinweg einheitliche<br />
Regeln gelten, zum Beispiel:<br />
−−<br />
Einstiegstext<br />
−−<br />
Handlungsanweisungen mit entsprechenden Untermodulen wie<br />
Handlungsschritt, Resultat etc.<br />
−−<br />
standardisierte Tabellen<br />
−−<br />
Querverweise<br />
Diese Modularisierung auf der Meso-Ebene sorgt dafür, dass in den<br />
Support-Dokumenten kein Stück Text vorkommt, für das es keine Regeln<br />
gibt.<br />
Wie die Inhalte der Module konkret versprachlicht werden, bestimmt<br />
die „unterste“ Ebene – die Mikro-Ebene. Obwohl diese Ebene zahlenmäßig<br />
die meisten Regeln zur Standardisierung beisteuert, nimmt sie<br />
im Leitfaden den kleinsten Raum ein. Warum?<br />
−−<br />
Terminologie und Stilistik werden durch ein Sprachqualitätswerkzeug<br />
(Acrolinx) geprüft.<br />
−−<br />
Bei Fragen zu Formulierung und Stilistik ist ein Nachschlagewerk oft<br />
wenig hilfreich. Die Kernkompetenzen dazu werden den Autoren in<br />
Schulungen vermittelt.<br />
Der Leitfaden profitiert von dieser Zurückhaltung. Er bleibt schlank<br />
und übersichtlich. Gleichzeitig entgeht man der Gefahr zur Überregulierung,<br />
die auf der Mikro-Ebene besonders virulent ist.<br />
Zwischenfazit nach anderthalb Jahren Praxiseinsatz<br />
−−<br />
Die Regeln lassen sich gut umsetzen. Vor allem die Dokumenttypen<br />
helfen den Redakteuren, Support-Texte schnell inhaltlich zu fokussieren<br />
und entsprechend zielgerichtet und zügig zu erstellen.<br />
−−<br />
Der modulare Aufbau des Leitfadens hat sich bewährt. Er lässt sich<br />
wie beabsichtigt als Nachschlagewerk einsetzen – was sich sehr gut<br />
daran zeigt, dass ihn die Autoren bedarfsweise zu Rate ziehen und<br />
dann wieder zur Seite legen. Er ist wirklich ein Helfer und kein Klotz<br />
am Bein.<br />
−−<br />
Das Ebenen-Modell macht es möglich, die Bestandsdaten phasenweise<br />
umzustellen. Als erster Schritt nach der Einführung reichte es<br />
aus, Makro-Struktur und (soweit nötig) die Meso-Struktur der Bestandsdaten<br />
anzupassen. Eine tiefergehende Bearbeitung wurde nur<br />
für Dokumente gewählt, die besonders oft frequentiert werden. Was<br />
viele Standardisierungsprojekte zum Scheitern bringt – nämlich ein<br />
Komplett-Relaunch der bisherigen Informationswelt – blieb DATEV<br />
damit erspart.<br />
−−<br />
Noch immer ist die erste Version des Leitfadens im Einsatz. Die<br />
Gründe dafür liegen in der Konzeptionsphase: (1) Es wurden alle<br />
beteiligten Redaktionen in die Erarbeitung der Regeln einbezogen.<br />
(2) Alle Regeln wurden prototypiert und ganz praktisch an Mustertexten<br />
ausprobiert. (3) Dem Arbeitskreis aus externen Beratern (doctima)<br />
und Verantwortlichen aus DATEV stand eine Projektlaufzeit<br />
von einem halben Jahr zur Verfügung. Es musste nichts übers Knie<br />
gebrochen werden.<br />
für Rückfragen:<br />
johannes.dreikorn@doctima.de<br />
joerg.palm@datev.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
129
Informationsdesign<br />
INF 9<br />
Workshop<br />
Modularisierung<br />
Dr. Britta Görs, Beratung und Redaktion aus einer Hand, Hamburg<br />
Die Modularisierung hat das Ziel, den Erstellungsprozess der Anleitungen<br />
effizienter zu gestalten. Modulares Arbeiten basiert auf dem Prinzip,<br />
dass ein definiertes Modul in verschiedenen Dokumenten oder in<br />
einer Anleitung an mehreren Stellen referenziert eingesetzt wird. Wenn<br />
sich Änderungen ergeben, müssen diese nur in der Quelle vorgenommen<br />
werden und sind in den Dokumenten automatisch enthalten.<br />
Der Workshop richtet sich vor allem an Technische Redakteure, die<br />
schon erste Erfahrungen mit der Modularisierung von Texten gesammelt<br />
haben und an Redakteure, die überlegen, zukünftig Texte modular<br />
zu erstellen.<br />
Der Workshop möchte einen Raum für den Austausch der unterschiedlichen<br />
Erfahrungen bieten. Daher ist er so gestaltet, dass die Diskussion<br />
im Vordergrund steht.<br />
Zu Beginn des Workshops wird die Referentin ihre Erfahrungen vorstellen,<br />
die sie bei der Erarbeitung und Einführung eines modularen<br />
Konzeptes gemacht hat. Anschließend werden wir gemeinsam mögliche<br />
Stolpersteine bei der Entwicklung und Umsetzung der Modularisierung<br />
sammeln und gemeinsam Lösungsideen entwickeln.<br />
Wer eigene Beispiele für modularisierte Texte oder Texte, die modularisiert<br />
werden sollen, mitbringen möchte, ist herzlich willkommen. Nutzen<br />
Sie die Möglichkeit, sich mit anderen Redakteuren auszutauschen<br />
und voneinander zu lernen.<br />
für Rückfragen: info@britta-goers.de<br />
130<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Informationsdesign<br />
INF 11<br />
Workshop<br />
Nur Standard-Software<br />
Möglichkeiten<br />
von Batchfiles<br />
Microsoft Batch – ein nützlicher<br />
Helfer für tägliche Routinen<br />
Pascal Kesselmark, Klingelnberg AG, Zürich, Schweiz<br />
Es gibt Arbeiten, die müssen in der TD regelmäßig wiederholt werden.<br />
Sei es das Erstellen einer Steuerdatei oder einer Ablagestruktur für<br />
einen Auftrag.<br />
Natürlich kann man das auch mit dem Kopieren von Ordnern und Dateien<br />
gelöst werden. Leider ist man dadurch nicht flexibel, kann keine<br />
Spezialfälle abdecken, keinen Standard durchsetzen und hat eventuell<br />
redundante Daten. Dass durch manuelle Anpassungen dann auch Fehler<br />
passieren, kommt erschwerend dazu. Deshalb sind Stapelverarbeitungsdateien<br />
für solche Aufgaben ideal.<br />
Das Gute an Batch-Files ist die Tatsache, dass man die Dateien mit<br />
einem kostenlosen Texteditor erstellen kann. Vorzugsweise verwende<br />
ich Notepad++. Zusätzliche Software wird nicht benötigt, da Batchfiles<br />
vom Betriebssystem ausgeführt werden und das von Windows XP bis<br />
Windows 7.<br />
Die Syntax in einem Batchfile ist eine einfache Programmiersprache.<br />
Die grundlegenden Befehle können unter der folgenden Adresse gefunden<br />
werden: http://de.wikibooks.org/wiki/Batch-Programmierung.<br />
Mit Batchfiles können vielfältige Aufgaben gelöst werden. So verwendet<br />
zum Beispiel IT-Abteilungen Batchfiles, um beim Anmelden bei Windows<br />
die internen Laufwerke zu verbinden oder die aktuellen Vorlagen<br />
auf den eigenen Rechner zu kopieren. In meinem Workshop haben<br />
wir nicht die Zeit, alle Möglichkeiten vom Batchfile anzuschauen, aber<br />
zumindest wissen Sie danach, wie folgende grundlegende Aufgaben zu<br />
erledigen sind:<br />
−−<br />
Erstellung der ersten eigenen Batch-Datei<br />
−−<br />
Anlegen von einem neuen Ordner<br />
−−<br />
Kopieren von Dateien<br />
−−<br />
Dateien dynamisch erstellen<br />
−−<br />
Eingabefeld erstellen<br />
−−<br />
Eingaben verarbeiten<br />
−−<br />
Mit Variablen arbeiten<br />
−−<br />
Subroutinen<br />
−−<br />
If/else-Befehl<br />
für Rückfragen: p.kesselmark@klingelnberg.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
131
Junge Technische Redakteure
Junge Technische Redakteure<br />
JTR 1<br />
Fachvortrag<br />
Frauen, Männer und Technik –<br />
Bedienungsanleitungen<br />
geschlechtergerecht gestalten<br />
Kirsten Brettschneider, Celle<br />
Obwohl technische Produkte von Frauen und Männern gleichermaßen<br />
gekauft und benutzt werden, waren geschlechtsspezifische Bedürfnisse<br />
von Frauen und Männern in Bezug auf die Gestaltung von Bedienungsanleitungen<br />
im Bereich der Technischen Kommunikation bislang<br />
kaum Gegenstand der wissenschaftlichen Forschung. Geschlechtsdifferenzierende<br />
Forschungsergebnisse aus dem Umfeld der Technischen<br />
Kommunikation sowie aus den ihr nahestehenden Fachgebieten des<br />
Marketings, der Didaktik, der Kognitionspsychologie und der Sprachwissenschaft<br />
deuten jedoch darauf hin, dass Frauen und Männer bei<br />
einzelnen Aspekten unterschiedliche Anforderungen an Bedienungsanleitungen<br />
haben, die für beide Geschlechtsgruppen im Hinblick auf eine<br />
anwendungsfreundliche Gestaltung stärker zu berücksichtigen sind.<br />
Befundlage<br />
Aus den konsultierten Fachgebieten sind die folgenden Befunde für<br />
eine Ableitung geschlechtsspezifischer Bedürfnisse von Frauen und<br />
Männern in Bezug auf die Gestaltung von Bedienungsanleitungen<br />
relevant:<br />
−−<br />
Frauen wollen technische Geräte in der Regel für bestimmte, konkrete<br />
Zwecke benutzen, während Männer bei Geräten gerne die<br />
Grenzen des technisch Machbaren ausloten. Für Frauen steht demgemäß<br />
der konkrete Nutzen eines technischen Gerätes im Vordergrund,<br />
für Männer das Potential.<br />
−−<br />
Beim Aneignen von Technik ist es für Frauen in der Regel wichtig zu<br />
verstehen, wie ein Gerät funktioniert und warum sie bestimmte Bedienschritte<br />
ausführen sollen. Männer gehen eher regelorientiert an<br />
ein technisches Gerät heran: Es reicht ihnen meist das Verfahren zu<br />
kennen, mit dem sie ans Ziel gelangen. Das dahinterliegende Funktionsprinzip<br />
zu verstehen, ist für sie im Hinblick auf die Benutzung<br />
eines Gerätes sekundär.<br />
−−<br />
In Lernprozessen ist bei Frauen in der Regel das eigene Ich Bezugspunkt<br />
der Betrachtung, während Männer sich beim Betrachten eines<br />
Objekts als Subjekt herausnehmen.<br />
−−<br />
Frauen legen tendenziell Wert auf ein systematisches und an Effizienzkriterien<br />
orientiertes Lernen und bevorzugen daher auch die<br />
Kenntnisübernahme von Dritten. Männer tendieren bei technischen<br />
Geräten zu einem autodidaktischen und spielerischen Lernen z. B.<br />
durch einfaches Ausprobieren.<br />
−−<br />
Frauen greifen bei kognitiven Problemstellungen bevorzugt auf<br />
verbale Lösungsstrategien zurück, z. B. indem sie Objekte verbal in<br />
Beziehung zueinander setzen, während Männer meist ein besseres<br />
räumliches Vorstellungsvermögen haben und zu räumlichen Lösungsstrategien<br />
tendieren.<br />
−−<br />
Frauen schätzen ihre eigenen Fähigkeiten und Kompetenzen bei<br />
gleichem Kenntnisstand im Durchschnitt schlechter als Männer ein.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
135
Junge Technische Redakteure<br />
−−<br />
Frauen bevorzugen beim Kauf technischer Geräte eine Ansprache<br />
auf Augenhöhe, Männer informieren sich in der Regel umfassend im<br />
Vorwege und bevorzugen im Verkaufsgespräch eine Ansprache als<br />
Experte.<br />
−−<br />
Frauen kennzeichnen ihre Äußerungen häufig als Bitten, Männer<br />
tendieren zu direkten Aufforderungen.<br />
−−<br />
Frauen bewerten das Vorhandensein von Weißraum in Bedienungsanleitungen<br />
im Durchschnitt positiver als Männer.<br />
−−<br />
Frauen sind eher als Männer geneigt, ein Produkt aufgrund einer<br />
mangelhaft erscheinenden Dokumentation als unattraktiv einzustufen.<br />
Gestaltungsempfehlungen<br />
Aus den Befunden lassen sich die folgenden Gestaltungsempfehlungen<br />
ableiten:<br />
Bedienungsanleitungen, die sich an Frauen und Männer richten, sollten<br />
−−<br />
konkrete Hinweise zum Produktnutzen geben, bevorzugt in von den<br />
Handlungsanweisungen isolierten Abschnitten oder Kapiteln;<br />
−−<br />
das Leistungspotential des Produktes deutlich machen, z. B. über die<br />
technischen Daten oder ein eigenständiges Kapitel;<br />
−−<br />
das dahinterliegende Funktionsprinzip, getrennt von den Handlungsanweisungen,<br />
erklären;<br />
−−<br />
alle Informationen und Handlungsanweisungen schriftlich geben, um<br />
die Anwendung verbaler Lösungsstrategien zu unterstützen;<br />
−−<br />
alle Handlungsanweisungen mit Bildern umfassend unterstützen, um<br />
die Anwendung räumlicher Lösungsstrategien zu unterstützen;<br />
−−<br />
bei Handlungsanweisungen immer vom Benutzenden ausgehen<br />
(„Schalten Sie das Gerät über die Taste (1) ein.“) und nicht das Gerät<br />
ohne den Benutzenden beschreiben („Das Gerät wird über die Taste<br />
(1) eingeschaltet.“);<br />
−−<br />
neben der Inbetriebnahme konkrete, typischerweise von der Zielgruppe<br />
zu erwartende Nutzungsanlässe erklären;<br />
−−<br />
alle Funktionen und Optionen des Gerätes vollständig erklären;<br />
−−<br />
Probleme im Umgang mit Technik angemessen würdigen, z. B. über<br />
konkrete Hilfestellungen in den Handlungsanweisungen oder eigenständige<br />
Kapitel;<br />
−−<br />
Leserinnen und Leser, die sich im Umgang mit Technik wenig zutrauen,<br />
positiv in ihren Fähigkeiten bestärken, z. B. durch mutmachende<br />
Elemente;<br />
−−<br />
Nutzende auf gleicher Augenhöhe ansprechen, ohne Wissensunterschiede<br />
zu betonen;<br />
−−<br />
Handlungsanweisungen verwenden, die nicht als „befehlsartig“ empfunden<br />
werden, z. B. „Schalten Sie das Gerät ein.“ statt „Gerät einschalten.“;<br />
−−<br />
über ein übersichtliches Layout verfügen.<br />
Ausblick<br />
Geschlechtsdifferenzen sind immer im Rahmen ihres gesellschaftlichen<br />
und zeitlichen Kontextes zu sehen und nicht auf jedes Mitglied<br />
der jeweiligen Geschlechtsgruppe zu verallgemeinern. Grundsätzlich<br />
sollte immer geprüft werden, inwieweit sich innerhalb einer Zielgruppe<br />
136<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Junge Technische Redakteure<br />
geschlechtstypische Bedürfnisse isolieren lassen und mit welchen Gestaltungsstrategien<br />
in der Bedienungsanleitung diesen Bedürfnissen<br />
dann angemessen Rechnung getragen werden kann.<br />
für Rückfragen: kirsten.brettschneider@gmx.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
137
Junge Technische Redakteure<br />
JTR 3<br />
Partnerpräsentation<br />
Terminabstimmung<br />
Inspirationsfindung<br />
und -sammlung<br />
Speicherung von Ideen<br />
Projektorganisation für kleine Teams –<br />
mobil, sozial und über den Wolken<br />
Ute Klingelhöfer<br />
Am Anfang eines Projekts stellt sich die Frage, wie Sie sich über die gesamte<br />
Projektlaufzeit innerhalb ihrer Projektgruppe organisieren. Haben<br />
Sie die Möglichkeit, sich regelmäßig zum persönlichen Austausch<br />
zu treffen oder müssen Sie aufgrund von zu hohen Distanzen Ihre<br />
Kommunikation ausschließlich über Internet und Telefon durchführen?<br />
Haben Sie regelmäßig Dateien auszutauschen? Müssen Sie im Team<br />
über Entwürfe abstimmen? Wie machen Sie Ihre Terminabstimmung<br />
für persönliche oder virtuelle Treffen? Woher nehmen Sie Ihre Inspiration<br />
für kreative Projekte?<br />
Sind Sie gewohnt, dies alles per E-Mail zu erledigen? Empfinden Sie<br />
diese Nachrichtenflut als mühsam und möchten diese auf das Notwendigste<br />
begrenzen? Lesen Sie, auf welche Art und Weise Sie noch zusammenarbeiten<br />
können.<br />
Mehrere E-Mails versenden, um alle Projektmitarbeiter nach passenden<br />
Terminen für persönliche Treffen oder virtuelle Konferenzen zu<br />
befragen, ist zeitaufwändig. Doodle (http://www.doodle.com) bietet hier<br />
Abhilfe: Sie suchen sich mehrere mögliche Termine aus und senden<br />
eine einzige E-Mail an die anderen Mitglieder mit dem Link zum Doodle.<br />
Online wählen diese ihre passenden Termine aus und am Ende findet<br />
Ihr Termin an jenem Datum oder in jenem Zeitfenster statt, für das<br />
die meisten Projektmitglieder gestimmt haben.<br />
Je nachdem, ob ihr Projekt im kreativen Bereich angesiedelt ist, benötigen<br />
Sie möglicherweise erst einmal Inspiration für Ihre eigene Arbeit.<br />
Ein soziales Netzwerk wie pinterest (http://www.pinterest.com), das<br />
rein visuell aufgebaut ist, ist eine geeignete Quelle für Designideen oder<br />
um Assoziationen zu einen bestimmten Begriff zu finden. Geben Sie Ihren<br />
Suchbegriff (für eine höhere Trefferquote am besten auf Englisch)<br />
in das Suchfeld ein und stöbern sie in sogenannten Pins oder Boards<br />
zum Thema.<br />
Wohin mit den Ideen, die man im Internet sammelt? Dafür eignet sich<br />
der Online-Service keeeb.it (http://www.keeeb.com/info/). Jeder Text,<br />
jedes Bild, jedes Video kann durch einen Klick auf das keeeb.-it-Symbol<br />
in der Lesezeichenleiste des Browsers wie auf einer digitalen Pinnwand<br />
gespeichert werden. Diese Pinnwand kann je nach Belieben nur für<br />
den Ersteller auf privat eingestellt werden oder öffentlich, damit die<br />
anderen Projektmitglieder die gesammelten Informationen auch einsehen<br />
können. Soll die digitale Pinnwand für alle Projektmitglieder als<br />
Inspirations- und Sammelstelle dienen, muss jedes Teammitglied einen<br />
keeeb.it-Account besitzen.<br />
Möchte man nicht nur Online-Inhalte in seinen digitalen Ideenspeicher<br />
übernehmen, sondern auch offline eigene Notizen anlegen, ist keeeb.<br />
it jedoch nicht geeignet. In diesem Fall eignet sich eher die Anwendung<br />
evernote (http://www.evernote.com), die es in der Desktop-Version für<br />
Windows wie auch den Mac gibt und als mobile App den Nutzern aller<br />
Betriebssysteme zur Verfügung steht. Digitale Notizen jeder Art werden<br />
hier in Notizbüchern organisiert, die den anderen Projektmitgliedern<br />
138<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Junge Technische Redakteure<br />
Synchrones Arbeiten<br />
Austausch von Dateien<br />
Mind-Mapping<br />
Browserbasiertes<br />
Projektmanagement<br />
freigegeben werden können. Leider begrenzt evernote in der kostenlosen<br />
Version die Freigabe auf das Anschauen der Notizen, erst mit der<br />
kostenpflichtigen Premium-Version ist ein kollaboratives Arbeiten am<br />
gleichen Notizbuch möglich.<br />
Manche Arbeiten erfordern eine zeitgleiche Bearbeitung, beispielsweise<br />
wenn Entwürfe oder Dokumente noch einmal zusammen diskutiert<br />
werden und parallel dazu alle Teilnehmer das Dokument oder den Entwurf<br />
vor sich sehen sollen. Hier bietet sich entweder eine passive Bildschirmübertragung<br />
an, die per skype-Bildschirmübertragung (http://<br />
www.skype.com) oder per Google Hangout (http://www.google.com/intl/<br />
de_ALL/+/learnmore/hangouts/) möglich ist. Für Ersteres ist es erforderlich,<br />
dass alle Teilnehmer einen skype-Account besitzen, für einen<br />
Google Hangout müssen alle ein Google-Konto besitzen. Soll auch jedes<br />
der Projektmitglieder in den Dateien zur Echtzeit etwas verändern können,<br />
eignet sich jedoch eher eine Übertragung per TeamViewer (http://<br />
www.teamviewer.com/de/) oder das Arbeiten in Google Docs (http://<br />
www.docs.google.com). Während es bei der Arbeit mit TeamViewer<br />
unbedeutend ist, welches Format die zu bearbeitende Datei hat, müssen<br />
in Google Docs jene Dokumente, die z. B. aus Microsoft Office stammen,<br />
erst einmal in das Google Docs Format umgewandelt werden, damit<br />
diese editiert werden können. Formatfehler bei der Konvertierung in<br />
das Google Docs Format sowie bei der späteren Rückkonvertierung ins<br />
Ursprungsformat sind somit denkbar und lassen sich nicht unbedingt<br />
ausschließen.<br />
Gerade bei einer dezentralen Zusammenarbeit benötigen Sie eine<br />
zentrale Ablage für Ihre Dokumente, damit auch jedes Teammitglied<br />
zu jeder Zeit den aktuellen Stand einsehen kann. Dafür gibt es Cloud-<br />
Dienste wie Dropbox, Minus oder Box. Der bekannteste und am meisten<br />
verbreitete Dienst Dropbox (http://www.dropbox.com) bietet den<br />
geringsten Speicherplatz zur freien Verfügung an (2 GB/Person – durch<br />
Anwerben anderer Personen sind bis zu 18 GB möglich), wertet dies<br />
jedoch mit der einfachsten Bedienbarkeit und der Unterstützung der<br />
wichtigsten Plattformen auf. Auch die mobile App kann sich sehen<br />
lassen: Microsoft Office Dokumente können zwar in der Dropbox-App<br />
nicht editiert, aber zumindest am Smartphone oder Tablet betrachtet<br />
werden. Bei Box (http://www.box.com) erhält der Einzelnutzer 5 GB<br />
Speicherplatz, bei Minus (http://minus.com) sind es 10 GB.<br />
Mind-Maps sind vor allem im Kick-off-Meeting zu Beginn eines Projekts<br />
nützlich, um die bevorstehenden Aufgaben und Ziele inklusive<br />
ihrer Verantwortlichkeiten zu definieren und strukturiert darzustellen.<br />
Besonders praktisch ist es, wenn man als Projektleiter von unterwegs<br />
an der Mind-Map weiterarbeiten kann, die am Desktop erstellt wurde.<br />
Für iOS- bzw. Mac-Nutzer bietet sich hier die App MindNode (http://<br />
mindnode.com) an, die jene Dateien, die in Dropbox gespeichert sind,<br />
bearbeiten und wieder über Dropbox synchronisieren kann. Exportiert<br />
man die mit MindNode erstellte Mind-Map in der App vorher noch in<br />
das PDF-Format, kann auch einem Projektmitglied, dem kein MindNode<br />
zur Verfügung steht, die Mind-Map zumindest zur Ansicht verfügbar<br />
gemacht werden.<br />
Wer alle Projektaktivitäten an einer Stelle verwalten möchte, sollte sich<br />
http://www.trello.com anschauen. Die verschiedenen Projektmitglieder<br />
arbeiten mit sogenannten „Boards“, die ihnen immer den aktuellen<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
139
Junge Technische Redakteure<br />
Stand eines Projekts anzeigen – auch die Aufgaben, an denen gerade<br />
die Kollegen arbeiten. An einzelne Aufgaben können Dateianhänge<br />
angefügt werden, so dass selbst Entwürfe oder Bearbeitungsstände<br />
direkt über trello diskutiert werden können. Stehen mehrere Entwürfe<br />
zur Bewertung frei, macht trello die Bewertung über eine Stimmabgabe<br />
einfach – ähnlich wie ein „Like“, das man aus sozialen Netzwerken<br />
kennt. Besonders überzeugen kann hier auch die mobile App (erhältlich<br />
für Android und iOS), die sich aufgrund ihrer intuitiven und minimalistischen<br />
Benutzeroberfläche sehr einfach bedienen lässt.<br />
Fazit<br />
Wer seine Nachrichten-Flut im E-Mail-Postfach begrenzen möchte und<br />
sich gleichzeitig nicht davor scheut, die eigenen (möglicherweise sensiblen)<br />
Daten bei anderen Anbietern als dem bisherigen und bekannten<br />
Server zu speichern, hat viele Möglichkeiten, Projekte größtenteils<br />
abseits der E-Mail zu organisieren. Anwendungen wie der Cloud-Dienst<br />
Dropbox oder das digitale Notizbuch evernote sind bereits so bewährt,<br />
dass sie in viele andere Dienste integriert sind und umgekehrt.<br />
Welche Anwendung die richtige für das eigene Vorhaben ist, kann jedoch<br />
nur durch Ausprobieren herausgefunden werden. Hat man selbst<br />
schließlich die erste Hürde der Installation und Anmeldung bei einem<br />
neuen Dienst genommen, gilt es immer noch, die anderen Projektmitglieder<br />
zu überzeugen. Entscheiden muss deswegen jede Projektgruppe<br />
für sich, welche Tools sie für sinnvoll hält bzw. was in welcher Projektphase<br />
nützlich ist.<br />
für Rückfragen: klingelhoefer.ute@gmail.com<br />
140<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Karriere
Karriere<br />
KAR 1<br />
Workshop<br />
Zusammenfassung<br />
Effektiv kommunizieren<br />
Dr. Sylvia Fischer, FH Oberösterreich in Wels<br />
Der Workshop vermittelt das sprachliche Handwerkszeug für eine zielgerichtete<br />
und effektive Kommunikation im Büro-, Redaktions- und<br />
Familienalltag. Er sensibilisiert die Teilnehmer für die Wirkung von<br />
kommunikationsrelevanten Sprachphänomenen und zeigt Strategien<br />
auf, die es den Teilnehmern ermöglichen, erfolgreich zu instruieren, effektiv<br />
zu kommunizieren, Kritik sozial verträglich zu äußern und somit<br />
das gewünschte Kommunikationsziel zu erreichen.<br />
Einführung<br />
Kommt Ihnen das bekannt vor? Sie fragen jemanden nach der Uhrzeit<br />
mit den Worten „Können Sie mir die Uhrzeit sagen?“ und bekommen<br />
als Antwort „Ja, kann ich“ – aber nicht die gewünschte Uhrzeit? Nicht<br />
kooperative Gesprächspartner sind zwar eher selten, jedoch veranschaulicht<br />
das Beispiel, dass unsere Sprache mehrdeutig ist und auch<br />
nicht intendierte Interpretationen zulässt, die dann den Erfolg unserer<br />
Kommunikation gefährden können.<br />
Instruktionen und Bitten erfolgreich äußern<br />
Und gleich noch eine Frage: Mit welcher der folgenden Formulierungen<br />
erreichen Sie, dass das Fenster geschlossen wird?<br />
1. „Meier, machen Sie dieses Fenster sofort zu.“<br />
2. „Könnte irgend jemand vielleicht mal bitte das Fenster schließen?“<br />
Obwohl die erste Formulierung zwar aggressiv wirkt, so führt sie jedoch<br />
aufgrund ihrer Direktheit und Konkretheit eher zur Handlungsausführung<br />
als die zweite als indirekte Frage weich, vage und sozial verträglich<br />
formulierte Äußerung. Die beiden Sätze veranschaulichen, dass es<br />
wirkungsvolle und nicht wirkungsvolle Formulierungen gibt. Eine Kombination<br />
der Vorteile beider Äußerungsvarianten mündet in der folgenden<br />
neutralen, klaren und sozial verträglichen Instruktion: „Herr Meier,<br />
bitte seien Sie so gut und machen Sie bitte das Fenster jetzt zu.“ Diese<br />
Formulierung zeichnet sich aus durch Direktheit (Namensnennung und<br />
Befehlsform), Freundlichkeit („bitte seien Sie so gut“) und Konkretheit<br />
(„jetzt“).<br />
Für eine effektive Kommunikation sollten Äußerungen generell folgendermaßen<br />
formuliert werden: konkret, überzeugend, direkt, kooperativ,<br />
eindeutig, positiv, kraftvoll, persönlich und gezielt. Der Workshop geht<br />
auf diese einzelnen Aspekte ein und verdeutlicht sie anhand von Beispielen<br />
und Übungen.<br />
Theorie<br />
Um die einzelnen Aspekte einer effektiven Kommunikation verständlich<br />
vermitteln zu können, bedarf es theoretischer Grundlagen: Dazu<br />
gehört die Sprechakttheorie, anhand derer sich indirekte und direkte<br />
Formulierungen von der sprachwissenschaftlichen Seite her aufschlüsseln<br />
lassen. Außerdem spielen die verschiedenen Ebenen einer<br />
Äußerung eine entscheidende Rolle bei der zwischenmenschlichen<br />
Verständigung. Diese Thematik wird anhand von Schulz von Thuns<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
143
Karriere<br />
Kommunikationsquadrat erläutert, das eine Sachinhaltsebene, eine<br />
Appellebene, eine Beziehungsebene und eine Selbstoffenbarungs ebene<br />
differenziert. Last but not least erweist sich für eine wirkungsvolle<br />
Kommunikation eine Übereinstimmung zwischen verbaler Sprache und<br />
Körpersprache als relevant. Im Hinblick auf den Kommunikationserfolg<br />
sind die Stimme und die Körpersprache weit wichtiger als der reine<br />
Sachinhalt.<br />
Effektiv kommunizieren<br />
Zu den im Workshop behandelten Formulierungsempfehlungen gehört<br />
in erster Linie der Verzicht auf:<br />
−−<br />
eine falsche Vergangenheit<br />
−−<br />
abschwächende Konjunktivformen<br />
−−<br />
abschwächende Modalverben<br />
−−<br />
schwache Verben<br />
−−<br />
Zweifel<br />
−−<br />
rhetorische Weichspüler und Kleinmacher<br />
−−<br />
Füllwörter<br />
−−<br />
die unpersönliche „man“-Form<br />
−−<br />
Verneinungen<br />
−−<br />
negative Wörter<br />
Durch eine Befreiung der Formulierungen von diesen abschwächenden,<br />
klein machenden, aufblähenden und negativen Wörtern gewinnt der<br />
Sprachstil an Klarheit und Kraft. Diese Formulierungsempfehlungen<br />
stellen die Basis für das Äußern von Bitten, Instruktionen und Kritik<br />
dar.<br />
Kritik sozial verträglich äußern<br />
Entscheidend für das sozial verträgliche Kritisieren ist auch ein bestimmter<br />
Kommunikationsaufbau: Zunächst sollte eine positive<br />
Einstimmung erfolgen, indem Sie beispielsweise Ihren Kommunikationspartner<br />
ehrlich loben. Danach sollten Sie ihm den Anlass des<br />
Gespräches nennen und Ihre Kritik präzise, sachlich und motivierend<br />
vortragen. Von zentraler Bedeutung ist es, dass Sie dann von ihm ein<br />
Feedback einholen, wie er Ihre Kritik sieht bzw. ob Ihre Kritik berechtigt<br />
ist und welche Problemlösung er vorschlägt. Zum Schluss sollten<br />
Sie eine Vereinbarung zur Problemlösung treffen.<br />
Fazit<br />
Eine Sensibilisierung für die Wirkung von Sprache führt dazu, dass Sie<br />
nicht nur Kritik erfolgreich äußern, sondern auch Instruktionen und<br />
Bitten effektiver formulieren und somit das gewünschte Kommunikationsziel<br />
erreichen können.<br />
für Rückfragen: mail@sylvia-fischer.eu<br />
144<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Karriere<br />
KAR 2<br />
Workshop<br />
Was nun?<br />
Kreativitätstechniken für alle Fälle<br />
Frank Fleury, Fleury & Fleury Consultants, Köln<br />
Brainstorming und Mindmapping kennt inzwischen jeder. Doch diese<br />
freien Assoziationstechniken sind nur ein kleiner Teil der Möglichkeiten,<br />
kreative und originelle Lösungen für neue Anforderungen zu finden<br />
und zu strukturieren.<br />
Wenig bekannt ist auch, dass Psychologen der Stanford University bereits<br />
1958 bewiesen, dass Brainstorming nicht sinnvoll funktioniert. Die<br />
Forscher zeigten, dass Brainstorming nicht nur ideenhemmend, sondern<br />
sogar motivationshemmend ist. Sie widerlegten die 1953 von einer<br />
amerikanischen Werbeagentur aufgestellte These, dass man mit einfachen<br />
Methoden die Ideenfindung innerhalb einer Gruppe verdoppeln<br />
könne. Bis in die jüngste Zeit belegen zahlreiche Studien diverse erhebliche<br />
Nachteile dieser Technik. Ungeachtet dessen findet Brainstorming<br />
bis heute große Verbreitung.<br />
Mindmapping ist eine hilfreiche Strukturierungstechnik für einfachere<br />
Zusammenhänge. Viele Behauptungen darüber sind jedoch inzwischen<br />
widerlegt. Außerdem ist Mindmapping selbst keine Kreativitätstechnik,<br />
sondern im Wesentlichen eine Methode, einem definierten Ordnungsprinzip<br />
zu folgen. In der Praxis werden dabei neue Ideen vor allem mit<br />
Hilfe von Brainstorming entwickelt – mit allen inzwischen bekannten<br />
Nachteilen.<br />
Wenn Brainstorming aber keine empfehlenswerte Methode ist: Wodurch<br />
definiert sich dann die Qualität einer Kreativitätstechnik, und welche<br />
besseren Techniken gibt es, um gezielt neue Ideen zu produzieren?<br />
Besonders wichtig ist es, die richtigen Dinge in Frage zu stellen. Das<br />
kreative Potenzial, das sich dahinter versteckt, wird allerdings oft verkannt<br />
und mit den gängigen Kreativkillern getötet: „Das hat Ihr Vorgänger<br />
auch schon vorgeschlagen!“, „Alter Hut!“, „Graue Theorie!“ usw.<br />
Solche Antworten sind Resultate aus Erfahrungen und Wissen aus der<br />
Vergangenheit und werden mit einem rückwärtsgewandten Blick gegeben.<br />
In-Frage-stellen reißt uns dagegen heraus aus unserem gewöhnlichen<br />
Denken und aus unserer Komfortzone. Wagemutige Fragen öffnen<br />
die Tür in eine andere Welt.<br />
Ausgehend vom kreativen Problemlösungszyklus und einer Einführung<br />
in ein praxistaugliches grundsätzliches Vorgehen vermittelt dieser<br />
Workshop spielerisch und anhand konkreter Situationen einige herausragende<br />
Kreativitätstechniken, die sowohl für die kreative Gestaltung<br />
in der Technischen Dokumentation als auch für die Problemlösung in<br />
unterschiedlichsten Situationen hilfreich sind. Beginnend mit einer<br />
einfachen Technik für alle Gelegenheiten, werden anschließend eine<br />
Technik für extreme Innovationen und eine Technik für komplexe Fragestellungen<br />
durchgespielt.<br />
für Rückfragen: ff@fleuryfleury.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
145
Karriere<br />
KAR 3<br />
Workshop<br />
Seien Sie kein Frosch!<br />
Nehmen Sie Ihr Leben in die Hand.<br />
Heidi Wahl, Trainerin. Autorin. Coach., München<br />
Menschen, die ihr Leben selbstbestimmt leben und gestalten, sind erfolgreich<br />
und zufrieden. Doch wie ist das zu schaffen? Im Alltag bleibt<br />
oft wenig Zeit, darüber nachzudenken und zu spüren, was wir brauchen,<br />
was wir eigentlich gerne machen oder schon immer mal tun<br />
wollten. Dinge, wofür unser Herz schlägt. Stattdessen ärgern wir uns<br />
über unzuverlässige Kollegen, eine schroffe Bemerkung des Chefs,<br />
quälen uns beim Texten von Artikeln oder raufen uns die Haare wegen<br />
Kunden, die selbst nach der dritten Überarbeitung immer noch Änderungen<br />
haben wollen. Ganz zu schweigen von der Unzufriedenheit, die<br />
Angestellte und Freiberufler überfällt, wenn sie neben dem stressigen<br />
Beruf und den Verpflichtungen gegenüber der Familie weder Zeit noch<br />
Energie für ein Hobby, einen Kinobesuch mit der Freundin oder einen<br />
Fußballabend mit den Kumpels haben.<br />
Im Workshop lernen Sie, wie Sie die Regie in Ihrem Leben wieder übernehmen.<br />
Sie sehen klarer, wo Sie gerade stehen und wohin Sie wollen<br />
– beruflich und privat. Sie erkennen, was Sie bis jetzt am Erfolg gehindert<br />
hat und lernen, Ihr Potenzial zu entfalten, neue Perspektiven zu<br />
entdecken, erreichbare Ziele zu definieren und sinnvolle Strategien zu<br />
entwickeln, um Ihre Ziele Schritt für Schritt zu erreichen.<br />
Wo stehe ich? Eine Standortbestimmung mit den fünf Säulen<br />
Als Erstes machen wir eine Mini-Inventur: Wo stehe ich, was ist grad<br />
aktuell los bei mir? Welche Bereiche sind mir wichtig? Erste Antworten<br />
ergeben sich bei einem Blick auf das Modell „Fünf Säulen der Identität“.<br />
Fünf Säulen der Identität<br />
Arbeit<br />
und<br />
Leistung<br />
Materielle<br />
Sicherheit<br />
Soziales Netz und<br />
Beziehungen<br />
Körper<br />
und<br />
Gesundheit<br />
Werte<br />
und<br />
Sinn<br />
Das Modell „Fünf Säulen der Identität“ eignet sich für eine persönliche<br />
Bestandsaufnahme und Überprüfung der eigenen Situation.<br />
Welche der Säulen sind bei Ihnen schwach ausgeprägt, welche stark?<br />
Zeichnen Sie die jeweiligen Säulen auf ein Blatt Papier. Sie sollten<br />
146<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Karriere<br />
so breit bzw. schmal sein, wie Sie die Ausprägung derzeit empfinden.<br />
Unterschiediche Schwerpunkte und Prioritäten sind absolut normal.<br />
Entscheidend ist vielmehr, ob Sie mit der Beschaffenheit Ihrer Säulen<br />
zufrieden sind und sich im Gleichgewicht fühlen oder ob Sie bewusst<br />
künftig neue Schwerpunkte setzen wollen.<br />
Werte sind wie Leuchttürme in stürmischen Zeiten<br />
Eine entscheidende Rolle bei der Beantwortung der Frage „Wo stehe<br />
ich und wo will ich hin?“ spielt besonders der Punkt „Werte und Sinn“<br />
in den „Säulen der Identität“. Werte bestimmen unsere Identität, stellen<br />
Steuerungsgrößen in Beruf und Privatleben dar. Man könnte auch<br />
sagen, Werte sind so etwas wie Leuchttürme, sie geben die Richtung<br />
vor und machen das Leben, unser Handeln und unsere Ziele bzw. Visionen<br />
sinnvoll. Werte sind zudem der Schlüssel zur Zufriedenheit und<br />
zur Selbstbestimmtheit, sie geben Kraft, Motivation, Befriedigung und<br />
dienen als Triebfeder unseres Tuns. Gleichzeitig beeinflussen sie unsere<br />
Wahrnehmung, unsere Bedürfnisse, Handlungen und Emotionen.<br />
Wenn alles im Einklang (Fähigkeiten, Wünsche, Werte) ist, läuft alles<br />
prima. Wenn es nicht so rund läuft, in Phasen der Veränderung oder<br />
wenn ein Ungleichgewicht im Leben vorherrscht, können Werte Orientierung<br />
geben und Entscheidungshilfe sein. Welche Werte (Zuverlässigkeit,<br />
Vertrauen, Macht, Sicherheit, Kollegialität usw.) sind Ihnen wichtig?<br />
Erstellen Sie eine „Hitliste“ für sich. Kleine Hilfe: Ergänzen Sie den<br />
Satz „Das Leben ist für mich absolut sinnlos ohne …“ – so erhalten Sie<br />
Ihre Werte. Wer will, kann den Wertebogen, den wir im Workshop bearbeiten,<br />
auch bei der Autorin per E-Mail (s. u.) anfordern.<br />
Welches sind meine Ziele?<br />
Sie haben nun anhand der Analyse Ihrer „Identitäts-Säulen“ und Ihrer<br />
Werte-Hitliste festgestellt, wo Sie stehen und im besten Falle bereits<br />
eine Idee, eine Vorstellung bekommen, wohin die Reise gehen soll. Welches<br />
persönliche Ziel wollen Sie ins Visier nehmen. Welches Vorhaben<br />
wollen Sie in die Tat umsetzen?<br />
Ein Ziel ist jedoch nur dann ein Ziel, wenn es bestimmten Kriterien genügt.<br />
Ganz entscheidend: Nur aufgeschriebene Ziele sind wahre Ziele.<br />
Weil sie dann verbindlich werden. Klopfen Sie Ihr Ziel auf folgende<br />
Punkte ab:<br />
−−<br />
Ist es realistisch?<br />
−−<br />
Ist es in eigener Verantwortung erreichbar?<br />
−−<br />
Ist es wichtig und motivierend für mich?<br />
−−<br />
Ist das Ziel positiv formuliert, ohne Konjunktive?<br />
−−<br />
Ist mein Ziel messbar, prüfbar, terminiert?<br />
Wenn Sie die einzelnen Punkte durchgegangen sind, überprüfen Sie die<br />
Formulierung Ihres Zieles und formulieren Sie es bei Bedarf um. Falls<br />
Sie noch keine so rechte Idee haben, wohin Ihr Weg führt, kein Thema:<br />
Legen Sie sich ein Notizbuch an und notieren darin alle Gedanken,<br />
Erfahrungen und Wünsche, die Ihnen so durch den Kopf gehen. Mit<br />
der Zeit kristallisiert sich Ihr Vorhaben heraus. Manchmal ist nur etwas<br />
Geduld gefragt. Denn wir Menschen können zwar sofort sagen, was wir<br />
nicht (mehr) wollen. Doch mit der Antwort auf die Frage „Was will ich<br />
wirklich?“ kann es etwas dauern.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
147
Karriere<br />
Über Motivationsförderer und Strategien<br />
Inzwischen wissen Sie, wie die Säulen Ihrer Identität beschaffen sind,<br />
welche Werte Ihnen am Herzen liegen und welches Ziel Sie verfolgen<br />
wollen. Doch wie kommen wir dahin?<br />
Nehmen Sie ein Blatt, quer. Unterteilen Sie es in drei gleich große Teile<br />
und schreiben oben, über die Spalten, folgende Fragen hin:<br />
−−<br />
Was kann ich? Welche Fähigkeiten, Kompetenzen habe ich?<br />
−−<br />
Was motiviert mich? Wofür schlägt mein Herz?<br />
−−<br />
Was brauche ich? Unterstützung von anderen, Fortbildungen?<br />
Nehmen Sie sich Zeit, die Fragen zu beantworten und Ihre Gedanken<br />
zu notieren. Sie werden merken, wie viele Dinge Ihnen einfallen, was<br />
Sie können, was Sie schon lange mal machen wollten und was Ihnen bei<br />
der Erfüllung Ihrer Wünsche helfen kann.<br />
Manche kommen hierbei auch an Muster und Verhaltensweisen, die sie<br />
blockieren und sich als Hindernisse erweisen. Nutzen Sie die Gelegenheit<br />
auch die „Blockierer“ einmal unter die Lupe zu nehmen. Wann tauchen<br />
solche Situationen auf? Wie verhalten Sie sich dann? Und welche<br />
alternativen Handlungsmöglichkeiten wären denkbar? Es kann sein,<br />
dass Sie bei den Blockaden nicht allein weiterkommen. Suchen Sie sich<br />
dann eine professionelle Unterstützung (Coach, Psychologen).<br />
Die ersten Schritte oder „Ich habe es in der Hand!“<br />
Am Ende des Workshops geht es darum, konkrete Schritte zu definieren,<br />
die jeder für sich innerhalb der nächsten 72 Stunden umsetzt. Also<br />
seine Strategie, seinen Weg festlegen. Das können Mini-Schritte sein<br />
wie etwa ein Telefonat führen oder sich mit dem Chef zusammenzusetzen.<br />
Denn Sie allein können etwas bewirken, etwas tun, um Ihrem Ziel<br />
näher zu kommen. Sie haben es in der Hand! Und seien Sie geduldig<br />
mit sich: Erfolgreiche Selbstcoacher wissen das. Selbstcoacher haben<br />
sich entschieden, in einen Veränderungsprozess einzutreten und Schritt<br />
für Schritt mutig vorwärts zu gehen. Ein Kollege von mir fragt da gerne:<br />
„Wie isst man einen Elefanten?“<br />
ERST NACHDENKEN, DANN WEITERLESEN!<br />
Die Lösung: Stück für Stück! In diesem Sinne: Viel Spaß und viel Erfolg<br />
bei Ihrem Vorhaben!<br />
für Rückfragen: info@heidiwahl.de<br />
148<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Karriere<br />
KAR 4<br />
Workshop<br />
Tempo raus, Ruhe rein!<br />
Heidi Wahl, Trainerin. Autorin. Coach., München<br />
Zu spät ins Büro gekommen, 120 E-Mails im Account, das Telefon klingelt<br />
ständig und die Headline soll noch schnell geändert werden. Sie<br />
wissen manchmal nicht mehr, wo Ihnen der Kopf steht? Mit diesem<br />
Gefühl sind Sie nicht allein: In einer aktuellen Umfrage des Nürnberger<br />
Marktforschungsunternehmens GfK klagte fast jeder zweite Befragte<br />
(47,4 Prozent) der 30- bis 39-Jährigen über ständigen Termin- und<br />
Zeitdruck.<br />
Was Stress ist und wie er entsteht<br />
Markante Veränderungen in der Arbeitswelt, die ständige Erreichbarkeit<br />
durch E-Mail und Mobiltelefon, hoher Erfolgsdruck und Arbeitsumfäge<br />
mit 60 Wochenstunden oder mehr führen zu Überlastung,<br />
zu Stresssymptomen und im schlimmsten Fall zu Burn-out, also zum<br />
Ausgebranntsein. Neben psychischen Reizereignissen (Stressoren)<br />
wie Angst vor Jobverlust, finanzielle Sorgen, hohe Verantwortung,<br />
Über- oder Unterforderung, Termindruck, Konflikte oder Verunsicherung<br />
führen auch körperliche Stressoren wie Lärm im Büro, Hitze oder<br />
Schlafentzug zu Stress. Der Körper sendet bei chronischer Überlastung<br />
Warnsignale aus. Typische Stressreaktionen sind Konzentrationsschwierigkeiten,<br />
Schlafprobleme, scheinbar grundlos auftauchende<br />
Angst oder Panik, Engegefühl in der Brust, Magen- oder Herzbeschwerden.<br />
Und das Gefühl, nicht mehr abschalten zu können. Nicht mal mehr<br />
im Urlaub.<br />
Dabei ist Stress prinzipiell völlig o.k. Es ist nicht der Stress an sich, der<br />
Angestellten und Freiberuflern zu schaffen macht. Denn nicht immer<br />
stresst Stress, manchmal macht er sogar riesigen Spaß, gibt Kraft und<br />
Energie, unterstützt die persönliche Weiterentwicklung und verleiht uns<br />
Flügel. Experten unterscheiden zwischen Eustress (angenehm, positiv)<br />
und Disstress (krankmachend). Akutes Stressverhalten bezeichnen Psychologen<br />
als Kampf- bzw. Fluchtreaktion.<br />
Körpereigenes Doping<br />
Wer eine „gefährliche“ Situation wahrnimmt wie etwa den wütenden<br />
Chef in der Tür oder einen unzufriedenen Kunden am Telefon, bei dem<br />
passiert Folgendes: Alle Körperfunktionen schalten auf Flucht oder Angriff.<br />
Das Gehirn gibt über das vegetative Nervensystem den Befehl aus:<br />
Stresshormone ausschütten. Damit kann der Organismus Leistungen<br />
erbringen, die er normalerweise nicht schafft. Das körpereigene Doping<br />
lässt Atmung, Puls, Blutdruck, Herzschlag und Muskeltonus ansteigen,<br />
Reaktionszeit und Konzentration verbessern sich. Man achtet nicht<br />
mehr auf sich, sondern auf die Situation, das Ziel. Normalerweise folgt<br />
der Anspannung eine Entspannungsphase. Doch heutzutage ist dieses<br />
Gleichgewicht gestört, auf Anspannung folgt Anspannung folgt Anspannung.<br />
Wer jedoch ständig unter Strom steht, muss mit schwerwiegenden<br />
Folgen rechnen: Nervenzellen sterben ab, Wahrnehmungsfähigkeit und<br />
Konzentration sind reduziert, Emotionen verflachen, alles wird gleichgültig<br />
und manche verfallen in Depressionen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
149
Karriere<br />
Kopfkreisler oder Magenverderber<br />
Menschen reagieren verschieden auf Stress. Denn Stress ist sehr individuell<br />
und sogar „tagesformabhängig“. Manche stecken arbeitsintensive<br />
und belastende Lebensphasen recht locker weg, andere sind höchst<br />
reizbar und unausgeglichen. Wer sich wann gestresst fühlt, hängt mit<br />
dem persönlichen Erleben und der Bewertung der als unangenehm<br />
empfundenen Spannungszustände zusammen.<br />
Was für ein Stresstyp sind Sie? Der „Magenverderber“ reagiert mit<br />
Appetitlosigkeit und Durchfall, andere haben Magendrücken und Sodbrennen.<br />
Die „Kopfkreisler“ neigen unter Dauerstress dazu, sich zu<br />
viele Gedanken zu machen und kommen abends beim Einschlafen oder<br />
nachts nicht mehr aus dieser kreisenden Denkspirale heraus. Um sich<br />
ja nicht mit missliebigen Aufgaben oder Themen beschäftigen zu müssen,<br />
sind „Auf-und-Davon-Typen“ sehr erfindungsreich: Sie müssen<br />
noch schnell eine Mail schreiben, einen Kaffee holen oder noch ein<br />
Telefonat führen. Die Folge: Der Arbeitsberg wird nicht kleiner, im Gegenteil.<br />
Der Druck nimmt noch mehr zu.<br />
Wege aus der Stress-Spirale<br />
Erst einmal gilt es, eine Situationsanalyse zu erstellen mit einem Selbsttest<br />
(PDF steht unter www.heidiwahl.de zum Download bereit) und<br />
seine mentalen Strukturen zu erkennen. Außerdem einen achtsamen<br />
Umgang mit sich selbst pflegen und sich in Gelassenheit üben („Es ist,<br />
wie es ist.“).<br />
Klar, das ist anfangs ziemlich ungewöhnlich für Menschen, die ein<br />
Projekt nach dem anderen abarbeiten und Aufgaben nur perfekt erledigen.<br />
Hilfreich ist das Führen eines persönlichen Stresstagebuchs mit<br />
individueller Erholungsliste, konkreter Tagesplanung und effektiverem<br />
Zeitmanagement.<br />
Wer sich vorkommt wie ein Hamster im Rad, sollte seine Erwartungen<br />
an sich selbst und seine Werte überprüfen und sich vor allem klarmachen:<br />
Wir sind alle nur Menschen, die hin und wieder Fehler machen,<br />
die nicht immer und überall perfekt sind und die gelegentlich an ihre<br />
Grenzen stoßen. Auch Erwartungen von Chefs, Mitarbeitern, Freunden<br />
und Verwandten muss und kann man nicht ständig erfüllen, Selbstständige<br />
dürfen Auftrage auch einmal absagen und wer keine Lust auf eine<br />
Party hat, bleibt eben zuhause.<br />
Stressmanagement im Alltag<br />
Entstressen, entschleunigen, einen Gang runterschalten – das ist allerdings<br />
leichter gesagt als getan. Doch packen Sie das Thema an, verschaffen<br />
Sie sich Freiräume, genießen Sie den Augenblick und gönnen<br />
Sie sich etwas. Entdecken Sie Ihr Talent zur Entspannung, zum Müßiggang.<br />
Sie und Ihre Mitmenschen werden davon profitieren.<br />
Wer kurz vor dem Burn-out steht, spürt zwar seine Grenzen, ignoriert<br />
sie jedoch und geht darüber hinweg. Was brauche ich? Was tut mir gut?<br />
Grundlagen der Achtsamkeit, der Wertschätzung des eigenen Körpers<br />
sind gefragt. Vertrauen Sie wieder Ihrer Intuition, Ihrem Bauchgefühl.<br />
Wer sich spürt, nimmt wieder die Umwelt wahr, andere Menschen und<br />
deren Bedüfnsse. Zu den Bewältigungs- bzw. Copingstrategien zählen:<br />
Entspannungs- und Meditationstechniken, gesunde Ernährung, Sport<br />
150<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Karriere<br />
und Bewegung. Funktionierende soziale Beziehungen sind ein guter<br />
Indikator für eine ausgewogene innere Balance. Jeder ist seines eigenes<br />
Glückes Schmied – oder anders ausgedrückt: Nehmen Sie Ihr Leben in<br />
die Hand.<br />
für Rückfragen: info@heidiwahl.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
151
Katalogerstellung
Katalogerstellung<br />
KAT 1<br />
Fachvortrag<br />
Kernaspekte und Basiskonzept zur Umsetzung<br />
eines durchgängigen ETK-Erstellungsprozesses<br />
Dr. Stefan Dierssen, DiNovum UG, Wildeshausen<br />
Thomas Lutz, Intelliact AG, Zürich, Schweiz<br />
Was ist am Ersatzteilkatalog Besonderes?<br />
Jedes Produkt wird heute mit einer Produktdokumentation ausgeliefert.<br />
Die typischen Informationsprodukte, die man aus dem privaten oder<br />
geschäftlichen Umfeld kennt, erstrecken sich von der Montageanleitung<br />
über die Betriebs-/Bedienungsanleitung bis hin zur Servicedokumentation<br />
oder Recyclinganleitung.<br />
Die Servicedokumentation und speziell der Ersatzteilkatalog (ETK)<br />
nimmt hier eine Sonderstellung ein. Im Falle eines Schadens oder einer<br />
Wartung muss die Funktionstüchtigkeit des Produktes in der Regel<br />
möglichst schnell wiederhergestellt werden. Je nach Produkt und gefordertem<br />
Produktivitätsgrad steht eine schnelle Problembehebung oder<br />
Ersatzteilbeschaffung im Zentrum, für die eine entsprechende Dokumentation<br />
unumgänglich ist. Der Kunde/Betreiber stellt dementsprechend<br />
hohe Ansprüche an die Dokumentation zum schnellen Auffindung<br />
des Fehlers, Identifikation des beschädigten Bauteiles und dessen<br />
Wiederbeschaffung.<br />
Die Sonderstellung der Ersatzteilkataloge gegenüber Produktdokumentationen<br />
verdeutlicht die nachfolgende Gegenüberstellung:<br />
Ersatzteilkatalog<br />
Basis:<br />
– Produktstruktur, Metadaten, Zeichnungen<br />
– Strukturierung/ Filterung nach Ersatz- &<br />
Verschleißteilen<br />
Erstellungsprozess:<br />
– Ersatzteilkennzeichnung in den Systemen<br />
– Zusammenführung der Daten aus den<br />
Systemen<br />
Businessrelevanz:<br />
– Aftersales Grundlage<br />
Produktdokumentation<br />
Basis:<br />
– Funktionsbeschreibungen, technische<br />
Daten, Prototypdaten etc.<br />
Erstellungsprozess:<br />
– Zusammentragen der verfügbaren Daten<br />
– Redaktioneller Inhaltsaufbau (Textbausteine,<br />
Layout, Finishing)<br />
Businessrelevanz:<br />
– Erfüllung gesetzlicher Forderungen<br />
– Kunden-Anforderung<br />
Tabelle 1: Vergleich ETK / Produktdokumentationen<br />
Aus der Gegenüberstellung werden zwei essentielle Unterschiede<br />
deutlich:<br />
1. Der Erstellungsprozess eines ETK basiert auf der Zusammenführung<br />
von Daten aus den Verwaltungssystemen (ERP, PDM, CAD), während<br />
Produktdokumentationen durch einen redaktionellen Prozess aufbereitet<br />
und verfasst werden.<br />
−−<br />
Das Ersatzteilwesen kann je nach Unternehmensstrategie eine<br />
prägende Businessrelevanz besitzen, was eine entsprechende Aufbereitung<br />
und Organisation der notwendigen Informationen und<br />
Dokumentationen erfordert. Die Businessrelevanz von allgemeinen<br />
Produktdokumentationen wie z. B. der Betriebs- und Bedienungsan-<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
155
Katalogerstellung<br />
leitung reduziert sich weitestgehend auf die Erfüllung gesetzlicher<br />
Normen oder die Umsetzung spezieller Kundenanforderungen.<br />
PDM/<br />
ERP<br />
Produkt<br />
-daten<br />
Zeichnungen/<br />
Modelle<br />
Stücklisten<br />
Redaktionssystem<br />
• Dokumentinhalte<br />
• Dokumentstrukturen<br />
• Inhaltskonfiguration<br />
• Layoutverknüpfung<br />
• Dokumentverwaltung<br />
Ersatzteilkatalog System<br />
• Hotspotting/<br />
3D Viewereinbindung<br />
• Stücklistenhandling<br />
• Bestellwesen<br />
• Anleitungsverknüpfung<br />
• Dokumentverwaltung<br />
Betriebsanleitung/<br />
Bedienungsanleitung<br />
Datenblätter/<br />
…<br />
Ersatzteilkatalog<br />
Abb. 1: Differenzierung von Redaktions-/Ersatzteilkatalogsystemen<br />
Der Kernunterschied zur inhaltlichen Aufbereitung wird auch bei einer<br />
systemseitigen Betrachtung von Redaktions- und Ersatzteilkatalogsystemen<br />
offensichtlich. Wie in Abb. 1 dargestellt, werden in einem<br />
Redaktionssystem die Basisinformationen aus dem Produkt-Daten-<br />
Management (PDM) und Warenwirtschaftssystem (ERP) gesammelt<br />
und redaktionell aufbereitet. Der Ersatzteilkatalog basiert hingegen<br />
zum Großteil auf der Ersatzteilstückliste, aus der die Artikel und ihre<br />
beschreibenden Merkmale bzw. Zeichnungen referenziert werden. Die<br />
Verknüpfung von Ersatzteilkatalog und Produktdokumentation ist auf<br />
gegenseitige Referenzen reduziert, da sich Inhalte und Layout in der<br />
Regel weitläufig unterscheiden.<br />
Somit sollte der Erstellungsprozess eines Ersatzteilkataloges gegenüber<br />
anderen redaktionell aufbereiteten Informationsprodukten klar unterschieden<br />
werden!<br />
Zur Erstellung eines Ersatzteilkataloges stehen heute funktionsreiche<br />
Softwaretools zur Verfügung. Die wesentlichsten Charakteristika können<br />
wie folgt zusammengefasst werden:<br />
−−<br />
Navigation durch Produktstruktur (2D oder 3D)<br />
−−<br />
Verknüpfung von Metadaten in die visuelle Navigationsdarstellung<br />
(2D-Hostspots, 3D-Links)<br />
−−<br />
Einbindung relevanter Dokumentationen und Anweisungen für Bauteile/Baugruppen<br />
−−<br />
Zugriffsbeschränkung (z. B. Differenzierung unterschiedlicher Benutzergruppen:<br />
Kunde, externer Servicetechniker, interner Servicetechniker)<br />
−−<br />
Know-how Hiding (2D-Zeichnungsanpassung, 3D-Genauigkeitsherabsetzung)<br />
Wie diese Funktionalitäten optimal angewendet und ausgenutzt<br />
werden, hängt entscheidend vom Erstellungsprozess und dessen<br />
156<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
Implementierung ab. Nachfolgend werden die Kernaspekte für eine<br />
entsprechende Umsetzung beleuchtet.<br />
ETK Erstellungsprozess – Kernaspekte<br />
Der Erstellungsprozess eines Ersatzteilkataloges wird im Wesentlichen<br />
durch drei Kernaspekte beeinflusst bzw. geprägt:<br />
−−<br />
Anwendungsfall<br />
−−<br />
Produkttyp & -struktur<br />
−−<br />
Organisation<br />
Der Anwendungsfall (engl. use case) beschreibt die Anforderungen mit<br />
klarem Fokus auf die Zielgruppe. Hierbei können die unternehmerischen<br />
Zielsetzungen bzw. Businesskonzepte mit berücksichtigt werden.<br />
Wenn z. B. unterschiedliche Service-Stufen (z. B. interne/externe<br />
Servicemitarbeiter) angeboten werden sollen, hat dies einen direkten<br />
Einfluss auf den Detaillierungsgrad der Information. Die Definition des<br />
Anwendungsfalles sollte immer die Sichtweise des Anwenders widerspiegeln<br />
und dessen Erwartungen erfüllen. Dies wirkt sich auf die Wahl<br />
der Umsetzungsvarianten eines Ersatzteilkataloges (Print – On/Offline<br />
– Webshop) aus. Da beispielsweise für einen Außendienstmitarbeiter in<br />
einer Produktionsanlage keine konstante Internetverfügbarkeit vorausgesetzt<br />
werden kann, wird eine reine Onlinelösung die Bedürfnisse des<br />
Anwenders nicht erfüllen!<br />
Neben der Anwendungs- und Benutzerbetrachtung hat auch das Produkt<br />
selber einen entscheidenden Einfluss auf den Ersatzteilkatalog.<br />
Folgende Produktklassen können hierzu unterschieden werden:<br />
−−<br />
Massenprodukt (MTS – Make to Stock) z. B. Elektronikgeräte<br />
−−<br />
Konfigurierbares Produkt (MTO – Make to Order) z. B. PKW<br />
−−<br />
Kundenspezifisches Produkt (ATO – Assemble to Order) z. B. Werkzeugmaschinen<br />
−−<br />
Einzelprodukt (ETO – Engineer to Order) z. B. Kraftwerk<br />
Jede Produktklasse weist unterschiedliche Strukturcharakteristiken auf,<br />
die sich wiederum auf den Umfang und die Komplexität der Ersatzteilliste<br />
auswirken. Allgemein kann gesagt werden, dass der Aufwand zur<br />
Erstellung eines Ersatzteilkataloges vom Massenprodukt zum Einzelprodukt<br />
zunimmt. Zur Abbildung eines Massenproduktes bedarf es einer<br />
Abbildung der Ersatzteile basierend auf den vorliegenden Stammdaten.<br />
Da das Produkt in einer großen Stückzahl hergestellt wird, bedarf es somit<br />
pro Produktausprägung nur EINES klar strukturierten Ersatzteilkataloges.<br />
Der heute im Maschinenbau häufig anzutreffende Produkttyp ist<br />
aber als kundenspezifisches Produkt ausgeprägt. D. h., die Basismaschine<br />
existiert bereits zu einem großen Prozentsatz, aber der Kunde kann beliebige<br />
Zusatzanforderungen einbringen, die jede Maschine im Prinzip<br />
zum Unikat machen. Für die Struktur des Ersatzteilkataloges bedeutet<br />
dies, dass neben den vorhandenen Stammdaten der Basismaschine kundenspezifische<br />
„Bewegungsdaten“ (Bauteile, die nur für diese spezifische<br />
Maschine gelten) mit aufgenommen werden müssen.<br />
Als letzter Kernaspekt zum Erstellungsprozess eines Ersatzteilkataloges<br />
ist die Organisation zu nennen. Da der ETK auf den Daten der Produktentwicklung<br />
basiert, aber häufig in der Dokumentationsabteilung<br />
erstellt wird, kann schnell eine Verantwortlichkeitsproblematik entstehen.<br />
Während die Definition der Ersatz-/Verschleißteile sowie die Pflege<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
157
Katalogerstellung<br />
dieser Listen in der Regel der Produktentwicklung vorbehalten ist, liegen<br />
dem Dokumentationsverantwortlichen die Hintergründe und Umfänge<br />
einer Änderung zumeist nur teilweise vor. Wenn die ETK-Erstellung aber<br />
für jede gelieferte Maschine durchlaufen werden muss, sollten die Verantwortlichkeiten<br />
und Aufgabenteilungen klar definiert sein.<br />
Vorstellung eines möglichen Basiskonzeptes<br />
Die verschiedenen Aspekte zum Erstellungsprozess eines ETK und die<br />
damit verbundenen Anforderungen müssen in einem Umsetzungskonzept<br />
berücksichtigt werden. Im nachfolgenden Kapitel wird ein mögliches<br />
Basiskonzept vorgestellt, das für den Produkttyp eines kundenspezifischen<br />
Produktes ausgelegt ist. Zudem wird davon ausgegangen, dass<br />
die Stücklisteninformationen in einem ERP-System vorliegen und die<br />
zu referenzierenden Zeichnungen in einem PDM-System vorgehalten<br />
werden.<br />
PDM/PLM<br />
1012.3<br />
1012.3<br />
S:1012.3 VIS Model<br />
(vereinfacht oder nicht)<br />
1001.4<br />
1002.4<br />
Model<br />
Aktuelle Stammdatensicht<br />
150%<br />
1012.3<br />
1001.4<br />
1003.4<br />
1002.4<br />
ERP<br />
Auftrags-/Servicestückliste<br />
100%<br />
1012.3<br />
ZN: S1000.7.001<br />
1001.4<br />
1003.4<br />
1002.4<br />
Generische<br />
Katalogstruktur<br />
1012.3<br />
S:1012.3<br />
Katalog<br />
Pos ET<br />
1 1002.4<br />
2 1003.4<br />
Abb. 2: Mögliches Basiskonzept zur ETK-Erstellung<br />
Entsprechend Abb. 2 basiert das Konzept auf einer vollständigen Abbildung<br />
der Produktstruktur im ERP-System. In den Stammdaten ist eine<br />
150-%-Maschine abgebildet, d. h. die Basismaschine inkl. aller verfügbaren<br />
Varianten und Optionen, aus der die spezifische Kundenmaschine<br />
für einen Auftrag abgeleitet wird. In der Auftragsstückliste werden<br />
im Weiteren die kundenspezifischen Anpassungen vorgenommen und<br />
alle relevanten Ersatz- und Verschleißteile markiert (falls nicht schon<br />
aus den Stammdaten übernommen). Eine generische/allgemeingültige<br />
Katalogstruktur wird zudem auf Seite des Katalogsystems pro Maschinenbaureihe<br />
oder -sparte vorausgesetzt.<br />
Bei der Katalogerstellung werden dann die folgenden Schritte<br />
durchlaufen:<br />
1. Aus dem ERP System wird die aktuelle Auftragsstückliste übertragen<br />
und nach den relevanten Ersatz- und Verschleißteilen gefiltert<br />
2. Die gefilterte Stückliste wird in die generische Struktur des Kataloges<br />
eingeordnet (z. B. Differenzierung nach Hauptbaugruppen)<br />
3. Entsprechend den Attributen der Artikel aus der Stückliste werden<br />
die im PDM-System hinterlegten Zeichnungen oder vereinfachten<br />
Visualisierungsmodelle geladen und im Katalogsystem verknüpft.<br />
158<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
Bei diesem Konzept gilt es, verschiedene Herausforderungen zu meistern.<br />
Der wesentlichste Punkt obliegt der Strukturbetrachtung! Das zuvor<br />
genannte Konzept bezieht die gesamten Strukturinformationen aus<br />
dem ERP, wobei die technischen Daten im PDM System abgelegt sind.<br />
Um alle Informationen korrekt zuordnen zu können, bedarf es eines<br />
Strukturabgleiches zwischen PDM- und ERP-System.<br />
Ein weiterer Punkt betrifft die Definition der generischen Struktur. Diese<br />
ermöglicht eine schnelle und einheitliche Navigation zum gewünschten<br />
Ersatzteil und stellt den übergeordneten Zugriff auf die Ersatzteilliste<br />
dar. Komplex wird dieses Thema mit einer steigenden Abbildung<br />
von Varianten, deren Synchronisation mit dem ERP-System erhebliche<br />
Aufwendungen generieren kann. Daher ist zu empfehlen, die generische<br />
Struktur so allgemein wie möglich zu halten.<br />
Als letzter Punkt ist die Modell-/Zeichnungseinbindung zu nennen.<br />
Insbesondere bei Katalogsystemen mit integrierter 3D-Visualisierung<br />
ist die Darstellungsperformance ein gewichtiger Faktor für die Userakzeptanz.<br />
Auch mit modernster Technik lassen sich vollständige Maschinen<br />
oder Anlagen nur mit großem Aufwand in akzeptable Visualisierungen<br />
umsetzen. Deutlich unproblematischer hingegen ist eine<br />
3D-Darstellung auf Baugruppen- oder Einzelteilebene, die im Einklang<br />
mit der generischen Struktur stehen müssen.<br />
Ebenfalls im Zusammenhang mit einer 3D-Darstellung steht die Frage<br />
nach dem Know-how-Schutz. Sobald Baugruppenmodelle dargestellt<br />
werden, kann es schnell zu einer unbeabsichtigten Veröffentlichung von<br />
Firmenwissen kommen. Um diesem entgegenzuwirken, müssen Möglichkeiten<br />
der „Modellabstrahierung“ (Verringerung der Darstellungsgenauigkeit)<br />
oder Zugriffsbeschränkung in Betracht gezogen werden.<br />
Die professionellen Softwaresysteme bieten hierzu verschiedene technische<br />
Lösungsmöglichkeiten an.<br />
Zusammenfassung<br />
Der ETK nimmt eine Sonderstellung gegenüber anderen Informationsprodukten<br />
ein, womit sein Erstellungsprozess separat betrachtet werden<br />
muss. Die wesentlichsten Anforderungen zur Umsetzung eines<br />
entsprechenden Vorhabens werden durch den zu dokumentierenden<br />
Produkttyp (Strukturvorgabe) und den Anwendungsfall definiert. Eine<br />
zentrale Stellung über verschiedene Aspekte behält die Strukturbetrachtung<br />
und deren Abgleich in den eingesetzten Systemen. Das Umsetzungskonzept<br />
muss diesen Aspekten Rechnung tragen und darüber<br />
hinaus die Themenstellungen der Datenaufbereitung, Organisation und<br />
Verantwortlichkeiten klären. Da jedes Unternehmen eine spezifische<br />
Zusammensetzung von Produkttyp, Unternehmensstrategie und -kultur<br />
hat, gibt es kein allgemeingültiges Konzept zur Umsetzung eines Ersatzteilkataloges.<br />
Das vorgestellte Basiskonzept hat auf die Kernpunkte<br />
aufmerksam gemacht und soll Unternehmen helfen die richtigen Fragestellungen<br />
und Vorgehensweisen zur Umsetzung zu finden. Die Technologie<br />
ist heute kein limitierender Faktor mehr! Die Kosten für einen<br />
Ersatzteilkatalog werden vielmehr durch die Aufwände zur Datenaufbereitung<br />
und den Erstellungsprozess definiert. Daher ist eine solide Konzeption<br />
dieses Prozesses der Schlüssel zum Projekterfolg.<br />
dierssen@dinovum.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
159
Katalogerstellung<br />
KAT 2<br />
Fachvortrag<br />
Von PLM zum Katalog – Integrationsszenarien<br />
Peter Pfalzgraf, PROSTEP AG, Darmstadt<br />
PLM-Systeme und -Prozesse sind mittlerweile in vielen Unternehmen<br />
etabliert und werden intensiv, vor allem in Engineering-Prozessen,<br />
genutzt. An das Engineering angeschlossene Unternehmensbereiche,<br />
auch die Technische Dokumentation oder Bereiche wie der Service, sind<br />
häufig nicht in das Unternehmens-PLM integriert und nutzen in vielen<br />
Fällen eigene Systeme und Prozesse. Der Vortrag stellt vorhandene<br />
Integrationslösungen und Technologien vor, die eine nahtlose Weiterverwendung<br />
von PLM-Daten in anderen Unternehmensbereichen und<br />
auch außerhalb des Unternehmens ermöglichen.<br />
Anforderungen<br />
Eine Hauptforderung ist: „Die richtigen Informationen, zur richtigen<br />
Zeit am richtigen Ort, sei es für Service Dokumentation, Katalogerzeugung<br />
oder als Input für die Angebotserstellung.“ Eine aktuelle, systemübergreifende<br />
Bereitstellung und Filterung von Informationen bezogen<br />
auf spezifische Aufgaben stellt immer höhere Anforderungen an<br />
Mensch und Maschine. Der Vortrag zeigt einen Ansatz zur Vermeidung<br />
von Informations-Redundanzen durch die applikationsneutrale Verknüpfung<br />
von Informationen aus Systemen wie ERP und PLM auf Basis<br />
offener Standards wie SOAP, REST und XML. Am Beispiel einer Katalogerzeugung<br />
1: Weboberfläche wird gezeigt, zur wie Darstellung<br />
leicht Änderungen an den Quelldaten<br />
Bild<br />
automatisch geänderter in Informationen<br />
aktualisierte Dokumente überführt werden können.<br />
Preview - Katalog Update<br />
Aktualisieren<br />
Abbrechen<br />
Icons:<br />
© PROSTEP AG - <strong>2012</strong><br />
Abb. 1: Weboberfläche zur Darstellung geänderter Informationen<br />
PH 18/09/12 – Page 1<br />
Einsatz von Standards<br />
Die Verwendung von XML erlaubt die einfache Unterstützung eines<br />
einheitlichen Katalogdatenaustausches auf Basis unterschiedlicher<br />
Formate wie BMEcat, openTRANS oder anderer genormter und spezifischer<br />
XML-Datenformate. Die Unterstützung offener Web Service Standards<br />
wie REST und SOAP erlaubt die Wiederverwendung, Abstraktion<br />
160<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
von Diensten und Daten sowie die lose Kopplung unterschiedlichster<br />
Unternehmenssysteme.<br />
Viele Systeme zur Verknüpfung unterschiedlicher Informationsdomänen<br />
realisieren dies über die Duplikation der Information in eigenen<br />
Datenbanken, mit allen dadurch geschaffenen Problemen wie Datenaktualität,<br />
Speicherplatzbedarf und Zugriffs- bzw. Rechtemanagement.<br />
Link Engine<br />
Im Vortrag wird eine „Link Engine“ vorgestellt, die in Kombination<br />
mit leistungsfähigen und performanten Konnektoren zu nahezu allen<br />
marktüblichen PLM- und ERP-Systemen diese Probleme verhindert<br />
und Use-Case-spezifische Sichten auf Unternehmensdaten bereitstellen<br />
kann. Es können z. B. für die Katalogerzeugung Daten aus ERP<br />
und PLM als BMEcat-konformes XML-Schema bereitgestellt werden,<br />
über dasselbe System können aber auch PLM-Informationen wie zum<br />
Beispiel Stücklisten oder Materialinformationen in weitere Unternehmensprozesse<br />
wie Angebotsanfragen oder auch Änderungsprozesse<br />
einfließen.<br />
Die Link Engine als Basis einer domänen- und systemübergreifenden<br />
Informationslandschaft Bild 2: Link Engine ist die Basis für die erfolgreiche, automatisierte<br />
Erzeugung und Bereitstellung von Katalogdaten.<br />
Domänenübergreifende Daten- und Prozessintegration<br />
Funktionsprinzip<br />
Daten werden verlinkt<br />
(und nicht kopiert)<br />
Anwender und Prozesse<br />
können auf Fremddaten<br />
online zugreifen<br />
Requirements-<br />
Management<br />
PLM / ERP<br />
Vorteile und Nutzen<br />
Die Zusammenhänge<br />
zwischen den Domänen<br />
werden sichtbar und<br />
kontrollierbar<br />
(Stichwort: Traceability)<br />
Die Konsistenz der Daten<br />
wird kontrollierbar, Fehler<br />
werden vermieden und<br />
komplexe Zusammenhänge<br />
beherrschbar<br />
E/E<br />
Link Engine<br />
Abb. 2: Link Engine<br />
© PROSTEP AG 2011<br />
PH 18/09/12 – Page 2<br />
Kommunikation<br />
Die Kommunikation der erzeugten Katalogdaten kann über verschiedene<br />
Medien erfolgen. Ein Beispiel dafür kann das PDF-Format sein.<br />
Durch Verwendung interaktiver PDF-Dokumente mit 3D-Inhalten ergeben<br />
sich zusätzliche Vorteile in der Kommunikation von komplexen<br />
Informationen. Die strukturierte Erfassung von Daten in PDF-Formularen<br />
erlaubt die sichere, asynchrone Integration interner und externer<br />
Anwender in Unternehmensprozesse und -systeme. Dies ermöglicht es<br />
beispielsweise, direkt im PDF-Dokument mit den Katalogdaten einen<br />
Bestellprozess für die ausgewählte Produktvariante zu initiieren und<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
161
Katalogerstellung<br />
Bild 3: Einsatz von PDF zur<br />
die Kommunikation<br />
entsprechenden Daten zu kommunizieren und automatisiert in das<br />
Bestellsystem zu übernehmen.<br />
Abb. 3: Einsatz von PDF zur Kommunikation<br />
© PROSTEP AG 2011<br />
für Rückfragen: peter.pfalzgraf@prostep.com<br />
© PROSTEP AG <strong>2012</strong><br />
PH 18/09/12 – Page 3<br />
162<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
KAT 3<br />
Fachvortrag<br />
Print-Katalog, Homepage und Online-Shop aus<br />
einer Quelle?! – Erfahrungen aus der Praxis<br />
Rainer Börsig, Fischer Computertechnik GmbH, Radolfzell<br />
Bürkle<br />
Die Firma Bürkle GmbH entwickelt, produziert und vertreibt manuelle<br />
Proben nahme systeme, Abfüllgeräte für aggressive Flüssigkeiten sowie<br />
Laborgeräte und Laborbedarf aus Kunststoff. Über 2.000 Produkte werden<br />
über Handelspartner weltweit verkauft. Wichtigstes Verkaufsinstrument<br />
sind der Versandkatalog und der Internet-Shop sowie die Expertise<br />
und das umfangreiche Know-how beim Umgang mit schwierigen<br />
chemischen Substanzen.<br />
Gegründet 1950 als Handelsvertretung für pharmazeutische Produkte<br />
und Kunststofflaborgeräte bietet Bürkle heute das europaweit umfangreichste<br />
Sortiment an manuellen Probennehmern und Abfüllgeräten.<br />
Sicherheit beim Abfüllen von aggressiven Flüssigkeiten und zuverlässige<br />
Aussagen über Qualität, Beschaffenheit oder Zusammensetzung bei<br />
der Probennahme stehen dabei im Vordergrund. Bürkle Produkte werden<br />
ausschließlich in Deutschland hergestellt.<br />
Ausgangssituation<br />
Aufgrund der Expertise stellt der gedruckte Katalog von Bürkle ein<br />
Referenzwerk dar, sowohl für Kunden als auch für Bürkle-Spezialisten<br />
selbst. Die Erstellung und Pflege des Katalogs war allerdings bereits in<br />
der Ausgangssprache Deutsch sehr aufwändig und schon die Übersetzung<br />
nach Englisch war sehr anspruchs voll hinsichtlich Kosten- und<br />
Termineinhaltung. Der Online-Shop lief komplett eigenständig über<br />
eine Agentur, die alle Änderungen auf Anweisung von Bürkle manuell<br />
durchführte. Das Layout musste komplett überarbeitet werden, um<br />
modernen Ansprüchen gerecht zu werden. Die Unterstützung weiterer<br />
Sprachen war auf dieser Plattform zu vertretbaren Kosten nicht<br />
möglich.<br />
Ziele<br />
Die wichtigsten Ziele:<br />
−−<br />
Komplette Überarbeitung des Internetauftritts<br />
−−<br />
Zentrale Pflege aller Produktdaten für Print und Online<br />
−−<br />
Direkte Ausgabe für Shop-Aktualisierung<br />
−−<br />
Automatisierte Erstellung des Print-Katalogs<br />
−−<br />
Schnittstelle zum Translation-Memory-System Trados<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
163
Katalogerstellung<br />
Weitere Randbedingungen:<br />
−−<br />
Verwalten des kompletten Internet-Auftritts im CMS<br />
−−<br />
Flexible Seitenlayouts im Katalog<br />
−−<br />
Ausgabe im BMEcat-Format<br />
−−<br />
Extrem angespannte Terminsituation<br />
Vorgehensweise<br />
PHASE 1: Online-Shop und Homepage<br />
−−<br />
Konzeption: Definition Prozesse, Datenmodell, Schnittstellen (Shop)<br />
−−<br />
Bereitstellung des Pflegesystems: Installation, Schulung<br />
−−<br />
Unterstützte Umsetzung für Sortimentsbereich 1 (von 4)<br />
−−<br />
Inbetriebnahme der Schnittstelle zu Shop / Homepage<br />
−−<br />
Umsetzung der Bereiche 2 bis 4 und Übersetzungen<br />
PHASE 2: Print-Katalog<br />
−−<br />
Anpassung der Vorlagen<br />
−−<br />
Definition der Seitenlayouts<br />
−−<br />
Aufbau des Print-Katalogs (kapitelweise)<br />
−−<br />
Übersetzung der Beschreibungsseiten<br />
−−<br />
Kataloggenerierung und Finishing<br />
Datenmodell<br />
Produkthierarchie<br />
−−<br />
Abstimmung mit Online-Shop<br />
−−<br />
Produktbereich, Zwischenkategorie, Produktgruppe, Produkt,<br />
Variante<br />
−−<br />
Weitere: Zubehöre, Ersatzteile<br />
Merkmale<br />
−−<br />
Typen: Daten (Unicode), Textbausteine (XML), Bilder, Dokumente<br />
Sprachen<br />
−−<br />
Deutsch, Englisch, Spanisch, Französisch, Russisch<br />
Referenzen<br />
−−<br />
Zubehör<br />
−−<br />
Ersatzteile<br />
Objekte<br />
−−<br />
Grafikverwaltung<br />
−−<br />
Module: strukturierte Texte, Text/Grafik-Kombinationen<br />
−−<br />
Dokumentenverwaltung<br />
Schlüssel: Eindeutige Nummer<br />
164<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
Schnittstelle Online-Shop / Homepage<br />
Aufbau Homepage / Online-Shop:<br />
Aktualisierung des Online-Shops<br />
−−<br />
1 x pro Tag (nachts)<br />
− − „auf Knopfdruck“<br />
Übertragung per XML (gezippt)<br />
Print-Katalog<br />
Aufbau<br />
−−<br />
Produktfamilien<br />
Seitentypen<br />
−−<br />
Beschreibungsseiten<br />
−−<br />
Produktseiten<br />
Flexible Seitenlayouts<br />
−−<br />
PageEditor-Plugin: Seitenlayouts in InDesign<br />
−−<br />
Zuordnung: Produktdaten / Rahmentyp<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
165
Katalogerstellung<br />
Finishing in InDesign<br />
Fazit / Erkenntnisse<br />
Online und Print aus einer Quelle!<br />
Schauen Sie es sich an: www.buerkle.de, Print-Katalog bestellbar in<br />
derzeit 5 Sprachen<br />
−−<br />
Anspruchsvolle Terminsituation erfordert klare Prioritäten<br />
−−<br />
Konsistenz der Daten erfordert klare Prozesse<br />
−−<br />
Aktualisierung Online nur bei Bedarf (auf Knopfdruck)<br />
−−<br />
Flexibilität für zu individuellen Seitenlayouts<br />
−−<br />
Umsetzungsdauer Shop/Homepage: 3 Monate (inkl. Schulung, ohne<br />
Befüllung der Daten)<br />
−−<br />
Umsetzungsdauer Print-Katalog: 2 Monate (inkl. Schulung, ohne Katalogerstellung)<br />
−−<br />
Aufwand (extern) für Beratung, Anpassung, Bereitstellung ca.<br />
40 Manntage<br />
−−<br />
Gute Koordination mit Agentur erforderlich<br />
Ausblick<br />
−−<br />
Weitere Sprachen (Türkisch, osteuropäische Sprachen)<br />
−−<br />
Technische Dokumentationen<br />
−−<br />
Online-Blätterkatalog<br />
boersig@fct.de<br />
166<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
KAT 4<br />
Partnerpräsentation<br />
Ersatzteilkataloge automatisiert erstellen<br />
mit SAP ERP und CATALOGcreator ®<br />
Bernd Neugebauer, SAP Deutschland AG & Co. KG, Walldorf<br />
Robert Schäfer, TID Informatik GmbH, Inning<br />
Ersatzteilkataloge stellen in der Kundenkommunikation und der Kundenbindung<br />
im Aftersales sowohl in der Print- als auch in der Onlineoder<br />
Offline-Fassung das zentrale Medium dar. Der Zwang zur Automation<br />
und damit zur Kosteneinsparung steigt auch in diesem Bereich<br />
des Produktlebenszyklus. Der Vortrag zeigt auf Basis von erfolgreichen<br />
Kundenprojekten die Prozesse zur automatischen Ersatzteilerstellung<br />
auf unter Einsatz von Standard-Software wie SAP ERP und CATALOGcreator®.<br />
Neben den Voraussetzungen für die ETK-Automation werden<br />
die Lösungen vorgestellt und ihre Integration erläutert.<br />
Prozessdarstellung<br />
Die automatische Erzeugung von Ersatzteilkatalogen für die Publikationskanäle<br />
Online, Print und DVD startet im SAP ERP mit der notwendigen<br />
Stammdatenpflege am Materialstamm, respektive den Stücklisten<br />
bzw. Equipments. Klassifikationsmerkmale, Hotspot-Grafiken oder<br />
Einbauanleitungen sind mit den SAP-Datenstrukturen verknüpft und<br />
werden in den hierarchisch geordneten „Verwendern“ wie der Auftragsstückliste<br />
referenziert. Sind manuelle Eingriffe an der Hierarchie<br />
notwendig, kann zusätzlich ein Katalog im SAP ERP aufgebaut werden.<br />
Dazu wird die Lösung „CatManSuite“ als Redaktionswerkzeug im SAP<br />
ERP genutzt, mit der auf Basis von Materialstamm oder Stücklisten<br />
Ersatzteilkataloge aufgebaut werden. Eine definierte Schnittstelle überträgt<br />
die SAP ERP nach einer Datenqualitätsprüfung in die Ersatzteil-<br />
Lösung CATALOGcreator®, die die einheitliche Versorgung der Publikationskanäle<br />
Online, Print und DVD sicherstellt.<br />
Egal ob Stücklisten aus der Konstruktion, dem Vertrieb oder aus SAP<br />
SD Aufträgen für Ersatzteilkataloge genutzt werden: für die Automation<br />
muss die Datenqualität stimmen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
167
Katalogerstellung<br />
Beispiele Kundenprojekte<br />
Typische Ersteller von Ersatzteilkatalogen sind Maschinen- und Anlagenbauer,<br />
die aus SAP ERP Stücklisten Ersatzteilkataloge produzieren.<br />
−−<br />
Szenario 1: Direkt an den Baugruppen und Materialstämmen der<br />
Stückliste werden Zeichnungen, Dokumente und Merkmale hinterlegt.<br />
Über einen Datenextraktor werden die Stücklisten regelmäßig<br />
aus dem SAP ERP exportiert und der CATALOGcreator® Lösung<br />
bereitgestellt.<br />
−−<br />
Szenario 2: Das häufigste Szenario setzt eine Redaktion von Stücklisten<br />
voraus, da diese nicht direkt für Ersatzteilkataloge und damit<br />
die Endkunden genutzt werden können. In der Redaktionslösung<br />
„CatManSuite“ können Ersatzteilkataloge aus Stücklisten und Materialstämmen<br />
aufgebaut und mit Zusatzdaten versehen werden. Über<br />
einen Datenextraktor werden die Kataloge regelmäßig nach einer<br />
Datenqualitätsprüfung aus dem SAP ERP exportiert und der CATA-<br />
LOGcreator® Lösung bereitgestellt.<br />
−−<br />
Szenario 3: Als Nutzer von Anlagen und Maschinen können mit Hilfe<br />
von „CatManSuite“ eigene Ersatzteilkataloge aufgebaut werden, entweder<br />
aus eigenen Materialstammdaten oder z. B. Technischen Platz<br />
Strukturen. Dies kann dann sinnvoll sein, wenn die jeweiligen Hersteller<br />
keine elektronischen Ersatzteilkataloge liefern können oder<br />
diese redaktionell für die Nutzung bearbeitet werden müssen. Über<br />
einen Datenextraktor werden die Kataloge regelmäßig nach einer Datenqualitätsprüfung<br />
aus dem SAP ERP exportiert und der CATALOGcreator®<br />
Lösung bereitgestellt.<br />
Ersatzteilkatalog-Redaktion im SAP ERP<br />
Das SAP-ERP-basierte Katalog-Werkzeug „CatManSuite“ dient seit<br />
2005 zur Redaktion von Katalogen im SAP ERP. Über Kundenprojekte<br />
wird die Lösung von SAP Consulting seitdem kontinuierlich ausgebaut.<br />
Kataloghierarchien können automatisch aus Stücklisten erzeugt<br />
oder manuell hinzugefügt werden. Hotspot-Grafiken und 3D-Modelle<br />
können ebenso verwaltet werden „einfache“ Produktbilder oder PDFbasierte<br />
Einbauanleitungen.<br />
Anpassbare Prüfroutinen liefern Informationen über die Stammdatenqualität<br />
und stellen so die Akzeptanz und Zufriedenheit der Katalognutzer<br />
sicher. Qualitätsprüfungen sind z. B. auf Pflichtfelder am<br />
Materialstamm, auf Klassifikationsmerkmale oder auch auf Dokumente<br />
möglich.<br />
Der Datenextraktor der „CatManSuite“ sammelt alle relevanten Daten<br />
zum Ersatzteilkatalog im SAP ERP inkl. der Dokumente ein und stellt<br />
eine XML-Datei zur Verfügung, die als Datenbasis für die Publikationen<br />
in CATALOGcreator® dient.<br />
Ersatzteilkataloge publizieren mit CATALOGcreator ®<br />
Der CATALOGcreator® ist eine deutsche Standardsoftware zur Publikation<br />
von Ersatzteilkatalogen und strukturierten Zusatzinformationen.<br />
Dabei werden aus einer Datenbasis sowohl Papierkataloge als auch<br />
interaktive HTML-Kataloge zur Nutzung im Inter-/Intranet oder offline<br />
von CD, DVD, USB-Memorystick oder von der Festplatte generiert. Je<br />
168<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
nach Qualität der Ausgangsdaten erfolgt die Produktion der Kataloge<br />
manuell bis vollautomatisch.<br />
Beliebige Sprachversionen, Warenkorbfunktionalität für die Bestellung,<br />
eine Benutzerverwaltung und eine konfigurierbare Suche gehören<br />
ebenso zum Standard wie auch die Nutzung der Kataloge von mobilen<br />
Endgeräten, wie z. B. iPad oder Android.<br />
Die Integration in die Online-Verkaufsprozesse mit SAP E-Commerce<br />
für SAP ERP wird über das standardisierte Open Catalog Interface<br />
(OCI) realisiert.<br />
Zusammenfassung<br />
Für eine automatisierte Erzeugung von Ersatzteilkatalogen werden<br />
korrekte und vollständige Stammdaten im SAP ERP vorausgesetzt. Das<br />
Redaktions-/Stammdatenteam überwacht den Prozess-Ablauf. Die involvierten<br />
Werkzeuge setzen ihre jeweiligen Stärken ein: SAP ERP und<br />
„CatManSuite“ stellen perfekte Stamm- und Katalogdaten zur Verfügung<br />
und CATALOGcreator® übernimmt die professionelle Darstellung<br />
der Ersatzteile in den Publikationskanälen Online, Offline und Print.<br />
für Rückfragen:<br />
bernd.neugebauer@sap.com<br />
robert.schaefer@tid-informatik.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
169
Katalogerstellung<br />
KAT 5<br />
Partnerpräsentation<br />
In einem System alle Katalogbestandteile<br />
erstellen: System-Cockpit für PIM<br />
und Technische Kommunikation<br />
Mike Fischer, Berker GmbH & Co. KG, Schalksmühle<br />
Kevin Johnson, Noxum GmbH, Würzburg<br />
Der Vortrag zeigt, wie die Idee zu einem neuen Systemkonzept für Product<br />
Information Management und Technische Kommunikation gereift<br />
und umgesetzt worden ist. Dabei werden die Rahmenbedingungen in<br />
dem mittelständischen Unternehmen Berker, einem der führenden<br />
Hersteller im Bereich der Elektroinstallation mit über 850 Mitarbeitern,<br />
bzgl. der personellen Ressourcen und der Vielzahl eingesetzter Software-Tools<br />
für das Erstellen von elektronischen und Print-Formaten<br />
beleuchtet.<br />
Am Beispiel des Print-Katalogs wird erläutert, wie einzelne Systembestandteile<br />
unter einer gemeinsamen Benutzeroberfläche ineinander<br />
greifen, um sowohl Produktinformationen als auch mit „Funktionsdesign“<br />
erstellte redaktionelle und Marketinganteile zu pflegen und in<br />
einer Publikationsstruktur zusammenzuführen. Über für den Redakteur<br />
kaum spürbare Schnittstellen zu SAP, einem Print-Publisher und einem<br />
Translation-Memory-System (TMS) kann der Katalog komplett aus<br />
einer Redaktionsumgebung produziert werden.<br />
Ziele und Projektaufgaben<br />
Berker definierte seine Erwartungen und Ziele an das zukünftige PIMund<br />
Redaktionssystem unter Berücksichtigung der personellen und<br />
IT-Rahmenbedingungen. Die Nutzer des Systems werden neben den<br />
Redakteuren der Technischen Dokumentation z. B. auch Mitarbeiter im<br />
Produktmanagement, Marketing, Service, Außendienst oder Lektoren<br />
sein. Es sollte also ein System mit definierten Rollen und Rechten und<br />
mit integrierten Schnittstellen zu Drittsystemen sein.<br />
Um nach der ersten Projektphase das Ziel zu erreichen, einen kundenorientierten<br />
Katalog in mehreren Sprachen erstellen zu können,<br />
setzte Berker zunächst auf die Entwicklung eines Konzepts, mit dem die<br />
„heterogenen“ Bestandteile eines Print-Kataloges aus Produktinformationen,<br />
Marketingseiten, technischem Anhang und Indexverzeichnis in<br />
einem Redaktionssystem zusammengeführt werden können. Weiterhin<br />
sollte ein Übersetzungsmanagement integriert werden, um Kosten<br />
durch die genaue Abgrenzung zu übersetzender Inhalte zu reduzieren.<br />
Übersetzungsaufträge sind über Strukturen und Strukturbestandteile<br />
in beliebiger Größe zu generieren und an ein TMS zu übergeben.<br />
Abschließend sollten alle erforderlichen Informationen redaktionell<br />
strukturiert und automatisch publiziert werden – als Druck-pdf und<br />
InDesign-Format.<br />
Entwicklung des „Cockpit-Konzepts“<br />
Für die Entwicklung des „Cockpit-Konzepts“ mussten die klassischen<br />
Bestandteile eines PIM-Systems und eines Redaktionssystems kombiniert<br />
werden. Das Gerüst dazu bilden verschiedene Editoren und<br />
Strukturbäume. In einer baumartig strukturierten Merkmalverwaltung<br />
170<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
werden Merkmale und Vorgabewerte sowie spezielle Datentypen<br />
definiert und abgelegt. Der Portfoliobaum bildet das Herzstück der<br />
medienneutralen Datenpflege. In ihm werden den Produkten nach<br />
dem Prinzip der größtmöglichen Vererbung Merkmale und Werte<br />
zugeordnet.<br />
Redaktionelle Katalogstrukturen werden im Publikationsstruktur-Editor<br />
angelegt. Nützliche Features wie ein Editor zur Massenpflege von<br />
Daten, eine Schnellansicht, die wie ein Datenblatt je Artikel gepflegte<br />
Inhalte übersichtlich darstellt oder der Medienbaum zur Verwaltung<br />
von Bildern und Grafiken unterstützen den Redakteur bei seiner täglichen<br />
Arbeit enorm. Schnittstellen für den Import und Export der Daten<br />
von/nach SAP und dem Print-Publisher sowie Datenexporte/-importe<br />
für Übersetzungsaufträge komplettieren das Gesamtkonzept.<br />
Projektumsetzung und Arbeiten im PIM-System<br />
Zu Beginn der Umsetzung stand der Aufbau einer Merkmalverwaltung.<br />
Dazu wurden die Daten im vorhandenen Altsystem von Berker bereinigt<br />
und ins neue System migriert. Produktmerkmale und -werte sind<br />
nach maximaler Wiederverwendbarkeit angelegt worden. Die SAP®<br />
Warenwirtschaftsdaten werden tagesaktuell dem PIM-System zugeführt<br />
und neue Datentypen haben weitere Möglichkeiten eröffnet, Daten zu<br />
den Produkten noch „sauberer“ und kohärenter pflegen zu können.<br />
Die Erstellung, Verwaltung und Pflege der Artikel und Artikelmerkmale<br />
erfolgt nun in einer gegliederten Portfoliostruktur nach den Prinzipien<br />
maximaler Merkmalsvererbung. Auf diese Weise kann der Pflegeaufwand<br />
für neue Produkte deutlich reduziert werden. Im Prinzip ist die<br />
Vererbung von Merkmalen und Merkmalswerten der erste Schritt zur<br />
Massendatenpflege, der durch die Möglichkeiten eines zusätzlich verfügbaren<br />
Datenblatteditors noch weiter vereinfacht wird. Mit Konditionierungsobjekten<br />
kann die Gültigkeit von Artikeln und Merkmalen auf<br />
Märkte und Zeitpunkte eingeschränkt werden, was beim Publizieren<br />
entsprechend automatisch berücksichtigt wird.<br />
Das Systemkonzept ist auf die Verknüpfung des Product Information<br />
Management und des Redaktionssystems ausgelegt. In einem System-<br />
Cockpit wird der Übergang vom relationalen PIM-Datenbanksystem<br />
zum objektorientierten XML-System vollzogen, und zwar genau zwischen<br />
Produktportfolio und der Verbauung von Artikeln in einer Redaktionsstruktur.<br />
Denn nachdem alle Artikel ihre Merkmale und Werte<br />
erhalten haben aus dem relationalen Teil des Systems, werden alle Informationen<br />
in ein Artikelobjekt überführt und erhalten den weiterverarbeitbaren<br />
Objektcharakter. Darüber hinaus können auch relationale<br />
Produktdaten in Fließtexten als technische Variable verbaut werden.<br />
Die erste Bewährungsprobe für das System bestand im Neuaufbau<br />
einer Publikationsstruktur für den neuen Berker Hauptkatalog. Hierzu<br />
galt es, die vorhandenen Produktinformationen mit redaktionellen Inhalten<br />
und Marketingseiten in einer Publikationsstruktur zu verbauen.<br />
Dazu wurden alle Artikel in einer Struktur sortiert und gruppiert sowie<br />
die zu publizierenden Merkmale und Merkmalwerte definiert. Besonderen<br />
Wert legte Berker auf die Darstellung von Relationen zwischen<br />
zusammenpassenden Artikeln und die entsprechenden Seitenverweise.<br />
Die Fließtext-Inhalte technischer Informationen und Marketingtexte<br />
wurden in der abgeschlossenen Projektphase 1 als fertige pdf-Seiten in<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
171
Katalogerstellung<br />
den Katalog integriert, damit sie für die Generierung von Seitenverweisen<br />
mitgezählt werden. Diese Seiten wurden abschließend vor der Fertigstellung<br />
im InDesign-Format durch die Originalseiten wieder ersetzt.<br />
Das Gesamtkonzept sieht aber vor, in einer späteren Projektphase auch<br />
diese Inhalte im System-Cockpit anzulegen.<br />
Im anschließenden Publikationsprozess, bei dem zunächst eine xml-<br />
Datei generiert wird, werden aktuelle Daten aus der SAP-Schnittstelle,<br />
wie Preise und Rabattgruppen, zugespielt. Das fertige xml wird dann<br />
an den Publisher übergeben, der den gesamten Katalog inklusive<br />
einem Indexverzeichnis automatisch als pdf- oder InDesign-Dokument<br />
erzeugt.<br />
Projektergebnis und Ausblick<br />
Die Umsetzung der Anforderungen gelang: Das PIM- und Redaktionssystem<br />
stellt die zentralen Systemfunktionen wie Benutzerverwaltung,<br />
Rechte-, Versionsmanagement und Datenpflege sowie die Kopplung von<br />
Drittsystemen wie SAP und TMS bereit. Aktuell ist mit der Projektphase<br />
1 der PIM-Anteil bereits umgesetzt. Die Projektziele im Bereich der<br />
Technischen Dokumentation hinsichtlich der Marketing- und Technikseiten<br />
des Kataloges sowie die Pflege von Bedienungsanleitungen im<br />
gleichen System-Cockpit, die nach Funktionsdesign aufzubauen sind,<br />
werden im Rahmen des Gesamtkonzepts in weiteren Projektphasen<br />
angestrebt.<br />
Aus einem System können dann die Aufgaben des Product Information<br />
Management und der Technischen Redaktion umgesetzt werden. Mit<br />
der Anbindung des Übersetzungsmanagements über ein TMS ist dies<br />
in jeder Sprache möglich, was bereits heute im aktuellen Projektstatus<br />
Zeit und Kosten spürbar reduziert. Die Vision vom Katalog auf „Knopfdruck“<br />
ist real geworden.<br />
Weitere Optionen im Rahmen des Gesamtkonzeptes sind die Umsetzung<br />
eines Dokumenten-Managementsystems, die Integration eines<br />
Grafik-Editors, um Texte in Grafiken übersetzbar zu machen, die Optimierung<br />
des Lektoratsprozesses sowie die Generierung elektronischer<br />
Datenformate für den Online-Katalog und für die Warenwirtschaftssysteme<br />
des Großhandels (BMEcat, Eldanorm).<br />
Für Rückfragen<br />
mike.fischer@berker.de<br />
johnson@noxum.com<br />
172<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
KAT 6<br />
Partnerpräsentation<br />
Ein Atlas statt mehrerer Kataloge –<br />
eine Wegbeschreibung zum Erfolg<br />
Susanne Löhrer, Interroll AG, S. Antonino, Schweiz<br />
Karsten Schrempp, PANTOPIX GmbH & Co. KG, Bodnegg<br />
Das Ziel dieses Projekts bestand darin, das Unternehmen Interroll über<br />
ein hochwertiges Marketingprodukt – den „Atlas“ – und einen komplett<br />
neu gestalteten Webauftritt inklusive eines Online-Katalogs als einen<br />
globalen Player am Markt zu platzieren. Wir berichten hier, wie wir auf<br />
der Basis eines bestehenden Redaktionssystems für Technische Dokumentation<br />
und einer Produktdatenbank dieses Ziel erreicht haben.<br />
Das Unternehmen<br />
Die Interroll Group ist ein weltweit führender Spezialist zur Herstellung<br />
hochwertiger Komponenten und Module zum Fördern, Sortieren<br />
und Lagern von Gütern. Diese reichen von leichten Gütern wie Lebensmittel<br />
bis hin zu Paletten mit schweren Lasten. Das Unternehmen<br />
ist über die vergangenen Jahre aus verschiedenen Einzelunternehmen<br />
zusammengewachsen.<br />
Betriebsanleitungen und Kataloge<br />
Aus einer Übersetzungsanfrage vor ca. 7 Jahren entstand ein Standardisierungs-<br />
und Outsourcing-Projekt für die Technische Dokumentation<br />
von Interroll. Ein Dienstleister (Dokuwerk KG) übernahm die Erstellung<br />
der Betriebsanleitungen auf seinem hauseigenen Standard CMS<br />
(Ovidius TCToolbox), verschlankte und standardisierte die Inhalte und<br />
erreichte einen Anteil von über 60 % mehrfach verwendbarer Module.<br />
Auf dieser Basis entwickelte sich zwei Jahre später ein Katalogprojekt.<br />
Für die einzelnen Niederlassungen entstanden Produktkataloge,<br />
die von der Gesamtstruktur des Katalogs, der Grundstruktur der Produktseiten<br />
und vom äußeren Erscheinungsbild standardisiert waren,<br />
und deren Inhalte aus dem Redaktionssystem und einer Produktdatenbank<br />
(MySQL) zusammenflossen. Im Rahmen einer automatisierten<br />
Publikationsstrecke entstanden und entstehen über Adobe Indesign®<br />
die Printpublikationen.<br />
Ziele<br />
Inhaltskonzept Print<br />
Der Atlas<br />
Mit dem Atlas sollte nun ein übergreifendes Dokument entstehen, das<br />
die Gesamtheit des Unternehmens Interroll repräsentiert und die Produktpalette<br />
zusammenführt. Der Schwerpunkt lag weniger auf den<br />
Detailinformationen, die drastisch reduziert werden sollten. Vielmehr<br />
sollte der Aspekt der gemeinsamen und übergeordneten Produkte der<br />
verschiedenen Standorte im Vordergrund stehen. Um möglichst wenig<br />
Aufwand zu generieren, sollte der Atlas komplett auf der bestehenden<br />
Datenbasis aufsetzen. Der Produktteil des Atlas sollte gleichzeitig die<br />
Datenbasis des Online-Katalogs für den neuen Webauftritt ergeben.<br />
Und dies alles am besten so, dass außer Filterung nichts an den Daten<br />
und vorhandenen Informationsmodulen geändert werden musste.<br />
Der erste Schritt bestand in der Entwicklung eines Inhaltskonzepts<br />
für den gedruckten Atlas. Als Hauptstruktur entstanden drei Kapitel,<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
173
Katalogerstellung<br />
Inhaltskonzept Web<br />
Grundstruktur<br />
Produktzuordnung<br />
Produktinformationen<br />
Rahmenbedingungen<br />
in denen über Applikationen, hervorgehobene Bestseller und einen<br />
katalogartigen Produktteil das gesamte Interroll-Portfolio dargestellt<br />
werden sollte. Verschiedene Zugriffswege (Inhaltsverzeichnis, direkter<br />
Schnellzugriff) und Verweise auf das Internet sollten die übergreifende<br />
Nutzung ermöglichen. Eine direkte Verlinkung der Informationen über<br />
QR-Code soll in einer zweiten Stufe umgesetzt werden – da die Website<br />
zeitgleich neu aufgebaut wurde, erschien uns das als zu riskant.<br />
Ein klare Vorgabe gab es für das Gesamtdesign: Nur die Produktinformationen<br />
sollten aus dem CMS zugeliefert werden. Der Atlas als Ganzes<br />
– auch das finale Layout der Produktseiten – sollte in einer Werbeagentur<br />
gestaltet werden.<br />
Die Neukonzeption des Webauftritts, die nicht Bestandteil unseres Vortrags<br />
ist, sollte nachhaltig dadurch unterstützt werden, dass die Grundstruktur<br />
des Online-Katalogs für die Produkte parallel der Struktur des<br />
Atlas im betreffenden Kapitel ist. Damit wird übergreifende Einheitlichkeit<br />
hergestellt. Da die Informationen aus einer Quelle stammen, sind<br />
sie auch konsistent. Die Verlinkung auf Datenblätter, die aus den bestehenden<br />
Katalogen extrahiert werden, rundet das Informationsangebot<br />
in acht Sprachen ab.<br />
Das Projekt – Inhaltsstrukturen und Daten<br />
Der erste, aufwändigere Schritt bestand in der Entwicklung einer gemeinsamen<br />
Grundstruktur für die einzelnen Produktbereiche. Entstanden<br />
ist eine Reihenfolge von Kapiteln, die von der einfachen Rolle, die<br />
eines der am häufigsten verkauften Produkte darstellt, über die Antriebe<br />
zu Fördermodulen und zur Lagertechnik führt. Für den Online-<br />
Katalog besteht die Hauptnavigationsstruktur aus wichtigen Rubriken,<br />
untergeordnete Kategorisierungen ergeben die zweite Ebene. Die einzelnen<br />
Produkte findet man (klar!) auf der untersten, dritten Ebene.<br />
Im gedruckten Atlas ist der Produktteil in Kapitel weitgehend analog<br />
zum Web aufgebaut. Die Darstellung der Kategorien und der Zugriff auf<br />
die einzelnen Produkte erfolgt mittels Übersichtsseiten, die den einzelnen<br />
Kapiteln vorangestellt werden.<br />
Die Zuordnung der Produkte war einfacher. Auf Grund der Navigationsstruktur<br />
des gedruckten Werkes, die wir als nicht-linear ansetzten, sind<br />
einige (wenige) Produkt mehrfach enthalten.<br />
Dies war der schwierigste Punkt, da manchem Produktmanager erst<br />
hier das Grundkonzept des Atlas wirklich und fühlbar klar wurde. Für<br />
jedes Produkt sollte der Darstellungsumfang, der in den Katalogen<br />
bei zwei bis acht Seiten lag, auf eine Seite reduziert werden: Bild, produktdifferenzierende<br />
Merkmale oder eine Kurzbeschreibung, technische<br />
Daten! Unabhängig von der scheinbaren Komplexität oder der<br />
Größe des Produkts Informationen auf das Wesentliche zu reduzieren<br />
entpuppte sich als eine harte Aufgabe, die am Ende einvernehmlich und<br />
aus dem übergeordneten Ziel heraus erfolgreich gemeistert wurde.<br />
Erfassung und Publikationsstrecken<br />
Im Idealfall, und da uns kein PIM zur Verfügung steht, hätten wir nur<br />
mit Filtern auf den bestehenden Katalog-Modulen arbeiten wollen,<br />
um die bestehenden Publikationsstrecken nicht antasten zu müssen.<br />
Das haben wir nicht ganz erreicht, da wir z. B. Produktvarianten<br />
174<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Katalogerstellung<br />
Aufbau der<br />
Publikationsstrecken<br />
Aktueller Status<br />
Nächste Schritte<br />
zusammengefasst haben, die bisher einzeln in den Katalogen dargestellt<br />
wurden. Dies bedeutete Veränderungen in den Werteangaben einzelner<br />
Merkmale. Aus Sicht des Redaktionssystems: wir haben Varianten zu<br />
den existierenden Modulen angelegt.<br />
Da wir schon bisher über XML nach Indesign publiziert haben, gab<br />
es hier keine umfangreichen Anpassungen. Für den Druck nutzen wir<br />
weiterhin die Indesignstrecke mit einem angepassten Template, um die<br />
Agentur bedienen zu können.<br />
Für die Internetagentur reichern wir bei der Erfassung das XML<br />
um Informationen an, die den Import in das Web-CMS vereinfachen<br />
(IDs für alle Navigationsebenen, passende URLs für Downloads). Zudem<br />
werden die Bilder einer Konvertierung in webtaugliche Formate<br />
unterzogen.<br />
Wo stehen wir?<br />
Das Projekt ist den Kinderschuhen entwachsen. Der gedruckte Atlas<br />
wird für Interroll ein einzigartiges Imageprodukt.<br />
Die Belieferung des Webs erfolgt regelmäßig, wir sind bereits in den<br />
Pflegestatus übergewechselt.<br />
Gegenwärtig verfolgen wir zwei Ziele:<br />
−−<br />
Eine vollständige Automatisierung der Datenpflegeprozesse für das<br />
Web.<br />
−−<br />
Die Optimierung der Produktdatenpflege.<br />
Fazit<br />
Es ist uns in diesem Projekt gelungen, viele unterschiedliche Interessen<br />
unter einen Hut zu bringen. Mitunter bedurfte es viel Geduld, und die<br />
Hindernisse sind meist nicht technischer Art. Dank der nachhaltigen<br />
Unterstützung des Produktmanagements und der intensiven Mitarbeit<br />
aller Beteiligten ist es uns gelungen, ein neues, übergreifendes Marketingwerkzeug<br />
höchster Qualität zu entwickeln.<br />
für Rückfragen:<br />
s.loehrer@interroll.com<br />
karsten.schrempp@pantopix.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
175
Lokalisierung und<br />
Übersetzung / Localization
Lokalisierung und Übersetzung / Localization<br />
LOC 1<br />
Partnerpräsentation<br />
Tanz der Doubletten<br />
Skriptgestützte Analyse und Optimierung<br />
von Translation Memorys<br />
Daniel Busch, Köln<br />
Thomas Wedde, TID Informatik GmbH, Bonn<br />
Über Jahre der Benutzung können sich in Translation Memorys verschiedene<br />
Fehler einschleichen. Mit einer skriptgestützten TM-Optimierung<br />
lassen sich diese Fehler aufspüren und korrigieren – außerhalb<br />
des TMS und unabhängig von Drittanbieterlösungen.<br />
Translation-Memory-Systeme (TMS) ermöglichen die Wiederverwendung<br />
bereits übersetzter Textelemente, die meist zentral im so genannten<br />
Translation Memory (TM) gespeichert werden. Eine einmal erstellte<br />
Übersetzungseinheit (ÜE) muss dann nie wieder angefasst werden,<br />
wodurch Übersetzungen schneller, günstiger und konsistenter werden –<br />
so zumindest die Idealvorstellung.<br />
In der Praxis wird dieses Ideal – auch bei sorgfältiger Handhabung –<br />
aber nicht immer erreicht, denn in der Historie eines TM kann eine<br />
ganze Reihe von Faktoren zu inhaltlichen oder technischen Mängeln<br />
in der Datenbank führen, darunter Importe von TMs und alignierten<br />
Übersetzungen aus Fremd- oder Altbeständen, Programm- oder<br />
Bedienfehler des verwendeten TMS oder technisch unsaubere<br />
Ausgangsdokumente.<br />
Einige der dadurch entstehenden Mängel sind:<br />
−−<br />
Doubletten und ungewünschte Übersetzungsvarianten<br />
−−<br />
Inkonsistente Verwendung von Attribut- und Textfeldern<br />
−−<br />
Satzfragmente durch Layout- oder Segmentierungsfehler<br />
−−<br />
Sprachspezifische Typografie- und Zahlenfehler<br />
−−<br />
Abweichungen vom Kunden-Styleguide<br />
Werden auf Basis solcher historisch gewachsener TMs neue Übersetzungen<br />
angefertigt, besteht das Risiko, dass alte Fehler in neue Texte<br />
gelangen. Dieses Risiko wird verstärkt, wenn der Kunde für die Prüfung<br />
von 100%-Matches nicht mehr zahlt. Ein Abfangen möglicher Fehler<br />
führt zu steigendem Aufwand für Übersetzer, EDV, DTP und QS. Darüber<br />
hinaus können durch unsaubere oder inkonsistente Textelemente in<br />
einem TM auch die Matchwerte sinken und der Übersetzungsaufwand<br />
damit steigen. Es besteht also allgemein das Risiko, dass Übersetzungen<br />
weniger schnell, weniger günstig und weniger konsistent ausfallen, als<br />
es das Ideal vorsieht.<br />
Skriptgestützte Lösung für Kontrolle und Korrektur<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
179
Lokalisierung und Übersetzung / Localization<br />
Bei der TM-Optimierung geht es nun darum, TMs zunächst auf mögliche<br />
Probleme zu untersuchen und diese dann, soweit möglich automatisiert,<br />
zu beseitigen. Das Ziel ist also ein TM, aus dem Übersetzern<br />
höherwertige Matches in besserer Qualität angeboten werden können.<br />
Für die Analyse und Korrektur von Fehlern in TMs bieten die Bordmittel<br />
der TMs aber nur sehr eingeschränkte Möglichkeiten, die bei TMs<br />
mit Tausenden ÜE kaum praktikabel verwendbar sind. Daneben gibt es<br />
am Markt zwar verschiedene kommerzielle und Open-Source-Werkzeuge.<br />
Diese bringen allerdings eine Reihe von Nachteilen mit sich, darunter<br />
eingeschränkten Funktionsumfang, reduzierte Kontrolle über die<br />
Definition von Fehlern sowie mangelnde Integrierbarkeit in bestehende<br />
Prozesse.<br />
Vor diesem Hintergrund wurde bei beo Gesellschaft für Sprachen und<br />
Technologie mbH eine eigene Lösung für die TM-Optimierung entwickelt.<br />
Diese Lösung basiert auf Skripten (also logischen Befehlsabfolgen)<br />
in der freien Skriptsprache PHP, anhand denen komplette Exportdateien<br />
aus dem TMS in unterschiedlichster Weise verarbeitet werden<br />
können.<br />
Beispiel Übersetzungsvarianten<br />
Ein Beispiel für typische Mängel in einem TM ist das Auftreten von<br />
ungewünschten Übersetzungsvarianten, also mehreren, inkonsistenten<br />
Übersetzungen für einen Ausgangssatz. Anhand eines entsprechenden<br />
Skripts kann zunächst untersucht werden, ob Übersetzungsvarianten<br />
im TM vorkommen. Dabei ist eine Unterscheidung nach identischen<br />
oder abweichenden Attributfeldern möglich. Vom Skript gefundene<br />
Varianten der beiden Typen werden dann mit den relevanten Metadaten<br />
der betroffenen ÜE in einer Liste ausgegeben, die bequem in einem<br />
Portal dargestellt und bearbeitet werden kann. Anhand dieser Listen<br />
können die ungewünschten Varianten manuell ausgewählt werden und<br />
die entsprechenden ÜE anhand einer zuvor vergebenen ID automatisch<br />
aus dem TM entfernt werden.<br />
Mit einem weiteren Skript ist eine automatische Bereinigung der Varianten<br />
auf Basis der Metadaten der ÜE möglich: So kann beispielsweise<br />
angenommen werden, dass es sich bei der zuletzt angelegten oder geänderten<br />
Übersetzungsvariante um die aktuellste und damit bevorzugte<br />
Variante handelt; alle anderen Varianten mit demselben Ausgangssatz<br />
werden automatisch entfernt. Die Berücksichtigung weiterer Metadaten,<br />
wie Attribut- oder Textfelder, ist ebenfalls möglich.<br />
Als Ergebnis der teil- oder vollautomatischen Bereinigung entsteht ein<br />
TM, in dem ausschließlich gewünschte Übersetzungsvarianten enthalten<br />
sind. Dadurch verbessert sich nicht nur die inhaltliche Konsistenz<br />
von Übersetzungen, auch die Matchwerte werden erhöht und der Aufwand<br />
sinkt.<br />
Beispiel Satzfragmente<br />
Ein weiteres Beispiel ist das Auftreten von Sätzen, die fragmentiert in<br />
den Segmenten mehrerer ÜE gespeichert sind – ein Phänomen, das<br />
entsteht, wenn Absatzmarken im Ausgangsdokument als Mittel zum<br />
Zeilenumbruch verwendet werden. Bei der Segmentierung des Textes<br />
durch das TMS führen diese Absatzmarken dazu, dass ganze Sätze in<br />
180<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Fragmente geteilt werden, die vom Übersetzer nicht wieder zusammengeführt<br />
werden können, sondern einzeln übersetzt werden müssen.<br />
Weichen die Lauflängen der Fragmente in Ausgangs- und Zielsprache<br />
aber voneinander ab, und damit die Positionen der Absatzmarken, kann<br />
es zu Layout-Fehlern im Zieltext kommen. Diese müssen mit erhöhtem<br />
Aufwand seitens QS/DTP abgefangen werden.<br />
Um herauszufinden, ob dieses Problem in einem TM bzw. beim Ausgangs-DTP<br />
besteht, sucht ein Skript zunächst nach Segmenten im TM-<br />
Export, bei denen es sich wahrscheinlich um Satzendfragmente handelt.<br />
Diese Segmente werden zur manuellen Kontrolle in einer Liste ausgegeben<br />
und erlauben zudem eine gezielte Nachforschung zum DTP-<br />
Problem mit ggf. folgender Kundenberatung. Parallel fügt das Skript die<br />
fragmentierten Sätze mit einer Trefferquote von 70–80 % automatisch<br />
zusammen, stellt also den eigentlich gewünschten Zustand „eine Übersetzungseinheit<br />
pro Satz“ wieder her. Damit werden reduzierte Matchwerte,<br />
die aus der Beseitigung des Problems in Ausgangsdokumenten<br />
resultieren können, weitgehend verhindert.<br />
Standardprozess für TM-Optimierung<br />
Für die häufigsten Mängel in TMs empfiehlt es sich, einen kundenneutralen<br />
Standardprozess für die TM-Optimierung zu entwickeln: auf Basis<br />
eines Exportes aus dem TMS wird dabei eine Reihe von aufeinander<br />
aufbauenden Skripten in logischer Abfolge durchlaufen. Manuelle Kontrollen<br />
der einzelnen Schritte stellen ein sauberes Endergebnis sicher.<br />
Potentielle Kandidaten für eine solche TM-Optimierung können dabei<br />
zunächst über eine kurze Stichprobe in ausgewählten TMs identifiziert<br />
werden. Der wichtigste Indikator sind aber die gesammelten Erfahrungswerte<br />
von Projektmanagement und EDV-Abteilung. Es hat sich<br />
dabei gezeigt, dass jüngere und kleinere TMs von weniger Problemen<br />
betroffen sind als „gut abgehangene“ TMs, die bereits seit vielen Jahren<br />
eingesetzt werden und in denen sich eine Vielzahl von Tools und<br />
Formaten niedergeschlagen haben. Aus diesem Grund empfiehlt sich<br />
neben der grundlegenden Optimierung älterer und umfangreicher TMs<br />
auch eine turnusmäßige Kontrolle und Bereinigung, um ein „historisches<br />
Wachstum“ ungewünschter Daten zu verhindern.<br />
für Rückfragen:<br />
thomas.wedde@beo-doc.de<br />
daniel.busch@email.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
181
Lokalisierung und Übersetzung / Localization<br />
LOC 2<br />
Fachvortrag<br />
Automatische Autorenunterstützung für das<br />
Postediting in der Maschinellen Übersetzung<br />
Melanie Siegel, Hochschule Darmstadt<br />
Einleitung<br />
Die Maschinelle Übersetzung (MÜ) ist in den letzten Jahren so weit<br />
fortgeschritten, dass eine Übersetzung Technischer Dokumentation<br />
sinnvoll ist, wenn die Ergebnisse einen Postediting-Prozess durchlaufen.<br />
Das Postediting der Ergebnisse von MÜ ist daher eine häufig angewandte<br />
Methode, um die gewünschte Übersetzungsqualität zu erhalten.<br />
In unserem Vortrag stellen wir Verfahren der MÜ vor und zeigen,<br />
welchen Einfluss die Verfahren auf den Postediting-Prozess haben. Wir<br />
stellen unterschiedliche Postediting-Prozesse vor, wie monolinguale<br />
und multilinguale Prozesse. Wir zeigen dann, wie das Postediting durch<br />
automatische Prüf- und Korrekturverfahren effizient unterstützt werden<br />
kann, die auf Experimenten mit Übersetzern basieren.<br />
Verfahren der MÜ und deren Einfluss auf den Postediting-Prozess<br />
Zwei grundsätzliche Verfahren liegen den heutzutage häufig genutzten<br />
MÜ-Systemen zugrunde: Statistische Verfahren zur MÜ und regelbasierte<br />
Verfahren zur MÜ (siehe Koehn 2010 und Somers 2003).<br />
Die statistischen Verfahren (SMT) basieren auf einer großen Menge<br />
von bereits übersetzten Sätzen. Diese Daten stehen erst in den letzten<br />
Jahren in großem Maße, z. B. als Translation Memorys, zur Verfügung.<br />
Aus den Sätzen werden in der Trainingsphase mit statistischen Methoden<br />
Phrasen und ihre Übersetzungen in den Sätzen der Zielsprache<br />
extrahiert. Diese Phrasen sind dann die Grundlage für die maschinelle<br />
Übersetzung neuer Sätze. Wenn die Trainingsdaten aus einer ähnlichen<br />
Domäne stammen wie die Sätze, die übersetzt werden sollen, haben die<br />
statistischen Verfahren hier einen klaren Vorteil in der Terminologieübersetzung.<br />
Zum Beispiel wird Bank dann im Kontext der Geldwirtschaft<br />
ins Englische mit „bank“ übersetzt und nicht etwa mit „bench“.<br />
Linguistische Information wie z. B. Grammatik spielt jedoch keine Rolle<br />
in diesen Verfahren. Daher muss der Postediting-Prozess sich bei statistischen<br />
Verfahren auf grammatische Korrektheit der zielsprachlichen<br />
Sätze konzentrieren. Ein wichtiges Problem ist auch der Negationsskopus.<br />
Da keine Satzanalyse gemacht wird, kann es passieren, dass Negation<br />
nicht richtig übersetzt wird. Ein Beispiel aus einem Experiment mit<br />
dem SMT-System Moses (Google Translate gibt ähnliche Ergebnisse):<br />
DE: „Ich habe meinen Computer neu gestartet, aber ich kann weiterhin<br />
Websites mit kompromittierendem Inhalt öffnen.“<br />
EN: “I have restarted my computer, but I still can not open websites with<br />
content kompromittierendem.”<br />
Die regelbasierten Verfahren (RBMT) basieren auf einer linguistischen<br />
Analyse des Ausgangssatzes und einer abstrakten Repräsentation der<br />
Bedeutung. Diese Repräsentation wird in einem Transfer-Prozess in<br />
eine Repräsentation der Zielsprache überführt. Mit der Grammatik<br />
der Zielsprache wird daraus dann ein Satz generiert. Der Vorteil dieses<br />
Verfahrens ist, dass grammatisch korrekte Sätze in der Zielsprache<br />
182<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
generiert werden. Das Verfahren ist satzbasiert und hat keinen Zugriff<br />
auf Information aus voranstehenden Sätzen. Das Postediting muss daher<br />
Kontextinformation berücksichtigen, wenn z. B. im englischen Satz<br />
„it“ steht und in der deutschen Übersetzung „es“, was aber im Kontext<br />
„sie“ sein sollte. Die Terminologie wird hier mit einem Lexikon übersetzt,<br />
was zu Terminologie-Übersetzungsfehlern führen kann.<br />
Monolinguales und multilinguales Postediting<br />
Grundsätzlich ist es sinnvoll, beim Postediting sowohl den Satz der<br />
Ausgangssprache als auch den der Zielsprache zu berücksichtigen.<br />
Dies ist jedoch nicht immer möglich, wenn die posteditierende Person<br />
die Ausgangssprache nicht kennt oder wenn automatische Postediting-<br />
Verfahren angewendet werden, die nur auf den zielsprachlichen Sätzen<br />
operieren. Daher können einige Probleme der MÜ mit monolingualem<br />
Postediting nicht gelöst werden. Dazu gehören Probleme in der Terminologie,<br />
aber auch der Negationsskopus. Monolinguales Postediting<br />
kann aber grammatische Probleme der SMT wie Kongruenz oder<br />
Kommasetzung gut lösen. Auch andere Probleme wie die Korrektur<br />
von Tempus können gut monolingual gelöst werden: Das Futur wird<br />
im Deutschen häufig mit Präsensformen ausgedrückt, aber durch die<br />
MÜ entstehen Futur-Formen (die in der Ausgangssprache verwendet<br />
werden).<br />
Unterstützung des Postediting-Prozesses durch<br />
automatische Prüf- und Korrekturverfahren<br />
Automatische Prüf- und Korrekturverfahren sind aus der Autorenunterstützung<br />
für Technische Dokumentation entstanden, wie sie z. B. von<br />
Acrolinx angeboten wird. Sie arbeiten auf dem zielsprachlichen Text,<br />
sind also monolingual. Dennoch gibt es eine Reihe von automatisch<br />
prüfbaren Regeln zum Postediting, die hier aufgelistet werden:<br />
−−<br />
Artikellose Nominalphrasen vermeiden: Gerade bei der Übersetzung<br />
aus Sprachen, die keine Artikel verwenden (wie z. B. Japanisch) müssen<br />
Artikel im Postediting-Prozess häufig eingefügt werden.<br />
−−<br />
Futur vermeiden: Im Deutschen werden häufig Präsensformen verwendet,<br />
um Ereignisse, die in der Zukunft stattfinden, zu beschreiben.<br />
Das ist in anderen Sprachen nicht der Fall, so dass die Futur-Formen<br />
übersetzt werden.<br />
−−<br />
Imperativ-Korrektur: Im Spanischen wird z. B. der Konjunktiv für den<br />
Imperativ verwendet. Ein RBMT-System überträgt die Konjunktiv-<br />
Form, die im Deutschen falsch ist.<br />
−−<br />
Nominalkomposita zusammenschreiben: Im Englischen werden Nominalkomposita<br />
mit Leerzeichen gebildet, was im Deutschen nicht<br />
korrekt ist und im Postediting-Prozess korrigiert werden muss.<br />
−−<br />
umständliche Formulierungen vermeiden: Durch die Übersetzung<br />
entstehen im Deutschen umständliche Formulierungen wie z. B. „eine<br />
Einstellung vornehmen“. Diese Formulierungen können im Postediting-Prozess<br />
vereinfacht werden.<br />
−−<br />
veraltete Wörter vermeiden: Abhängig von den Trainingsdaten im<br />
SMT und den Lexika im RBMT werden Wörter wie „vermögen“ oder<br />
„mittels“ übersetzt, die im Postediting-Prozess geändert werden.<br />
−−<br />
Verbkorrektur: Einige systematische domänenbasierte Übersetzungsfehler<br />
von Verben können auch monolingual korrigiert werden. Z. B.<br />
wurde in unseren Übersetzungsexperimenten im Software-Kontext<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
183
Lokalisierung und Übersetzung / Localization<br />
häufig das Verb „schleppen“ übersetzt, das systematisch mit „ziehen“<br />
korrigiert werden konnte.<br />
−−<br />
von-Serie vermeiden: Durch die Übersetzung entstehen im Deutschen<br />
komplexe Nominalphrasen, die besser durch ein Kompositum<br />
ersetzt werden. Z. B.: „Adresse von 32 Bit von Internet“ – „32-Bit-<br />
Internet-Adresse“.<br />
Zusammenfassung<br />
Maschinelle Übersetzung hat in den letzten Jahren große Fortschritte<br />
gemacht und ist daher auch in der Technischen Dokumentation nutzbar.<br />
Dennoch ist Postediting notwendig, um einen ausreichenden Qualitätsstandard<br />
der Übersetzungen zu erreichen. Es ist notwendig, sich vor<br />
dem Postediting über das MÜ-Verfahren zu informieren, um die Probleme<br />
des gewählten Verfahrens gezielt anzugehen. Auch wenn multilinguales<br />
Postediting wünschenswert ist, kann man mit einem Blick auf<br />
den zielsprachlichen Text viele Korrekturen durchführen. Automatische<br />
Prüf- und Korrekturverfahren sind hier hilfreich – wie bei der Autorenunterstützung<br />
der Technischen Dokumentation durch automatische<br />
Tools.<br />
Literatur<br />
Koehn, P. (2010): Statistical Machine Translation. Cambridge University<br />
Press, New York.<br />
Somers, H. (2003): Machine translation: Latest developments. In: R. Mitkov<br />
(Hrsg.), The Oxford Handbook of Computational Linguistics, Chapter<br />
28, S. 512–528. Oxford University Press.<br />
für Rückfragen: melanie.siegel@h-da.de<br />
184<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 3<br />
Partnerpräsentation<br />
Siemens Online Verification Tool: IT-Lösung<br />
zur Optimierung des Verifizierungsprozesses<br />
bei Siemens Healthcare<br />
Dr. Brigitte Herrmann, Siemens AG, Healthcare Sektor, Erlangen<br />
Michael Oettli, nlg GmbH, Regensburg<br />
Kundendokumentation in der Medizinindustrie<br />
Die Erstellung und Übersetzung der Kundendokumentation zu Medizinprodukten<br />
ist ein qualitativ hochwertiger und regulierter Prozess.<br />
Für Europa definiert die Medizinproduktrichtlinie (MPR) 93/42/EEC,<br />
Anhang 1, die wesentlichen Anforderungen zu Gebrauchsanweisungen,<br />
Warn- und Sicherheitshinweisen von Medizinprodukten zum „sicheren<br />
und bestimmungsgemäßen Gebrauch durch deren Anwender“. Jeder<br />
Hersteller von Medizinprodukten ist verpflichtet gemäß MPR, dem Produkt<br />
eine Kundendokumentation beizulegen, die die Anforderungen der<br />
Richtlinie erfüllt. Zulassungsbehörden innerhalb wie auch außerhalb<br />
des europäischen Marktes überprüfen die Einhaltung der MPR-Anforderungen<br />
oder der länderspezifischen Anpassungen der MPR.<br />
Wird die Kundendokumentation in die je Einfuhrland gesetzlich festgeschriebene(n)<br />
Landessprache(n) übersetzt, prüft der Hersteller durch<br />
den Prozessschritt „Verifizierung von Übersetzungen“, dass die Übersetzung<br />
der Kundendokumentation in allen Aspekten mit den Informationen<br />
der Ausgangssprache übereinstimmt. Der Verifizierungsprozess<br />
ist ein notwendiger Schritt zur Qualitätssicherung vor Produktfreigabe<br />
in andere Länder.<br />
Probleme und Herausforderungen des<br />
herkömmlichen Verifizierungsprozesses<br />
Der Verifizierungsprozess erfordert, dass ein Muttersprachler eine ihm<br />
vorgelegte Übersetzung der Kundendokumentation mit der ausgangssprachlichen<br />
Version Wort für Wort überprüft und damit sicherstellt,<br />
dass unternehmensspezifische Produktterminologie wie auch länderspezifische<br />
Kundenterminologie in die Übersetzungen einfließen.<br />
Medizinprodukte-Verifizierer kennen das entsprechende Produkt aus<br />
eigener Anwendung, sind deshalb in der Regel Ärzte, Produktmanager,<br />
Applikationsspezialisten oder im Vertrieb des Unternehmens tätige<br />
Personen.<br />
Verifizierer sind andererseits keine Linguisten oder verifizieren mitunter<br />
nicht regelmäßig die gleiche Produktlinie – was darin resultiert, dass<br />
eingeführte kundenspezifische Glossare und Übersetzungen von Produktvorversionen<br />
unbekannt sind und nicht berücksichtigt werden.<br />
Der Verifizierungsprozess ist in vielen Fällen sehr zeitaufwändig und<br />
für andere Prozessteilnehmer häufig nicht transparent. Die Übersicht<br />
über den gesamten Prozess und damit auch die Kontrolle fehlen meist<br />
vollständig.<br />
Der Prozess ist selten standardisiert: Die Art und Weise, wie Korrekturen<br />
von den Verifizierern zurückkommen, hängt sehr oft von deren IT-<br />
Infrastruktur ab sowie davon, wie und wo die jeweiligen Verifizierer die<br />
Verifizierungen durchführen. Dadurch lassen sich große Variationen auf<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
185
Lokalisierung und Übersetzung / Localization<br />
Seiten der Übersetzungsdienstleister beobachten, deren Aufgabe es ist,<br />
die zurückgemeldeten Verifizierungsänderungen einzuarbeiten:<br />
−−<br />
gescannte PDF-Dateien mit handschriftlich verfassten Kommentaren<br />
und Korrekturen<br />
−−<br />
Word-Dokumente mit oder ohne track changes<br />
−−<br />
xls-Listen mit verschiedenen Spalten (ursprüngliche Übersetzung,<br />
korrigierte Übersetzung)<br />
−−<br />
PDF-Dateien mit eingefügten Kommentaren in Notizen<br />
Eine Einarbeitung der Korrekturen ist somit zum Teil sehr schwierig<br />
und außerordentlich zeitaufwändig: Die Kommentare und Korrekturen<br />
werden an die jeweiligen Übersetzer geschickt, um diese auf linguistische<br />
Korrektheit zu prüfen. Nach erfolgter Prüfung werden die Korrekturen<br />
in die finalen Übersetzungsdateien und -formate eingefügt.<br />
Die Übersetzungsdatenbanken werden aktualisiert. In Zweifelsfällen<br />
müssen die Verifizierer erneut kontaktiert werden, und zwar unter Einhaltung<br />
der Kommunikationskette und Prozessverantwortlichkeiten wie<br />
beispielsweise: „Übersetzer Übersetzungskoordinator Auftraggeber<br />
der Medizinprodukt-Übersetzung Verifizierer im jeweiligen Land“.<br />
Neuer Ansatz: webbasierte Portallösung<br />
Um den Verifizierungsprozess von Übersetzungen zu optimieren<br />
und zu automatisieren, hat Siemens in Zusammenarbeit mit dem<br />
Übersetzungspartner nlg GmbH das Siemens Online Verification Tool<br />
(SOVT) entwickelt. SOVT ist eine Web-basierte Portallösung mit Anbindung<br />
an die Siemens TMS und CMS-Umgebung, die alle am Verifizierungsprozess<br />
teilnehmenden Parteien verbindet und es Siemens erlaubt,<br />
zu jedem Zeitpunkt die Übersicht und vollständige Kontrolle über<br />
den Verifizierungsprozess zu behalten.<br />
Jeder Prozessschritt wird dokumentiert, der „Audit Trail“ ist klar ersichtlich,<br />
und alle relevanten Daten können einfach und schnell aus<br />
dem System abgerufen werden. SOVT umfasst beispielsweise eine digitale<br />
Sign-off-Funktion, mit der die Verifizierer nach Vollendung des Jobs<br />
die Vollständigkeit und Richtigkeit ihrer Verifizierung belegen.<br />
Die Verifizierer können sowohl online als auch offline arbeiten. Zudem<br />
ermöglicht ein fortschrittliches Synchronisationssystem, dass mehrere<br />
Verifizierer gleichzeitig an dem gemeinsamen Verifizierungsprojekt<br />
arbeiten.<br />
SOVT unterstützt verschiedene Dateiformate, Ausgangs- und Zieldokumente<br />
werden durch moderne Parserfunktionen formatiert dargestellt,<br />
so dass die Verifizierer die Korrekturen direkt in die Zieldokumente<br />
einbringen können.<br />
Das System stellt dem Verifizierer projektspezifische Glossare zur Verfügung<br />
und erlaubt eine automatische Aktualisierung der übersetzten<br />
Dateien sowie der angebundenen Übersetzungsdatenbanken.<br />
Durch SOVT hat sich der Verifizierungszyklus bei Siemens Healthcare<br />
signifikant reduziert. Die Koordination von Verifizierungsprozessen und<br />
die Zuteilung von Verifizierungsprojekten wurde erheblich vereinfacht.<br />
Die Kontrolle über Prozesse und Verifiziererverfügbarkeit ist zu jedem<br />
Zeitpunkt gegeben.<br />
für Rückfragen: brigitte.herrmann@siemens.com,<br />
moettli@nlgworldwide.com<br />
186<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 4<br />
Fachvortrag<br />
Der Widerspenstigen Zähmung:<br />
Abteilungsübergreifender QM-Prozess<br />
Dr. Robert Wenzel, Panasonic Electric Works Europe AG, Holzkirchen<br />
„Die Übersetzung beginnt mit der Texterstellung“, itl Kundenmagazin<br />
Ausgabe 10 07/12 „Übersetzungsmanagement 3.0 – neue Wege, neue<br />
Herausforderungen“, S. 3<br />
„Insgesamt sollten Technische Redakteure sich verstärkt überlegen, ob<br />
sie weiterhin ein Schattendasein als Schreibprofi fristen wollen oder ob<br />
sie über die Dokumentationsabteilung hinaus Verantwortung für das Informations-<br />
und Wissensmanagement übernehmen möchten.“ Dr.-Ing.<br />
Wolfgang Sturz., technische kommunikation Ausgabe 4/<strong>2012</strong>, „Wissen<br />
teilen macht Unternehmen wertvoller“, S. 30.<br />
Technische Redakteure kümmern sich seit jeher um verständliche Inhalte<br />
und nicht selten um deren Übersetzung. Wir sind oft die ersten,<br />
die Übersetzungswerkzeuge in einem Unternehmen einsetzen, und so<br />
kommt es, dass auch Aufträge anderer Abteilungen auf unseren Tischen<br />
landen. Spätestens dann muss für effektive Abläufe zwischen den beteiligten<br />
Abteilungen gesorgt werden.<br />
Technische<br />
Dokumentation<br />
E-Business<br />
Historisch gewachsene Abläufe<br />
Seit mehr als 10 Jahren arbeitet die Abteilung Technische Dokumentation<br />
mit einem Content- und Lokalisierungsmanagementsystem (CMS).<br />
Mit einer Fachübersetzerin an Bord, die für Ordnung sorgt und der ich<br />
unsere Abläufe zum größten Teil verdanke, waren aber gute Übersetzungsabläufe<br />
schon vorher etabliert. Eine „Kontrollübersetzung“ erwies<br />
sich als unabdingbar und war mit dem CMS, dessen Topics und einer<br />
ausgefeilten Statusverwaltung auch leicht zu steuern. Wir hatten die<br />
multisprachliche, multimediale technische Dokumentation im Griff.<br />
Im Jahre 2006 wurde eine Abteilung für E-Business im Unternehmen<br />
aufgesetzt und wir waren plötzlich für einen abteilungsübergreifenden<br />
Übersetzungsprozess zuständig.<br />
Es dauerte ein gutes halbes Jahr, bis der Ablauf funktionierte. Die<br />
Produktmanager wollten, dass wir „einfach nur übersetzen“. Dass<br />
grundlegende Terminologiearbeit besonders bei Produkteinführungen<br />
schon vor der Übersetzung erforderlich war, war den meisten lästig. E-<br />
Business hatte wenig Verständnis für das notwendige Hin und Her und<br />
musste lernen, eine gewisse Vorlaufzeit einzuplanen. Erfreulicherweise<br />
funktioniert der Ablauf nun seit fünf Jahren fast reibungslos.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
187
Lokalisierung und Übersetzung / Localization<br />
Abteilungsübergreifender Arbeitsablauf für Webinhalte<br />
Werbung<br />
Von 2009 bis <strong>2012</strong> wurden im Rahmen einer europäischen Umstrukturierung<br />
die bisher eigenständigen Tochterunternehmen zu Vertriebsbüros<br />
umgebaut, was zu einer Schließung der einzelnen Werbeabteilungen<br />
führte. Die Werbeabteilung der Zentrale stand vor der ungeheuren<br />
Aufgabe, Werbemittel für ganz Europa bereitzustellen. Unser Expertenwissen<br />
war schon wieder gefragt, aber die Zusammenarbeit hat sich<br />
alles andere als einfach erwiesen. Hier stoßen zwei Welten mit unterschiedlichen<br />
Ansichten aufeinander.<br />
Technische Redakteure sind vom Mars, Werbefachleute von der Venus<br />
Wir hatten den Eindruck, es ist den Werbefachleuten egal, was geschrieben<br />
stand. Hauptsache, der Text sah schön aus. Dass Text „gelayoutet“<br />
wurde, was zu verseuchten Formatvorlagen und unzähligen Tags<br />
und deshalb zu deutlich weniger Übereinstimmungen im Translation<br />
Memory führte, sorgte immer wieder für Ärger. Auf der anderen Seite<br />
ernteten wir Häme und Spott für unser „schwarzes Gekritzl“ und rigide<br />
Vorgaben. Es war klar, dass ein abteilungsübergreifender Arbeitsablauf<br />
ausgearbeitet werden musste.<br />
Warum der erste<br />
Ablauf versagte<br />
Der erste Arbeitsablauf für die Erstellung von Werbemitteln<br />
Nach Monaten diverser Überlegungen und Verhandlungen trat der erste<br />
Ablauf im Januar 2011 in Kraft. Leider hatte er kaum Erfolg.<br />
Für das Scheitern des ersten Ablaufs gibt es mehrere Gründe. Sie seien<br />
zur Warnung hier genannt:<br />
−−<br />
Es war nicht klar definiert, ob die Werbeabteilung oder das Produktmanagement<br />
bei der Auftragserteilung das Kickoff-Meeting<br />
einberufen sollte. Dies führte dazu, dass wir erst von einem Projekt<br />
erfuhren, wenn wir den Übersetzungsauftrag erhielten. Das ist jedoch<br />
zu spät.<br />
188<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
−−<br />
Die Harmonie zwischen der Werbeabteilung und der Technischen<br />
Dokumentation war gestört. Jeder wollte seine alten Kompetenzen<br />
verteidigen und keine Verantwortung abgeben.<br />
−−<br />
Die Werbefachleute erhielten keine gemeinsame Schulung für die<br />
übersetzungsgerechte Texterstellung.<br />
−−<br />
Der Ablauf war zu kompliziert.<br />
−−<br />
Das Produktmanagement wurde nicht ausreichend informiert und<br />
geschult.<br />
Der zweite Anlauf, Prozessmanagement<br />
Ende 2011 führte die Technische Dokumentation eine Schulung zur Erstellung<br />
von Text in Adobe InDesign und Illustrator für alle Mitarbeiter<br />
der Werbeabteilung durch.<br />
Auszug aus der Checkliste für Adobe Design<br />
Die Texte wurden daraufhin besser, aber bei weitem nicht optimal. Es<br />
fehlte zum einen das Grundverständnis für übersetzungsgerechtes<br />
Schreiben und übersetzungsgerechte Struktur, aber es fehlte auch jemand,<br />
der den Prozess durchsetzen konnte.<br />
Im Sommer <strong>2012</strong> wurde der bestehende ISO-Ablauf in einen Prozess<br />
nach der „Business Process Modeling Notation“ (BPMN) umgestellt und<br />
modifiziert. Im Gegensatz zu den bisherigen ISO-Abläufen, die grundsätzlich<br />
von den einzelnen Abteilungen aufgesetzt wurden und die<br />
eigenen internen Prozesse teilweise sehr oberflächlich dokumentierten,<br />
wurden dabei alle Beteiligten zusammengerufen, um die einzelnen<br />
Schritte durchzusprechen, Unklarheiten zu beiseitigen und Prozessverantwortliche<br />
klar zu definieren.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
189
Lokalisierung und Übersetzung / Localization<br />
Übersicht des Ablaufs nach BPMN<br />
In meinem Vortrag möchte ich diesen mehrseitigen abteilungsübergreifenden<br />
Prozess vorstellen, der von der Abteilung Quality Management<br />
abgenommen wurde. Die sich ergebenden Synergieeffekte zwischen<br />
den Abteilungen Technische Dokumentation, Werbung und Produktmanagement<br />
werden dargestellt. Insbesondere wird der Nutzen von Terminologiemanagement,<br />
Translation Memorys und Freigaben erläutert.<br />
Ich hoffe, bis zur <strong>tekom</strong> eine positive Bilanz ziehen zu können.<br />
für Rückfragen: robert.wenzel@eu.panasonic.com<br />
190<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 5<br />
Fachvortrag<br />
MTM: Wie sollte eine echte Integration<br />
zwischen MT und TM aussehen?<br />
Jörgen Danielsen, Eule Lokalisierung GmbH, Kiel<br />
Harald Elsen, Delta International CITS GmbH, Bonn<br />
Sowohl für die professionelle Nachbearbeitung von maschinell vorübersetzten<br />
Texten (das Post-Editing) als auch für die Verbesserung einer<br />
vollautomatisch erstellten Informationsübersetzung ist die Verknüpfung<br />
der maschinellen Übersetzung (MT) mit einem Translation Memory<br />
(TM) sehr sinnvoll.<br />
Auf den ersten Blick ist alles sehr einfach: Entweder lässt man alles von<br />
der MT vorübersetzen und fügt das Ergebnis dem TM hinzu oder man<br />
veranlasst das TM, jedes Segment an die MT zu schicken und die so<br />
erhaltene Übersetzung als (weiteren) Vorschlag zu nutzen.<br />
Wo ist also das Problem und warum gibt es einen Fachvortrag darüber?<br />
Bei genauerer Betrachtung sieht man Fallstricke und Details, die eine<br />
qualitativ hochwertige und wirtschaftlich vorteilhafte Lösung erschweren<br />
oder verhindern. Wir beschreiben in diesem Vortrag verschiedene<br />
Problemkreise und zeigen exemplarisch Lösungen auf. Zu diesen Problemkreisen<br />
gehören:<br />
−−<br />
Formatfragen<br />
−−<br />
Quellformate der zu übersetzenden Texte und deren Behandlung<br />
−−<br />
Segmentierung<br />
−−<br />
Segmentinterne Formatierungen<br />
−−<br />
Eigennamen, Funktionswörter etc.<br />
−−<br />
Ablauffragen<br />
−−<br />
Ausführung der MT-Vorarbeiten<br />
−−<br />
Steuerung der MT-Einstellungen (Sprachen, Fachgebiete usw.)<br />
−−<br />
Integration der MT-Ausgabe in das TM<br />
−−<br />
Übersetzungs-/Post-Editing-Umgebung<br />
−−<br />
Nicht-disruptive Änderung des Arbeitsplatzes und der Arbeitsweise<br />
des Übersetzers<br />
−−<br />
Erleichterung der Entscheidungsfindung<br />
−−<br />
Vorbereiten des Post-Editings<br />
−−<br />
Memory Pollution<br />
−−<br />
Verknüpfung von TM & MT im vollautomatischen Prozess<br />
Zu all diesen Fragen liefern wir Beispiele, um damit konkrete Probleme<br />
und (mögliche) Lösungen herauszuarbeiten.<br />
Berücksichtigt man den Kostendruck in der Übersetzung und die daraus<br />
resultierenden kleinen Margen, kann nur ein vollständig optimierter<br />
Prozess zu einer Verbesserung führen. Daher sind eine genaue<br />
Überprüfung der obigen Fragen und die entsprechende Prozessanpassung<br />
für den Erfolg oder Misserfolg der MT-Anwendung entscheidend.<br />
Am Ende des Vortrags führen wir eine vorhandene Integration zwischen<br />
einem MT-System (Lucy LT) und einem TM (SDL Studio 2011)<br />
vor und zeigen anhand dieses Beispiels, welche Herausforderungen und<br />
Lösungsmöglichkeiten es gibt.<br />
für Rückfragen: jdanielsen@eule-l10n.com, harald.elsen@dicits.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
191
Lokalisierung und Übersetzung / Localization<br />
LOC 6<br />
Fachvortrag<br />
Möglichkeiten und Grenzen<br />
computerunterstützter Qualitätssicherung –<br />
ein Praxisvergleich<br />
Andreas Ljungström, euroscript Deutschland GmbH, Berlin<br />
Computergestützte Qualitätssicherung ist aus dem Alltag professioneller<br />
Übersetzer nicht mehr wegzudenken. Die Prüfmethoden in den<br />
CAT-Tools haben sich den immer anspruchsvolleren Übersetzungsprozessen<br />
angepasst und bieten dem Übersetzer mittlerweile eine Vielzahl<br />
an unterschiedlichen Einstellungsmöglichkeiten und Prüfszenarien.<br />
Der korrekte Umgang mit den Qualitätssicherungsmethoden will jedoch<br />
gelernt sein, denn durch falsche Bedienung oder lückenhafte Einstellungen<br />
können Übersetzungsfehler unentdeckt bleiben. Ein Blick in die<br />
Qualitätssicherung aus Sicht des Übersetzers mit Beispielen aus der<br />
Technischen Dokumentation in Across, Transit NXT und SDL Studio.<br />
Die folgenden Fragestellungen werden betrachtet:<br />
−−<br />
Welche Möglichkeiten der Qualitätssicherung bieten die Systeme?<br />
−−<br />
Wo liegen ihre Grenzen?<br />
−−<br />
Welche sprachspezifischen Probleme ergeben sich aus welchen Prüfmethoden<br />
und wie kann der Benutzer mit ihnen umgehen?<br />
Wer entscheidet über die Qualitätssicherung?<br />
Nicht immer kann der Übersetzer über die Qualitätssicherung seiner<br />
Übersetzung frei verfügen. Viele Auftraggeber geben Prüfeinstellungen<br />
zur Qualitätssicherung vor, mit der Absicht, die Validität jedes Dokuments<br />
über die gesamte Übersetzungskette hinweg zu gewährleisten<br />
– wie im Falle von XML-Übersetzungen. Dies ermöglicht zwar eine<br />
einheitliche und nachvollziehbare Qualitätssicherung auf Auftragnehmerseite,<br />
kann dem Übersetzer jedoch in der Praxis auch ein Bein stellen,<br />
falls diese Einstellungen Prüfkriterien vorgeben, die ihn zu Workarounds<br />
zwingen oder mit irrelevanten Meldungen bombardieren. Ein<br />
sogenanntes Pflichtkriterium in der Qualitätsprüfung, das bei Verletzung<br />
einen Abschluss der Übersetzung verhindert, sollte entsprechend<br />
wohlüberlegt eingesetzt werden: Ist die Terminologieprüfung oder gar<br />
die Überprüfung der Inline-Objekte als obligatorisch eingestuft, wie das<br />
zum Beispiel in Across möglich ist, muss der Übersetzer für jede vermeintliche<br />
Verletzung solcher Pflichtkriterien durch das Einfügen eines<br />
Kommentars eine zusätzliche Bestätigung der Korrektheit der Übersetzung<br />
angeben, um den aktuellen Übersetzungsauftrag überhaupt abschließen<br />
zu können.<br />
In den neuesten Versionen der drei hier behandelten CAT-Tools werden<br />
Übersetzungsaufträge grundsätzlich in Form von Projekten verwaltet,<br />
die je nach Übersetzungsprozess auf Auftraggeber- oder auf Auftragnehmerseite<br />
entstehen. Ein bedeutender Vorteil dieses Vorgehens im<br />
Hinblick auf die Qualitätssicherung liegt darin, dass globale Projekteinstellungen<br />
gleichzeitig für alle Projektsprachen definiert werden und<br />
somit erheblichen Einstellungsaufwand auf Übersetzerseite einsparen.<br />
Außerdem sorgen sie dafür, dass dem Übersetzer ein Mindestmaß an<br />
Prüfkriterien vorgegeben wird, auch wenn der Übersetzer sie in zum<br />
Beispiel SDL Studio oder Transit NXT durchaus umgehen kann. Der<br />
192<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
moderne technische Übersetzer muss demnach sehr anpassungsfähig<br />
sein, sich mit den unterschiedlichen Qualitätssicherungsprozessen auskennen<br />
und stets projektorientiert denken.<br />
Terminologieprüfung<br />
Der Teufel steckt in den Optionen<br />
Egal ob vorgegeben oder vom Übersetzer definiert, vielfältige Prüfoptionen<br />
in den CAT-Tools ermöglichen sehr unterschiedliche Prüfszenarien,<br />
weshalb ein sprachspezifischer Ansatz oftmals der richtige Weg ist. Im<br />
Folgenden werden ausgewählte Prüfkriterien näher beleuchtet.<br />
Vom Prinzip her ist die Terminologieprüfung eine klare Sache: Wird ein<br />
Terminus im Ausgangssegment bis zu einem definierten Unschärfegrad<br />
erkannt, wird geprüft, ob ein im Wörterbuch vorgegebener Zielterminus<br />
in der Übersetzung enthalten ist. Bei den statistisch arbeitenden CAT-<br />
Tools wird dabei oftmals selbst ein Terminologieeintrag mit einem Ausgangsterminus<br />
und einem eindeutig zugewiesenen Zielterminus nicht<br />
erkannt, wenn der morphologische Unterschied zwischen Terminus im<br />
Wörterbuch und im Ausgangstext zu groß ist. Besonders häufig ist dies<br />
bei agglutinierenden Sprachen wie Finnisch oder Türkisch der Fall. Ein<br />
weiterer Stolperstein sind Komposita, bei denen die einzelnen Wortglieder<br />
nicht erkannt und damit das Kompositum als vermeintlicher Fehler<br />
eingestuft wird. Aus demselben Grund werden deklinierte Substantive<br />
im Zieltext als abweichend von der vorhandenen Terminologie vom<br />
Prüfalgorithmus bewertet wie im folgenden Beispiel für Türkisch:<br />
Die Deklination des Zielterminus im Türkischen führt zu einem<br />
Terminologiefehler<br />
Tag-Prüfung<br />
Bei Übersetzungen aus agglutinierenden Sprachen muss folglich der<br />
Übersetzer den Unschärfegrad entsprechend erhöhen, damit deklinierte<br />
Termini überhaupt erkannt werden. Im Systemvergleich ist SDL<br />
Studio toleranter als Across in Hinblick auf die morphologische Abweichung<br />
im Zielsegment.<br />
Alle drei CAT-Tools bieten zumindest für MS Office-Formate die<br />
Möglichkeit, im Zielsegment oder gar im Ausgangssegment Formatierungstags<br />
für beispielsweise fett, kursiv oder unterstrichen einzufügen.<br />
Arbeitet der Übersetzer dabei nicht sorgfältig oder ist die<br />
Tag-Ansicht minimiert, läuft er Gefahr, eine schlecht formatierte Übersetzungseinheit<br />
im Translation Memory zu hinterlassen, da das TM<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
193
Lokalisierung und Übersetzung / Localization<br />
Formatierungsunterschiede abspeichert, auch wenn sie für den Zieltext<br />
irrelevant sein können. In der Folge kann dies zu unnötigem Bearbeitungsaufwand<br />
in zukünftigen Übersetzungsaufträgen führen. In diesem<br />
Sinne ist die Überprüfung von Formatierungstags nicht nur im Zieltext<br />
von Wichtigkeit.<br />
Oben minimale Tag-Ansicht (WYSIWYG), unten dieselbe Übersetzungseinheit<br />
mit Formatierungsfehlern<br />
Für Dateien mit Formatierungstags bieten die drei Tools vergleichbare<br />
Prüfmöglichkeiten. Across und SDL Studio können sämtliche Prüfkriterien<br />
in Echtzeit beim Bestätigen eines Segments prüfen, was in Transit<br />
NXT nicht möglich ist.<br />
Für den fortgeschrittenen Benutzer stellen Prüfkriterien basierend auf<br />
regulären Ausdrücken eine interessante Erweiterung der computerunterstützten<br />
Qualitätssicherung dar. Zum Beispiel lassen sich mittels<br />
eines selbst geschriebenen regulären Ausdrucks in SDL Studio oder<br />
in Transit NXT E-Mails oder Internetadressen sowie Sonderzeichen<br />
oder bestimmte Buchstaben- und Zahlenkombinationen auf Konsistenz<br />
(Vergleich zwischen Ausgangs- und Zieltext) oder auf korrekte Lokalisierung<br />
(http://...co.uk vs. http//...de) überprüfen.<br />
Weil es kein mustergültiges Prüfverfahren gibt, das zu allen Übersetzungsworkflows<br />
passt, sollten auch bestehende Prüfverfahren bei jedem<br />
neuen Übersetzungsauftrag kritisch betrachtet werden. Erst wenn<br />
sämtliche Eckdaten für das Projekt vorliegen, wie sprachspezifische<br />
und dokumentspezifische Anforderungen sowie Konventionen für<br />
Zahlen und Maßeinheiten, können die optimalen Einstellungen für die<br />
Qualitätssicherung vorgenommen werden.<br />
andreas.ljungstroem@euroscript.de<br />
194<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 7<br />
Fachvortrag<br />
Datenqualität –<br />
Anforderungen<br />
Datenqualität im Ausgangstext:<br />
Formatierungsqualität unter der Lupe<br />
Johann Plennert, STAR AG, Ramsen, Schweiz<br />
Das Ziel der Betrachtungen ist die Vereinfachung des Übersetzungsprozesses<br />
und die Kostenbegrenzung beim Einsatz von Translation<br />
Memory.<br />
Gute Datenqualität, gut formatierte Dokumente, haben einen erheblichen<br />
Einfluss auf die Aufwände, wie die Daten nach Übersetzung mit<br />
Translation Memory weiterverarbeitet werden müssen.<br />
Um die Datenqualität zu definieren, sollten vorab Fragen über Verwendung<br />
und Wiederverwendung der zu erstellenden Daten geklärt sein.<br />
−−<br />
Welche Information wird zu welchem Zeitpunkt von wem benötigt?<br />
Zuverlässigkeit und Wahrheitstreue der Datenkommunikation zwischen<br />
Konstruktion und Redaktion.<br />
−−<br />
Informationsqualität ist nicht gleichzusetzen mit Datenqualität, sondern<br />
die Informationsqualität ist Teil der Datenqualität.<br />
−−<br />
Wie ist die Prozessabfolge der Informationsverwertung?<br />
−−<br />
Sind die Informationen zur Qualitätssicherung allen Prozessbeteiligten<br />
zugänglich und bekannt? Verfügen sie auch über das Wissen<br />
dazu und besitzen sie die entsprechenden Fähigkeiten?<br />
−−<br />
Welche Risiken birgt der Prozess und lassen diese sich ermitteln und<br />
vermeiden?<br />
−−<br />
Existiert ein Leitfaden zu dem Prozess und sind die Qualitätsvorgaben<br />
für jeden Prozessschritt in einem Guide festgehalten?<br />
Was sind Daten?<br />
Diese Frage ist nur in ausführlichen Darstellungen zu beantworten<br />
und kann hier auf einen sehr kleinen Bereich eingegrenzt werden. Die<br />
Daten, die hier behandelt werden, beziehen sich auf die Technische<br />
Dokumentation, auf Datenblätter, Ersatzteilkataloge usw. Diese Daten<br />
enthalten Wissen, also eine Menge von Aussagen, die als Wahrheit angenommen<br />
werden und auch wahr sind.<br />
Dieses Wissen soll vermittelt werden, und zwar in Form von<br />
Fachliteratur.<br />
Da von Ausgangsdaten gesprochen wird, liegt es auf der Hand, dass<br />
diese übersetzt werden, also weiterverarbeitet werden. Wovon hängt die<br />
Datenqualität ab?<br />
−−<br />
Die Anforderungen an die Datenqualität hängen von der eingesetzten<br />
Technologie ab.<br />
−−<br />
Die damit eingesetzten Prozesse beeinflussen die Datenqualität.<br />
−−<br />
Die Prozess ausführenden Mitarbeiter haben größten Einfluss auf die<br />
Qualität der Daten.<br />
Zur Sicherung der Datenqualität haben wir also einen Kreislauf, bei<br />
dem eine Technologie Prozesse bestimmt, die von Mitarbeitern ausgeführt<br />
werden.<br />
Eine Definition allein reicht aber nicht aus. Es muss ein klar definierter<br />
Plan, eine klar definierte Vorgehensweise vorliegen. Andernfalls<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
195
Lokalisierung und Übersetzung / Localization<br />
können eventuell Qualitätsmängel entstehen, z. B. verursacht durch<br />
übergangene bzw. nicht beachtete Prozessschritte, gar durch doppelt<br />
ausgeführte Tätigkeiten.<br />
Des Weiteren sind zur Sicherung der Datenqualität der bzw. die Verantwortlichen<br />
zu benennen und mit den entsprechenden Kompetenzen<br />
auszustatten. Den Verantwortlichen muss stets klar sein, welche Auswirkungen<br />
schlechte Datenqualität haben kann.<br />
So viel Layout wie<br />
nötig und so viel<br />
Layout wie möglich<br />
Dabei müssen die<br />
Gesetze der Gestaltung,<br />
Typografie- und<br />
Layoutvorgaben<br />
beachtet werden.<br />
Ansätze<br />
−−<br />
Kann ich die Formatierungsqualität messen?<br />
−−<br />
Wie kann ich die Formatierungsqualität messen? Habe ich Werkzeuge<br />
dazu?<br />
−−<br />
Gibt es einen Standard? Wer kann mir helfen?<br />
−−<br />
Brauche ich dafür ein Qualitätsmanagement?<br />
Bei der Arbeit des Redakteurs oder des Layouters sind Zwänge und<br />
Freiheiten zu beachten und einzuhalten. Sind Normen einzuhalten oder<br />
darf man sie umgehen?<br />
Die Aufgabe, mit deren Ergebnis wir uns beschäftigen, lautet demnach,<br />
aus Text und Grafiken ein Dokument zu schaffen.<br />
Darstellung des Formats und des Aussehens entspringen subjektiven<br />
Beurteilungen und Darstellungen.<br />
Gute Typografie lädt zum Lesen ein, schlechte Typografie kann verheerende<br />
Folgen haben in der Technischen Dokumentation.<br />
Vor allem ist nicht außer Acht zu lassen, dass es bei der Formatierungsqualität<br />
auf Punkt, Komma und Strich ankommt.<br />
Argumente für gute Formatierungsqualität<br />
Durch konsequente Vorgehensweise kann neben der Vermeidung von<br />
Fehlern die Qualität erheblich verbessert werden. Dazu sollten im Ansatz<br />
folgende Punkte beachtet werden:<br />
−−<br />
Firmenstandards, Parameter zur Formatierung und Qualität sowie der<br />
Arbeitsweise sollten klar definiert sein.<br />
−−<br />
Ein Outsourcing diverser Aufgaben der Formatierung an kompetente<br />
Partner, die über das entsprechende Know-how verfügen, kann sinnvoll<br />
und kosteneffizient sein.<br />
−−<br />
Es müssen Gesetze, Normen eingehalten und Richtlinien sowie Styleguides<br />
definiert werden.<br />
−−<br />
Die Styleguides sollen in die Redaktionsleitfäden integriert sein und<br />
es müssen entsprechende Arbeitsanweisungen erteilt werden.<br />
−−<br />
Die praktische Erfahrung und der Ausbildungsstandard der Mitarbeiter<br />
spielen eine erhebliche Rolle bei der Formatierungsqualität.<br />
−−<br />
Die Ersteller der Ausgangsdokumente müssen Kenntnis über die<br />
Styleguides für Fremdsprachen haben und diese schon von Anfang<br />
an beachten.<br />
Formatierungsqualität als Endziel?<br />
Nein! Formatierungsqualität ist nicht das Endziel unserer Arbeit in<br />
der TD. Und das darf man nicht aus dem Auge verlieren. Die Formatierungs-<br />
bzw. die Datenqualität hilft dem Unternehmen bessere<br />
196<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Als Empfehlung<br />
Dokumentation zu erstellen und finanzielle Konsequenzen niedrig zu<br />
halten.<br />
Die Formatierungsqualität sollte daher eine geplante Maßnahme sein,<br />
die nur dann effektiv ist, wenn sie dauerhaft und gewissenhaft angewandt<br />
wird.<br />
Die Eignung und die Qualität der Daten kann eine andere zum Zeitpunkt<br />
der Erfassung der Daten sein und zum Zeitpunkt der Weiterverwendung<br />
können andere Qualitätsansprüche gelten.<br />
Demnach sind Datenqualität und Formatierungsqualität, einfach gesagt,<br />
die Korrektheit der Daten aufgrund von individuell definierten Anforderungen,<br />
die als Ziel Zeit- und Kostenreduktion haben sollen.<br />
Prüfen hat sich immer gelohnt und zusätzliche Kosten gespart.<br />
Es kann nur empfohlen werden, in die Styleguides oder Richtlinien<br />
Checklisten aufzunehmen, die eine Formatierungsqualität sichern<br />
und die Bearbeitung der Daten mit einem TM effektiver und leichter<br />
machen.<br />
für Rückfragen: johann.plennert@star-group.net<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
197
Lokalisierung und Übersetzung / Localization<br />
LOC 8<br />
Presentation<br />
Highlights, Holes in and Hopes<br />
for the “Multilingual Web”<br />
Richard Ishida, W3C<br />
Christian Lieske, SAP AG<br />
Jan Nelson, Microsoft<br />
Felix Sasaki, DFKI<br />
Introduction<br />
Lead by the World Wide Web Consortium (W3C), and funded by the European<br />
Commission, participants from many areas relevant to content<br />
provisioning (content producers, browser vendors, localizers, language<br />
technology experts etc.) ran four W3C Workshops as part of the “Multi-<br />
LingualWeb” Thematic Network. Their goal was to spread information<br />
about what best practices, standards and implementations for multilingual<br />
information on the web currently exist, and what gaps need to<br />
be filled. The aim was to touch on all aspects of creating, localizing and<br />
deploying the Web multilingually. The following paragraphs sketch the<br />
Thematic Network, the workshops, and some highlights. These include<br />
translation-related changes to HTML5, in-situ browser-based translation,<br />
and enhanced standard support in mainstream development<br />
tools. In addition, tangible results from the network’s activity will be<br />
mentioned.<br />
The Thematic Network<br />
Today, the World Wide Web (WWW) is fundamental to communication<br />
in all walks of life, and many technology stacks. As the share of English<br />
web content decreases and that of other languages increases, it is vitally<br />
important to ensure the multilingual success of the World Wide Web. In<br />
addition to English content becoming a smaller percentage, the geopolitical<br />
boundaries of language are also crumbling in many cases (see for<br />
example http://thewebindex.org/ which describes the usage of the internet<br />
in various countries). This further drives a need for multilingual<br />
capabilities.<br />
In order to address these language-related developments, the European<br />
Commission (EC) funded a so-called Thematic Network as part<br />
of the COMPETITIVENESS AND INNOVATION FRAMEWORK PRO-<br />
GRAMME ICT Policy Support Programme (ICT PSP) EU Initiative.<br />
The primary goal of the network – coordinated by the World Wide Web<br />
Consortium (W3C) – was to examine how the multilingual Web can be<br />
improved through standards and best practices. The core vehicle for the<br />
network – in which software players such as Microsoft, Facebook, Opera,<br />
and SAP as well as language service providers and language technology<br />
researchers participated – was a series of four events that were spread<br />
over two years.<br />
The Workshops<br />
The workshops brought together a very diverse set of people – attracted<br />
browser developers, content developers large and small, language technology<br />
experts, localizers, policy makers, standards developers and others.<br />
This holistic approach to discussing the issues of the multilingual<br />
198<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Web lead to many networking contacts and initiatives that would not<br />
have been possible before and to a much wider exposure to dependencies<br />
and synergies than most attendees had previously known.<br />
Each of the 1.5–2 days workshops (held in Madrid, Pisa, Limerick and<br />
Luxembourg; one of them co-located with a conference) attracted more<br />
attendees and speakers as foreseen – on average 100 attendees and 30<br />
speakers. The format aimed at presentations with accessible length with<br />
a lot of room for interaction. Topics were clustered under headings such<br />
as developers, creators, localizers, machines, users, and policy. Over time,<br />
the format was slightly adapted. In particular, Open Space discussion<br />
forums were introduced. A sponsorship program introduced by W3C<br />
helped amongst others to run social events for additional networking.<br />
The network made ample use of social media for disseminating news<br />
about the workshops. Besides the multilingualweb.eu site (450,000 hits<br />
during the first half of <strong>2012</strong> for home page) and mailing lists, it used<br />
dedicated Twitter, Facebook, LinkedIn and RSS feeds. Furthermore, the<br />
presenters were video recorded or even streamed live over the Web. In<br />
addition, minutes were taken instantaneously via Internet Relay Chat<br />
(IRC). The workshop reports have already proven to be a valuable resource.<br />
Each report links to slides, videos and the real-time IRC log of<br />
the event. Server logs indicate that around 180,000 page views per year<br />
per workshop report can be expected.<br />
Notable Aspects of the Workshops<br />
−−<br />
Importance of interoperability<br />
−−<br />
Talks from several of the major browser implementers<br />
−−<br />
Issues with multilingual Web technologies in various parts of the<br />
world<br />
−−<br />
Need to better use emerging technologies<br />
−−<br />
Need to work with users<br />
−−<br />
Presentations from several producers and users of very large content<br />
−−<br />
Discussions about the Semantic Web and Linked Open Data<br />
−−<br />
Standards for production processes<br />
−−<br />
User experience<br />
−−<br />
User generated content<br />
−−<br />
Special environments<br />
−−<br />
Content-related initiatives and trends<br />
−−<br />
Language Technology<br />
Tangible Results<br />
As indicated, the individual reports of the workshops (see http://multilingualweb.eu/documents)<br />
– summary, link to videos, slides and notes –<br />
have been proven to be a valuable resource.<br />
The recently started MultilingualWeb-LT (MLW-LT) project and the<br />
affiliated W3C Working Group grew out of the network, and maintained<br />
the policy of inclusiveness with the breadth of its stakeholder participation.<br />
MLW-LT took over the branding, processes and dissemination<br />
channels of the MultilingualWeb network, and has continued to run<br />
workshops in the same format.<br />
The project provided the opportunity for partners to discuss or become<br />
involved with a number of practical developments at the W3C. They<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
199
Lokalisierung und Übersetzung / Localization<br />
included an internationalization checker (to help developers/authors<br />
find information about HTML pages and spot issues; see http://validator.w3.org/i18nchecker),<br />
and information development of a test framework<br />
that allows the public to participate in reporting issues for browser<br />
support of internationalization features (based on the W3C internationalization<br />
test suite; see http://w3c-test.org/framework).<br />
The network on several occasions cross-fertilized the Network of the<br />
Multilingual Europe Technology Alliance (META-NET), a Network of<br />
Excellence that is dedicated to building the technological foundations<br />
of a multilingual European information society (see for example http://<br />
www.meta-net.eu/events/meta-forum-<strong>2012</strong>/report). The same holds<br />
for the Multilingual Semantic Web event in Dagstuhl (see http://www.<br />
dagstuhl.de/en/program/calendar/semhp/?semnr=12362) which originated<br />
from the EU project Monnet on Multilingual Ontologies for Networked<br />
Knowledge (see http://www.monnet-project.eu). The event was<br />
positioned at the intersection of natural language processing, machine<br />
translation, multilingual information and knowledge access and intensified<br />
the contact between various communities.<br />
Contact<br />
ishida@w3.org<br />
christian.lieske@sap.com<br />
Jan.Nelson@microsoft.com<br />
felix.sasaki@dfki.de<br />
200<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 11<br />
Presentation<br />
Almost all translation<br />
projects are urgent<br />
Treating translation<br />
as an integral part<br />
of an organization’s<br />
communication strategy<br />
High-speed translation<br />
is not a commodity<br />
Get service providers<br />
on-board early<br />
The need for speed: How to ensure<br />
the completion of your most urgent<br />
translation projects within three days<br />
Uwe Muegge, CSOFT International, Carmel, USA<br />
Today, almost all product-related translation projects are time sensitive.<br />
In the case of life sciences companies, some documents absolutely must<br />
be translated in the shortest amount of time and at the highest possible<br />
level of quality to prevent patients from coming to harm. This article illustrates<br />
how CSOFT International works with some of their large corporate<br />
clients to develop processes that, among other things, eliminate<br />
in-country translation review, and result, typically, in turn-around times<br />
of three days from receipt of source files to delivery of publishable<br />
documents.<br />
Making translation part of the overall communication<br />
plan results in streamlined translation<br />
Planning for translation from the outset of a project can be the single<br />
most important factor for speeding-up translation. Many of the steps<br />
discussed below (e.g. developing project-specific glossaries, style guides,<br />
document templates, etc.) are typically too complex, time-consuming<br />
and expensive to be performed on an ad-hoc basis for a single highpriority<br />
translation project. However, if maintaining multilingual glossaries<br />
and style guides is part of a global communication strategy, updating<br />
these resources, where necessary for a specific project, is generally<br />
much more feasible.<br />
Today, many corporate translation buyers treat translation as a commodity,<br />
and, consequently, use a transactional business model where individual<br />
translation projects are awarded via reverse auction to the lowest<br />
bidder. In an e-auction environment, depending on the size and duration<br />
of a project, it may be difficult to align processes, schedules, and<br />
resources between the translation buyer and language service provider.<br />
If, on the other hand, the buyer and the provider of translation services<br />
form a strategic partnership, it is much easier for the service provider to<br />
establish and maintain client-specific resources and workflows. In this<br />
type of environment, a language service provider typically uses a team<br />
of professionals who, based on continuous exposure and – ideally –<br />
product training, knows the client’s products and/or services inside out.<br />
For many projects, it’s not uncommon for language service providers<br />
to learn about a new translation project the day it shows up in their<br />
inbox. If that project has a tight deadline, the only option available to<br />
most translation service providers is to distribute the work to many linguists<br />
simultaneously, which might negatively impact the quality of the<br />
deliverables.<br />
However, if a translation buyer coordinates his or her efforts with the<br />
language service provider early in the project stage, additional options<br />
for early delivery become available. For instance, linguists may successively<br />
translate text as authors create it or revise translations in sync<br />
with changes in the source. In this scenario, even a single translation<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
201
Lokalisierung und Übersetzung / Localization<br />
professional may be able to not only complete a large project but deliver<br />
the final translation mere hours after the source text has been finalized.<br />
Up-to-date, projectspecific<br />
termbases<br />
are a must<br />
Client review of<br />
glossaries is as<br />
underutilized as<br />
it is powerful<br />
Translation style guides<br />
are as important as style<br />
guides for the source<br />
Controlled terminology helps translators getting it right the first time<br />
Few factors have a more detrimental effect on the timely completion of<br />
a translation project than discussions about the correct use of terminology<br />
that often occur without the availability of a comprehensive glossary.<br />
The translator uses ‘USB stick’, the editor prefers ‘USB drive’ and the<br />
reviewer insists on ‘flash drive’. With a comprehensive, project-specific<br />
glossary, these unnecessary, expensive and, above all, time-consuming<br />
controversies are a thing of the past. While every translation project (in<br />
fact, every communication project) benefits from the availability of a<br />
glossary, the advantages are most apparent in rush jobs: translators can<br />
focus on translating, thereby maximizing the translators’ productivity<br />
instead of spending valuable time on terminology research.<br />
Having a project-specific, multilingual glossary available in electronic<br />
form early in the project is good; having such a glossary with the client’s<br />
stamp of approval is even better. For terminology matters in particular,<br />
the old adage applies: the customer is always right! No matter how wellresearched<br />
a glossary the service provider creates, if the client prefers<br />
other terms, changes will have to be made in the translation. To avoid<br />
these types of change requests, the best course of action is to create and<br />
update the glossary early in the project, have the client sign-off on it,<br />
and make that glossary available to translators as soon as possible. Following<br />
this strategy ensures that translators not only use terminology<br />
consistently, but that they use the ‘right’ term every time, which reduces<br />
time spent editing and reviewing. For clients who have a recurring need<br />
for fast turnaround and high-quality translations, playing an active role<br />
in creating and continuously updating multilingual glossaries is a must.<br />
Detailed style guides help avoid unnecessary corrections<br />
One of the overarching goals in every rush project is to eliminate repetitive<br />
work and the risk of corrections – in other words, enable team<br />
members to do it right the first time. So how do you make sure a translation<br />
meets the client’s expectations? By using the client’s approved<br />
translations (via a translation memory system), by using the client’s<br />
approved terminology (via a terminology management system), and by<br />
following the client’s translation style guide. But wait: most clients don’t<br />
have a style guide for each language for which they buy translation services!<br />
That is typically not a problem, as, in the absence of a formalized<br />
set of rules, reviewers on the client side are usually happy to come up<br />
with one of their own. If speed is of the essence, however, a languagespecific<br />
style guide is an effective tool for avoiding post-translation<br />
changes concerning capitalization, representation of numbers and the<br />
like. Who should write these style guides? Ideally, the person or people<br />
who typically perform translation review on the client side. If that is not<br />
an option, creating client-specific translation style guides is a service<br />
many language service providers offer. And while the creation of a style<br />
guide does cost money, it is typically a minor investment that has a high<br />
pay-off, especially in terms of time savings.<br />
uwe.muegge@csoftintl.com<br />
202<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 12<br />
Presentation<br />
An Organic Mechanism: Effective Localization<br />
QA in Agile Development Environments<br />
Alberto José Viralhadas Ferreira, Avira Operations GmbH & Co. KG, Germany<br />
Agile development environments pose their own set of problems. The<br />
continuous delivery, even with maintenance projects, pushes localization<br />
departments to the forefront of the development cycle process and<br />
can quickly expose problems in the localization chain and pose new<br />
challenges that can compromise the validity of the methodology process<br />
in your current organization.<br />
Environments that do not enforce collaboration can be hindered by<br />
localization frequently being linked to the end-of-chain stage, interspersing<br />
time constraints with role diffuseness, leading to severe quality<br />
compromises in most cases. Since Agile demands constant proactiveness,<br />
responsiveness and the ability to adapt to changing situations,<br />
testing is a critical part of localization and the entire product internationalization<br />
process. The production process is effectively never over<br />
as long as the project is on-going, which means that late requirement<br />
change is an expected and even desirable cog in a chain that relies on<br />
communication and stable interchange of information. While monolithic<br />
development and requirement unspecificity often compromise results<br />
in traditional development structures, Agile’s focus on productivity and<br />
decomposable work items enables a richer and more quality-oriented<br />
development process. Testing is often regarded as the most complex<br />
process in localization implementation, but Agile can actually ease this<br />
burden as long as preparation and integration are emphasized.<br />
Designing Agile<br />
User Stories as engine<br />
of adaptation<br />
Localization Testing Pre-Planning<br />
Any User Story implemented in a product has several components that<br />
demand different expertise from a multi-specialized team, which can<br />
be either contained in different departments or, optimally, working exclusively<br />
together on given parts of the product. In this setting, product<br />
localization is a concern from the get-go thanks to constant involvement<br />
with the core development team and product stakeholders. Project management<br />
duties are distributed and the Product Owner’s vision is instrumental<br />
in the whole process.<br />
From a design point of view, localization must be one of the stakeholders<br />
in the User Story if it is determined that it affects any kind of<br />
text resources in the application, either directly (i.e. text changes) or<br />
indirectly (i.e. impact on UI design or graphic arrangement). From a<br />
maintenance point of view, this relies on pre-planning and resource assignment<br />
from an early stage. Localization is the primary link between<br />
a software application and its international marketability, and should<br />
be taken into account as early as possibly in the software development<br />
process.<br />
For companies in transition from waterfall to Agile, User Stories can follow<br />
an acceptance criteria and function like small, manageable requirements.<br />
In these cases, ensure that localization is well represented in<br />
the final constellation of the project specs submitted and that usability<br />
assessments are taken in account. In case your User Stories follow the<br />
INVEST model (Independent, Negotiable, Valuable, Estimable, Small,<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
203
Lokalisierung und Übersetzung / Localization<br />
Testable) or similar, localization must be a negotiable, continuously<br />
responsive and evolved department in line with the corporate culture.<br />
For all the emphasis on de-regulation and adaptivity, Agile is actually<br />
a fairly well-bound field with a set of principles that can be replicated<br />
throughout projects.<br />
Why is this important? Partly, because a better representation will aid<br />
in the integration of accurate localization QA services in the software<br />
development mainline and save effort at an early stage that would<br />
eventually go in the test pipeline and allows you to establish a good test<br />
strategy that involves all four levels of software development: planning,<br />
implementation, regression and deployment.<br />
User Stories as engine<br />
of adaptation<br />
Integrating automated<br />
and manual testing<br />
Asserting Test Strategy and Matrixes<br />
When creating a test strategy, you have to accurately define the QA processes<br />
and their integration in the lifecycle. An early involvement and<br />
understanding of specs, requirements and the product scope will feed<br />
the production of an accurate test matrix, complete with pre-assumed<br />
configurations and locales, starts at the User Story creation level, where<br />
the product scope actually materializes.<br />
At its drafting, the User Story already needs to integrate localizability<br />
and internationalization concerns, by way of specific linguistic and<br />
functional testing. These criteria are an integral part of the final acceptance<br />
process and the successful implementation of the User Story must<br />
be predicated on its fulfilment.<br />
The test strategy also has to take into account the responsibility when<br />
decentralizing that comes with Agile practice: the contact points can<br />
be multiple and, in case of dedicated testing teams, the syncing between<br />
the localization functionality testing team and other functionality<br />
teams must be carefully established in order to avoid discrepancies or<br />
redundancy.<br />
Localization Testing Methodologies<br />
Another issue is that regression must be mitigated through unit testing<br />
and automation as early as possible. Given the tight timelines involved<br />
in Agile development, preliminary localizability testing must be done in<br />
advance before the implementation of the User Story in order to reduce<br />
effort with later regression and workflow adjustments.<br />
The implementation of different testing methodologies depends on the<br />
resource availability and the project needs. On the tool level, an integrated<br />
test and development environment, as well as common issue<br />
tracking systems, is a pre-requirement for valid reporting, as well as the<br />
configuration and implementation of specific automatic testing.<br />
Specifically, automation is essential on the source code level, where<br />
the semantics of string implementation are initially checked. In a testdriven<br />
development environment, development unit tests are routinely<br />
run during program compiling and building, and can already provide<br />
reports on missing and incorrectly implemented application strings.<br />
Automation can also assist with specific user interface issues, as well as<br />
functional text issues such as script rendering, blacklists and hotkeys.<br />
204<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Hybrid testing with automated and manual approaches can also highlight<br />
specific problems in the user interface, where the control layout is<br />
somehow flawed or incorrect, or the rendering of the character locale,<br />
especially on bidirectional languages. This method is particularly suitable<br />
to in-context review, unlike the more typical screenshot review.<br />
Moreover, it avoids the time-wasting meanderings of exploratory testing.<br />
Test coverage and test<br />
plan optimization<br />
Types of testing<br />
Continuous deployment<br />
and testing<br />
Localization Testing Domains<br />
An optimal test coverage can only be achieved with the replicability of<br />
test cases and integrational strategies between all departments involved<br />
with software ergonomics, localization and development. It is also critical<br />
that all testing effort is linked to correctly prioritized User Stories<br />
with their own specific test cases. This will enable the testing to concentrate<br />
and focus on user-critical areas of the application. It will also allow<br />
for more effective effort management.<br />
Test cases should be preferably structured according to the priority of<br />
the User Stories but, in the context of an iteration development, they<br />
should reflect primarily the localization acceptance tests for the User<br />
Stories ranging from three basic domains: cosmetic, functional and<br />
linguistic.<br />
Linguistic testing relies mainly on prescriptive reference materials<br />
(such as glossaries and style guides) and checks for typographical,<br />
grammatical, and contextual errors. Given that text in the application is<br />
just one more element of its visual design, special attention should be<br />
given to cosmetic guidelines that are shared amongst the team, and especially<br />
between design and development-oriented staff. These guidelines<br />
can include the optimal distance between elements, color combination<br />
palettes (which are also culturally determined) and fonts. Testing<br />
should commence as soon as possible on the new strings, which implies<br />
that a tight integration with your LSP and automatic machine translation<br />
are also solutions to be carefully assessed in order to fulfil multilingual<br />
requirements in the context of a 2 or 4 week iteration.<br />
Solidifying the Testing Loop<br />
Agile focuses on usability that brings value to the end-user, so localization<br />
testing should primarily focus on helping to deliver this value, as<br />
it is defined in the product scope by the stakeholders. In a continuous<br />
deployment environment, the emphasis should rely on preventing the<br />
occurrence of problems and reducing regression costs, so pre-planning,<br />
early engagement and a solid communication flow are key to the testing<br />
process. Testing is not a separate focus, but rather an essential component<br />
of everyday methodology, and the organic feedback loop between<br />
result, assessment and adjustment enforced by Agile can be a powerful<br />
tool for producing quality multilingual software prepared for the demands<br />
of a global market.<br />
If you have any questions please contact: alberto.viralhadas@gmail.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
205
Lokalisierung und Übersetzung / Localization<br />
LOC 15<br />
Presentation<br />
What constitutes a healthy<br />
localization department?<br />
Shirley Yeng, EC Innovations, Inc., Singapore<br />
There are tools out there and also readily available blogs these days to<br />
share ideas, concepts, stories of successful experiences to guide localization<br />
departments in their usage of resources and time in project management,<br />
resource management and finance management. The question<br />
is then how do the current localization departments stay focus on their<br />
purpose in achieving clarity of where they are going, which stage they<br />
are in, and whether they have attained their desired goals.<br />
To avoid being swamped by the abundance of solutions and thereby<br />
blurring the line of wants and needs, it is therefore crucial to have clarity<br />
into what really matters in the localization department.<br />
This presentation will touch on the following key major areas:<br />
−−<br />
Design of the localization department<br />
−−<br />
Purpose of the different roles within – why they would fit nicely together<br />
−−<br />
What keeps the department together<br />
−−<br />
Watch out for the likely challenges that might affect the unity of the<br />
team<br />
−−<br />
Methods to overcome the challenges – how to walk in unity<br />
−−<br />
Building a strong and growing department<br />
If you have any questions please contact: shirleyy@ecinnovations.com.<br />
206<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 17<br />
Presentation<br />
Automated monolingual term extraction<br />
through spelling check: a case study<br />
Uta Kreimeier, Olympus Soft Imaging Solutions GmbH, Münster<br />
Olympus Soft Imaging Solutions GmbH is a global supply unit for microscope<br />
image processing products within the Olympus group. It is<br />
based in Münster, Germany. The software solutions are produced in<br />
English and localized into several European and Asian languages.<br />
Regarding software localization, the company faces the following challenges:<br />
first, as the software solutions are used in science and research,<br />
e.g. life sciences and material sciences, a high percentage of specialized<br />
terminology from different areas has to be translated. In addition, each<br />
software product is highly customizable and many dialogs are created at<br />
run-time. As a result, many strings are difficult to translate because the<br />
localization tool cannot display sufficient context information (e.g. dialog<br />
preview). This leads to specialized terminology which is displayed<br />
in string lists in the localization tool.<br />
Second, the software is developed by an international and interdisciplinary<br />
development team. This can lead to language problems in the<br />
source language, which in turn can cause translation problems. The<br />
situation could be mitigated by using an adapted source language. In<br />
the localization tool, the English strings could be edited, and the resulting<br />
adapted source language could then be translated. However, this<br />
approach is not possible. Due to the number of people involved in each<br />
project, every string change has to be reflected in the software, the specification<br />
and the test plan. Furthermore, simship requires that software<br />
localization starts early, and source strings are still being changed during<br />
the localization stage. Consequently, language problems have to be<br />
reported with a bug tracking tool, even if there is just a simple spelling<br />
mistake.<br />
This situation is very inconvenient for both, software development and<br />
software localization. The specialized terminology without context leads<br />
to translators’ questions and translation problems. Spelling mistakes are<br />
often fixed at the end of the development phase and generate additional<br />
late string changes.<br />
A solution for the above challenges, the specialized terminology without<br />
context information and the spelling mistakes, is an automated spelling<br />
check with term extraction.<br />
A prerequisite for this approach is a localization tool that offers a functionality<br />
to mark whether a string is translatable or technical. The process<br />
of marking strings is automated through rules such as keywords<br />
that software developers supply in technical strings. These rules are the<br />
base of a nightly string build process, which separates translatable and<br />
technical strings and sends the results of a spelling check on translatable<br />
strings to the software developers.<br />
An automated spelling check is not acceptable unless it hardly returns<br />
any false positives. It is therefore of paramount importance to create<br />
and maintain a custom dictionary for the spelling check. The custom<br />
dictionary is generated from the terminology database. This results in<br />
a terminology database which contains entries that do not represent<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
207
Lokalisierung und Übersetzung / Localization<br />
terms but are needed for the spelling check. This is, however, no problem<br />
since terms and spelling check entries can be marked and filtered.<br />
The spelling check compares all translatable strings against the builtin<br />
dictionary and the custom dictionary and returns error messages for<br />
unknown strings. There are three kinds of unknown strings: first, a technical<br />
string which was not marked accordingly; second, a spelling mistake;<br />
and third, a new term. The first two error messages can be fixed by<br />
the software developers alone. The third error message is fixed by the<br />
software developers, who provide context information for the new term,<br />
and the localization team, which enters the new term with a definition<br />
into the terminology database. The term definitions help the translators<br />
to establish the correct target language equivalents, but is also used as<br />
dictionary by in-house staff.<br />
Of course, there is room for further development. For example, certain<br />
new terms such as homonyms and compounds cannot be found automatically.<br />
This means that additional manual work is still necessary.<br />
Overall, the solution can be realized with existing tools, namely the<br />
localization tool and the terminology database. The introduction of the<br />
automated spelling check means less manual work for software localization,<br />
and the responsibility is pushed upstream to the software developers.<br />
Software developers receive feedback directly after committing<br />
their string changes. The software localization team adds new terms to<br />
the terminology database as soon as they appear. The corresponding<br />
context information is delivered automatically through a clear process<br />
to software localization.<br />
This way of processing strings is advantageous, because it highlights<br />
problems early and reduces the workload in the last project phases.<br />
In addition, it encourages the maintenance of a terminology database<br />
which is used for context information and terminology management.<br />
Last, due to automation and clear workflows, manual work is reduced to<br />
a minimum.<br />
Literature<br />
Childress, Mark D. (2007) Terminology work saves more than it costs.<br />
MultiLingual April/ May 2007, p. 43–46<br />
ISO 704:2009 Terminology work – Principles and methods. Geneva: ISO<br />
Karsch, Barbara Inge (2011) Terminology Survey Results. MultiLingual<br />
April/ May 2011, p. 45–50<br />
Straub, Daniela/ Schmitz, Klaus D. (2009) Successful Terminology Management<br />
in Companies. Practical tips and guidelines: Principles, implementation,<br />
cost-benefits analysis, overview. Wiesbaden: tcworld<br />
If you have any queries please contact: uta.kreimeier@olympus-sis.com<br />
208<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 18<br />
Presentation<br />
Business Intelligence<br />
and Multilingual<br />
Chat at Honda<br />
Motor Europe U.K.<br />
Case 1: Warranty<br />
Claim project<br />
Case 2: Multilingual chat<br />
Snapshot of Machine Translation<br />
Tiene Vertriest, Eef Blommaart, Yamagata Europe N.V., Gent, Belgium<br />
This article describes two Machine Translation projects that Yamagata<br />
Europe has realised with Honda Motor Europe. For each project, we<br />
describe the specific hurdles that had to be taken and the results that<br />
were achieved. The first project is a project where data is translated into<br />
English within a 12 hour scale, the second project is a sample of an instant<br />
multilingual chatting service. Both systems are for in-house use at<br />
Honda Motor Europe only and fully integrated in the Honda IT systems.<br />
To handle the data, Yamagata designed a combination of semi-automated<br />
pre-editing, TM-integrated machine translation based on Systran<br />
server, and ultra-light post-editing.<br />
Over the years, Honda has built up a database with valuable information<br />
about all kinds of warranty-related quality issues: whenever a Honda<br />
dealer (car, bike, power equipment) is confronted with a problem about<br />
a device part that is still in warranty, the dealer is requested to fill in all<br />
information about this warranty issue into Honda’s warranty database<br />
(problem description, problem diagnosis, reparation details, etc.). The<br />
dealers can input this information as free text in their own language. In<br />
July 2009, we were asked by Honda to create a ‘translation system’ to<br />
generate English translations for text from this warranty claim database.<br />
The request for translation came from the Honda Product Improvement<br />
center in the UK: they wanted to make more and better use of the information<br />
in the warranty database. Three languages were selected to be<br />
translated into English with Machine Translation: German, Italian and<br />
Russian, because these languages represent the three major European<br />
markets (over 50% of all warranty issues). In the future more languages<br />
might follow.<br />
Even before going ‘live’ with the first project, Honda was enthusiastic<br />
about the MT potential and organised an internal brainstorming to see<br />
if other projects could link to this new ‘translation highway’. The result<br />
of this brainstorm fitted well into a planned restructuring of the Honda<br />
Motor Europe service support to the local dealers. This support service<br />
used to exist in each European country, but was not affordable anymore<br />
giving the growing number of new markets (countries) and engine technologies.<br />
Honda was already planning a web-based communication and<br />
chat interface between the centralised support service center in Germany<br />
and the in-country dealers. Honda also decided to add a “translation<br />
request button” to the interface in order to allow users to request a<br />
translation into English or into their native language.<br />
MT backup: Human translation button<br />
The Honda requirements on this project are very high: translation delivery<br />
within 2 seconds with 90% understandability. This is because the<br />
Honda dealers used to have immediate telephone support in their own<br />
language for most of the issues they encountered. At this moment, we<br />
have reached an average understandability level of 79,5% – so we still<br />
need to do better. But in the meantime, we have integrated a human<br />
translation system to the MT flow: if the MT output is not satisfying, the<br />
engineer in the Technical Support center can press a button to request a<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
209
Lokalisierung und Übersetzung / Localization<br />
human translation. The request is sent to Yamagata over the translation<br />
highway and the human translation will be delivered back to Honda.<br />
Full speed on the translation highway:<br />
The main difference between the online chat project and the warranty<br />
project is speed: while the warranty project requires same day delivery<br />
of the translations, the online chat project requires immediately delivery<br />
(within 2 seconds). This means there is no time for human intervention<br />
at all: no pre-processing, no post-processing. On top of this, Honda set<br />
an ambitious target and requested a 90% understandability.<br />
Quality Measurement<br />
The warranty project went ‘live’ in December 2010. During the technical<br />
developments, we also worked out a methodology to measure the quality<br />
of the MT-output based on understandability levels.<br />
Conclusion:<br />
Technology<br />
Next to the development of pre- and post-editing tools and the training<br />
of the MT engines, we worked on IT integration with the Honda team, to<br />
ensure smooth and automatic file transfer via web services: the ‘translation<br />
highway’. Through thorough automation both by Honda and Yamagata<br />
Europe the machine translation module plugs seamlessly into the<br />
bigger Honda Motor Europe systems.<br />
The biggest challenge for both Honda projects was the unstructured<br />
source content. With a large user group as in the Honda case, it is almost<br />
impossible to control and manage the data and text input. On the<br />
other hand, we have experienced that controlling the source is crucial<br />
to obtain understandable MT output. This means that training the MT<br />
engines was only a small part of this quite complex project: controlling<br />
or upgrading the input was the biggest challenge.<br />
For more information please contact:<br />
Eef Blommaart – eef.blommaart@yamagata-europe.com<br />
Tiene Vertriest – tiene.vertriest@yamagata-europe.com<br />
210<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 20<br />
Tutorial<br />
Einführung von maschinellen Übersetzungsprozessen<br />
in einer mittelständischen<br />
Übersetzungsagentur<br />
Michael Carl Enderstein, ditto KG, Reinfeld (Holstein), Deutschland<br />
Pavel Schick, MemSource Technologies, Prag, Tschechische Republik<br />
Einführung<br />
Anfang <strong>2012</strong> taten sich ditto KG und MemSource Technologies auf der<br />
Suche nach Möglichkeiten zusammen, maschinelle Übersetzungstechnologie<br />
so zum Einsatz zu bringen, dass freiberufliche Übersetzer diese<br />
nutzen können, ohne dass die Qualität der Arbeitsergebnisse darunter<br />
leidet.<br />
MemSource Technologies bietet robuste, benutzerfreundliche Übersetzungs<br />
um gebungen, in denen die Funktionalitäten von Translation<br />
Memory und Machine Translation kombiniert werden.<br />
ditto KG ist eine Agentur, die seinerzeit die Einführung von Translation<br />
Memory lancierte und zu den „Early Adopters“ der maschinellen Übersetzung<br />
gehört.<br />
Überblick<br />
Es ergibt keinen Sinn, die Augen vor der wachsenden Verbreitung von<br />
Machine Translation (MT) zu verschließen. Womit nicht bestritten werden<br />
soll, dass man trotz kostenintensiver F&E-Bemühungen ob der<br />
Qualität der Ergebnisse noch häufig den Blick abwenden möchte. Die<br />
wachsende Akzeptanz von MT ist dem aktuellen ökonomischen Klima<br />
(Geiz ist geil, gratis noch geiler!) und der alarmierenden Gleichgültigkeit<br />
gegenüber sprachlichen Auflösungserscheinungen geschuldet.<br />
Die insgesamt aber noch zaghafte Implementierung von MT in der<br />
Übersetzungs branche liegt u. a. daran, dass MT oft als Jobkiller betrachtet<br />
wird. In wirtschaftlich unsicheren Zeiten neigen Unternehmen in<br />
Europa dazu, sich mit einem „weiter so wie bisher“ durchzuwursteln,<br />
bei gleichzeitiger Vermeidung von Streit mit den Lieferanten, sofern<br />
dies überhaupt möglich ist.<br />
Doch wollen wir optimistisch nach vorne schauen auf eine Zeit, in der<br />
die Euro-Krise vergessen, MT-optimierte Durchlaufzeiten und Margen<br />
hingegen eine Dimension erreicht haben, die Agenturen, Kunden und<br />
Freiberufler dazu bringt, sich gegen seitig an die Gurgel zu gehen.<br />
Wir sind der Überzeugung, dass sich die Erfolgsaussichten eines MT-<br />
Einsatzszenarios in dem Maße verbessern, in dem es gelingt, die verschiedenen<br />
Interessen gruppen am Implementierungsprozess zu beteiligen.<br />
Ferner glauben wir, dass eine transparente Methode zur Bewertung<br />
der MT-Qualität unentbehrlich ist, um Konfliktpotential zu entschärfen.<br />
Einführung von maschinellen Übersetzungsprozessen<br />
Kleine, agile Agenturen sind zumeist ganz vorn dabei, wenn es um gutes<br />
Projekt management, effiziente Nutzung von Translation Memory<br />
(TM) und schnelle Auslieferungen geht, sind jedoch bisher nicht als<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
211
Lokalisierung und Übersetzung / Localization<br />
Standartenträger der MT-Technologie in Erscheinung getreten. Die<br />
Mehrheit der Agenturen hat noch keine Möglichkeit gefunden, die Produktivität<br />
ihres Workflows durch MT zu steigern, ohne die Freiberufler<br />
zu vergraulen oder die Qualität der Arbeitsergebnisse zu verwässern.<br />
Im Gegensatz dazu haben viele große Unternehmen das Geld zur Implementierung<br />
selbst hochwertiger MT-Technologie quasi in der Portokasse.<br />
Umso erstaunlicher, dass viele Führungskräfte keinerlei Bedenken<br />
haben, selbst wichtigste Geschäfts dokumente, von der Präsentation<br />
bis zur Spezifikation, mit Google Translate oder Microsoft Translator<br />
erstellen zu lassen. Echtes Geld für eine im Internet kostenlos abrufbare<br />
Leistung zu bezahlen, scheint ihnen vermutlich lächerlich.<br />
Bei Freiberuflern könnte man große psychologische Barrieren gegenüber<br />
fort schritt licher MT-Technologie vermuten. Doch ist ihre Haltung<br />
gegenüber MT, vorsichtig formuliert, widersprüchlich. Kaum ein Freiberufler<br />
findet sich bereit, MT-Material geringer Qualität nachzuarbeiten;<br />
und doch erlebten wir auch, dass trotz geringer Qualität Online-Übersetzungsdienste<br />
zur Steigerung der eigenen Produktivität zum Einsatz<br />
kamen, sobald das Gefühl aufkam, nicht überprüft zu werden.<br />
Herausforderungen der Machine-Translation-Implementierung<br />
Im Jahr <strong>2012</strong> unterstützte MemSource Technologies die ditto KG bei<br />
der Durch führung eines TM+MT-Workflows. Unter Einsatz von Google<br />
Translate und Microsoft Translator (Bing Translator), den beiden<br />
während der Start-Up-Phase verwendeten MT-Technologien, befolgte<br />
ditto KG den von MemSource vorgegebenen Ansatz zur Messung der<br />
MT-Qualität.<br />
Bei der Implementierung ergaben sich viele Herausforderungen, die<br />
wir mit Fokus auf die wichtigsten Themen ansprechen möchten:<br />
Den MT-Spaßfaktor verbessern<br />
Jede qualitätsbewusste Agentur hat i. d. R. einen praxisbewährten Workflow,<br />
an dem über Jahre gefeilt wurde. Diesem Workflow einfach MT<br />
hinzuzufügen wäre so, als würde man eine unbekannte Menge Lachgas<br />
in den Tank schütten: das Fahr zeug fährt wie mit Raketenantrieb, aber<br />
nur bis die Zylinderköpfe abgesprengt werden!<br />
Um Katastrophen zu vermeiden, muss der TM-MT-Workflow vor der<br />
Umsetzung im großen Maßstab in einer Reihe kleiner Testläufe optimiert<br />
werden.<br />
Unzureichende Quelltexte MT-tauglich machen<br />
Wurden alle Hürden bei der TM-MT-Verzahnung erfolgreich genommen,<br />
werden viele sich fragen, ob der Aufwand angesichts der oft enttäuschenden<br />
MT-Ergebnisse reine Zeitverschwendung war.<br />
Doch sollte dies angesichts ständig schwächer werdender Ausgangstexte<br />
keine große Überraschung sein. Es ist einfach so, dass selbst in Bestform<br />
MT nicht über trägt, was der Autor zum Ausdruck bringen wollte,<br />
sondern nur das übersetzt, was geschrieben steht.<br />
212<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Alle Beteiligten rechtzeitig ins Boot holen<br />
Die meisten Menschen lieben den Fortschritt, haben aber wenig für<br />
den damit verbundenen Wandel übrig, so dass es nur menschlich ist,<br />
Veränderung jeglicher Art zu scheuen. Zum Glück erzählt jeder gerne<br />
über sich selbst, und warum sollte man diesen Impuls nicht nutzen, um<br />
Freiberufler an einer laufenden Diskussion zu beteiligen, wie sich MT<br />
in den Workflow einführen lässt?<br />
Preisnachlässe gemeinsam aushandeln<br />
Heute könnte ein typischer TM+MT-Workflow wie folgt aussehen:<br />
Erstens wird die Quelldatei unter Verwendung eines TMs vorübersetzt.<br />
Zweitens werden die Segmente ohne geeigneten TM-Match mit MT<br />
übersetzt. Drittens wird die nun komplett vorübersetzte Datei an einen<br />
Übersetzer zur Nachbearbeitung geschickt.<br />
Aber während es genaue Preisabsprachen für TM-Matches gibt, gibt<br />
es für „MT-Matches“ i. d. R. nichts Vergleichbares, und damit ist Ärger<br />
praktisch vor pro grammiert.<br />
Es ist nicht einfach, faire Preise für eine Nachbearbeitung festzulegen,<br />
wenn es keinen Maßstab für eine MT-Qualität gibt, die von einem Segment<br />
zum nächsten stark variieren kann.<br />
Die Sache wird unangenehm, sobald ein Übersetzungskunde vermutet,<br />
dass er am Ende mehr als nötig zahlte, da die MT-Qualität hoch war,<br />
während jedem Frei berufler die MT-Qualität suspekt erscheinen wird,<br />
was zu der Annahme führt, dass die Entlohnung weniger als fair sein<br />
wird.<br />
Deshalb brauchen wir eine genaue, faire und transparente Methode zur<br />
Berechnung von Preisnachlässen.<br />
Schlussfolgerungen<br />
Am Ende des Tutorials werden die Teilnehmer eine gute Vorstellung<br />
davon haben, welchen Herausforderungen sich Unternehmen angesichts<br />
des Einsatzes von MT ausgesetzt sehen. Sie werden verschiedene<br />
Messmethoden für MT-Qualität kennen lernen und in der Lage sein, ein<br />
MT-Geschäftsszenario zu entwickeln. Dies wird bei der Entscheidung<br />
helfen, ob bzw. wie MT-Technologie innerhalb der eigenen Firma zum<br />
Einsatz kommen sollte.<br />
Bei Fragen oder Anregungen stehen wir Ihnen gerne zur Verfügung:<br />
pavel.schick@memsource.com oder enderstein@ditto-trans.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
213
Lokalisierung und Übersetzung / Localization<br />
LOC 22<br />
Tutorial<br />
Post-Editing maschineller<br />
Übersetzung in der Praxis<br />
Ingo Schumann, Eule Lokalisierung, Kiel<br />
Mathan Sivaloganathan, Delta, Bonn<br />
Geschichtlicher Überblick<br />
Während das Langzeitziel des „Post-Editierens“ von maschinell erzeugten<br />
Übersetzungen bereits 1949 im sog. Weaver-Memorandum definiert<br />
wurde, brauchte es weitere 50 Jahre, bis Ende der 90er eine Definition<br />
in der Fachwelt akzeptiert war: die von Tony Veale (USC Dublin) und<br />
Andy Way (DCU Dublin, EAMT President) postulierte „Korrektur der<br />
MT-Ausgabe durch Übersetzer und Editoren aus Fleisch und Blut“.<br />
Allerdings war keine große Akzeptanz des eigentlichen Prozesses vorhanden.<br />
Unter der Gleichung MT+TM+QA prognostizierte Alan Melby<br />
1995, dass schon in fünf bis zehn Jahren TM und MT-Systeme konvergieren<br />
werden und der Übersetzer die Steuerungshoheit über dieses<br />
„integrierte System“ besitzt. Diese Gleichung ist bis heute noch nicht<br />
aufgegangen, aber die Zeit dafür ist reif. Im neuen Jahrtausend hatten<br />
empirische Untesuchungen von Hans P. Krings (2001) wesentlich dazu<br />
beigetragen, dass man es nun verstand, Texte mit zielführender Herangehensweise<br />
zu reparieren.<br />
In diesem Tutorial werden wir nachweisen, dass sich die Nachredaktion<br />
von maschinellen Übersetzungen inzwischen mit einigen Erfahrungswerten<br />
so gut organisieren lässt, dass mit richtig angewendeten<br />
Arbeitssschritten und -methoden der Einsatz von MÜ wirtschaftlich<br />
sinnvoll wird.<br />
Typen von Post-Editing<br />
In der Expertenwelt unterscheidet man drei Spielarten des<br />
Post-Editings.<br />
−−<br />
Beim konventionellen Post-Editing (CPE) geht es darum, einen Text<br />
zu erzeugen, der so stark wie möglich einer vom Menschen erstellten<br />
Übersetzung ähnelt (auch Full PE, FPE)<br />
−−<br />
Beim schnellen Post-Editing (RPE) soll ein korrekter Text auf sprachlicher<br />
und inhaltlicher Ebene mit minimalen Anpassungen erzeugt<br />
werden (auch Gist PE, GPE).<br />
−−<br />
Beim integrierten Post-Editing kommt die von Melby prognostizierte<br />
Variante ins Spiel: der Schritt von a) einem TM-System, das Textteile<br />
automatisch sucht und ihre Trefferrelevanz auf einer Skala bewertet<br />
und b) einem MT-System, das diese Textteile zu einem Satz in der<br />
Zielsprache zusammensetzt zu c) einem TMT-System, das, im Idealfall<br />
noch mit einem Terminologiemanagement-System ausgerüstet,<br />
dem Übersetzer Segmente präsentiert, die durch möglichst kleine Bearbeitungsschritte<br />
zu einer finalen Übersetzung geschliffen werden.<br />
Vorstellung von Post-Editing-Umgebungen<br />
Einige Anbieter von CAT-Tools haben bereits damit begonnen, Post-<br />
Editing-Module in ihre Systeme zu integrieren, z. B. MemSource. Post-<br />
Editing-Analysen vergleichen darin die MT-Ausgabe mit der posteditierten<br />
Übersetzung. Auf ähnliche Weise wie bei Translation Memory<br />
214<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Matches werden Treffer gewichtet, allerdings mit dem Unterschied,<br />
dass dies in den Post-Editing-Umgebungen in Echtzeit passiert: 100 %<br />
bedeutet zum Beispiel, dass der Post-Editor nichts an der MT-Ausgabe<br />
verändern musste, während 0 % bedeutet, dass der Post-Editor den MT-<br />
Match aufgrund schlechter Qualität komplett löschen und neu übersetzen<br />
musste. Im Tutorial werden diese Umgebungen vorgestellt.<br />
Typen von Fehlern<br />
unter Beachtung der<br />
Herkunft der MÜ<br />
(SMT oder RBMT)<br />
Fehlertypen/<br />
Kategorien SMT<br />
Fehlertypen/<br />
Kategorien RBMT<br />
Praktische Guidelines<br />
für das Post-Editing<br />
Praktische Beispiele<br />
Je nach verwendetem MT-System unterscheiden sich die Fehler in der<br />
MT-Ausgabe beträchtlich. Mit richtiger Herangehensweise können<br />
diese also schneller aufgefunden werden. Während ein RBMT-System<br />
(durch fehlende Kodierung) falsche Wörter oder Begriffe auswählt,<br />
falsche grammatikalische Bindungen erzeugt (z. B. durch Präpositionalphrasen)<br />
und Bedeutungen nicht ausreichend differenziert, fügt<br />
ein SMT-System Wörter hinzu, lässt diese aus, ignoriert Groß-/Kleinschreibung,<br />
macht Interpunktionsfehler und lässt manche Sätze völlig<br />
unverständlich.<br />
Evaluationen von SMT-Systemen haben ergeben, dass die häufigsten<br />
Fehler in den Kategorien fehlende Wörter, falsche Satzstellung und Flexion<br />
bei Verben (falsch gebildete Verben) liegen. Es war zu beobachten,<br />
dass Verben beim SMT-System häufig nicht nur falsch übersetzt wurden,<br />
sondern auch fehlten, wodurch sich die hohe Anzahl an Fehlern<br />
bei fehlenden Wörtern und Verben erklären lässt. Mit zunehmender<br />
Komplexität von Sätzen muss das SMT-System weit auseinander liegende<br />
Dependenzen verarbeiten und macht damit noch mehr Fehler bei<br />
den Verben. Führende Softwarehersteller wie Microsoft, die SMT einsetzen,<br />
gingen dazu über, MT-Übersetzungen ausschließlich auf Sätze<br />
mit bis zu 30 Wörtern anzuwenden.<br />
Beispiel:<br />
Input: There are no editable properties for this filter.<br />
Output SMT: Es sind keine bearbeitbaren Eigenschaften für diesen<br />
Filter.<br />
Output Post-Editing: Es sind keine bearbeitbaren Eigenschaften für<br />
diesen Filter vorhanden.<br />
Nahezu alle Untersuchungen an RBMT-Systemen belegen, dass diese<br />
Systeme beim Fehlertyp „Kategorie“ ihre größte Schwäche haben. Kategoriefehler<br />
treten auf, wenn das MT-System eine falsche Vokabel oder<br />
eine falsche Wortart auswählt (zum Beispiel Verb statt Nomen). Auch in<br />
den Kategorien Nomen und Verben bestehen Schwächen, so wird das<br />
RBMT versuchen, feststehende Begriffe und Eigennamen zu übersetzen,<br />
was zu einer hohen Anzahl an Fehlern in dieser Kategorie führt.<br />
Diesem Fehler wird in der Regel mit noch mehr Kodierungsaufwand<br />
begegnet. Weitere häufige Fehlertypen bei RBMT sind Präpositionsfehler,<br />
d. h. falsche oder gar nicht übersetzte Präpositionen.<br />
Anhand von beispielhaften Segmenten Post-Editing vorführen<br />
In unserem Tutorial werden wir einen Text mit 20 Segmenten als<br />
Grundlage beleuchten und auf die individuellen Fehler eingehen.<br />
Im Schlussteil unseres Tutorials werden wir anhand der „live“ post-editierten<br />
Segmente die 6 goldenen Regeln aufstellen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
215
Lokalisierung und Übersetzung / Localization<br />
Produktivitätskennzahlen<br />
1. Lies zuerst die Quelle.<br />
Lies dann die MT-Übersetzung und entscheide, ob es wert ist, sie aufzubewahren<br />
oder zu verwerfen. Vergeude nicht deine Zeit, indem du<br />
versuchst, Segmente, die eindeutig von minderer Qualität sind, zu reparieren.<br />
Setze deine Bearbeitung nur fort, wenn die MT-Ausgabe brauchbar<br />
für die Nachbearbeitung ist. Wenn die Ausgabe nicht brauchbar ist,<br />
korrigiere sie. Verwirf das Segment und übersetze es neu.<br />
2. Das Ziel ist es, mit möglichst wenigen Bearbeitungen einen richtigen<br />
Satz zu kreieren.<br />
Es gibt mehrere Möglichkeiten, um einen rohen MT-Satz zu korrigieren.<br />
Das Ziel ist es, manuell so wenig wie möglich zu bearbeiten – und trotzdem<br />
immer eine korrekte Übersetzung herzustellen.<br />
3. Die endgültige Übersetzung muss eine vollständige Übersetzung sein.<br />
Die bearbeitete Version sollte die gleiche Bedeutung haben wie die<br />
Quelle, es sollte nichts hinzugefügt oder weggelassen werden, alle Informationen<br />
im Vergleich zur Quelle müssen vorhanden sein.<br />
4. Versuche nicht, die endgültige Übersetzung verständlicher als die<br />
Quelle zu machen.<br />
5. Ändere nicht korrekte maschinelle Übersetzungen, nur weil du etwas<br />
anderes bevorzugst.<br />
6. Beachte die Terminologie.<br />
Die MT-Engine greift die häufigste Übersetzung des Begriffs in einem<br />
bestimmten Kontext auf, die nicht unbedingt die für das Produkt bezogene<br />
(korrekte) Übersetzung ist. Halte dich eng an die Software-Bundles<br />
und die Begriffe der Datenbank und lasse dich nicht durch scheinbar<br />
korrekte Übersetzungen in die Irre führen.<br />
Wenn wir uns an den Leitfaden des Posteditings halten, ist dadurch eine<br />
Steigerung der Produktivität sichtbar. Als Ausblick soll anhand von einigen<br />
Produktivitätskennzahlen veranschaulicht werden, inwieweit sich<br />
das Postediting in einem Unternehmen lohnt. Ist die technische Wirtschaftlichkeit<br />
bzw. Produktivität auf Grund von Postediting kalkulierbar<br />
und demzufolge erfolgversprechend?<br />
mathans@dicits.com<br />
ischumann@eule-l10n.com<br />
216<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 23<br />
Workshop<br />
Übersetzer und Softwareentwickler verändern<br />
gemeinsam die Übersetzungsbranche<br />
Thomas Imhof, localix.biz – language technology consulting<br />
Vielschichtige Arbeitsabläufe, enge Zeitrahmen und eine Vielzahl von<br />
Dateiformaten machen die Komplexität der Übersetzungsbranche aus,<br />
die es zu bewältigen gilt. Sollen Übersetzungsverantwortliche enger mit<br />
Softwareentwicklern zusammenarbeiten, um die Herausforderungen<br />
der Branche zu meistern? Können kundenspezifische Erweiterungen<br />
und das Einbinden von Technologie dabei helfen, die kontinuierlich<br />
voranschreitenden Anforderungen an den Umgang mit Informationen<br />
in den Griff zu bekommen?<br />
Schon heute ist Übersetzungstechnologie wie Translation Memory und<br />
Terminologieverwaltung bei der Erstellung multilingualer Dokumentation<br />
kaum noch wegzudenken. Allerdings decken die von den Softwareherstellern<br />
zur Verfügung gestellten Funktionen längst nicht alle<br />
Anwendungsfälle ab und bzgl. der Unterstützung von Eingangsdateiformaten<br />
wird man als Hersteller bei der Priorisierung immer zu Kompromissen<br />
gezwungen sein. Es ist klar, dass die Unterstützung einer neuen<br />
Office- oder Adobe-Version eine höhere Priorität erhält als die Unterstützung<br />
speziellerer Formate, die vom Markt nicht so oft nachgefragt<br />
werden.<br />
Eine weitere Herausforderung ist die Einbindung in bestehende Arbeitsabläufe<br />
bzw. die Anbindung des TM-Systems an ein CMS: Was<br />
nützt ein besonders funktionsreiches Übersetzungsinstrument, wenn es<br />
umständlich manuell mit Dokumenten gefüttert werden muss? Und was<br />
nützen die besten Reports, wenn ich die Preise hinterher doch wieder<br />
mit dem Taschenrechner ausrechne?<br />
Wie die o. g. Situationen verdeutlichen, stellt die Möglichkeit, die vorhandene<br />
Software mit Drittsystemen zu integrieren, bzw. ihre Funktionalität<br />
zu erweitern, ein wichtiges Alleinstellungsmerkmal einer modernen<br />
Übersetzungslösung dar.<br />
Die Funktionserweiterung von Hardware- und Softwareprodukten<br />
durch zusätzliche Programme ist dabei so alt wie die Computerbranche<br />
selbst. Nur wegen seiner offenen Programmier- und Hardwareschnittstellen<br />
haben es Windows und der PC in den 90er Jahren geschafft, sich<br />
gegenüber dem ansonsten weit mächtigeren Betriebssystem Unix bzw.<br />
leistungsfähigeren Plattformen wie dem Macintosh durchzusetzen.<br />
Das gleiche Prinzip hat erst in den letzten Jahren und speziell durch<br />
den Siegeszug der Smart-Phones und der zugehörigen Apps noch einmal<br />
massiv an Bedeutung gewonnen, denn die Hersteller erlauben<br />
durch die Bereitstellung von Programmierschnittstellen und spezieller,<br />
auf die Programmierung ausgelegter Dokumentation die nahezu unbegrenzte<br />
Erweiterbarkeit ihrer Produkte und erreichen damit eine<br />
bislang unerreichte Flexibilität. Was wären iPhone, iPod und iPad ohne<br />
iTunes, den App-Store und die vielen tausend Apps, die die Grundfunktionen<br />
der Geräte und der darauf vorinstallierten Betriebssysteme erweitern?<br />
Nicht umsonst gilt mittlerweile das geflügelte Wort: “There’s an<br />
app for that.”<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
217
Lokalisierung und Übersetzung / Localization<br />
Durch das Schaffen von Vertriebskanälen und die Moderation spezieller<br />
Foren, auf denen sich Software-Entwickler und Mitarbeiter der Hersteller<br />
austauschen können, schaffen die Hersteller so eine Umgebung, die<br />
es für Entwickler attraktiv macht, eben diese Erweiterungen und Lösungen<br />
zu schaffen und zu vertreiben und die den Anwendern die fehlenden<br />
Funktionen zur Verfügung stellt, um das Hauptprodukt nahtlos<br />
in jeden Arbeitsablauf einzupassen, jedes Dateiformat zu unterstützen<br />
und an jedes CMS dieser Welt anzubinden.<br />
Solche eine mächtige Umgebung hat SDL mit OpenExchange geschaffen<br />
– schon heute werden hier viele z. T. kostenlose Erweiterungen zu<br />
der marktführenden Übersetzungsumgebung SDL Trados Studio und<br />
SDL Multiterm über OpenExchange bereitgestellt.<br />
Zusätzlich zu einem zentralen Vertriebskanal für ihre Tools erhalten<br />
SDL OpenExchange-Entwickler außerdem Zugang zu den SDKs und<br />
dem bereits erwähnten Forum und natürlich Zugriff auf die neuesten<br />
Versionen der SDL Software, um ihre Apps vor der Veröffentlichung<br />
neuer Versionen auf Kompatibilität testen zu können.<br />
SDL OpenExchange ist in der Übersetzungsbranche einzigartig – kein<br />
anderer Hersteller von Übersetzungstechnologie hat bislang ein vergleichbares<br />
Angebot für Entwickler und Anwender ins Leben gerufen.<br />
Kein anderer Hersteller legt bei der Entwicklung seiner Lösungen so<br />
viel Wert auf die konsequente Ausstattung seiner Produkte mit Schnittstellen<br />
und damit auf Integrierbarkeit und Erweiterbarkeit.<br />
Dass dieses Angebot von den Software-Entwicklern angenommen wird,<br />
verwundert nicht. Allerdings fehlt nach wie vor der Dialog zwischen<br />
Entwicklern und Übersetzern, denn nur die Übersetzer können durch<br />
ihre Erfahrung in der Anwendung der Software die notwendigen Anforderungen<br />
definieren. Diesen Dialog anzustoßen wäre der nächste wichtige<br />
Schritt hin zu einer optimalen Übersetzungsumgebung.<br />
für Rückfragen: tom@localix.biz<br />
218<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
LOC 24<br />
Tutorial<br />
The steps are:<br />
To succeed with quality<br />
management, you need<br />
a committed team!<br />
But you also need your<br />
manager’s approval<br />
About fulfilling<br />
requirements and<br />
getting satisfied<br />
customers<br />
Why goals?<br />
Eight steps to get in control of quality<br />
Susanne Dahlén, IAR Systems, Sweden, chair of the Swedish Society for Technical<br />
Communication (FTI)<br />
Are you in control of the quality aspects of your user documentation?<br />
This tutorial works through a practical method in eight steps that can<br />
help documentation departments take control of everything from defining<br />
quality requirements, quality assurance mechanisms and quality<br />
controls. It also sketches various approaches to measuring quality.<br />
−−<br />
Get a “buy-in” from your co-workers<br />
−−<br />
Come up with your quality definition<br />
−−<br />
Set your strategic goals<br />
−−<br />
Define your quality requirements<br />
−−<br />
Specify quality assurance mechanisms and controls<br />
−−<br />
Set priorities and rate your requirements<br />
−−<br />
Build your quality plan<br />
−−<br />
Measure the quality<br />
These steps might sound simple but are carefully chosen to guide your<br />
work by setting a foundation and a vision for quality, and to get in-depth<br />
practical methods in place. The focus lies on building a robust process,<br />
where quality assurance and controls are integrated in the production<br />
of documentation and where all quality aspects are collected in a quality<br />
plan.<br />
This quality plan gives you an overview and can help you identify gaps<br />
and potential improvements in your process and help you prioritize<br />
between them.<br />
Each step will be elaborated with principles and examples and for many<br />
of the steps, time to work on your own and group discussions will be<br />
included in the tutorial.<br />
Get a “buy-in” from your co-workers<br />
When it comes to documentation, you and your co-workers are the subject<br />
matter experts and you probably have a very good idea about what<br />
works when it comes to your procedures etc, and what does not. If the<br />
documentation team is committed and part of developing the “quality<br />
plan”, you are more likely to get a success story.<br />
You need time and resources set aside for this type of work, so you must<br />
get your manager’s approval for it. Try to make it as simple as possible<br />
for your manager to approve your request. In other words, this is what<br />
we want to achieve, these would be the benefits, and these are the costs.<br />
Come up with your quality definition<br />
It is important that you have YOUR definition clear to you. Because the<br />
definition is a starting point, a principle that you can lean on, a base for<br />
your work on and a guiding light.<br />
Set your strategic goals<br />
A quality definition is not sufficient; you must also know what to aim at.<br />
The goals simply clarify the scope and purpose of your documentation.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
219
Lokalisierung und Übersetzung / Localization<br />
It is especially necessary to identify the user groups, who will be reading<br />
your documentation. What goals should you set to meet their requirements?<br />
You must identify whether you have any external parts to<br />
consider, such as the machinery directive 2006/42/EC, S1000D, or any<br />
medical or safety regulations. It is also important to balance the quality<br />
of the documentation with the rest of the product and to know whether<br />
the product is aimed at a low-cost or a high-cost market.<br />
Clear goals are your guiding light when you make decisions on details<br />
and set priorities. They are also necessary for measuring the level of<br />
fulfilment.<br />
First vaguely<br />
Then more specifically<br />
Take the opportunity<br />
to identify your<br />
weaknesses<br />
Define your quality requirements<br />
When it comes to requirements, you often hear that user documentation<br />
should be correct, complete, and concise. This is not very specific!<br />
So for each requirement you should specify what the requirement can<br />
be applied to. For example: User documentation shall be correct can be<br />
applied to technical facts, grammar, images, code examples, cross references,<br />
hyperlinks, variables, text conditions, etc.<br />
Specify quality assurance mechanisms and controls<br />
For each applied requirement, you should specify your:<br />
−−<br />
Methods for quality assurance: the methods by which you secure<br />
quality. In practice, either an activity part of your process or a tool or<br />
utility.<br />
−−<br />
Quality controls: the inspections you perform to verify that the result<br />
is correct. In practice, this is also either an activity part of your process<br />
or a tool or a utility.<br />
As you create an overview of all the methods and inspections that you<br />
usually perform, you have an opportunity to also identify weaknesses in<br />
this area—methods and inspections that you think are necessary but for<br />
some reason you currently don’t have.<br />
Set priorities and rate your requirements<br />
How important is it that you fulfil the various requirements? Set priorities<br />
based on, for example, whether it is important to fulfil a requirement<br />
and even collect metrics for it, or perhaps whether deviations are<br />
allowed.<br />
It can also be useful to consider which requirements are, in practice,<br />
more important than others.<br />
Having this analysis is a basis for finding the right balance between cost<br />
and quality.<br />
Build your quality plan<br />
It can be useful to collect all material in a spreadsheet, which then<br />
would provide you with an overview of all your quality aspects:<br />
−−<br />
Requirements, assurance, and controls.<br />
−−<br />
Lists of identified areas that can be improved, such as missing tools<br />
for assurance and lack of controls.<br />
220<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
The quality plan can be used as:<br />
−−<br />
A tool to check your quality against<br />
−−<br />
A base for arguing for certain resources<br />
−−<br />
A help when balancing between cost and quality<br />
The quality plan contains many details and can be gradually fine-tuned<br />
over time. Note that it should be considered a “living document” as you<br />
constantly improve your work and processes.<br />
Measure the quality<br />
Many aspects can be measured and it might be tempting to cover too<br />
much. However, measuring is difficult and requires resources. You need<br />
to collect data, maybe over a longer period of time. You need to evaluate<br />
data and draw conclusions. If the result does not come to practical use,<br />
people might lose confidence and stop producing data.<br />
For these reasons, it is highly important that the aspects you decide to<br />
measure are relevant. You should carefully consider:<br />
−−<br />
What is relevant to measure in your case.<br />
−−<br />
Whether there are any external requirements on measurement.<br />
Various methods for measuring quality will be briefly discussed in the<br />
tutorial and one real-life example will be presented. The result and the<br />
conclusions will also be presented.<br />
If you have any questions please contact: susanne.dahlen@iar.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
221
Lokalisierung und Übersetzung / Localization<br />
LOC 25<br />
Partner presentation<br />
Multimodal Texts: Reading, comprehension<br />
and writing, in Brazil and in Germany<br />
Prof. Ana Elisa Ribeiro, Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-<br />
MG), Brazil<br />
Sabrina Bauer, Hochschule Karlsruhe – Technik und Wirtschaft, Germany<br />
Reading, multimodal texts and technical documentation<br />
This work starts from some ideas about reading, multimodal text and<br />
technical documentation. We understand that reading is essentially a<br />
hypertextual and multisemiotic process, but it depends on activations<br />
given by the texts we have access to. Therefore, hypertextuality is constitutive<br />
of texts, as pointed out by Coscarelli (2003, 2006, 2009). Texts<br />
are always composed of several languages, since they are at least visual<br />
and verbal, simultaneously. Therefore, multimodality seems an inherent<br />
element of texts, as claimed by Kress and Van Leeuwen (1998),<br />
when dealing with newspapers: «All texts are multimodal». In technical<br />
documentation, several languages are also applied in compositions that<br />
strive to make sense to a reader who wants, for example, follow instructions<br />
or perform a task. These were the cases we analyzed, especially in<br />
our studies with Sabrina Bauer (2011) and Marta Costa (<strong>2012</strong>).<br />
The participants<br />
Types and distribution<br />
of technical documents<br />
Technical documentation in Brazil and in Germany<br />
The master thesis “Qualitative research interview in the context of<br />
intercul tural communication – using the example of the research project<br />
’Technical communi cation in Brazil’“gives an insight on status, development<br />
and processes in technical communication of companies based in<br />
Brazil.<br />
Besides quality and status of the technical documentation, the research<br />
focuses on internal and external knowledge management and information<br />
structures.<br />
Participants with different background knowledge and from various<br />
work areas took part in this research project. A very heterogeneous<br />
group of specialists had to complete either an on-line questionnaire or<br />
attend a personal interview. The participating professions ranged from<br />
Technical Translators, Product Managers, Electrical Engineers to Technical<br />
Writers coming from different industries such as software, manufacturing<br />
and service business.<br />
The main document types developed by the participants are user and<br />
service manuals as well as training material and process documentation.<br />
Multimedia technical documentation like animations, apps, videos<br />
as well as graphics are seldom. The most common visual content that is<br />
developed in the participants’ departments are photographs and illustrations.<br />
The same classic approach can be applied to output formats<br />
which basically consist of PDF, DOC and PowerPoint presentations.<br />
The main platform to share documentation is the company’s website.<br />
Alternatives like YouTube, social networks and wikis are mentioned but<br />
not preferred. Thus, classic documentation and classic communication<br />
channels still remain first choice.<br />
222<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Documentation<br />
workflow<br />
Awareness of Technical<br />
Documentation in Brazil<br />
Information exchange between the person in charge of the documentation<br />
and the technician ranges from a simple meeting to a complex<br />
workflow system that controls the status of the documentation. All of<br />
the respondents emphasize the importance of technical documents and<br />
name methods and processes that focus on different aspects like quality<br />
management, communication and translation.<br />
However, the general awareness on the advantages of standardization,<br />
publication techniques, variation management and basic technical<br />
documentation processes, like working with text modules in a content<br />
management system, is missing.<br />
Due to the fact that there are no comparable study programs at<br />
universi ties or comparable education programs for technical writers,<br />
people are not sensitized for the wide work environment and the expectations<br />
of a technical writer. Some of the respondents had never heard<br />
of the profession “Technical Writer” although they develop technical<br />
documents in their everyday work life.<br />
To strengthen the individual opinions that result from a questionnaire<br />
and the first interview, to connect and to check the meaning of answers,<br />
a personal face-to-face interview with all of the respondents could be a<br />
further step in this research project.<br />
Food labels in Brazil: who writes, who reads?<br />
Marta Costa’s work, unlike Sabrina Bauer’s, has focused on reading food<br />
labels, specifically on cake mixes packages. In Brazil, these texts are<br />
produced by engineers or other professionals not specialized in technical<br />
documentation.<br />
We selected four cake mixes: the two most expensive brands and the<br />
two cheapest brands in the Brazilian market. All packages had instructions<br />
to make the cake written for the product consumers (p. ex., like<br />
Figure 1).<br />
Although cake mixes instructions are short and seemingly easy texts,<br />
besides being helped by drawings that mostly bring redundant information<br />
in relation to the verbal text, many types of knowledge are required<br />
to handle such compositions.<br />
Besides the linguistic knowledge required when one reads the package,<br />
numeracy skills are required (or math literacy) such as proportion idea,<br />
measurements, weights, and patterns popularly named as “cup of tea’”,<br />
“tablespoon”, among others.<br />
In order to check the quality of interaction between readers / consumers<br />
of the cake and the label texts that guided on how to prepare the<br />
cake, an usability-tests-inspired fake kitchen was set up so people could<br />
simulate the food preparation.<br />
Twenty undergraduate students of Linguistics and six students of Materials<br />
Engineering were invited to participate in the simulation of preparing<br />
the cake as instructed on the label. The results indicate difficulties<br />
in understanding related to the design of the labels, i.e. the layout<br />
of the text, to the choice of typography and font size, and also to issues<br />
related to the colors and drawings used on the package.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
223
Lokalisierung und Übersetzung / Localization<br />
Figure 1: Instructions to prepare a cake.<br />
Crossing our results<br />
The research results of Bauer (<strong>2012</strong>) and Costa (<strong>2012</strong>) may be related.<br />
Bauer demonstrates that the technical documentation is incipient (even<br />
unknown) in Brazilian companies; Costa, on the other hand, shows the<br />
difficulties of understanding of Brazilian readers interacting with instructional<br />
texts probably written by professionals not specialized in<br />
technical writing. Therefore, it seems a fertile area for further studies in<br />
Brazil.<br />
Thanks<br />
Prof. Martin Schober (Germany); Prof. Inês Gariglio (Brazil); Pollyanna<br />
Vecchio (Brazil); Marta Costa and sons (Brazil); Denio Costa (Brazil);<br />
CEFET-MG Brazilian students.<br />
References<br />
Bauer, Sabrina (<strong>2012</strong>): Qualitative interview research in the context of<br />
intercultural communication – using the example of the research project<br />
“Technical communication in Brazil”. Master thesis. Hochschule<br />
Karlsruhe – Technik und Wirtschaft, Karlsruhe.<br />
Coscarelli, Carla V. (2003) Espaços hipertextuais. II Encontro Internacional<br />
Linguagem, Cultura e Cognição: reflexões para o ensino. Belo<br />
Horizonte, Brasil, 16–18 julho 2003. .<br />
Acesso em 10 ago. <strong>2012</strong>.<br />
224<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Lokalisierung und Übersetzung / Localization<br />
Coscarelli, Carla V. (2006) Os dons do hipertexto. Pedro Leopoldo, Brasil,<br />
Littera: Linguística e Literatura. .<br />
Acesso em 10 ago. <strong>2012</strong>.<br />
Coscarelli, Carla V. (2009) Textos e hipertextos: procurando o equilíbrio.<br />
Brazil, Linguagem em discurso, v. 3, n. 9. .<br />
Acesso<br />
em 10 ago. <strong>2012</strong>.<br />
Costa, Marta A. R. (<strong>2012</strong>): Leia as instruções: Uma análise de textos<br />
multimodais em rótulos de alimentos. Dissertação de mestrado. Centro<br />
Federal de Educação Tecnológica de Minas Gerais, CEFET-MG, Belo<br />
Horizonte.<br />
Kress, Gunter; Van Leeuwen, Theo. (1998): Front Pages: (The critical)<br />
analysis of newspaper layout. In: Bell, Allan; Garret, Peter. (Eds.) Approaches<br />
to media discourse. Blackwell Publishing, p. 186–219.<br />
e-mail: anadigital@gmail.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
225
Sprachtechnologie /<br />
Language Technology
Sprachtechnologie / Language Technology<br />
LT 1<br />
Kurztutorial<br />
Deutschland sucht den Super-Workflow<br />
Binke Fiedler, CFM/LM, Daimler AG, Esslingen<br />
Kerstin Berns, berns | language | consulting, Düsseldorf<br />
Das Corporate Language Management verantwortet die Gestaltung,<br />
Integration und Steuerung der multilingualen Kommunikation aller<br />
Informationsprozesse im gesamten Daimler Konzern. Dafür hat<br />
CFM/LM besonders für die Übersetzungsprozesse im automobilen<br />
Kerngeschäft seit Jahren Erfahrung bei der Automatisierung von<br />
Übersetzungsprozessen.<br />
Die Challenge<br />
Ziel des Vorhabens war es, die über die Jahre entstandene Vielfältigkeit<br />
radikal zu standardisieren, von den Synergie-Effekten einer zentralen<br />
Übersetzungs- und Verwaltungsumgebung zu profitieren sowie die<br />
internen Prozesse schneller, einfacher und effektiver zu gestalten. Um<br />
diese Umstellung möglich zu machen, mussten die bestehenden Übersetzungsprozesse<br />
konsolidiert werden, so dass sie mit einer kleinstmöglichen<br />
Anzahl von Übersetzungsworkflows auf das neue System übertragen<br />
werden können.<br />
Es war klar, dass sich manche Prozesse ideal für die neue Umgebung<br />
eignen würden, andere jedoch erst angepasst werden müssen.<br />
Corporate Language<br />
Management (CFM/<br />
LM) bei Daimler<br />
IT-Projektleitung (ITM/<br />
FC) bei Daimler<br />
Systemhersteller STAR<br />
Prozessberater-Team<br />
berns|language|<br />
consulting<br />
Das Ensemble<br />
Eine der großen Herausforderungen war, die Anforderungen des Corporate<br />
Language Management und der beauftragenden Fachbereiche<br />
auf Plausibilität zu prüfen und zu analysieren, ob und wie diese im<br />
neuen System abgebildet werden können. Nicht alle bestehenden Anforderungen<br />
konnten in der neuen Umgebung ohne Weiteres technisch<br />
implementiert werden. Außerdem stand das Ziel, alle Prozesse mit einer<br />
Mindestanzahl an Workflow-Varianten umzusetzen.<br />
Fachliche Projektleitung. Definition der Anforderungen, Konsolidierung<br />
der eigenen Prozesse, Test und Abnahme der Ergebnisse auf der neuen<br />
Umgebung.<br />
Gesamtleitung des Projekts. Prüfen der Umsetzung aller Daimler IT-<br />
Anforderungen, Hard- und Software-Betrieb.<br />
Technische Umsetzung aller Prozesse mit der Produktfamilie James,<br />
Transit und TermSTAR und Beratung bei der Neuprozess-Gestaltung.<br />
Verlängerte Werkbank für CFM/LM zur Unterstützung bei der Projektarbeit<br />
und der Definition der Prozesse.<br />
Automatische Auftragsanlage ist nicht gleich automatische Auftragsanlage<br />
Bei der Umsetzung der automatischen Workflows war die Umsetzung<br />
der Schnittstellen zum Erstellsystem ein Kernthema. Mit jeder weiteren<br />
Schnittstelle gab es neue Herausforderungen zu meistern: Zum einen<br />
hat jedes Erstellsystem seine eigenen Anforderungen an die Datenübermittlung,<br />
zum anderen sollten die vom CFM/LM-Team erstellten<br />
Standards möglichst breitflächig eingesetzt werden, um spätere Weiterentwicklungen<br />
und auch den Betrieb so einfach wie möglich zu gestalten.<br />
In diesem Spannungsfeld wurden sowohl Schnittstellen als auch<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
229
Sprachtechnologie / Language Technology<br />
Übersetzungsworkflows umgesetzt, nicht selten musste man trotz aller<br />
guten Vorsätze vom gemeinsam definierten Standard abweichen, um<br />
den Anforderungen der Erstellsysteme gerecht zu werden.<br />
Universal-Workflow – der Name ist Programm<br />
Der Universal-Workflow muss genau das leisten, was sein Name vermuten<br />
lässt – universal einsetzbar sein für alles, was in einem weltweit<br />
agierenden Unternehmen ohne Content-Management-Systeme abgewickelt<br />
wird. Die Aufträge werden von den Daimler-internen Kunden<br />
online beauftragt und können alles umfassen: Von TMS-fähigen Dokumenten<br />
im Office-, XML-, InDD- etc. Format bis zu nicht automatisch<br />
verarbeitbaren Formaten wie eingescannte Textseiten, Bilder und<br />
PDF-Dokumente.<br />
Auch alle Sprachvarianten können zum Einsatz kommen sowie alle<br />
möglichen Arbeitsschritte, ob Übersetzung, Review, Layout, Marktprüfung<br />
– der Variantenvielfalt sind keine Grenzen gesetzt.<br />
Zu alledem sollte das Handling von Universal-Aufträgen auf Projektmanager-Seite<br />
trotz der unendlichen Auftragsmöglichkeiten beherrschbar<br />
bleiben und Arbeitserleichterung und Zeitersparnis bringen.<br />
Dolmetschen: Workflow ja, Übersetzung nein<br />
Die Idee war, die Dolmetsch-Aufträge auf der gleichen Umgebung wie<br />
die Übersetzungsaufträge zu steuern, so dass die gesamte Auftragsverwaltung<br />
zentral in einem System abgewickelt wird, um doppelte Datenhaltung<br />
zu vermeiden und eine bessere Vernetzung und Wartung zu gewährleisten.<br />
Das Dolmetsch-Management hat andere Anforderungen an<br />
die Auftragsverwaltung als das Übersetzungsmanagement: Es werden<br />
hier keine Daten übersetzt, sondern lediglich Dokumente mitgeschickt,<br />
die den Dolmetschern Informationen über ihren Einsatz liefern.<br />
Die Kunst lag darin, die Anforderungen des Dolmetsch-Managements<br />
umzusetzen, ohne das Übersetzungsmanagement zu beschneiden und<br />
umgekehrt, indem man einen kleinsten gemeinsamen Nenner für Verwaltungs-<br />
und Ansichtsanforderungen definiert.<br />
Last but not least – die betriebswirtschaftliche Komponente<br />
Damit die Zahlen stimmen, wurde die Auftragsdatenbank mit allen<br />
Stammdaten und kaufmännischen Prozessen in das Übersetzungsmanagement-System<br />
integriert. Es musste möglich sein, über alle Workflowund<br />
Auftragsarten mit Lieferanten abzurechnen und die Daten für das<br />
Controlling auf Kosten-, Erlös- und Volumenseite korrekt auszuwerten.<br />
And the winner is …<br />
Letztlich entscheidet der Beitrag zum Unternehmenserfolg, ob dieses<br />
Vorhaben erfolgreich ist.<br />
Welcher Workflow es am Ende in den ‚Recall‘ geschafft hat und ob die<br />
Jury den Super-Workflow küren kann, verraten wir in unserem Vortrag.<br />
Für Rückfragen:<br />
Binke.Fiedler@daimler.com<br />
Kerstin.Berns@berns-language-consulting.de<br />
230<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 2<br />
Fachvortrag<br />
Integration von MT in den<br />
LSP‐Workflow: Eine Pilotstudie<br />
Aljoscha Burchardt, DFKI GmbH, Berlin<br />
Michael Schneider, beo GmbH, Stuttgart<br />
Diese Anwenderstudie berichtet über ein Pilotprojekt, das sich zum<br />
Ziel gemacht hat, maschinelle Übersetzung (MT) in großen Umfang für<br />
Übersetzungen in der Technischen Dokumentation für einen weltweit<br />
agierenden Automobilzulieferer (BOSCH) anzuwenden. Das Pilotprojekt<br />
wurde von einem Sprachdienstleister (beo) und einem Forschungsinstitut<br />
(DFKI) durchgeführt. Erste Ergebnisse haben die Erwartungen<br />
übertroffen.<br />
Vom TM zu MT: Die Ausgangssituation für LSPs<br />
Über den ständig steigenden Preis- und Kostendruck in der Sprachdienstleistung<br />
ist genug geschrieben worden: Die letzte große Innovation,<br />
TM-Technologie, ist ausgereift und ausgereizt und de facto<br />
wollen immer weniger Kunden noch für 100%-Matches bezahlen.<br />
Dennoch soll die Übersetzungsqualität nicht schlechter, die Bearbeitungszeit<br />
aber sogar noch kürzer werden. Dies stellt den LSP vor ein<br />
Ressourcenproblem.<br />
Das MT-System<br />
trainieren<br />
Ergebnisse<br />
Das Pilot-Projekt<br />
Im Bereich der Trainingsmaterialien (hier: Folien) ist die Situation oftmals<br />
sogar noch schlechter gelagert, da solche In-House-Materialien<br />
mitunter gar nicht in den professionellen Überseztungsworkflow kommen<br />
und somit ein Wildwuchs von Materialien in den verschiedenen<br />
Sprachen entsteht. Der Wunsch des BOSCH Automotive Aftermarket<br />
Departments (AA), Materialien in den verschiedenen Sprachversionen<br />
konsistent zu halten, hat den hier vorgestellten Piloten ermöglicht. Als<br />
Trainingsmaterial standen große Mengen mehrsprachiger Schulungsunterlagen<br />
zur Verfügung, die alle eine ähnliche Struktur aufwiesen<br />
sowie inhaltlich repräsentativ für den Fachkontext waren. Außerdem<br />
mussten die Trainingsunterlagen automatisiert verarbeitbar sein.<br />
Im Rahmen des Piloten wurden als erster Schritt eine Vorverarbeitungskette<br />
und eine MT Engine aufgesetzt und die Übersetzungsqualität<br />
bestimmt.<br />
Das MT-System wurde auf vorhandenen Übersetzungen in den Sprachrichtungen<br />
DE-EN und DE-ES trainiert. Die maschinelle Übersetzung<br />
erfolgte auf Satzbasis, d. h., die Folien in der Ausgangssprache DE wurden<br />
automatisch in Sätze gesplittet und dann re-aligniert, also jeweils<br />
die entsprechenden Sätze einander zugeordnet. Danach wurden doppelte<br />
Sätze entfernt und bestimmte Kategorien wie Zahlen, Referenzen<br />
(z. B. „siehe Tabelle X”) oder Formatierungsinformationen markiert, die<br />
direkt übersetzt werden konnten. Schließlich wurden die Daten per Zufall<br />
in das sogenannte Trainings-, Development- und Testset aufgeteilt.<br />
Erstere Sets werden zum Trainieren und Optimieren der MT Engine<br />
verwendet, letzteres zum Testen.<br />
Die erreichte Übersetzungsqualität hat alle Erwartungen übertroffen.<br />
Gemessen mit dem automatischen BLEU Score ergaben sich hierbei<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
231
Sprachtechnologie / Language Technology<br />
Werte um 64 %, während bei internationalen Wettbewerben die besten<br />
MT-Systeme lediglich einen Score von rund 35 % erreichen (menschliche<br />
Übersetzer erreichen einen BLEU Score um 70 %). Diese hohe<br />
Qualität ist der technischen Domäne geschuldet, die sich offensichtlich<br />
bestens für MT eignet.<br />
Der geplante<br />
Produktionsablauf<br />
(Workflow)<br />
Aufwand im Vergleich<br />
zu „traditioneller“<br />
Produktion<br />
Wirtschaftliche Betrachtung<br />
Um zu einer Abschätzung der Wirtschaftlichkeit zu gelangen, musste<br />
zunächst ein Workflow definiert werden, der maschinelle und traditionelle<br />
Übersetzung kombiniert (Grafik 1). Der normalerweise gewählte<br />
Ansatz – das Post-Editing von maschinell übersetzten Segmenten – erschien<br />
dabei aus mehreren Gründen als nicht geeignet:<br />
−−<br />
Ausgebildete Übersetzer sind für reines Post-Editing eigentlich überqualifiziert.<br />
−−<br />
Es werden spezielle Werkzeuge/Oberflächen verwendet, die nicht die<br />
technische Reife wie kommerzielle TM-Systeme besitzen und wichtige<br />
Funktionen vermissen lassen, wie z. B. Terminologie-Unterstützung,<br />
Rechtschreib/Grammatik/Format-Kontrollen etc.<br />
−−<br />
Die Bezahlung für Post-Editoren ist i. d. R. unattraktiv.<br />
Dies alles führt im Extremfall dazu, dass diese für die Qualitätssicherung<br />
wichtige Tätigkeit nicht von den besten möglichen Fachkräften<br />
ausgeführt wird. In diesem Piloten wurde daher der Weg gewählt, die<br />
Ergebnisse der MT wie einen Translation-Memory-Match dem Übersetzer<br />
in seiner vertrauten Arbeitsumgebung, dem TM-System, anzubieten.<br />
So kann, wie bei einem sog. „Fuzzy-Match“, das Post-Editing im Rahmen<br />
eines normalen Übersetzungsprojektes vom Übersetzer geleistet<br />
werden.<br />
Eine Voraussetzung für das sinnvolle Funktionieren ist daher, dass zum<br />
einen das MT-System nicht zu 100 % alle Segmente übersetzt, zum anderen<br />
der Übersetzer erkennen kann, aus welcher Quelle ein vermeintlicher<br />
TM-Match kommt: TM oder MT. Das MT-System muss also einen<br />
Schwellenwert berücksichtigen, unterhalb dessen kein Übersetzungsergebnis<br />
abgeliefert wird, und im TM-System müssen Segmente aus<br />
dem MT- entsprechend markiert werden. Die markierten Segmente<br />
können nach dem Übersetzen/Editieren dann dem MT zum fortlaufenden<br />
Training zurückgeliefert werden.<br />
Die technische Realisierung des o. g. Workflows, insbesondere die Anbindung<br />
von MT und TM-System, findet zur Zeit statt. Bis diese automatische<br />
Anbindung in Betrieb genommen werden kann, werden die<br />
Übersetzungsprojekte und -Dokumente noch manuell für die jeweiligen<br />
Systeme vorbereitet und konvertiert.<br />
Da der geplante Workflow als Erweiterung des Standard-Übersetzungsprozesses<br />
gesehen werden kann, lässt sich der Vergleich auch als<br />
zusätzlicher Aufwand darstellen, dem eine Effizienzsteigerung des TM-<br />
Systems gegenübergestellt wird.<br />
Genauere Daten hierzu sowie eine Break-Even-Analyse werden zum<br />
Zeitpunkt des Vortrages zur Verfügung stehen und präsentiert werden.<br />
232<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
Zusammenfassung und Ausblick<br />
Das hier vorgestellte Pilotprojekt hat gezeigt, dass maschinelle Übersetzung<br />
(MT) von Technischer Dokumentation in Form von Trainingsmaterialien<br />
erstaunlich gut funktioniert. Als nächster Schritt soll MT<br />
in den eigentlichen Übersetzungs-Workflow integriert werden, d. h.,<br />
Nicht-100%-Matches werden durch eine MT übersetzt und dem Übersetzer<br />
als Vorschlag – wie die 100%-Matches vom TM – vorgelegt (siehe<br />
auch Grafik 1) und entsprechend bearbeitet. Als letzter Schritt im<br />
Workflow sollen dann alle Übersetzung wieder in Folien transformiert<br />
werden.<br />
Unser Ziel ist es, durch weitere Experimente die wirtschaftlich sinnvollen<br />
Einsatzmöglichkeiten von MT im Übersetzungsprozess systematisch<br />
zu bestimmen.<br />
Grafik 1: Workflow<br />
für Rückfragen:<br />
aljoscha.burchardt@dfki.de<br />
michael.schneider@beo-doc.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
233
Sprachtechnologie / Language Technology<br />
LT 3<br />
Fachvortrag<br />
Regelbasiertes Schreiben –<br />
sprachübergreifender Ansatz oder<br />
sprachabhängige Regelwerke<br />
Ursula Reuther, Congree Language Technologies GmbH, Karlsbad<br />
Immer häufiger trifft man in Redaktionen, die Technische Dokumentation<br />
erstellen, auf mehr oder weniger verbindliche Regelwerke, die die<br />
sprachliche, zum Teil auch die damit verbundene formale Ausgestaltung<br />
der zu erstellenden Informationen regeln sollen. Diese Regelwerke<br />
firmieren unter verschiedenen Bezeichnungen, wie Style Guide, Redaktionshandbuch,<br />
Redaktionsleitfaden, Schreibregeln etc.<br />
Alle haben sie zum Ziel, sprachliche Vorgaben zu definieren, um die<br />
Erschließung und die Verständlichkeit – und somit auch die Übersetzbarkeit<br />
– der Informationen zu erleichtern. Diese Regelwerke sind oft<br />
unternehmens- oder abteilungsspezifisch, es gibt jedoch auch Regelwerke,<br />
die eher generischen Charakter haben und auf die Technische<br />
Kommunikation allgemein anwendbar sind. Allerdings beziehen sie sich<br />
immer nur auf eine Sprache.<br />
Deutsch<br />
Englisch<br />
Andere Sprachen<br />
Sprachen<br />
So gibt es für das Deutsche eine Vielzahl von Regelwerken, die innerhalb<br />
eines Unternehmens entwickelt wurden und auch nur dort zum<br />
Einsatz kommen. Ein allgemein verfügbares und anleitendes Regelwerk,<br />
um einen redaktionellen Leitfaden zu erstellen, gibt es in Form<br />
der <strong>tekom</strong>-Leitlinie „Regelbasiertes Schreiben.“ Daneben existieren<br />
auch andere öffentliche Publikationen, die sich des Themas Sprachregelung<br />
annehmen, jedoch eher unter dem Aspekt des „übersetzungsgerechten<br />
Schreibens“. Des Weiteren allgemein verfügbar sind Richtlinien<br />
zu formal-funktionalen Vorgaben (z. B. Funktionsdesign, Information<br />
Mapping), die kombiniert mit sprachlichen Regelungen in der Technischen<br />
Dokumentation Anwendung finden.<br />
Das nach wie vor bekannteste Regelwerk für Englisch im Bereich der<br />
Technischen Dokumentation sind die Spezifikationen des ASD100 STE<br />
für die Branche der Luft- und Raumfahrt. Für die Software-Branche<br />
stehen der MS Style Guide und der IBM Style Guide zur Verfügung.<br />
Aber auch andere Unternehmen wie z. B. Boeing, Caterpillar, Ericsson,<br />
General Motors, Kodak, Nortel und Xerox haben schon in den 90er Jahren<br />
ihre firmenspezifische (Kontrollierte) Sprache definiert. Allgemeiner<br />
gehalten hingegen, und für alle schreibenden Berufe intendiert, ist<br />
das Chicago Manual of Style und der Global English Style Guide, wobei<br />
letzterer in seiner Regelsammlung auch sprachverarbeitenden Systemen<br />
wie Controlled Language Checker und MÜ-Systemen sowie dem<br />
Übersetzungsaspekt allgemein explizit Rechnung trägt.<br />
Für andere Sprachen wie beispielsweise für Französisch, Spanisch etc.<br />
gibt es durchaus Bestrebungen, eine regelbasierte Kontrollierte Sprache<br />
zu entwickeln, aber dies jedoch immer in Anlehnung an die Regeln<br />
des Simplified English (SE). Sowohl für Französisch (GIFAS Français<br />
rationalisé) als auch für Spanisch (STS – Simplified Technical Spanish)<br />
wurden hierfür die SE-Regeln auf ihre Anwendbarkeit in der jeweils<br />
anderen Sprache überprüft und je nach Tauglichkeit übernommen oder<br />
234<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
Aufbau und Zielgruppe<br />
verworfen. Ein weiterer Ansatz, fürs Französische eine Kontrollierte<br />
Sprache zu entwickeln, entstammt dem Bereich der technischen Übersetzung<br />
und versteht sich – ähnlich der <strong>tekom</strong>-Leitlinie – als praxisorien<br />
tierte Sammlung von so genannten Best-Practice-Regeln.<br />
Jedem dieser Regelwerke liegt eine Klassifikation zugrunde, die dem<br />
Anwender den Zugang erleichtern soll. In deutschen Handbüchern orientiert<br />
sich diese entweder an sprachlich-linguistischen Kriterien und<br />
Phänomenen (z. B. Passiv) oder aber an strukturellen Gegebenheiten<br />
(z. B. Warnhinweise).<br />
In englischsprachigen Werken fällt auf, dass formalen Themen wie<br />
Schreibnormen, Abkürzungen und Interpunktion viel Raum und Gewicht<br />
beigemessen wird und sprachliche Phänomene eher oberflächlich<br />
und wenig granular behandelt werden.<br />
In verfügbaren deutschen Regelwerken wird oftmals detaillierter auf<br />
sprachlicher Ebene und/oder funktionaler Ebene gegliedert. Dies mag<br />
daran liegen, dass durch Normen (z. B. DIN 5008) und andere Standardregelwerke<br />
für Deutsch (z. B. Duden) bereits ein Standard verfügbar<br />
ist, der für bestimmte Themen, wie z. B. Interpunktion, vorausgesetzt<br />
wird.<br />
Übertragbarkeit der Regeln<br />
Wenn man die Methode der Übertragung von Regeln wählt, um Vorgaben<br />
für eine andere Sprache zu definieren, müssen zwei wesentliche<br />
Punkte betrachtet werden.<br />
−−<br />
Welches Regelwerk bzw. welche Sprache wird als Ausgangsbasis herangezogen?<br />
Auf diese Entscheidung hat sowohl der intendierte Anwendungsbereich<br />
als auch der Grad der Sprachverwandtschaft einen<br />
Einfluss.<br />
−−<br />
Sollen „nur“ so genannte Meta-Regeln übertragen werden oder auch<br />
konkrete sprachliche und/oder formale Regelungen?<br />
In der Regel ist die Übertragbarkeit von Meta-Regeln weniger<br />
schwierig, da es sich hierbei um allgemein gültige Regeln, wie z. B.<br />
„Vermeiden Sie Mehrdeutigkeiten“ handelt. Wohingegen Regeln,<br />
die auf bestimmte sprachliche Phänomene, wie z. B. Gerundium-<br />
Konstruktionen, abzielen, je nach Sprache durchaus unterschiedlich<br />
bewertet werden können.<br />
Bei dieser Methode werden alle Ausgangsregeln auf ihre Anwendbarkeit<br />
für die „neue“ Sprache überprüft und gegebenenfalls übernommen<br />
und eventuell auf Basis von vorliegendem Textmaterial um weitere<br />
Regeln ergänzt.<br />
Die Quote der Regeln, die übertragbar sind, richtet sich stark nach deren<br />
Granularität und danach, ob es sich um Meta-Regeln oder um Phänomen-orientierte<br />
Regeln handelt. Bei letzteren kann das Phänomen<br />
durchaus auch übertragbar sein, jedoch unterscheidet sich die sprachliche<br />
Realisierung.<br />
Generische vs. sprachspezifische Regeln<br />
Gemäß vorgenannten Kriterien lassen sich drei Arten von Regeln<br />
unterscheiden:<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
235
Sprachtechnologie / Language Technology<br />
Sprachunabhängige<br />
Regeln<br />
Meta-Regeln<br />
Sprachspezifische<br />
Regeln<br />
Allgemein gültige Regeln, die sprachunabhängig gelten können und<br />
auch in Style Guides für unterschiedliche Sprachen zu finden sind, wie<br />
z. B.<br />
−−<br />
Satzlängenbeschränkungen<br />
−−<br />
Ziel der Handlung vor der Handlung selbst nennen<br />
−−<br />
Anzahl der Klammereinschübe pro Satz beschränken<br />
−−<br />
Zahlen immer durch Ziffern darstellen<br />
So genannte Meta-Regeln, die sich auf sprachübergreifende Phänomene<br />
beziehen, deren sprachliche Realisierung aber sprachspezifisch ist.<br />
Dazu zählen z. B. folgende Regeln:<br />
−−<br />
unpersönliche Formulierungen vermeiden<br />
– Mehrdeutigkeiten vermeiden<br />
−−<br />
komplexe Attribute vermeiden<br />
Sprachspezifische Regeln, die ausschließlich für eine Sprache relevant<br />
sind. Beispiele fürs Deutsch sind:<br />
−−<br />
elliptische Kompositakonstruktionen vermeiden (Ein- und Ausbau)<br />
−−<br />
Distanz zwischen Verb und abgetrenntem Präfix minimieren<br />
−−<br />
Substantivform ohne Schwa-Auslaut verwenden (Tür vs. Türe)<br />
Umsetzung in Sprachprüfsoftware<br />
Sofern kein Weltwissen und kein textpragmatisches Wissen vorausgesetzt<br />
wird, können alle Regeln von Sprachprüfwerkzeugen überprüft<br />
werden. Manche Regeln können mit rein statistischen Verfahren überprüft<br />
werden, so dass die Überprüfung auch sprachunabhängig stattfinden<br />
kann. Dies gilt vor allem für die Regeln der ersten Kategorie, bei<br />
denen kein sprachliches Wissen nötig ist.<br />
Der Großteil der Regeln kann jedoch nur mit linguistisch basierten<br />
Programmen überprüft werden, die auf sprachspezifischen Analysekomponenten<br />
basieren. So muss für eine maschinelle Überprüfung der<br />
Vorgaben zumindest pro Sprache ein Prüfprogramm zur Verfügung stehen.<br />
Unterschiedliche Regelausprägungen und -zusammenstellungen,<br />
die unterschiedlichen Anwendungsszenarien geschuldet sind, können<br />
im Einzelnen über eine entsprechende Konfigurationskomponente der<br />
Prüfsoftware verwaltet und gepflegt werden.<br />
für Rückfragen: ureuther@congree.com<br />
236<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 4<br />
Fachvortrag<br />
Komplexität des Lifecycle-Managements<br />
multilingualer Inhalte<br />
Harald Elsen, DELTA International CITS GmbH, Bonn<br />
Dr. Andrew Bredenkamp, Acrolinx GmbH, Berlin<br />
Für jede Lifecycle-Stufe (Bearbeitungsstufe) multilingualer Inhalte<br />
stehen unterstützende Systeme zur Verfügung (Autoren-, TM-Systeme<br />
etc.). Diese Systeme werden meist für ihre jeweiligen Bearbeitungsstufen<br />
optimiert eingesetzt und für den intendierten Einsatz angemessen<br />
gepflegt.<br />
Aber die inhaltlichen Ressourcen verändern sich mit der Zeit, so dass<br />
z. B. Terminologien, Style Guides, CMS-Inhalte und TM-Datenbanken<br />
nicht mehr den aktuellen Vorgaben und sprachlichen Entwicklungen<br />
der aktuellen Inhalte entsprechen.<br />
Betrachtet man eine exemplarische Darstellung der Bearbeitungsstufen<br />
zur Erstellung multilingualer Inhalte und skizziert die in den jeweiligen<br />
Bearbeitungsstufen verwendeten Tools und Ressourcen, dann schafft<br />
man sich einen ersten Überblick über die komplexen Zusammenhänge<br />
der Aufgaben, Tools und Ressourcen (s. Abbildung 1: Exemplarischer<br />
Überblick: Bearbeitungsstufen, Tools und Ressourcen). Man erkennt<br />
schnell, dass jede Veränderung, die die sprachlichen Inhalte betreffen,<br />
weitreichende Auswirkungen auf alle Bearbeitungsstufen mit sich ziehen,<br />
wie z. B.:<br />
−−<br />
Entscheidet das Produktmanagement eine Veränderung des sprachlichen<br />
Stils, dann sind alle sprachlichen Ressourcen betroffen und<br />
müssen angepasst werden. Es stellt sich zudem die Frage, ob vorhandene<br />
Inhalte früherer Produkte angepasst werden müssen, um wiederverwendet<br />
werden zu können.<br />
−−<br />
Stellt die Entwicklung von zyklischen Veröffentlichungen (Release)<br />
auf kontinuierliche Verteilung um, dann müssen für die kleineren<br />
Inhaltsmengen die Prozesse maximal optimiert werden, damit der<br />
Prozessaufwand für die geringen Inhaltmengen nicht zu hoch wird.<br />
Solche Änderungen haben weitreichende Auswirkungen auf Kosten<br />
und Zeitaufwände, die bei der Planung zu berücksichtigen sind. Zudem<br />
nimmt die Prozesskomplexität mit einer steigenden Anzahl von Zielsprachen<br />
zu. Die Erstellung multilingualer Inhalte ist keine sequentielle<br />
und vorwiegend kreative Tätigkeit mehr, sondern sie gleicht immer<br />
mehr einer komplexen und hocheffizienten industriellen Fertigung.<br />
Somit geht es auch nicht mehr nur um das Management und die Optimierung<br />
des zentralen Produktionsprozesses, sondern auch um das<br />
Management und die kreative Optimierung der verwendeten Ressourcen<br />
und Tools, wie z. B.:<br />
−−<br />
Wie hält man die Terminologie für die verschiedenen Tools möglichst<br />
synchron?<br />
−−<br />
Gibt es Tools, die schon ab der Konzeptionsphase eines neuen Produkts<br />
das Sammeln von neuer Terminologie unterstützen?<br />
−−<br />
Warum wird das Autorensystem nicht in der zielsprachigen Qualitätssicherung<br />
oder zur Pflege von Translation-Memory-Datenbanken<br />
(Memory Pollution) eingesetzt?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
237
Sprachtechnologie / Language Technology<br />
Abb. 1: Exemplarischer Überblick: Bearbeitungstufen, Tools und<br />
Ressourcen<br />
238<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
−−<br />
Gibt es Qualitätsprüfungssysteme, die vielleicht die schlechten maschinell<br />
vor-übersetzten Segmente herausfiltern können, damit dem<br />
Übersetzer nur qualitativ gute maschinell vor-übersetzte Segmente<br />
als Übersetzungsvorschlag angeboten werden?<br />
−−<br />
Fließen Erkenntnisse aus späten Bearbeitungsstufen in frühere Bearbeitungsstufen<br />
zurück, um so möglichst früh negative Einflüsse auf<br />
die Prozesskette zu vermeiden?<br />
In dem Vortrag werden Beispiele aus 20 Jahren Erfahrung aus Forschung<br />
und Praxis gezeigt und diskutiert, in denen z. B. die Bearbeitungsstufen<br />
nicht optimal aufeinander abgestimmt waren oder<br />
aufgrund fehlender Ressourcenpflege unnötige Aufwände betrieben<br />
wurden.<br />
Aber es werden auch Anregungen gegeben, wie mit vorhandenen<br />
Sprachtechnologien nicht nur am „Produkt“ gearbeitet werden kann,<br />
sondern auch die verwendeten Ressourcen aus anderen Bearbeitungsstufen<br />
effizient und kreativ gepflegt sowie erweitert werden können.<br />
Rückfragen an ...<br />
Harald Elsen, harald.elsen@dicits.com<br />
Dr. Andrew Bredenkamp, andrew.bredenkamp@acrolinx.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
239
Sprachtechnologie / Language Technology<br />
LT 5<br />
Fachvortrag<br />
Informationssicherheit in<br />
Übersetzungsprozessen<br />
Stefan Kreckwitz, Across Systems GmbH, Karlsbad<br />
Informationen sind Werte<br />
Informationen stellen echte Werte dar. Ihr Besitz kann uns einen Wettbewerbsvorteil<br />
verschaffen oder die Kenntnis kann uns vor Schaden<br />
bewahren. In Übersetzungsprozessen werden nicht selten sehr wertvolle<br />
Werte wie neue Produktideen, anzumeldende Patente oder Handbücher<br />
für Messeneuheiten verarbeitet. Jeder, der derartige Dokumente<br />
weitergibt oder zur Übersetzung zur Verfügung gestellt bekommt, hat<br />
eine nicht zu unterschätzende Verantwortung.<br />
Informationssicherheit allgemein<br />
ISO/IEC 20000 ist eine international anerkannte Norm zum IT-Service-<br />
Management. In Teil 2 dieser Norm wird Informationssicherheit wie<br />
folgt definiert:<br />
„Informationssicherheit ist das Ergebnis eines Systems von Strategien<br />
und Verfahren zur Identifizierung, Kontrolle und zum Schutz von Informationen<br />
und Geräten, die im Zusammenhang mit ihrer Speicherung,<br />
Übermittlung und Verarbeitung genutzt werden.“<br />
Auf Basis dieser Definition können drei Grundwerte der Informationssicherheit<br />
abgeleitet werden:<br />
−−<br />
Verfügbarkeit: Hardware, Software, Daten<br />
−−<br />
Integrität: Nicht autorisierte Änderungen verhindern oder erkennen<br />
−−<br />
Vertraulichkeit: Sensitive Daten vor unerwünschtem Zugriff schützen<br />
Das Ziel der Informationssicherheit ist es, die Grundwerte vor Bedrohungen<br />
zu schützen. Im Groben kann man hier fünf verschiedene Arten<br />
der Bedrohung unterscheiden:<br />
−−<br />
Höhere Gewalt: Feuer, Wasserschaden, Blitzschlag, …<br />
−−<br />
Organisatorische Mängel: Fehlende Verantwortlichkeiten, mangelnde<br />
Zutrittskontrolle, …<br />
−−<br />
Menschliche Fehlhandlungen: Benutzerfehler, Verwechslung von<br />
Daten, …<br />
−−<br />
Technisches Versagen: Stromausfall, Festplattenfehler, …<br />
−−<br />
Vorsätzliche Handlungen: Diebstahl, Manipulation, Computer Viren,<br />
…<br />
Übersetzungsprozesse<br />
Übersetzungsprozesse sind heutzutage hochgradig verteilt. Selbst für<br />
die Übersetzung eines einzelnen Dokuments in mehrere Sprachen werden<br />
verschiedene Personen oder Firmen eingebunden:<br />
−−<br />
Mitarbeiter vor Ort<br />
−−<br />
Landesgesellschaften<br />
−−<br />
Freie Mitarbeiter<br />
−−<br />
Dienstleister<br />
Nicht selten ergibt sich mit oder ohne Wissen des Auftraggebers eine<br />
Kette von Dienstleistern und freien Mitarbeitern, die die Aufträge<br />
240<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
entweder nur weiterreichen oder partiell bearbeiten. Die Projektbeteiligten<br />
arbeiten über die ganze Welt verteilt und in aller Regeln mit einer<br />
unterschiedlichen Infrastruktur.<br />
Informationssicherheit heißt somit für den Auftraggeber, nicht nur<br />
innerhalb seines Einflussbereichs entsprechende Risiken zu identifizieren<br />
und Maßnahmen zu ergreifen. Es muss vielmehr berücksichtigt<br />
werden, wie bei jedem einzelnen Prozessbeteiligten, bei den Übergängen<br />
zwischen den Prozessbeteiligten und im Gesamtprozess Informationssicherheit<br />
gewährleistet wird.<br />
Verfügbarkeit in Übersetzungsprozessen<br />
Um die Verfügbarkeit zu gewährleisten oder zu erhöhen, kommen vor<br />
allem allgemeine Maßnahmen der Informationstechnologie zum Tragen.<br />
Stichworte sind hier: Regelmäßige Datensicherung, Wiederherstellungspläne,<br />
Virenschutz, Monitoring kritischer Systeme, Blitzschutz, …<br />
In Szenarien, in denen wichtige Inhalte extern übersetzt werden, ist es<br />
empfehlenswert, dass der Auftraggeber seinem Dienstleister Vorgaben<br />
macht oder auf einen zentralen Ansatz setzt.<br />
Integrität in Übersetzungsprozessen<br />
Integrität sicherzustellen heißt vor allem, nicht autorisierte Änderungen<br />
zu verhindern oder zumindest zu erkennen. Der Schutz der Integrität<br />
beginnt mit dem Schutz durch Passwörter, sollte aber nicht darauf beschränkt<br />
werden. Oftmals sind es Fehlbedienungen autorisierter Benutzer,<br />
die ein Risiko für die Integrität darstellen. Hier sind zum einen<br />
die Hersteller der verwendeten Programme gefordert, Fehlbedienungen<br />
durch entsprechende Bedienbarkeit und Prüfmechanismen zu vermeiden.<br />
Andererseits sind aber auch die Benutzer gefordert, sich mit<br />
den Werkzeugen auseinanderzusetzen und regelmäßig Schulungen zu<br />
besuchen.<br />
Im Kontext von Integrität spielt des Weiteren Nachvollziehbarkeit eine<br />
wichtige Rolle. Wurde eine unerwünschte Änderung bemerkt, ist es<br />
wichtig festzustellen, wer diese Änderung durchgeführt hat und wann<br />
sie gespeichert wurde. In verteilten und heterogenen Umgebungen mit<br />
vielen externen Akteuren ist dies in manchen Fällen unmöglich, wenn<br />
nicht entsprechende Vorkehrungen getroffen wurden. Wenn Nachvollziehbarkeit<br />
für ein Unternehmen eine wichtige Rolle spielt, sollte das<br />
System, das den Übersetzungsprozess steuert, die Nachvollziehbarkeit<br />
sicherstellen und es ermöglichen, jede Änderung einem namentlich<br />
bekannten Benutzer zuzuordnen.<br />
Vertraulichkeit in Übersetzungsprozessen<br />
Unter den oben beschriebenen Rahmenbedingungen von Übersetzungsprozessen<br />
ist es eine große Herausforderung, Vertraulichkeit zu<br />
wahren. Organisatorische Maßnahmen sind hier definitiv nicht ausreichend.<br />
Vertraulichkeit muss durch Prozesse und Werkzeuge gewahrt<br />
werden. Nur so lässt sich Missbrauch ausschließen.<br />
Je offener und heterogener ein Prozess ist, desto mehr Risiken ergeben<br />
sich durch die Anzahl der verschiedenen Umgebungen und die<br />
Übergänge zwischen den Prozessbeteiligten. Im Vorteil sind hier geschlossene<br />
Systeme, denn nur sie können für alle Prozessbeteiligten die<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
241
Sprachtechnologie / Language Technology<br />
Zugriffsrechte steuern und somit verhindern, dass Daten unkontrolliert<br />
gespeichert oder weitergegeben werden. Darüber hinaus können derartige<br />
Systeme die Verschlüsselung von Daten zwischen Prozessbeteiligten<br />
erzwingen und somit ein unerwünschtes Mitlesen der Daten<br />
verhindern.<br />
Wenn sensible Daten für die Übersetzung das eigene Haus verlassen<br />
müssen, sollte sichergestellt sein, dass die Daten nach Bearbeitung<br />
durch den externen Übersetzer nicht auf dessen Rechner<br />
verbleiben. Dies gilt sowohl für Translation Memorys als auch für<br />
Terminologielisten.<br />
Zusammenfassung<br />
Informationssicherheit wird bei Übersetzungsprozessen nicht ausreichend<br />
Beachtung geschenkt. Selbst in hochsensiblen Bereichen wie der<br />
Pharmaindustrie und der Finanzwirtschaft werden vertrauliche Inhalte<br />
oft in offenen Dokumentenformaten und in unkontrollierbaren Prozessen<br />
an eine Vielzahl von Übersetzern herausgegeben. Während einerseits<br />
Werksbesucher einer intensiven Sicherheitskontrolle unterzogen<br />
werden, werden andererseits hochsensible Inhalte in offenen Textdokumenten<br />
oder in offenen Excel-Dateien per E-Mail an Übersetzungsdienstleister<br />
versendet, die ihrerseits – vom Auftraggeber unkontrollierbar<br />
– an freiberufliche Übersetzer subdelegieren. Die in der Praxis<br />
gelebten Prozesse setzen wertvolle Informationen Risiken aus, die über<br />
personelle, organisatorische oder technische Maßnahmen minimiert<br />
werden können. Die dringliche Empfehlung des Autors ist es, sich mit<br />
dem Thema zu befassen und ein Bewusstsein für die Risiken im aktuellen<br />
Prozess zu gewinnen.<br />
für Rückfragen: skreckwitz@across.net<br />
242<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 6<br />
Fachvortrag<br />
Mehrwerte ohne mehr Worte:<br />
Terminologie im synergetischen<br />
Kontext von Maschine und Mensch<br />
Horst Liebscher, text + form, Berlin<br />
Vorab<br />
Eine firmenspezifische Terminologie prägt das kulturelle Antlitz eines<br />
Unternehmens. Früher war ihre Erstellung vor allem teuer. Heute ist sie<br />
in einer Fülle von Kontexten verankert.<br />
Aber gerade dieser Umstand macht die Sache besonders kompliziert.<br />
Denn Inhalte gleicher Intention in verschiedenen Systemen geraten<br />
leicht zu konkurrierenden Datenbeständen. Genau das gilt für Terminologiebestände<br />
oder Daten, die strikten terminologischen Vorgaben<br />
folgend aufgebaut sind oder das sein sollten.<br />
Im Folgenden werden drei neue Begriffe eingeführt und es wird beschrieben<br />
[und im Fachvortrag selbst wird direkt gezeigt], wie man mit<br />
den Komponenten aus der Welt von Autorenunterstützung und Maschineller<br />
Übersetzung<br />
−−<br />
den Konfliktgrad eines Terminologiebestandes ermittelt,<br />
−−<br />
den Repräsentanzgrad gezielt erweitert<br />
−−<br />
und den Terminologiebedarf bestimmt.<br />
Dabei wird zwischen den verschiedenen Anwendungsfällen vermittelt,<br />
um maximale Synergien zu erschließen.<br />
„Aufgelöste“<br />
Terminologie<br />
Aktiv, ungenutzt,<br />
vermisst<br />
Die Terminologie und ihre Abbilder<br />
Ob eine Firmenterminologie per Deklaration existiert oder nicht – in<br />
den verschiedensten Datenbeständen werden Termini verwendet, die<br />
in ihrer Gesamtheit jener Begriffsschatz sind, der das firmenspezifische<br />
Etwas eines Unternehmens ausmacht.<br />
Unabhängig von selbsterstellten Excel- oder Wordlisten, Access- und<br />
anderen Datenbanken oder auch unter Tastaturen festgeklebten Notizzetteln<br />
befinden sich diese Benennungen „quasi aufgelöst“ in den<br />
vielfältigsten Presales- und After-Sales-Dokumentationen, Content-<br />
Management-Systemen, direkt in der Software, im ERP-System und<br />
noch hier und noch da und noch dort – aber auch in den Beständen der<br />
jemals involvierten Translation-Management-Systeme.<br />
Dieser Benennungsschatz ist „sowieso vorhanden“. Er muss nur noch<br />
gehoben und zu einem Begriffsschatz erhoben werden.<br />
Wenn eine solche Datenlage gegeben ist – und auch wenn es sich bereits<br />
um eine begrifflich organisierte Terminologie handelt –, sollte man<br />
sich irgendwann die Frage stellen: Was ist die denn wert?<br />
Welche Terme werden tatsächlich aktiv genutzt, welche werden vermisst,<br />
welche klingen interessant und nützlich – werden in der Praxis<br />
aber gar nicht verwendet?<br />
Wir zeigen nun anhand konkreter Beispiele, wie man eine solche Klassifizierung<br />
vornehmen kann.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
243
Sprachtechnologie / Language Technology<br />
Zwei sinnvolle<br />
Begrifflichkeiten<br />
Der Terminologiebedarf<br />
einer Textmenge<br />
Der<br />
Repräsentationsgrad<br />
einer Terminologie<br />
Im Folgenreich<br />
Heikle Entscheidungen<br />
Um den Wert eines Terminologiebestandes beziffern zu können, führen<br />
wir zwei Begriffe ein – den Begriff des Terminologiebedarfs einer Textmenge<br />
und den Begriff des Repräsentationsgrades einer Terminologie.<br />
Beide Parameter beschreiben das Verhältnis von Terminologie und<br />
Inhalt: einen Terminologiebestand aus Sicht einer betrachteten Textmenge<br />
bzw. eine Textmenge aus Sicht eines in Beziehung gesetzten<br />
Terminologiebestandes.<br />
„Der Terminologiebedarf einer Textmenge ist die Differenz aus der Anzahl<br />
der darin enthaltenen sinnvollen Termkandidaten und der Anzahl<br />
aktiver Terme in einem Terminologiebestand.“<br />
Das klingt ganz einfach. Aber die notwendigen Werte muss man praktisch<br />
erst einmal ermitteln.<br />
„Der Repräsentationsgrad einer Terminologie ist das numerische Verhältnis<br />
aus der Anzahl der darin enthaltenen aktiven Terme und der<br />
Anzahl sinnvoller Termkandidaten, jeweils aus Sicht einer betrachteten<br />
Textmenge.“<br />
Wenn alle potenziellen Terme in einer Textmenge tatsächlich auch<br />
schon aktive Mitglieder in der verwendeten Terminologie sind, ist der<br />
Repräsentationsgrad 100 %. Wenn dagegen kein ermittelter Termkandidat<br />
im aufgebauten Terminologiebestand vorhanden ist – unabhängig<br />
davon, wie groß der inzwischen geraten ist –, ist das Verhältnis 0 %.<br />
Auch das klingt simpel, ist aber folgenreich.<br />
Was nützt einem die größte Terminologie, wenn sie nicht die Bedürfnisse<br />
der betrachteten Inhalte trifft? Und wenn es hier ein Missverhältnis<br />
gibt – was folgt daraus?<br />
Ist dann die Terminologie – erwachsen aus verschiedenen Teilbeständen,<br />
deren Vorgeschichte ohnehin „schon immer ganz mysteriös“ schien<br />
– kaum etwas wert, oder schreiben die Autoren „falsch“ bzw. ungenau?<br />
Eine solche Situation ist nicht frei erfunden. Nicht alle Anwender können<br />
sich sicher sein, dass der enorme Aufwand, den sie in die Erstellung<br />
des Terminologiebestandes gesteckt haben, tatsächlich eine effektive<br />
Investition war bzw. ist. Vor allem jene, die verschiedene Datenbestände<br />
zusammenführen mussten, ahnen oft kaum, wie die zusammengeführte<br />
Datenmenge nun ihre terminologischen Grundbedürfnisse<br />
widerspiegelt.<br />
Das zu wissen, ist aber wichtig für die konkrete Ausgestaltung des Prozesses<br />
der Erstellung und Lokalisierung von Terminologie.<br />
Ein hoher Terminologiebedarf kann bedeuten, dass man sich aus pragmatischer<br />
Sicht zunächst auf einzelne Inhaltsarten fokussiert und nicht<br />
versucht, einen repräsentativen Gesamtbestand aufzubauen.<br />
Ein niedriger Repräsentationsgrad kann es sinnvoll erscheinen lassen,<br />
dass man aus pragmatischer Sicht zunächst den aktuellen Terminologiebestand<br />
außer Acht lässt.<br />
Eine solche Entscheidung muss immer auch mit Rücksicht darauf getroffen<br />
werden, welche Folgen etwaige Änderungen haben werden:<br />
Auch inkonsistente Datenbestände können nicht ohne Weiteres harmonisiert<br />
werden, wenn es sich um aktive Begriffe in sensiblen Bereichen<br />
(im ERP-System / aktive, haftungsrelevante Dokumente) handelt.<br />
244<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
Die unterschiedlichen<br />
Blickwinkel<br />
verschiedener<br />
Werkzeuge<br />
Das Konfliktpotenzial<br />
serieller Einzelbestände<br />
Methodik zur Ermittlung<br />
des Konfliktpotenzials<br />
Konsolidierung von<br />
Teilbeständen zu einem<br />
Gesamtbestand<br />
Hier müssen Inkonsistenzen unter Umständen temporär hingenommen<br />
werden. Das wiederum sollte bei der Ausgestaltung der Struktur des<br />
Terminologiebestandes bedacht werden.<br />
Das Heben des Terminologieschatzes ist in der Regel eine mühselige<br />
Angelegenheit, wenn man versucht, die robusten Werkzeuge aus der<br />
Welt der Translation-Memory-Systeme oder andere, ähnlich gestrickte<br />
Komponenten zu verwenden, die mit Linguistik nicht viel am Hut<br />
haben.<br />
Effiziente Terminologieprozesse können tatsächlich nur mit linguistischen<br />
Werkzeugen abgebildet werden, mit deren Hilfe zum Beispiel die<br />
Grundformen in der Terminologiedatenbank recht verlässlich mit den<br />
oft flektierten Formen in einem Text abgeglichen werden können.<br />
Auf diese Weise können auch der Repräsentationsgrad einer Terminologie<br />
und der Terminologiebedarf einer Textmenge sinnvoll ermittelt<br />
werden.<br />
Wir zeigen das im Fachvortrag an konkreten Beispielen in einer exemplarisch<br />
gestalteten Arbeitsumgebung.<br />
Ein Eintrag und seine Konkurrenten<br />
Wie kommt man zu einem notwendigen, harmonisierten Gesamtbestand,<br />
wenn Terminologie bislang separat, an verschiedenen Orten<br />
entstand?<br />
Es kann interessant sein zu wissen, welche potenziellen Konflikte in<br />
einem zusammengeführten Terminologiebestand oder zwischen verschiedenen<br />
betrachteten Einzelbeständen vorliegen.<br />
Die Kenntnis der Anzahl möglicher Konflikte kann dabei helfen, den<br />
Aufwand für die Herstellung einer konsolidierten Gesamtterminologie<br />
zu beziffern.<br />
Wir zeigen in unserer exemplarischen Arbeitsumgebung, nach welcher<br />
Methodik Konfliktmatrizen berechnet werden können, die einerseits<br />
ein Bild von der Diffusität eines Terminologiebestandes zeichnen und<br />
die andererseits auch als Brille genutzt werden können, um potenzielle<br />
Konflikte aufzulösen oder Benennungen innerhalb eines Konzepts als<br />
sinnvolle Synonyme zu bestimmen.<br />
Um jedoch eine effiziente Vorgehensweise festzulegen, sollten zunächst<br />
der Repräsentationsgrad der einzelnen Bestände für besonders relevante<br />
Textmengen und zweitens der Terminologiebedarf dieser Textmengen<br />
bezogen auf den jeweiligen Terminologie-Teilbestand ermittelt<br />
werden.<br />
Bei einer solchen Vorgehensweise kann oft schon die Spreu vom Weizen<br />
getrennt und ermittelt werden, für welche Datenbestände man welche<br />
Mühe sinnvoll aufwenden sollte.<br />
Und das macht man dann.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
245
Sprachtechnologie / Language Technology<br />
Die heilige Dreifaltigkeit<br />
der Terminologie<br />
Sehnsucht nach<br />
Synergie …<br />
… und linguistische<br />
Intelligenz<br />
Mehrwerte ohne mehr Worte<br />
Klassischerweise spielt Terminologie in drei zentralen Anwendungsfeldern<br />
eine tragende Rolle:<br />
−−<br />
Terminologie im Kontext der Autorenunterstützung<br />
−−<br />
Terminologie im Übersetzungsprozess<br />
−−<br />
Terminologie im Kontext maschineller Übersetzung<br />
Zudem sollte man auch alle weiteren denkbaren Nutzungsmöglichkeiten<br />
bedenken, wie die ganz profane Veröffentlichung im Web, das Ausspielen<br />
von spezifisch strukturierten Extrakten für spezielle Anwendungsfälle<br />
etc.<br />
In den unterschiedlichen Arbeitsprozessen folgen aus unterschiedlichen<br />
Funktionalitäten und Konzepten der unterstützenden Systeme<br />
differierende Anforderungen an terminologische Strukturen.<br />
Es ist schon allein mit Blick auf limitierte Ressourcen im Sinne von<br />
Zeit- und Geldbudgets sinnvoll, sich im beschriebenen Anwendungsdreieck<br />
zentral zu bewegen, dabei redundante Tätigkeiten möglichst<br />
zu vermeiden, stattdessen die tangierten Komponenten sinnvoll zu<br />
verdrahten.<br />
An Werkzeugen zur Verfügung stehen die linguistisch arbeitenden<br />
Komponenten aus der Welt der Textanalyse und Autorenunterstützung<br />
sowie regelbasierte Systeme aus der Welt der Maschinellen<br />
Übersetzung.<br />
Wir zeigen in unserer exemplarischen Arbeitsumgebung, wie diese<br />
Systeme in unsere Analyse- und Konsolidierungsprozesse eingebunden<br />
werden können.<br />
Welcher praktische, synergetische Nutzen dabei erschlossen werden<br />
kann, ist sicher von Fall zu Fall verschieden. Dass aber die beschriebene<br />
Herangehensweise von fundamentalem Nutzen sein kann – das ist allen<br />
Szenarien gleich.<br />
für Rückfragen: horst_liebscher@textform.com<br />
246<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 7<br />
Fachvortrag<br />
Problemstellung<br />
TMs werden<br />
immer größer<br />
Reif für die Prüfung? – Linguistische Verfahren<br />
zur Kontrolle von Translation Memorys<br />
Prof. Dr. Christoph Rösener, Institut der Gesellschaft zur Förderung der Angewandten<br />
Informationsforschung (IAI), Saarbrücken / Studiengang Internationale<br />
Fachkommunikation (IFK), Fachhochschule Flensburg<br />
Immer mehr Firmen sind zunehmend mit dem Problem konfrontiert,<br />
dass ihre mittlerweile über Jahre hinweg angewachsenen Übersetzungsspeicher<br />
zwar eine Vielzahl von wertvollen Übersetzungseinheiten<br />
enthalten, in gleichem Maße jedoch auch unbrauchbare bzw. fehlerhafte<br />
Segmente. Der Beitrag versucht, Möglichkeiten aufzuzeigen, wie<br />
mit Hilfe von linguistisch intelligenten Verfahren existierende Translation<br />
Memorys überprüft und von unbrauchbaren und fehlerhaften<br />
Übersetzungseinheiten „gereinigt“ werden können.<br />
Ausgangssituation<br />
Translation Memory Systeme sind aus dem Arbeitsalltag von Übersetzern,<br />
sei es im freiberuflichen Kontext oder in Übersetzungsagenturen,<br />
nicht mehr wegzudenken. Der Einsatz hat sich, nicht nur in großen<br />
Unternehmen, als sehr sinnvoll und effizient erwiesen. Da jedoch einige<br />
der Nutzer von Translation-Memory-Systemen diese mittlerweile<br />
schon über einen längeren Zeitraum einsetzen, treten nun interessante<br />
Phänomene auf, die zu Beginn der Nutzung nicht offensichtlich waren:<br />
die wachsende Größe der Translation Memorys und die teilweise immer<br />
schlechter werdende Qualität derselben.<br />
Aktuelle Zahlen zeigen, dass die von Übersetzern genutzten Translation<br />
Memorys (TMs) in ihrer Größe stetig wachsen. Dies belegen beispielsweise<br />
Größenangaben der Fa. SDL Trados, die diese auf Anfrage<br />
übermittelte [1]. Demnach kann man zwar schwer eine durchschnittliche<br />
Größe von TMs bestimmen, da diese je nach Kunde – Freiberufler,<br />
Übersetzungsagentur, Unternehmen – bzw. der Art der TM-Organisation<br />
(Produktbereiche, Marketing, Fachgebiete etc.) sehr stark variieren<br />
kann. Nichtsdestotrotz gibt die Firma aber folgende Näherungswerte für<br />
die durchschnittliche Größe von TMs an:<br />
−−<br />
Freiberufler – ca. 20.000 bis 50.000 Übersetzungseinheiten<br />
−−<br />
Übersetzungsagenturen – ca. 80.000 bis 100.000 Übersetzungseinheiten<br />
−−<br />
Unternehmenskunden – ca. 50.000 bis 250.000 Übersetzungseinheiten<br />
Die Bandbreite insbesondere bei den Unternehmenskunden erklärt<br />
sich dadurch, dass jeweils zu unterscheiden ist, wie viele Sprachpaare<br />
und welche Themenbereiche mit dem TM abgedeckt werden. U. U. können<br />
dadurch die TMs teilweise enorme Größen erreichen. Als größter<br />
Umfang eines Kunden-TMs wurden in der Anfrage 3,5 Millionen Übersetzungseinheiten<br />
(Nur-Lese-Zugriff) bzw. 1,5 Millionen Übersetzungseinheiten<br />
(Lese- und Schreibzugriff) genannt.<br />
Zugleich lässt die Qualität solcher Translation Memorys oft über die<br />
Jahre nach. Die Gründe hierfür sind mannigfaltig. An dieser Stelle seien<br />
nur beispielhaft fehlende anfängliche Qualitätskontrollen, System- und<br />
Formatänderungen, Zusammenführung von Beständen etc. genannt.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
247
Sprachtechnologie / Language Technology<br />
Manuelle Wartung/<br />
Pflege großer TMs<br />
Automatische Prüfungen<br />
an der Textoberfläche<br />
Linguistisch intelligente<br />
Softwarewerkzeuge<br />
Auf diesem Hintergrund ist klar, dass die Bearbeitung bzw. Pflege solcher<br />
Translation Memorys – insbesondere im Hinblick auf die Qualität<br />
– nur noch bedingt manuell erfolgen kann. Folglich stehen viele TM-<br />
Nutzer nun vor dem gravierenden Problem, die mittlerweile im Umfang<br />
sehr groß gewordenen TMs „reinigen“ zu müssen, dies aber am besten<br />
ausschließlich maschinell und nur eingeschränkt manuell geschehen<br />
kann.<br />
Fehleranalyse<br />
Die Struktur der Fehler, die in einem großen Translation Memory vorkommen<br />
können, ist sehr heterogen. Neben häufigen Fehlern auf der<br />
formalen Ebene können dies Fehler auf der sprachlichen, inhaltlichen<br />
bzw. auch logischen Ebene sein. Eine Vielzahl der vorkommenden falschen<br />
bzw. fehlerhaften Übersetzungseinheiten/Segmente können<br />
schon mit existierenden Softwarefunktionen der einzelnen Translation-<br />
Memory-Systeme bzw. mit speziell für diese Aufgabe programmierten<br />
Software-Skripten automatisch bereinigt werden. Dies erfolgt zunächst<br />
rein statistisch auf der Basis schlichter String- bzw. Attributvergleiche.<br />
Viele Translation-Memory-Systeme haben schon einige dieser sehr<br />
nützlichen Prüfungen eingebaut. Darüber hinaus bieten ausgesuchte<br />
Übersetzungsdienstleister skriptbasierte TM-Optimierungen an [2]. Die<br />
Bandbreite dieser Prüfungen reicht von der Validierung von Formaten<br />
(TXT, RTF, XML usw.), der Überprüfung von ID-Konsistenz über den<br />
Vergleich von Ausgangs- und Zieltext im Hinblick auf fehlende Übersetzungen,<br />
Zahlenformate etc. bis hin zur automatischen Zusammenführung<br />
von Satzfragmenten bzw. der Filterung von Doubletten und<br />
Varianten.<br />
Alle diese Prüfungen berücksichtigen jedoch ausschließlich die Textoberfläche.<br />
Und indem sie keine Korrekturen in der Quellsprache vornehmen,<br />
setzen sie alle indirekt voraus, dass der Kunde sich an seine<br />
eigenen Vorgaben (Rechtschreibung, Grammatik, spezielle Styleguides<br />
etc.) hält. Die Erfahrung zeigt dagegen, dass in vielen Fällen auch auf<br />
der Seite der Quellsprache verschiedene falsche bzw. fehlerhafte Segmente<br />
im Translation Memory vorkommen können. Diese sind mit einer<br />
automatischen Prüfung an der Textoberfläche nicht mehr zu erfassen.<br />
Mit Hilfe von bereits auf dem Markt vorhandener linguistisch intelligenter<br />
Software ist dies jedoch möglich.<br />
An erster Stelle ist hier der Einsatz von existierenden Rechtschreibund<br />
Grammatikprüfprogrammen sowohl auf quell- als auch zielsprachlicher<br />
Seite möglich. Damit können – über die statistischen Prüfungen<br />
hinaus – weitere falsche bzw. fehlerhafte Übersetzungseinheiten/<br />
Segmente problemlos automatisch entfernt werden, falls solche Prüfungen<br />
nicht schon beim Befüllen des TMs durchgeführt wurden. Ein<br />
weiterer Schritt ist – eine zweisprachige Terminologie vorausgesetzt –<br />
die Evaluierung des TMs anhand dieser Terminologie, d. h. ein Filtern<br />
der Segmente im Hinblick auf die verwendete Terminologie in jeweils<br />
Quell- und Zielsprache. Auch dieser Prozess-Schritt kann automatisch<br />
durchgeführt werden. An dieser Stelle kann die zweisprachige Terminologie<br />
darüber hinaus sehr gut genutzt werden, um eine Variantenreduktion<br />
der Segmente auf der zielsprachlichen Seite durchzuführen.<br />
Dazu werden zielsprachliche Segmente im Vergleich mit quellsprachlichen<br />
daraufhin untersucht, inwieweit die vorgegebene Terminologie<br />
in der Übersetzung verwendet wurde. Dieser Schritt kann – unter<br />
248<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
Berücksichtigung bestimmter Vorgaben und bei entsprechender Qualität<br />
der zweisprachigen Terminologie – ebenfalls automatisch erfolgen.<br />
Linguistische<br />
intelligente<br />
Ähnlichkeitsberechnung<br />
Linguistisch intelligente Verfahren zur Variantenerkennung<br />
Trotz der o. g. fortgeschrittenen linguistischen Verfahren bleibt ein kleiner<br />
Restbestand von Segmenten/Übersetzungseinheiten, die auf formaler<br />
bzw. sprachlicher Ebene völlig korrekt und inhaltlich sehr ähnlich<br />
sind. Sie stellen somit mehrere Varianten eines bestimmten sprachlichen<br />
Ausdrucks dar. Dabei handelt es sich vordergründig zunächst nicht<br />
um fehlerhafte Segmente. Aber innerhalb der Technischen Dokumentation,<br />
bei der besonders die Konsistenz von Terminologie und Stil im<br />
Vordergrund steht, sind auch solche Varianten eher unerwünscht.<br />
An dieser Stelle kommt nun ein weiteres linguistisch intelligentes Verfahren<br />
zum Einsatz, das die o. g. Segmente identifizieren und anschließend<br />
einer manuellen Kontrolle zuführen kann. Dazu werden zunächst<br />
alle quellsprachlichen Segmente des TMs einer linguistischen Analyse<br />
unterzogen. Dabei ist es möglich, Kundenspezifika wie z. B. spezielle<br />
Terminologie, eigene Benutzerwörterbücher etc., bei der Analyse zu<br />
berücksichtigen. Diese zusätzlich gewonnene Information wird im Anschluss<br />
zusammen mit den Übersetzungseinheiten/Segmenten hinterlegt.<br />
Im nächsten Arbeitsschritt werden diese Informationen benutzt,<br />
um eine Ähnlichkeitsberechnung zwischen den einzelnen Segmenten<br />
durchzuführen. Anschließend erfolgt mit Hilfe von bestimmten Parametern<br />
eine Gewichtung der Ergebnisse, so dass schließlich „ähn liche“<br />
Segmente zusammen ausgegeben werden können.<br />
„Sofort eine Vertragswerkstatt kontaktieren.“<br />
„Vertragswerkstatt kontaktieren.“<br />
„Möglichst bald eine Vertragswerkstatt kontaktieren.“<br />
„Umgehend eine Vertragswerkstatt kontaktieren.“<br />
„Schnellstmöglich eine Vertragswerkstatt kontaktieren.“<br />
„Bei nächster Gelegenheit eine Vertragswerkstatt kontaktieren.“<br />
„Kontaktieren Sie sofort eine Vertragswerkstatt.“<br />
„Eine Vertragswerkstatt aufsuchen.“<br />
„Wenden Sie sich an eine Vertragswerkstatt.“<br />
Tabelle 1: Automatisch herausgefilterte „ähnliche“ Segmente<br />
Manuelle Bearbeitung<br />
automatisch<br />
ermittelter Varianten<br />
Die Beispiele aus Tabelle 1 zeigen, welche „ähnlichen“ Übersetzungseinheiten/Segmente<br />
aus einem Translation Memory mit Hilfe von<br />
linguistisch intelligenten Verfahren extrahiert werden können. Dabei<br />
ist zu beachten, dass die Extraktion dieser Varianten durchaus automatisch<br />
erfolgen kann. Die schlussendliche Bearbeitung jedoch, also die<br />
Entscheidung für eine bzw. das Löschen von Varianten muss allerdings<br />
manuell durchgeführt werden.<br />
Fazit<br />
Dem Problem der ständig wachsenden TMs und – damit einhergehend –<br />
der zum Teil immer schlechter werdenden Qualität dieser kann mit verschiedenen<br />
Methoden und Verfahren begegnet werden. Neben statistischen<br />
skriptbasierten Verfahren können dabei linguistisch intelligente<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
249
Sprachtechnologie / Language Technology<br />
Verfahren zum Einsatz kommen. Diese Verfahren extrahieren gezielt<br />
ähnliche Segmente/Übersetzungseinheiten und ermöglichen dadurch<br />
eine Pflege/Wartung auch von großen Translation Memorys über die<br />
formale Ebene hinaus.<br />
Verweise<br />
[1] Anfrage des Autors an die Fa. SDL-Trados vom 28.08.<strong>2012</strong><br />
[2] Wedde, Thomas (<strong>2012</strong>): Tanz der Doubletten. Skriptbasierte TM-Optimierung.<br />
Vortrag im Rahmen der 64. Sitzung des Transforum, Bundessprachenamt,<br />
Hürth.<br />
für Rückfragen: c.roesener@iai.uni-sb.de bzw. roesener@fh-flensburg.de<br />
250<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 8<br />
Presentation<br />
Globalization Business Intelligence<br />
Analysis and Reporting Systems<br />
Richard Sikes and Melissa Biggs, Gatineau, Canada<br />
Historical Development of Business Intelligence<br />
Although the first published reference to “business intelligence” appeared<br />
in an article by IBM researcher Peter Luhn in 1958, the more<br />
commonly used term throughout the 1960s and 1970s was “decision<br />
support systems.” What we think of today as business intelligence systems<br />
really began to evolve from data warehousing and executive information<br />
systems during the 1980s. In 1989, Howard Dresner, who later<br />
became a Gartner Group analyst, proposed “business intelligence” as an<br />
umbrella term to describe “concepts and methods to improve decision<br />
making by using fact-based support systems.” As personal computers<br />
began gaining processing power during the 1990s, and supported by the<br />
evolution of the Internet as a data carrier medium, business intelligence<br />
systems proliferated. Improvements in data organization and storage<br />
methods, as well as structured query languages that could pinpoint data<br />
in databases and quickly extract it for presentation, further aided the<br />
adoption of business intelligence as a cornerstone of business strategy<br />
and tactical planning.<br />
The following graphic shows a timeline of the emergence of BI from decision<br />
support systems. The triangles indicate milestones in the rise and<br />
fall of one company that was a market leader throughout this period.<br />
Business Intelligence (“BI”) should not be confused with “competitive<br />
intelligence,” (“CI”) per se. Whereas both serve the purpose of supporting<br />
the decision-making process at the executive level within organizations,<br />
CI has more of a topical focus on what actions competitors are<br />
adopting, BI uses query technologies to mine primarily internal data for<br />
significant trends or to map internal trends against exogenous ones.<br />
In his book “Climbing the Ladder of Business Intelligence”, the author,<br />
James Cates, uses a ladder model to illustrate the degrees of sophistication<br />
of BI. These steps are presented in the book as a framework in<br />
ascending order of importance:<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
251
Sprachtechnologie / Language Technology<br />
1 Facts No timely retrieval; Disorganized data<br />
2 Data Retrievable organized data<br />
3 Information Information views targeted by role;<br />
Operational collaboration<br />
4 Knowledge Reusable information views<br />
5 Understanding Business modeling; Brainstorming strategic collaboration<br />
6 Enabled Intuition Break-through visionary thinking<br />
As companies evolve through the steps in Cates’ ladder towards the<br />
goal of enabled intuition, usage of BI systems must permeate throughout<br />
the organization. This applies to both the service provider and the<br />
client sides of the globalization and localization industries. To this end,<br />
state-of-the-art TMS systems are being enhanced through addition of<br />
increasingly powerful reporting functionality.<br />
Focus and Uses of Business Intelligence in Globalization<br />
Although analysis and visualization of past and current data can provide<br />
valuable information, the real importance of BI lies in the ability of<br />
users to leverage that information into insightful decisions. Increased<br />
capacity for BI systems to provide easily configurable and repeatable<br />
visualizations of data that may be drawn from diverse and intrinsically<br />
unrelated repositories greatly expands the capability for users and<br />
decision-makers to infer relationships between, for example, business<br />
actions and target customer reactions. This is naturally of great value to<br />
organizations that aspire to extend their reach to geographically farflung<br />
regions through globalization-centric activities. Tracking localization<br />
spend by content type against geolocated hits to Web site pages,<br />
for example, could be a significant indicator of the cost-effectiveness of<br />
translation initiatives.<br />
A predominant attribute of contemporary BI applications is the ability<br />
to present data in dashboard format. The following example demonstrates<br />
the power of a visualized combination of diverse information:<br />
252<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
Data Cubes<br />
A valuable way to conceptualize the gathering of data for BI is the data<br />
cube model. A data cube, also known as an OLAP (Online Analytical<br />
Processing) cube, is an extension into three or more dimensions of the<br />
type of two-dimensional, row and column data captured in spreadsheets,<br />
whereby the third dimension represents an additional variable.<br />
For example, a spreadsheet might capture products sold in rows, and the<br />
locales in which they were sold in columns. Extending this data into a<br />
third dimension would be like stacking the spreadsheet for this year on<br />
top of that from last year, and these two on top of the spreadsheet from<br />
the year before last, and so on.<br />
Applied to the context of the language industry, one may envision a<br />
cube made up of many individual cubes, each of which represents the<br />
intersection of the three dimensions. For simplicity’s sake, the cube in<br />
following example is 3x3x3, but this does not have to be the case. The<br />
top horizontal layers in the cube represent the languages into which<br />
translations were done. The vertical front-to-back layers represent new<br />
words, fuzzy matched words, and repeated words in each language, and<br />
the vertical left-to-right layers represent the years in which translations<br />
were done. Each small cube represents a number at the intersection of<br />
the three dimensions, for example, how many new words were translated<br />
into Arabic in 2011.<br />
Although it is certainly possible to drill down to them, the individual<br />
intersection cubes are not necessarily interesting in and of themselves.<br />
They provide greater insight for management decisions when they are<br />
compared in sequence to other like cubes. In this example, the drilldown<br />
looks at the intersection of fuzzy matched words in Arabic across<br />
all three years, as indicated by the red cubes.<br />
By rotating the cube and eliminating the extraneous data, we are left<br />
with the sequence of numbers across all three years.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
253
Sprachtechnologie / Language Technology<br />
To aid in visualization of the data, the number sequence may now be<br />
displayed in the form of a graph on the BI dashboard.<br />
BI Reporting in TMS Applications for LSPs<br />
The previous example was rather simplistic, and was created just to<br />
show the theory. In the context of LSPs, other types of data combinations<br />
would be more relevant, for example:<br />
−−<br />
Revenue by Customer by Year<br />
−−<br />
Revenue by Language by Month<br />
−−<br />
Cost by Language by Customer<br />
−−<br />
Word count by Language by Match Type<br />
−−<br />
Cost by Match Type by Service Provider<br />
−−<br />
And so on…<br />
The current generation of translation workflow software, primarily solutions<br />
targeted to LSPs, is delivering increased power to generate this<br />
kind of management data. In fact, the ability to deliver a wide variety<br />
of reports is an area in which we will see a great deal of competition as<br />
product publishers strive to win customers. This competition will not<br />
only be in the types of data that can be extracted from the underlying<br />
system databases, but also in the ability to display real-time reports in a<br />
dashboard setting, the capability to create ad hoc reports, and the capacity<br />
for generating and distributing iterative reports on a scheduled<br />
basis.<br />
Globalization BI in Enterprises<br />
Moving the focus from LSPs and some types of localization entities<br />
within organizations to those that inhabit the enterprise environment,<br />
a different set of challenges for localization BI may be found. Here we<br />
may find that BI may be used to develop enabled intuition about other<br />
types of globalization information, for example:<br />
−−<br />
Revenue by Locale by Year<br />
−−<br />
Revenue by Localization Spend by Locale<br />
−−<br />
Localization Spend by Pageviews by Week<br />
−−<br />
Localized Web Pages by Pageviews by Day<br />
−−<br />
Localized Knowledgebase Pages by Support Costs by Month<br />
−−<br />
Support Cases by Locale by Internationalization Spend<br />
One major stumbling block is that information systems implemented<br />
in enterprises that track revenue or pageviews may not be available to<br />
localization entities within those enterprises; localization personnel may<br />
simply not be allowed to view corporate revenue data except in the form<br />
of reports generated by systems to which only employees in Finance<br />
have access. Also, output of localization entities may be bundled with<br />
other products in such a way or subject to other factors that obfuscate<br />
any direct relationship between revenue and localization departmental<br />
concerns such as cost, throughput, and quality, etc. Often, in large enterprises,<br />
if any information that is helpful for determining business cases<br />
or other effects of localization is available at all, it may be only in the<br />
form of reports that are cumbersome to combine with the data stored at<br />
the localization department level.<br />
254<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
Finally, in large enterprises globalization BI often is not just the provenance<br />
of localization departments, but is of use in other parts of the<br />
business such as marketing, support, sales, etc.<br />
This divides business intelligence in the context of localization into two<br />
very different situations: one in which the full information can be obtained<br />
from within a workflow solution, and one in which a larger-scale<br />
solution, most likely a dedicated BI product, is necessary to provide<br />
visualization of fully value-added content.<br />
Whether or not BI components of TMS applications will ever be powerful<br />
enough to reach into other large-scale corporate database solutions<br />
may be a moot point. The most likely scenario, in the short term at least,<br />
is that TMS applications may become more refined at providing data to<br />
larger-scale, corporation-wide systems. At that juncture, the contentious<br />
issue will more likely be whether or not localization personnel will be<br />
able to obtain access to the output of such systems.<br />
Indeed, it seems as if a seachange is afoot in the industry. The growth<br />
of web analytics technologies in recent years, combined with greater<br />
emphasis on social media marketing, has introduced a new element of<br />
measurability into the BI mix. The value of localization that in earlier<br />
years was relegated mostly to the realm of subjectivity and primarily<br />
anecdotal opinion, can now be measured with much greater objectivity<br />
in certain spheres of endeavour.<br />
Interviews with localization service providers have revealed insights<br />
into emerging service models. There is a growing genre of service offerings<br />
that might be acronymed as BIaaS, “Business Intelligence as a<br />
Service,” within the context of localization. Given that it is now relatively<br />
easy to monitor Web pages and other online chatter such as tweets and<br />
forum commentary for locale origin, the effects of localization on customer<br />
cohorts can be much more accurately quantified. But because<br />
localization of Web sites and related content tends to fall more within<br />
the sphere of influence of Marketing departments, service providers are<br />
seeing a shift in buying power away from traditionally organized localization<br />
entities and into Marketing.<br />
Whereas providers of commodity translation services in past years<br />
became used to being stonewalled by traditional localization service<br />
buyers who were infrequently understood or even given focus by C-<br />
level enterprise managers, Marketing departments, which typically have<br />
much more visibility with C-level management, are becoming a more<br />
viable entry point for service providers, especially those who can also<br />
offer accompanying BI services.<br />
If we look into the brave new world of localization BI services, we may<br />
see evolution of the analytical power to include the application of natural<br />
language processing to evaluate details such as the “between the<br />
lines” tone of commentary that is entered in online forums. When this<br />
becomes reality – and it is a matter of when, not if – it may finally become<br />
possible to extend evaluation from cause-and-effect scenarios<br />
such as “does localization in language X result in more sales to that locale”<br />
to real-time evaluations of quality as reported by users of localized<br />
solutions when they post commentary on forums that may be scattered<br />
throughout cyberspace.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
255
Sprachtechnologie / Language Technology<br />
When this happens, we may see localization moving entirely out of the<br />
province of Development departments and into that of Marketing. This<br />
may or may not be a positive evolution; although there are surely exceptions<br />
to the stereotype, Marketing personnel have typically not been<br />
highly cognizant of the lessons about interdependence and downstream<br />
churn learned over the past 20 years by localization personnel. Commentary<br />
by interviewed service providers underscores this perspective;<br />
this leaves the conclusion that we may simultaneously move forward<br />
and backward unless experienced localization personnel rise to the<br />
challenge and proactively encounter and adopt the rapid developments<br />
in localization BI technologies.<br />
Contact: richard.sikes@locflowtech.com<br />
256<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 12<br />
Presentation<br />
Business Intelligence in cloudbased<br />
Translation Environments<br />
Stephan Böhmig, Wordbee, Luxembourg<br />
Dave van den Akker, TVcN Tolk- en Vertaalcentrum Nederland, The Netherlands<br />
Introduction<br />
The success of a translation department highly depends on how good<br />
teams are at optimizing communication, quality, cost and turnaround<br />
times. Decisions that should lead to an optimal result often rely on the<br />
experience and implicit knowledge of individuals rather than factual<br />
historical data. This is not surprising, since the business focus on daily<br />
projects and clients, combined with the use of various technical platforms<br />
simultaneously makes it hard to gather, let alone combine and<br />
analyze data needed.<br />
In Wordbee’s cloud-based TMS/CAT environment collecting data becomes<br />
specifically powerful, because all individuals involved work “online”<br />
in the same environment and each individual action can be tracked<br />
and timestamped. This gave TVcN the unique possibility to gather and<br />
combine data from its clients, internal and external translators and project<br />
managers. In the Wordbee business analytics tool, indicators are depicted<br />
graphically and values can be viewed as they fluctuate, improve<br />
or worsen, over time. We can now see what is really happening in the<br />
translation process. How efficiently are we communicating? How correlated<br />
are delivery times and quality really? What do our clients really<br />
think of the work we do? Which teams work optimally together? How<br />
successful are we at leveraging our TM? We answer these questions<br />
based on actual data from the cloud and use findings as decision-support<br />
to improve our performance. This helps us in optimizing processes<br />
or at least to more objectively base our decisions.<br />
This lecture intends to be hands on. It shows how an LSP or corporation<br />
can make use of data to optimize business processes.<br />
Business Analytics in the Cloud<br />
Business analytics (BA) or intelligence aims at exploring past business<br />
performance to gain insight into processes and use these insights to<br />
drive business planning. In a translation environment, we might expect<br />
a system to automatically create workflows, assign teams and deadlines<br />
under a set of defined constraints and goals. A simple goal might be to<br />
accept a maximum 5% likelihood of failure to deliver after the deadline.<br />
Automation requires the system to gather a maximum of parameters<br />
that potentially influence a business decision in question.<br />
The “classic indicators”, volume per day, deadline and response times<br />
etc. are not sufficient to predict likely client satisfaction (a qualitative<br />
property) and cost efficiency given a specific translator/reviser couple, a<br />
TM, a document and a deadline. Additional data needs to be aggregated<br />
such as ratings, post-edits or revision cycles.<br />
Gathering such data may proof challenging or impossible. This is where<br />
cloud based TMS/CAT systems clearly have some advantages: All the<br />
users from the client to the vendors and the inhouse staff login to a<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
257
Sprachtechnologie / Language Technology<br />
central place and carry out translation and revision work online inside<br />
a web browser. With Wordbee, as one of the cloud based systems, clients<br />
can obtain an extensively complete data set to explore:<br />
−−<br />
Workflow related: Delivery times, response times, durations, teams<br />
−−<br />
Editing related: Post editing details, time spent editing, revision percentage,<br />
actual work time<br />
−−<br />
TM and MT related: Leveraging rates. Post edits of pre-translations as<br />
an indicator of TM/MT quality<br />
−−<br />
User metrics related: Both clients, vendors and managers rate work<br />
results online<br />
− − …<br />
Data can then be related interactively to “see” trends, bottlenecks, vendor<br />
differences or client expectations. It also helps to identify new metrics<br />
to measure business performance. Once correlations between data<br />
are found and tests for statistical significance defined, process automation<br />
is just around the corner.<br />
Overview of Results<br />
The initial results can be used in a wide variety of areas. We have chosen<br />
to use initial findings from the TVcN data to implement action directed<br />
at achieving improvements on two important subjects: Delivery<br />
times and TM Leveraging. At this time we are implementing operational<br />
changes based on our initial findings. We looked at delivery times from<br />
the perspective of the project managers (PM) involved and from that of<br />
the suppliers involved.<br />
Goal: Improving delivery times I<br />
Major findings on the suppliers-side:<br />
−−<br />
Suppliers on average deliver 29.7 hours before deadline.<br />
−−<br />
Average daily volume worked is 633, but only 433 words were assigned.<br />
−−<br />
Average job duration is 4.5 days.<br />
−−<br />
Quality: 8.27% of words had to be corrected during revision.<br />
Based on these findings we decided to:<br />
−−<br />
Shorten deadlines by 20% for selected suppliers.<br />
−−<br />
Adjust capacity figures for selected suppliers.<br />
−−<br />
Request suppliers to rate “allotted time” per job.<br />
Expected results after implementing these actions include:<br />
−−<br />
Actual workload will close down on assigned workload.<br />
−−<br />
Quality: Amount of corrections remains the same.<br />
−−<br />
Quality ratings given by manager, translator and client remain at least<br />
equal.<br />
−−<br />
Average delivery time to client decreases without loss of quality.<br />
Goal: Improving delivery times II<br />
Major findings on the project manager-side:<br />
−−<br />
Comparison between PM’s shows differences of 6.9% vs. 2.7% not<br />
delivered in time.<br />
−−<br />
For one large client these numbers are 3.6% vs. 0.8%.<br />
−−<br />
Average overall response time: 3.3 vs. 3.0 hours.<br />
258<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
−−<br />
Quality rating by PM: 4.4, by Client: 4.6<br />
−−<br />
Both client and PM score an optimal 5 for timeliness.<br />
Based on these findings we decided to:<br />
−−<br />
Identify candidates to improve where volume > 100 projects/month.<br />
−−<br />
Identify candidates to improve where response time < 4 hours.<br />
−−<br />
Identify client rating < 4, check all.<br />
−−<br />
Define KPI’s for PM on Response Times and Client Rating.<br />
−−<br />
Share best practices and manage!<br />
Expected results after implementing these actions include:<br />
−−<br />
Quality ratings given by clients improve.<br />
−−<br />
Improve average response times.<br />
−−<br />
Increased awareness, development possibilities and appreciation for<br />
PM’s.<br />
Goal: Improving TM Leveraging<br />
Major findings:<br />
−−<br />
Average % of pre-translations 3.8%, fuzzy matches 10.6%.<br />
−−<br />
Strong diversity in languages and many small projects.<br />
−−<br />
Highest rate of 71.8% pre-translation for a client.<br />
−−<br />
Leveraging rates differ greatly between languages and domains.<br />
−−<br />
Post-editing on pre-translation: avg. 1.1%<br />
−−<br />
Machine Translation leveraging is 0%.<br />
Based on these findings we decided to:<br />
−−<br />
Identify Clients with >10.000 words/month and Pre-translation below<br />
avg.<br />
−−<br />
Identify PM’s with below-average pre-translation rates.<br />
−−<br />
Improve or deactivate TM’s with >2% correction rate.<br />
−−<br />
Implement systematic consolidation of TM.<br />
−−<br />
Start pilot with leveraging MT.<br />
Expected results after implementing these actions include:<br />
−−<br />
Avg. Quality ratings on TM by Supplier increase, fewer corrections.<br />
−−<br />
Increased pre-translation% resulting in cost savings.<br />
−−<br />
Significant increase in MT leveraging.<br />
Outlook<br />
Business intelligence tools are standard in many areas but relatively<br />
new to the translation business. We believe that with the advent of cloud<br />
translation management systems and a simplified data acquisition, it<br />
will play a key role in the future. The potential applications are numerous:<br />
Cost optimization, controlled implementation of machine translation,<br />
process automation or team selection support.<br />
sbohmig@wordbee.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
259
Sprachtechnologie / Language Technology<br />
LT 13<br />
Presentation<br />
A (terminology) service layer for Moses SMT<br />
Nathalie De Sutter, Joachim Van den Bogaert, CrossLang, Gent, Belgium<br />
Introduction<br />
Moses SMT is finding its way to localization providers thanks to its<br />
promise of cheap (Open Source) and fast Machine Translation (MT).<br />
With the numerous internet sources that walk novice users through<br />
their first steps, setting up and training Moses SMT, has become increasingly<br />
straightforward. An active community of researchers, developers<br />
and professional users provides additional support on Moses SMT’s<br />
mailing list. However, when it comes to deploying Moses in a live production<br />
environment, there is very little documentation to be found.<br />
Very likely, this is due to the proprietary nature of professional thirdparty<br />
Moses SMT-based solutions: people prefer valuable insights to<br />
remain unpublished. There are of course some Open Source one-man<br />
efforts, but the usability of these kinds of solutions is restricted to a<br />
prototyping environment, or at best a human-operated batch system. A<br />
more trivial reason for the lack of information on live Moses SMT systems,<br />
may be that publications on setting up Moses properly tend to get<br />
technical, boring, and without any scientific value: there is no honour<br />
in making a great system behave nicely. A final reason for the lack of<br />
deployment information is that re-engineering Moses SMT is not a hot<br />
topic anymore. A couple of years ago it might have been, but currently,<br />
there are companies out there that sell pre-installed machines ready for<br />
use, so why would users invest in well-engineered solutions, let alone<br />
report on all the well-known technologies integrated in such a system<br />
(load balancing, scheduling, multi-threading, service-oriented architectures,<br />
upscaling, outscaling, decoupling, …)?<br />
Project requirements<br />
Still, we believe that a production and processing framework around<br />
Moses SMT adds value, for two reasons:<br />
−−<br />
Changing market demands: we see that customers are not satisfied<br />
anymore with a solution that actually runs, has a nice front-end or<br />
allows them to execute data training with a user-friendly GUI. Nowadays,<br />
users want difficult languages via hybrid solutions, integrated<br />
terminology management and post-editor friendly output. In the near<br />
future we expect systems combination with real-time quality assessment<br />
to be in demand. Putting all this on top of Moses SMT requires<br />
a well crafted environment.<br />
−−<br />
Flexibility and maintenance: a customized Moses SMT solution needs<br />
to be adaptable to a customer’s demands. If improved translations are<br />
required by adding extra processing or linguistic modules, MT technology<br />
providers need to be able to offer such kind of solutions. At the<br />
same time, changes to a system should be portable to other systems<br />
and remain manageable in terms of maintenance.<br />
To be able to deal with these requirements, we developed a framework<br />
around Moses SMT which facilitates production and the development<br />
of extra processing tasks. In what follows, we will give a brief account of<br />
the design decisions we took to implement this framework.<br />
260<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
A hardened service layer architecture<br />
The first and most important task was to create a stable production environment.<br />
To achieve this, a service layer was put on top of Moses SMT,<br />
providing redundancy, load balancing, asynchronous processing, failover<br />
support, industry-standard document format support, alignment-based<br />
tag-handling, improved normalization and hardened (de)tokenization<br />
and (lower/real)casing.<br />
To achieve a separation of concerns, linguistic processing by Moses SMT<br />
and text-engineering capabilities were strictly separated. As a result,<br />
the hardened Moses SMT set-up allows the deployment of third-party<br />
translation and language models, while still providing the text engineering<br />
capabilities built on top of the translation workflow. Named entity<br />
recognition (NER) and terminology management services, for example,<br />
can be added without disrupting the Moses SMT models. From a technical<br />
point of view, tagging and annotation are considered to be engineering<br />
issues, which are not allowed to interfere with the linguistic issues,<br />
as addressed by the SMT models. From a commercial point of view, clients<br />
can have third parties focus on linguistic quality, while the framework<br />
can still take care of immediate production use.<br />
A pipeline architecture<br />
If we take a closer look at the evolution of Moses SMT and MT in general,<br />
it becomes clear that investing in a consistent design, that follows the<br />
very principles of modern MT, is well worth the effort: it alleviates the<br />
costs related to the implementation of difficult languages and it streamlines<br />
processing workflows.<br />
To clarify this, we need to address a common misunderstanding among<br />
non-academic users: Moses SMT is a toolkit, not a monolithic application<br />
that will reach the 1.0 milestone somewhere in the near future. It<br />
consists of data training scripts and a decoder that can handle so-called<br />
factored input. It is designed to primarily work with phrase alignments<br />
and n-gram models, but it can handle far more information. Up to date<br />
however, the factored model (which may include for example syntactic<br />
information) has not lived up to the expectations, mainly due to the data<br />
sparseness introduced by extra information and the locality issues inherent<br />
to n-gram models.<br />
Still, the original concept of processing other information than phrase<br />
alignment is useful, but it may be more fruitful to incorporate it outside<br />
of the decoder and the training. This is exactly what most researchers<br />
do when developing so-called “hybrid” systems. For agglutinative<br />
languages, for example, morphological analyzers are used to transform<br />
training and input data before they are fed to Moses SMT. In other<br />
words: modelling is executed outside of the training scripts and the<br />
decoder. For this reason, there is a growing consensus in the research<br />
community that MT is more and more evolving towards a pipeline process<br />
in which Moses SMT plays an important role. This is in contrast to<br />
what most people picture when making a Moses SMT buy decision.<br />
With the pipeline architecture, the stage is set for developing difficult<br />
language pairs. In the meantime it can be used to harbour text engineering<br />
tools, which basically also add extra information to the translation<br />
process.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
261
Sprachtechnologie / Language Technology<br />
Conclusion<br />
We presented a production environment for Moses SMT consisting of<br />
a service layer which hardens the MT system and allows it to be used<br />
in a production environment. We also described a pipeline architecture<br />
that is designed to be capable of dealing with future MT challenges. As a<br />
bonus, it can also be used to easily complete text-engineering tasks such<br />
as terminology management and NER.<br />
Contact information: info@crosslang.com<br />
262<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
LT 14<br />
Workshop<br />
MT Post-Editing: the Language<br />
Service Provider perspective<br />
Françoise Bajon, Version internationale, Lyon, France / ELIA – President<br />
Christian Schwendy, Gemino, Munich, Germany / ELIA – VP<br />
Xavier Maza, iDisc, Barcelona, Spain<br />
Raymund Prins, Globaltextware, Groningen, the Netherlands<br />
About ELIA<br />
The European Language Industry Association is a non-profit association<br />
of translation, interpretation and localization companies active in<br />
Europe. ELIA was founded to foster the development and growth of<br />
member companies through the establishment of communication and<br />
business relationships between members and other related international<br />
organizations, providing relevant and practical information and training,<br />
and promoting the concept of ethics and quality standards through<br />
the industry.<br />
ELIA boasts over 130 member companies.<br />
What is Post-Editing?<br />
Post-Editing is the term used to describe the linguistic service that follows<br />
a Machine Translation process. The text is translated by the engine<br />
and the raw output is then handed over to the “post-editor”. It can contain<br />
spelling, grammar, punctuation mistakes, inconsistent terminology,<br />
technical issues related to the coding of the formatting, etc.<br />
This workshop will be presented from the LSP (Language Service Provider/<br />
Translation Company) perspective. Four members of ELIA, all<br />
with extensive experience in Post-Editing, will provide feedback with<br />
examples taken from real projects.<br />
Preparing for Post-Editing<br />
−−<br />
Defining expectations with customer<br />
It is very important to set expectations for/with the customer.<br />
There are different levels of quality that can be achieved through Post-<br />
Editing. It ranges from “acceptable text” to “human translation”. The<br />
choice will be made by evaluating a certain number of factors including<br />
the type of text, the targeted audience, the volume/turnaround time, the<br />
expected life span of the text...<br />
The client has to define these clearly and early enough so that there is<br />
no ambiguity about the service needed. Indeed the selection of the type<br />
of Post-Editing can affect the choice and number of resources committed<br />
to the job, additional checks needed and more.<br />
Examples of these different levels of Post-Editing will be provided, and<br />
what can be expected at each level.<br />
−−<br />
Defining expectations with resources<br />
It is equally important to set expectations and therefore guidelines that<br />
linguists will have to adhere to during the post-editing task.<br />
Clear guidelines must be set in advance, so that the level of expectation<br />
defined upfront with the client can be achieved, but not exceeded.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
263
Sprachtechnologie / Language Technology<br />
Failing to do so can lead to customer dissatisfaction, and spending of too<br />
much time on the project, hence jeopardizing the budget.<br />
−−<br />
Obtaining the best ROI for Post-Editing<br />
Two other factors can have a significant impact on the output resulting<br />
from the MT/P-E process.<br />
The first one is the choice of the MT engine.<br />
Depending on whether a rule-based MT system or a statistics-based MT<br />
system is used, the terminology will be better preserved or the style will<br />
be better rendered. In either case, the linguist or the linguists will have<br />
to make different types of efforts.<br />
Also important is the quality of the source text. The use of controlled<br />
English (or any other language) source text allows MT engines to generate<br />
higher quality translations. In addition the use of shorter, simplified<br />
sentences – especially in technical communication – makes a real difference<br />
in the quality of the MT output, and consequently on the time and<br />
efforts needed at the Post-Editing phase.<br />
The Post-Editing phase<br />
−−<br />
Standardising Post-Editing output<br />
A Production Manager has to consider that Post-Editors can be assigned<br />
to work on Post-Editing jobs corresponding to different quality expectation<br />
levels. Also the timeframe allocated to wrap up a Post-Editing project<br />
can often imply having several linguists working in parallel. In this<br />
respect, it is important that the output is as standardized as possible.<br />
This is a pre-requisite. It is also an on-going process that requires constant<br />
adaptation and decision-making, so that the results are as consistent<br />
as possible.<br />
−−<br />
Managing non-linguistic issues<br />
Post-Editors work on files where the formatting is coded instead of appearing<br />
as it should. It is quite often the case that the TM engines do not<br />
handle these tags properly. It is therefore the responsibility of the Post-<br />
Editors to revert the tags to their correct state and position, in addition<br />
to the linguistic changes.<br />
Depending on the maturity of the MT engine, punctuation can also be<br />
affected.<br />
Finally, according to the settings of the MT engine, there can be significant<br />
impact on number of “non-translatable” texts (such as product<br />
names), that are nevertheless translated.<br />
In those cases, pre-processing can greatly reduce the work of<br />
Post-Editors.<br />
−−<br />
Expected throughputs<br />
Much has been said about this hot topic. While the customer expects<br />
significant discount from a MT/P-E process compared to a TEP process,<br />
the reality for the LSP is often less glorious, especially when it comes to<br />
“human translation” Post-Editing.<br />
Results achieved will be shared.<br />
− − The challenges of the Post-Editor<br />
While some argue that Post-Editors should not be translators, in practice<br />
LSPs still use translators as Post-Editors.<br />
The qualities needed by efficient Post-Editors will be discussed.<br />
264<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Sprachtechnologie / Language Technology<br />
What comes next?<br />
−−<br />
Measuring the efforts needed<br />
Once Post-Editing efforts are completed, they can be measured. So far<br />
no predictive method has been found to forecast the time needed to<br />
Post-Edit, and consequently safely allow to precisely allocate resources.<br />
There are a few already known methods to achieve some kind of measurement<br />
once the Post-Editing task is finished. An insight into a new<br />
type of measure used by one of the LSPs for a big IT company will be<br />
presented.<br />
From such measurements, and provided they are confirmed, projections<br />
can be made for scheduling purposes on similar projects.<br />
−−<br />
Feedback as a crucial aspect of MT Post-Editing improvement<br />
One essential step to be performed after the Post-Editing job is to provide<br />
educated feedback to the people fine-tuning the MT engine. This<br />
requires linguists to have a good understanding of how the engine<br />
works. The quality of the remarks will allow for improvement in the raw<br />
output reducing the amount of Post-Editing work the next time.<br />
Nevertheless, in terms of MT/P-E, changes requested can result into the<br />
introduction of other mistakes. The cycle MT/P-E is therefore a continuous<br />
process of improvement.<br />
Challenges ahead<br />
One of the greatest challenges for LSPs so far is to find a method to<br />
train young translators to rapidly becoming reliable and efficient posteditors.<br />
While in the past, they had sufficient time to receive feedback<br />
from senior translators, young linguists, the universities who train them,<br />
the companies who employ them or sub-contract to them, will have<br />
to find a way to develop into agile reviewers with the leanest learning<br />
curve possible.<br />
ELIA’s survey<br />
The workshop will end with the presentation and distribution of a survey<br />
carried out with ELIA members on the practice of Post-Editing.<br />
The audience will be able to have a clear view of how LSPs throughout<br />
Europe handle Post-Editing.<br />
If you have any questions please contact:<br />
bajon.f@version-internationale.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
265
Mobile Dokumentation /<br />
Mobile Documentation
Mobile Dokumentation / Mobile Documentation<br />
MOB 2<br />
Fachvortrag<br />
Drei Zahlen:<br />
2015, 2020, 2025<br />
Topp oder Flopp<br />
RTFM<br />
RTFM (Real & Touchable Front-end Matter)<br />
Oder: Nutzer bestimmen das Was/Wie/Wann.<br />
Martin Rüegg, maxon motor ag, Sachseln, Schweiz<br />
Innerhalb der nächsten zehn Jahre werden drei Themenbereiche auf<br />
fundamentale Weise ins Geschehen eingreifen: Die fordernde Selbstbestimmung<br />
des Nutzers, der hohe Granularitätsgrad von Information und<br />
die enge Rückkopplung von Nutzer und den verwendeten Systemen.<br />
Dazu drei Thesen:<br />
1. Bis zum Jahr 2015 werden sich mobile Endgeräte als DAS eigentliche<br />
Wissenstransport- und Kommunikationsmittel etabliert haben.<br />
2. Bis 2020 werden zum Zeitpunkt der eigentlichen Benutzung jeweils<br />
nur wenige Prozentteile vom gesamthaft angebotenen/verfügbaren/<br />
erforderlichen Informationsgehalt verwendet.<br />
3. Bis ins Jahr 2025 wird das Nutzer-Verhalten die Auslegung von Betriebssystemen<br />
grundlegend verändern.<br />
Verhalten, Erwartungshaltung und Anspruch der Nutzer werden die<br />
Motoren dieser Veränderungen und vor allem die Realität dieser Thesen<br />
sein. Wer auf der „Senderseite“ dieser Entwicklung mit angezogener<br />
Handbremse begegnet, wird möglicherweise sein blaues Wunder<br />
erleben.<br />
Nicht das, was Sie denken!<br />
Der geflügelte Ausdruck wird wohl eine vollkommen neue Bedeutung<br />
erhalten. Anstelle der ruppigen Aufforderung doch endlich dort nachzuschlagen,<br />
wo alles so fein säuberlich niedergeschrieben steht, könnte<br />
auch Real & Touchable Front-end Matter (die für den Nutzer reale,<br />
tast- und fassbare Angelegenheit) gemeint sein. Noch immer versuchen<br />
wir (als Sender) den Nutzer (als Empfänger) mit einem Übermaß an Informationen<br />
abzufüllen, oftmals mit echt negativen Folgen. Denn diese<br />
Art von Technischer Kommunikation führt potentiell zur Informationsüberflutung<br />
und gipfelt darin, dass sich der Nutzer frustriert abwendet<br />
und höchstwahrscheinlich nicht wieder zurückkehrt …<br />
martin.rueegg@maxonmotor.com<br />
martin@therueggs.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
269
Mobile Dokumentation / Mobile Documentation<br />
MOB 3<br />
Fachvortrag<br />
Techniken, Formate und Möglichkeiten<br />
mobiler Technischer Dokumentation<br />
Claudia Gerhardt, Georg Eck, SQUIDDS e.K., Nürnberg<br />
Einer der entscheidenden Trends in der Technischen Dokumentation<br />
besteht in der Bereitstellung von Inhalten für mobile Geräte. Damit<br />
steigt die Bedeutung der Multiscreen-Fähigkeit von Outputformaten,<br />
des Single-Source-Publishing sowie die Verwendung von Rich-Media-<br />
Inhalten innerhalb von Technischen Dokumentationen. Letztere bezieht<br />
sich vor allem auf die Erstellung von Video-, 3D- oder Bildschirmsimulationen,<br />
die komplexe Inhalte im Sinne des Nutzers reduzieren. Dabei<br />
sind Datenmengen und das jeweilige Update-Verhalten zu beachten.<br />
Outputformate (Auszug)<br />
Outputformate und Anwendungen<br />
Bei der Wahl des richtigen Formats für eine gelungene mobile Technische<br />
Dokumentation spielen verschiedene Aspekte eine Rolle:<br />
−−<br />
Anpassung an verschiedene Displaygrößen (Multiscreen), Geräte und<br />
Betriebssysteme<br />
−−<br />
Möglichkeiten des Einfügens von Rich-Media-Elementen<br />
−−<br />
Kontextsensitivität<br />
−−<br />
Suchfunktionen, Suchmaschinenoptimierung<br />
−−<br />
Social-Media-Komponenten<br />
Die Berücksichtigung all dieser Aspekte findet sich zusammengefasst<br />
im Begriff des Responsive UX Design (siehe nachfolgende Beispiele).<br />
ePub: Das ePub-Format zeichnet sich durch eine hohe Flexibilität hinsichtlich<br />
unterschiedlicher Geräte und Bildschirmgrößen aus. In der<br />
aktuellen Version ePub 3.0 wurden Probleme bei der Darstellung von<br />
Tabellen behoben sowie das Einfügen von Rich-Media-Inhalten optimiert.<br />
Darüber hinaus beinhaltet ePub die Möglichkeit einer Volltextsuche,<br />
des Einfügens von Lesezeichen und die Anpassung von Schriftgrößen<br />
und Helligkeit. Eingebundene Social-Media-Komponenten sind<br />
bislang nicht vorgesehen.<br />
Adobe Folio: Das Adobe-Format Folio wird mit der Adobe Creative<br />
Suite erstellt und ist vor allem für Magazine oder Schulungsunterlagen<br />
gut geeignet. Die Einbindung von Rich-Media-Inhalten erfolgt mittels<br />
Adobe InDesign. Ein deutlicher Nachteil des Formats ist die eingeschränkte<br />
Multiscreen-Tauglichkeit. So ist die Anpassung an Portraitoder<br />
Landscape-Modus nur über die Erstellung separater Layouts möglich,<br />
wodurch sich Aufwand und Datenmenge erhöhen.<br />
HTML5/ WebWorks REVERB: Das Format HTML5/WebWorks RE-<br />
VERB wird den Anforderungen des Responsive UX Design am ehesten<br />
gerecht: Als Multiscreen-Format passt es sich allen Displaygrößen an,<br />
ohne dass separate Quelldateien erstellt werden müssen. Damit bleiben<br />
Aufwand und Datenmenge so gering wie möglich. Die Einbettung von<br />
Rich-Media-Inhalten ist ebenso gewährleistet wie intelligente Suchfunktionen<br />
und Kontextsensitivität. Darüber hinaus werden die z. T.<br />
integrierte Anbindung an Social-Media-Netzwerke wie Facebook, Twitter,<br />
Google+ und DISQUS sowie eine Google Analytics-Unterstützung<br />
immer wichtiger.<br />
270<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Software im<br />
Praxisvergleich<br />
Inputdaten und Werkzeuge<br />
Je nachdem, mit welchen Programmen bei der Erstellung Technischer<br />
Dokumentationen gearbeitet wird, können die Inputdaten variieren.<br />
Daher ist die Aufbereitung der entsprechenden Formate für die mobile<br />
Nutzung ein entscheidendes Kriterium bei der Wahl der passenden<br />
Software. Entsprechend der zunehmenden Verbreitung von strukturierten<br />
Inhalten werden Technische Dokumentationen immer öfter in<br />
DITA, das heißt im XML-Format, erstellt. Darüber hinaus werden Dokumentationen<br />
häufig im unstrukturierten FrameMaker, in Adobe In-<br />
Design oder MS Word erzeugt. Demgemäß ist es sinnvoll, für die Generierung<br />
eines mobilen Outputs Software zu verwenden, die mindestens<br />
diese Inputdaten verarbeiten kann. Bei der Verwendung von Redaktions-<br />
oder Content-Management-Systemen ist außerdem die Automatisierung<br />
der Ausgabeprozesse notwendig.<br />
WebWorks ePublisher<br />
Das Programm WebWorks ePublisher verfügt über eine breite Palette<br />
an möglichen Output-Formaten, z. B. ePub, WebWorks REVERB, MS<br />
HTML Help, Eclipse Help, MediaWiki, Confluence, Oracle Help. Insgesamt<br />
stehen dem Nutzer 15 verschiedene Formate zur Verfügung. Darüber<br />
hinaus kann das Programm als Generator für Redaktions- und<br />
Content-Management-Systeme eingesetzt werden.<br />
Das Format WebWorks REVERB entspricht dem Multiscreen-Format<br />
HTML5 und bietet dieselben Funktionalitäten. Allerdings ist das Format<br />
HTML5 allein kein Garant für eine optimale Darstellung auf allen<br />
mobilen Geräten. Um eine optimierte Ausgabe im Responsive UX Design<br />
zu generieren, bedarf es der zusätzlichen Verwendung von CSS3.<br />
Während dieser Aspekt in anderen Programmen mittels Templates oder<br />
separat zu erstellenden Layouts gelöst wird, ist die automatische Anpassung<br />
an die Anforderungen des Responsive UX Design in WebWorks<br />
ePublisher mit seinem Format REVERB standardmäßig integriert.<br />
Beispiele aus den Bereichen Software, Maschinenbau und Energieversorgung<br />
(unten)<br />
RoboHelp10<br />
Mit der Technical Communication Suite 4 kam im Juli <strong>2012</strong> auch die<br />
neue Version von RoboHelp auf den Markt. Mit deutlichen Funktionserweiterungen<br />
kann RoboHelp10 als einfaches Werkzeug für Single-Source-Publishing<br />
im Multiscreen-Format betrachtet werden. Zahlreiche<br />
Output-Formate stehen den Nutzern zur Verfügung. Dazu zählen ePub,<br />
Adobe AIR Help, FlashHelp, JavaHelp, Oracle Help und weitere. Zudem<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
271
Mobile Dokumentation / Mobile Documentation<br />
ist es mit RoboHelp10 möglich, Inhalte in das Multiscreen-Format<br />
HTML5 zu konvertieren.<br />
Die Bereitstellung von Inhalten für die mobile Nutzung im Format<br />
HTML5 erfolgt über vordefinierte Templates, die im Umfang des Programms<br />
enthalten sind. Unterstützte Geräte sind dabei bisher: Android<br />
Phone und Tablet sowie Apple iPhone und iPad. Die Auswahl mehrerer<br />
Templates ist ebenfalls möglich. Auf diese Weise sind die erzeugten<br />
Ausgaben in HTML5 Multiscreen-Ausgaben.<br />
Umsetzung in Form einer App<br />
Mit der zunehmenden Verbreitung mobiler Inhalte steigt auch die Nutzung<br />
von Apps deutlich an. Nutzt man WebWorks, ist es mittels eines<br />
Servlets und einer App möglich, Dokumentationen innerhalb dieser<br />
App auf Tablets darzustellen. Diese kann dann über den jeweiligen<br />
App-Store für den Download verfügbar gemacht werden.<br />
Entscheidende Vorteile dieser App sind neben der einfachen und<br />
schnellen Erstellung die Möglichkeiten der Offline-Nutzung von Inhalten,<br />
die geringe Datenmenge im Falle eines Updates durch einen Delta-<br />
Abgleich sowie die Einrichtung eines Zugriffsschutzes der App.<br />
für Rückfragen: gerhardt@squidds.de, eck@squidds.de<br />
272<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 4<br />
Partnerpräsentation<br />
Das mobile Bordbuch<br />
Aleš Chyba, ŠKODA AUTO a.s., Mladá Boleslav, Tschechien<br />
Robert Erfle, DOSCO Document Systems Consulting GmbH, Heidelberg<br />
Motivation<br />
Smartphones und Tablet-Computer begleiten immer mehr Menschen<br />
bei ihren täglichen Aktivitäten. ŠKODA entwickelt deshalb Apps, um<br />
auch die Betriebsanleitungen seiner Fahrzeugpalette schnell, bequem<br />
und überall zugänglich zu machen.<br />
Angesichts der Modell- und Sprachvielfalt kann die Datenaufbereitung<br />
der Inhalte für die Apps aus wirtschaftlichen Gründen nur vollautomatisch<br />
erfolgen. Dies wird im vorliegenden Beitrag näher erläutert.<br />
Ausgangsdaten<br />
ŠKODA erstellt die Betriebsanleitungen im Format XML. Die zugrundeliegende<br />
DTD sorgt für klare Strukturen sowie medienneutral und modular<br />
aufgebaute Inhalte.<br />
Die Abbildungen liegen in verschiedenen, vordefinierten Größen und<br />
Formaten vor. Eine Besonderheit bilden die Fahrzeugsymbole, die durch<br />
speziell dafür entwickelte Schriften repräsentiert werden.<br />
Die gedruckten Betriebsanleitungen verfügen über ein Inhaltsverzeichnis<br />
und ein zweistufiges Stichwortverzeichnis, das auf Basis entsprechend<br />
ausgezeichneter Begriffe in den XML-Daten automatisch erzeugt<br />
wird.<br />
In großem Maße werden Querverweise verwendet (z. B. auf Kapitel,<br />
Abbildungen, Tabellen, Warnhinweise).<br />
Anforderungen<br />
ŠKODA strebt eine breite Nutzbarkeit des mobilen Bordbuchs an. Deshalb<br />
werden Apps für Smartphones und Tablet-Computer mit den Betriebssystemen<br />
iOS und Android entwickelt.<br />
Die unterschiedlichen Platzverhältnisse für die Darstellung sind ein<br />
wesentliches Unterscheidungsmerkmal der beiden Geräteklassen<br />
Smartphone und Tablet-Computer. Bei den Smartphones besteht die<br />
besondere Herausforderung, auf einem relativ kleinen Display die Inhalte<br />
einer mehrere Hundert Seiten starken Betriebsanleitung komfortabel<br />
lesbar anzuzeigen.<br />
Die gedruckte Betriebsanleitung hat mit dem Inhalts- und Stichwortverzeichnis<br />
zwei Zugänge oder „Einstiege“. Mindestens diese sollen auf<br />
den mobilen Geräten ebenfalls vorhanden sein. Und selbstverständlich<br />
müssen alle Querverweise verfolgbar sein.<br />
Aufgrund der Menge des Inhalts ist die Navigation und Orientierung<br />
besonders wichtig. Die Datenkonvertierung muss dabei die für die Navigations-<br />
und Orientierungsmechanismen notwendigen Inhalte geeignet<br />
bereitstellen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
273
Mobile Dokumentation / Mobile Documentation<br />
Datenkonvertierung<br />
Eine Betriebsanleitung bei ŠKODA gliedert sich in Teile, Hauptkapitel,<br />
Kapitel und Module. Der eigentliche Inhalt steht stets in einem Modul,<br />
wobei eine Betriebsanleitung ca. 450 Module umfasst.<br />
Für die Anzeige der Inhalte in den Apps wird das XML-Dokument<br />
nach XHTML konvertiert. Jedes Modul ergibt dabei eine eigenständige<br />
XHTML-Datei. Die Anzeige der XHTML-Module erfolgt in einem<br />
WebView genannten Bestandteil („control“) der App-Bedienoberfläche.<br />
Grundlage des WebView ist die WebKit Browser Engine.<br />
Das durch den Konverter erzeugte XHTML ist bewusst einfach und<br />
neutral gehalten. Die XHTML-Elemente werden jedoch abhängig von<br />
Zweck und Kontext der Ursprungselemente im XML-Dokument der Betriebsanleitung<br />
umfangreich klassifiziert. Ein passend für die Anwendung<br />
erstelltes, zentrales CSS-Stylesheet bestimmt alle wesentlichen<br />
Eigenschaften der Darstellung und des Layouts. Das CSS-Stylesheet<br />
nutzt Funktionen aus den CSS2- und CSS3-Standards.<br />
Die Konvertierung stellt technisch gesehen eine XSLT-Transformation<br />
dar, wobei Saxon als XSLT-Prozessor eingesetzt wird. Die Konvertierung<br />
läuft vollständig automatisch ab und ist in den Workflow des Redaktions<br />
systems bei ŠKODA integriert. Sie erzeugt neben den XHTML-Modulen<br />
eine Datei mit der übergeordneten Struktur der Betriebsanleitung<br />
und den Stichworteinträgen im JSON-Format (JavaScript Object Notation),<br />
die im Folgenden „Gliederung“ genannt wird.<br />
Stylesheet (XSLT)<br />
Stylesheet (CSS)<br />
Betriebsanleitung<br />
(XML)<br />
XSLT-Prozessor<br />
(Saxon)<br />
Module (XHTML)<br />
Gliederung (JSON)<br />
Konvertierung einer Betriebsanleitung<br />
274<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Die Gliederung enthält die Titel aller Teile, Hauptkapitel, Kapitel und<br />
Module sowie deren hierarchische Beziehung, z. B. welche Kapitel<br />
in welcher Reihenfolge in welchem Hauptkapitel enthalten sind. Für<br />
die Module speichert sie neben dem Titel auch die Identifikation der<br />
zugehörigen XHTML-Datei. Außerdem enthält die Gliederung die im<br />
XML-Dokument der Betriebsanleitung ausgezeichneten Begriffe für<br />
das Stichwortverzeichnis inklusive deren Zuordnung zu Modul, Kapitel<br />
etc. Die Gliederung dient den Apps als Informationsquelle für die<br />
Organisation und Anzeige der Navigation und der Suche im Stichwortverzeichnis.<br />
Das Format JSON eignet sich durch seine Kompaktheit und<br />
einfache Verarbeitbarkeit besonders gut für diesen Zweck.<br />
Darstellung und Layout der Module folgen dem Styleguide von ŠKODA<br />
für mobile Anwendungen. Die Verwendung zentraler Stylesheets für die<br />
Konvertierung (XSLT) und die Darstellung (CSS) garantiert einheitliche<br />
und durchgehende Erfüllung der CI-Vorgaben (Corporate Identity)<br />
seitens ŠKODA.<br />
Jedes Modul kann bis zu zwei Bilder enthalten, die stets an dessen Anfang<br />
stehen (Vorgabe DTD). Jedes Bild fällt abhängig von seiner Breite<br />
in eine der drei Kategorien: schmal, breit, Übersicht (groß). Schmale<br />
und breite Bilder werden unskaliert dargestellt. Ist das Bild breiter<br />
als das Display, kann es horizontal gescrollt werden. Übersichtsbilder<br />
(z. B. Cockpitbild) werden auf die Displaybreite skaliert. Durch Antippen<br />
erscheint es als unskaliertes Popup-Bild mit horizontalem und ggf.<br />
vertikalem Scrollbar. In diesem Zustand können alle Details betrachtet<br />
werden. Durch Antippen eines entsprechenden Icons wird das Popup<br />
entfernt und die ursprüngliche Darstellung der Seite wieder hergestellt.<br />
Zwei schmale Bilder werden nebeneinander dargestellt. Ansonsten<br />
erscheinen Bilder untereinander.<br />
Darstellung im Smartphone (Navigation nur beispielhaft angedeutet)<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
275
Mobile Dokumentation / Mobile Documentation<br />
Tabellen werden grundsätzlich unskaliert dargestellt. Ist eine Tabelle<br />
breiter als das Display, wird ein horizontaler Scrollbar eingeblendet.<br />
Die Module enthalten Querverweise auf andere Abschnitte (z. B. Kapitel,<br />
Module), Tabellen, Bilder, Sicherheitshinweise. Alle Querverweise<br />
werden bei der Konvertierung zweistufig angelegt: Identifikation<br />
des Zielmoduls und Identifikation des Verweisziels im Zielmodul. Sie<br />
müssen von den Apps geeignet interpretiert werden. Eine Besonderheit<br />
stellen Verweise auf Bilder dar. Das Verfolgen dieser Verweise<br />
führt nicht zu einem „Sprung“ zum Bild im entsprechenden Modul,<br />
sondern das Zielbild wird als Popup-Bild dargestellt, das die aktuelle<br />
Seitenansicht überlagert. Der Leser ist an dem (entfernten) Bild interessiert,<br />
möchte in der Regel aber im aktuellen Modul weiterlesen.<br />
Das „Heranschaffen“ des Bildes erspart ihm das Zurückspringen zum<br />
Ausgangsmodul.<br />
Die Betriebsanleitungen enthalten eine Vielzahl an verschiedenfarbigen<br />
Fahrzeugsymbolen, die in einer Anzeige im Fahrzeug erscheinen oder<br />
mit denen Funktionen an Bedienelementen im Fahrzeug gekennzeichnet<br />
sind. Diese Symbole sind als Zeichen in speziell dafür anfertigten<br />
Schriften (Fonts) realisiert und werden auch auf dieser Basis auf den<br />
mobilen Endgeräten dargestellt. Dies hat den großen Vorteil einer stets<br />
an die umgebende Textgröße angepassten Darstellung in hoher Qualität.<br />
Es muss allerdings dafür gesorgt werden, dass die speziellen Schriften<br />
in die Apps integriert werden.<br />
Es hat sich gezeigt, dass für die unterschiedlichen Geräteklassen<br />
(Smartphones und Tablet-Computer) und Betriebssysteme (iOS und<br />
Android) im Wesentlichen die gleichen XHTML-Daten und CSS-<br />
Stylesheets verwendet werden können. Gründe für notwendige Unterscheidungen<br />
sind z. B. unterschiedliche Platzierungsregeln für<br />
Text und Bilder bei Smartphones und Tablet-Computern oder die<br />
fehlende Unterstützung für horizontales Scrollen im WebView älterer<br />
Betriebssystemversionen.<br />
Darstellung im Tablet-Computer (Navigation nur beispielhaft angedeutet)<br />
276<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Bei der Realisierung der Datenkonvertierung für die Anzeige der Betriebsanleitungen<br />
auf mobilen Endgeräten hat sich wieder bestätigt,<br />
dass die Erstellung Technischer Dokumentation auf Basis gut strukturierter<br />
und layoutfreier XML-Dokumente eine sehr gute Ausgangsbasis<br />
für die unterschiedlichsten Anforderungen ist. Bei der Entwicklung der<br />
zugrundeliegenden XML-Anwendung vor über zehn Jahren war eine<br />
Ausgabe der Dokumente auf mobilen Endgeräten nicht absehbar. Dennoch<br />
lässt sich dies ausgehend von den vorhandenen XML-Dokumenten<br />
heute problemlos umsetzen.<br />
Ausblick<br />
Die hier vorgestellte Datenkonvertierung dient zunächst dazu, die Inhalte<br />
der gedruckten Betriebsanleitung auf mobilen Endgeräten zugänglich<br />
zu machen. Ausgehend davon sind verschiedene Erweiterungen<br />
vorstellbar, um den Kundennutzen zu erhöhen und die Attraktivität<br />
der Anwendung zu steigern:<br />
−−<br />
Zusätzliche und weiterführende Inhalte zu den Themen der Betriebsanleitung.<br />
−−<br />
Videos oder Animationen, die bestimmte Sachverhalte anschaulicher<br />
beschreiben oder erläutern.<br />
−−<br />
Individualisierung der Betriebsanleitung auf das konkrete Fahrzeug,<br />
so dass nur noch die im konkreten Fahrzeug vorhandenen Ausstattungen<br />
beschrieben werden.<br />
− − „Kopplung“ des Fahrzeugs mit der Anwendung, so dass etwa bei Störungen<br />
im Fahrzeug automatisch die zugehörigen Hinweise angezeigt<br />
werden.<br />
In jedem Fall bietet die rasante Verbreitung von Smartphones und Tablet-Computern<br />
eine Fülle an Möglichkeiten, die auch für die Technische<br />
Dokumentation genutzt werden sollte.<br />
Für Rückfragen: erfle@dosco.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
277
Mobile Dokumentation / Mobile Documentation<br />
MOB 5<br />
Fachvortrag<br />
Mobile First – Anforderungen an die Prozesse<br />
zur Erzeugung mobiler Dokumentation<br />
Andreas Volpert, Empolis Information Management GmbH, Rimpar<br />
Die rasant zunehmende Verbreitung von mobilen Endgeräten geht<br />
einher mit veränderten Benutzererwartungen an die Technische Dokumentation.<br />
Benutzer von Tablet-PCs, E-Readern und Smart-Phones erwarten<br />
zunehmend Dokumentationen, die situationsgerecht die genau<br />
passende Information effizient und optimal aufbereitet zur Verfügung<br />
stellen.<br />
Gefragt sind innovative Konzepte zur Erstellung und Pflege von Dokumentationen,<br />
die Hersteller in ihre strategische Planung integrieren.<br />
Diese erfordern auf Schnelligkeit optimierte Redaktions- und Aufbereitungsprozesse,<br />
ohne die vorhandenen Qualitätsziele zu vernachlässigen.<br />
Anforderungen an die Erzeugung und Pflege mobiler, anwendernaher<br />
Information sowie die mögliche Umsetzung mittels optimierter Prozesse<br />
können allgemeingültig und beispielhaft definiert werden.<br />
Zielsetzung<br />
Eines der wesentlichen Ziele ist die schnelle Belieferung von neuen<br />
Publikationswegen mit zielgruppengerecht konfektionierten Informationen,<br />
die auf mobilen Endgeräten verfügbar sind. Eine entscheidende<br />
Rolle spielt dabei, dass die Erstellung der Inhalte sowie deren kontinuierliche<br />
Pflege und Aktualisierung integrativer Bestandteil aller übergreifenden<br />
Prozesse ist.<br />
Die entsprechende Strukturierung der Information selbst in einzelne<br />
Komponenten, die Anreicherung der Informationsobjekte mit zusätzlichen<br />
Informationen (Metadaten), die sowohl für die Weiterbearbeitung<br />
als auch für die Komposition der Dokumentation benutzt werden können,<br />
und die Ausgestaltung der einzelnen Bearbeitungsschritte in definierte<br />
Workflows leisten den wesentlichsten Beitrag für die Effizienz<br />
und Flexibilität der gesamten Lösung.<br />
Voraussetzungen<br />
Die wichtigste Rolle spielt dabei die grundlegende Abkehr von der<br />
Dokument-orientierten Betrachtung der Informationen hin zur Modularisierung<br />
der Informationen in einzelne Objekte bzw. Komponenten, die<br />
verhältnismäßig beliebig, je nach konkreter Anforderung, zu vollständigen<br />
Dokumentationen zusammengefügt werden können. Dabei muss<br />
der Schreibstil so angepasst werden, dass die Module sich in jeden<br />
definierten Kontext nahtlos einfügen.<br />
Die Organisation und Festlegung von Verantwortlichkeiten bei jedem<br />
Bearbeitungsschritt schafft die Gewissheit, dass sich die einzelnen<br />
Informations-Komponenten in den definierten unterschiedlichen Kontexten<br />
immer zu einer harmonischen Einheit zusammenfügen. Änderungen<br />
der Komponenten müssen beschrieben und klassifiziert werden<br />
(z. B. mittels Metadaten) und das System muss die Auswirkungen der<br />
jeweiligen Änderung aufzeigen und erkennbar machen. Für jede relevante<br />
Publikation, an der die bearbeitete Komponente mit beteiligt ist,<br />
müssen die Änderungen identifizierbar sein und zu jedem Zeitpunkt<br />
278<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
sollte im Idealfall auch eine entsprechende (Teil-) Publikationsvorschau<br />
verfügbar sein.<br />
Die Lösung<br />
Der Einsatz von vorhandenen XML-Standards zur Strukturierung der<br />
Informationskomponenten ist dabei unabdingbar. Basierend auf den<br />
methodischen Strukturierungsmechanismen, die XML bietet, existieren<br />
bereits mehrfache Anwendungs-Szenarien (z. B. PI-MOD, DITA, Doc-<br />
Book, etc.), die ohne umfangreiche Vorarbeiten leicht adaptiert werden<br />
können und die von leistungsfähigen Component Content Management<br />
Systemen standardmäßig unterstützt werden.<br />
Component-Content-Management-Systeme bieten dabei spezifische,<br />
optimierte Eigenschaften gegenüber herkömmlichen und im Wesentlichen<br />
Dokument-orientierten Content-Management-Systemen:<br />
Sämtliche Ereignisse werden mit einer Workflow-Management-Systemkomponente<br />
gesteuert. Der Einfluss der Workflows beschränkt sich<br />
dabei idealerweise nicht auf die Prozesse im Component-Content-<br />
Management-System, sondern bezieht alle vor- und nachgelagerten<br />
Produktionsprozesse im Umgang mit den Informationsobjekten mit ein<br />
und steuert diese ebenfalls. Dies beginnt typischerweise bei der Vorverarbeitung<br />
der Informationen (u. a. Daten-Konvertierung) und der<br />
Steuerung des Imports der Daten in das System. Die Workflows steuern<br />
auch die Übergabe der zu publizierenden Einheiten an nachgelagerte<br />
Publikations-Prozesse, die die Informationen für die Darstellung und<br />
Benutzung auf dem jeweiligen Endgerät optimal aufbereiten.<br />
Zusätzlich bietet ein optimales Component-Content-Management-System<br />
darüber hinaus Report-Funktionalitäten zur Planung der Produktionsprozesse,<br />
für Reports zum aktuellen Status von Dokumentationen<br />
und deren einzelnen Komponenten sowie für individuell definierbare<br />
zusätzliche Übersichten.<br />
Die Möglichkeit, das Publikationsergebnis vor der eigentlichen Freigabe<br />
der Publikation zu prüfen, erhöht die Sicherheit und Qualität des<br />
Endprodukts.<br />
Einer der letzten Workflow-Schritte könnte schließlich die Bereitstellung<br />
des Publikationsergebnisses für den Endbenutzer sein. Allerdings<br />
wären hier auch noch weitere nachgelagerte Schritte denkbar: Z. B. das<br />
Einfrieren der publizierten Daten zu einer „Ausgabe“ und die Generierung<br />
einer neuen Version, die dann Gegenstand von künftigen Änderungen<br />
und Ergänzungen sein könnte.<br />
Ausblick<br />
Mobile Endgeräte (iPad, Tablet-PCs) erlauben längst nicht mehr nur Informationen<br />
darzustellen, sondern auch diese interaktiv zu bearbeiten.<br />
Hier eröffnen sich vollkommen neue Möglichkeiten zur Gestaltung von<br />
vollständig in den Redaktionsprozess integrierten Review-Prozessen.<br />
Prüfung und Freigabe kann parallel durch mehrere Benutzer gesteuert<br />
und kontrolliert durch das System erfolgen, mit allen Vorteilen der<br />
zentralen Datenverwaltung (Zugriffssteuerung, Versionenverwaltung,<br />
Änderungshistorie u. v. m.) bis hin zum direkten Rückfluss der Review-<br />
Ergebnisse in den Redaktionsprozess.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
279
Mobile Dokumentation / Mobile Documentation<br />
Fazit<br />
Die Bereitstellung von Technischer Dokumentation auf mobilen Endgeräten<br />
ist in der derzeitigen Praxis meist ein dem normalen Redaktionsprozess<br />
nachgelagerter oder zu diesem parallel laufender Produktionsschritt.<br />
Die Nutzung der Technischen Dokumentation auf<br />
mobilen Endgeräten wird zukünftig rasant zunehmen und vielfältige<br />
neue Anwendungs-Szenarien werden entstehen. Um auf zukünftige<br />
Herausforderungen optimal vorbereitet zu sein, sind kontinuierliche<br />
Prozess optimierungen notwendig. Gefragt sind flexible Component-<br />
Content-Management-Systeme, die in Kombination mit Workflow-<br />
Management-Systemen die gesamte Produktionskette der Dokumentationserstellung<br />
und Bereitstellung unterstützen.<br />
Für Rückfragen: andreas.volpert@empolis.com<br />
280<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 7<br />
Fachvortrag<br />
APPetithappen aus der Praxis: Physical<br />
World Connection und Content-<br />
Aufbereitung für mobile Doku<br />
Ralph Muhsau, TANNER AG, Lindau<br />
Physical World Connection<br />
‚Physical World Connection‘ folgt dem Mega-Trend „Internet of Things“<br />
und verweist auf die direkte und einfache Verbindung der realen Welt<br />
mit ihrer angereicherten Repräsentation im ‚Internet‘. Die ‚Physical<br />
World Connection‘ leistet also zweierlei:<br />
−−<br />
Eindeutige Identifikation eines physischen Objekts<br />
−−<br />
Verbindung des physischen Objekts mit der gewünschten Information<br />
Es bestehen die folgenden Möglichkeiten:<br />
−−<br />
2D-Codes (Bsp.: QR-Code)<br />
−−<br />
Strichcodes (Bsp.: GTIN – ehem. EAN)<br />
−−<br />
Bluetooth<br />
−−<br />
RFID, NFC<br />
−−<br />
Mustererkennung von Bildern und Tönen (Bsp.: Shazaam)<br />
−−<br />
GPS plus Kompass<br />
Der Siegeszug der QR-Codes, den wir aktuell erleben, hat vielfältige Ursachen:<br />
Zum einen sind QR-Codes lizenzfrei nutzbar und entsprechend<br />
viele Generatoren und Reader-Apps – für alle Plattformen – verfügbar.<br />
Zum anderen speichern 2D-Codes mehr Informationen als beispielsweise<br />
Strichcodes.<br />
Physical World Connection in der Praxis<br />
Content-Aufbereitung für mobile Doku<br />
Zunächst stellt sich die Frage, in welcher Form Informationen auf mobile<br />
Geräte kommen können:<br />
−−<br />
Content in Standard-Apps: PDF, ePUB, iBooks<br />
−−<br />
Content in Drittanbieter-Apps: CHM (Compiled HTML Help), Adobe<br />
.folio<br />
−−<br />
Website<br />
−−<br />
Native App<br />
Wir betrachten zunächst die Content-Formate, die mit entsprechender<br />
Software einfach erzeugt und verteilt werden können. Die folgende Tabelle<br />
beschreibt die wesentlichen Eigenschaften aus Benutzersicht:<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
281
Mobile Dokumentation / Mobile Documentation<br />
CHM PDF ePUB .folio iBooks<br />
Plattformübergreifend + + + + -<br />
Look & Feel - + + ++ ++<br />
Flexibles Layout + - + - -<br />
(Reflow)<br />
Inhaltsverzeichnis + + + + +<br />
Links + + + + +<br />
Audio, Video - - + + +<br />
Interaktive Widgets - - (-) + +<br />
Eine ePUB-Datei ist eine ZIP-Datei, die die benötigten Dateien zur<br />
Darstellung des Dokuments in den Web-Standards HTML, CSS, JPEG,<br />
GIF, PNG, SVG und XML enthält. Der wesentliche Vorteil von ePUB ist<br />
das mit diesem Format mögliche flexible Layout. Der Benutzer kann die<br />
Schriftgröße selbst einstellen und das Dokument bricht dann neu um<br />
(Reflow). Dadurch kann ein Dokument auf verschiedenen Bildschirmgrößen<br />
immer optimal lesbar angezeigt werden. Dies ist mit einem PDF<br />
nicht möglich. Wird ein PDF für die Anzeige auf einer kleinen Bildschirmgröße<br />
gezoomt, so bricht es nicht neu um. Der Benutzer muss<br />
dann jede Zeile beim Lesen seitlich scrollen.<br />
ePUB 3, das im Oktober 2011 verabschiedet wurde, bringt eine Reihe<br />
von nützlichen Erweiterungen:<br />
−−<br />
Mehr Layout-Funktionen (HTML-5 und CSS 3)<br />
−−<br />
Audio (mp3)<br />
−−<br />
Video (MPEG-4)<br />
−−<br />
Interaktivität (Javascript)<br />
−−<br />
Eingebettete Fonts (OpenType und WOFF)<br />
Mit ePUB 3 sind multimediale und interaktive E-Books mit mehr Layout-Funktionen<br />
als bisher mit ePUB 2 möglich.<br />
ePUBs lassen sich auf vielfältige Weise erstellen: Direkt mit geeigneten<br />
Layoutprogrammen (Adobe InDesign, Apple Pages, per Plug-in auch<br />
mit Word), Konvertiertools (Calibre, Sigil), mit geeigneten Publikationsstrecken<br />
oder auch „manuell“ mit HTML- und XML-Editoren.<br />
Die beiden proprietären E-Book-Formate können jeweils nur mit den<br />
zugehörigen Autorentools erzeugt werden: Adobe .folio mit der Adobe<br />
Digital Publishing Suite (Bestandteil von InDesign 5.5); iBooks mit Apple<br />
iBooks Author (gratis im Mac App Store). Interaktive Widgets erweitern<br />
diese Content-Formate um zusätzliche Visualisierungsmöglichkeiten.<br />
Dies können je nach Format sein: Bilder-Galerie, Interaktives Bild,<br />
Webview, 3D-Modell, Panoramabild usw.<br />
Website und App<br />
Falls die Möglichkeiten der Content-Formate nicht ausreichend für eine<br />
Kommunikationsaufgabe sind, stellt sich die Frage, ob eine für mobile<br />
Geräte optimierte Website oder eine App das geeignetere Medium ist.<br />
Die folgende Tabelle stellt die wesentlichen Unterschiede und Vorteile<br />
dar.<br />
282<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
App<br />
Look & Feel des Gerätes<br />
funktioniert offline (Roaming!), Mischformen<br />
möglich<br />
Hardware-Features:<br />
GPS, Kamera, Multitouch, Kompass,<br />
Accelerometer<br />
Spezielle Funktionen:<br />
Push-Benachrichtigungen, Adressbuch usw.<br />
Icon auf Homescreen<br />
Website<br />
plattformübergreifend<br />
Daten immer aktuell<br />
Web-Funktionalität:<br />
Verlinkung von anderen Websites und<br />
Suchmaschinen<br />
Icon auf Homescreen<br />
Der Hintergrund des Praxis-Beispiels „Dethleffs Reiseinfo“ ist, dass<br />
ein Handbuch über Jahre im Fahrzeug liegt, Verkehrsregeln und Adressen<br />
sich aber ändern. Bei der Neukonzeption der Handbücher für den<br />
Reise mobil-Hersteller war also eine clevere Lösung für diesen Abschnitt<br />
der Handbücher, der insgesamt ca. 30 Seiten ausmacht, gefragt.<br />
Die Entscheidung für eine App fiel hier leicht, da die Informationen<br />
vor allem auch im Ausland abgerufen werden. Damit keine Roaming-<br />
Gebühren für den Benutzer anfallen, sind alle Daten in der App gespeichert.<br />
Außerdem werden einige Sonderfunktionen benötigt, die nur mit<br />
einer App möglich sind, beispielsweise die Berechnung der Entfernung<br />
zum nächsten Servicepartner – auch ohne Datenverbindung.<br />
für Rückfragen: Ralph.Muhsau@TANNER.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
283
Mobile Dokumentation / Mobile Documentation<br />
MOB 8<br />
Presentation<br />
Creating ePubs and other mobile device<br />
outputs using TCS and its point products<br />
Gyanesh Talwar, Nandini Gupta, Adobe Systems, Noida, India<br />
Kindles, iPads, Android devices and other tablets are fast becoming a<br />
lifestyle statement and a necessity alike. They have found application in<br />
so many diverse ways that can simplify our lives and work; it’ll soon be<br />
difficult to imagine how we have been living without them so far.<br />
The mobile device explosion is turning out to be one of the biggest techtrends<br />
so far. The exponential growth of the mobile device market also<br />
means there is an unprecedented demand for content that could be<br />
delivered in formats compatible with these devices.<br />
In this demo, Gyanesh Talwar and Nandini Gupta showcase the TCS<br />
and its point products’ (FM, RH, and Captivate) capabilities to produce<br />
mobile content, such as text, graphics, video, and help formats.<br />
They also touch upon how writing for the mobile devices is different<br />
from the PC technical communication.<br />
Captivate MP4<br />
and youtube videos<br />
TCS ePubs PDF<br />
FrameMaker <br />
Mobile friendly PDF<br />
Native Mobile<br />
App Generator<br />
Support for Help<br />
integration with iOS<br />
and Android apps<br />
“Built in” – out of the box features to generate mobile outputs<br />
In the following demos, Nandini and Gyanesh show how to create the<br />
various mobile optimized tech comm outputs:<br />
−−<br />
Using Captivate, you can create software simulations and other videos<br />
to share on youtube.com, which mobile device users can access.<br />
Videos may be more time consuming to create, but they help expedite<br />
and optimize users’ learning.<br />
−−<br />
Using the FrameMaker source, you can create ePub PDF using Robo-<br />
Help. An ePub PDF is optimized for reading on mobile devices.<br />
−−<br />
You can create a lighter, no-frills version of your PDF using Frame-<br />
Maker alone.<br />
Extended – you can use the scripts shipped with<br />
RoboHelp to create mobile outputs<br />
You can use this script to package Help content as a native mobile app<br />
for the Android mobile operating system.<br />
RoboHelp provides an API that you can leverage to integrate Multiscreen<br />
HTML5 output with iOS and Android apps. The API ships with<br />
the source code for the included functions as well as sample apps demonstrating<br />
the usage of the exposed API.<br />
Custom: jQuery mobile<br />
jQuery mobile is a JavaScript based, touch-optimized mobile framework.<br />
People familiar with jQuery can quickly learn jQuery. You can use<br />
jQuery to create mobile websites as well as technical communication<br />
content, which are compatible with all major mobile platforms, such as<br />
iOS, Android, Blackberry, and Windows Phone.<br />
This demo includes showcasing the process of generating minimal<br />
jQuery mobile output.<br />
284<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
QRCodes<br />
This demo includes showcasing how QR codes can be used for hardware<br />
documentation and field workers.<br />
QR codes make sense when field workers require JIT information –<br />
specs, alerts instructions.<br />
Documentation sets are very large but the actual information required<br />
at a time is not too detailed.<br />
gtalwar@adobe.com<br />
nandinig@adobe.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
285
Mobile Dokumentation / Mobile Documentation<br />
MOB 9<br />
Presentation<br />
Is Augmented Reality the Future<br />
of Technical Documentation<br />
Juergen Lumera, SPX Service Solutions, Munich<br />
A few years ago, Alan Brandon asked in an article about an Augmented<br />
Reality research project (AMAR) at Columbia University this question:<br />
Is Augmented Reality the future of technical documentation? He did<br />
not really answer the question, but he described the huge potential of<br />
that technology. The research project did not change the technical documentation<br />
world at THAT time. This presentation will describe what has<br />
changed since then and why the answer to his question is now a definitive<br />
YES – this technology is changing the technical documentation<br />
world and we need to be prepared.<br />
Before we start discussing in greater detail the possibilities of Augmented<br />
Reality in context of technical documentation, it is necessary to define<br />
what exactly is Augmented Reality, what is generally required, and<br />
how is it already used for technical documentation.<br />
What is Augmented Reality?<br />
Wikipedia defines Augmented Reality in the following way: “Augmented<br />
Reality (AR) is a live, direct or indirect, view of a physical, real-world<br />
environment whose elements are augmented by computer-generated<br />
sensory input such as sound, video, graphics or GPS data. …“<br />
In other words Augmented Reality:<br />
−−<br />
Combines real and virtual content<br />
−−<br />
Is interactive in real time<br />
−−<br />
Registers in 3D<br />
Samples of Augmented Reality can be found in our normal life – very<br />
often we are not even aware that it is Augmented Reality. Everyone has<br />
seen those overlaid lines in a televised football game to indicate the<br />
position of a player relative to the ball. A more advanced usage of Augmented<br />
Reality is in Smartphone Applications like Wikitude or Layar<br />
which show search results through the view of the camera.<br />
What is required to use Augmented Reality?<br />
The major components of an augmented reality solution are:<br />
−−<br />
A sensor to capture the reality (typically a camera)<br />
−−<br />
3D data about the content to be recognized<br />
286<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
−−<br />
Display to show captured and overlaid (augmented) content, such as a<br />
smartphone, tablet, goggles, or head-mounted display.<br />
−−<br />
Component(s) to interact with AR application – touch screen or microphone<br />
−−<br />
The augmented content (3D data, 2D data, text, audio)<br />
−−<br />
Application to feed content to AR client application<br />
How can Augmented Reality be used for technical documentation?<br />
The above mentioned AMAR project at Columbia University had implemented<br />
a prototype to allow a service technician to execute a repair<br />
guided by augmented information. The technician sees the real world<br />
and additional content through his goggles. This additional content<br />
helps him to find the right position, to use the correct tools and execute<br />
the necessary steps in the right order without being distracted by<br />
consuming and interpreting “classical” technical documentation. Many<br />
variations with other display devices have been built but they all follow<br />
more or less the same basic concept.<br />
Advantages of Augmented Reality<br />
Using Augmented Reality eliminates the need to transfer written content<br />
to the location where it needs to be applied. In a classical environment<br />
a technician or owner typically flips through pages (paper or Web)<br />
to identify the relevant information. This information then needs to be<br />
transferred to the place where the task (repair, operation, etc.) has to be<br />
executed. This requires the technician to interpret the written content<br />
and align existing graphics with the physical object.<br />
In an Augmented Reality world this transformation (and search) step is<br />
not necessary because the information is already displayed at the place<br />
where it is needed. It is information at the point and place of need. It<br />
can even adjust to the current context: a technician can start by himself<br />
and request support from an Augmented Reality application when he<br />
cannot continue based on his own knowledge.<br />
What does this mean for a technical author?<br />
The most important part of an Augmented Reality solution, beside the<br />
software component, is the content used for augmentation. This content<br />
is what a technical author has to produce in the future. He needs to<br />
work in a 3D view of the main object and place the content for augmentation.<br />
The textual part will to a fair degree be replaced by 3D objects<br />
showing activities, tools, parts, etc. New authoring tools for those tasks<br />
are needed and require a different skillset – graphic oriented thinking,<br />
focused on “real” task execution instead of abstract description, aiming<br />
to minimize/eliminate the non-graphical information. It is not enough<br />
to use a new tool; it requires us to change the mental approach of how<br />
to “interact” with the consumers of technical documentation: in an Augmented<br />
Reality world you don’t explain, you SHOW.<br />
What has changed since the original question has been asked?<br />
During the last three years the technology to enable augmented reality<br />
has changed dramatically. All modern smartphones have the required<br />
sensors and display capability already built in. Tablets offer the same<br />
set of functionality and provide a larger area for interaction. Voice<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
287
Mobile Dokumentation / Mobile Documentation<br />
recognition has tremendously improved and can be used in industrial<br />
solutions. Inexpensive goggles to display augmented content are ready<br />
for the mass market.<br />
But not only has the technology changed. The massive use of Augmented<br />
Reality in marketing and extensions to existing applications/media<br />
types (Navigation Systems, Catalogues, Search Engines, and so on) has<br />
paved the street for this technology.<br />
We have reached a state where it is no longer a question if it will happen<br />
because it is already there – it is now a question of how quickly<br />
we can set up a complete process/structure to support Augmented<br />
Reality in the same way as we are doing it for the existing technical<br />
documentation.<br />
To get back to the original question: YES this is the future of technical<br />
documentation because the market has the tools and will demand the<br />
content for it.<br />
Contact: juergen.lumera@spx.com<br />
288<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 10<br />
Presentation<br />
Mark these figures!<br />
2015, 2020, 2025<br />
Success or failure<br />
RTFM<br />
RTFM (Real & Touchable Front-end Matter)<br />
Or: Users decide on What/How/When.<br />
Martin Rüegg, maxon motor ag, Sachseln, Switzerland<br />
Within the next ten years, three topics will be of fundamental impact:<br />
The user’s self-determining demands, the high granularity of information,<br />
and the dynamic interaction of the user with the employed systems.<br />
To this end, three theses:<br />
1. Until 2015, mobile devices will have established as THE in fact method<br />
for knowledge transfer and communication.<br />
2. By 2020, out of the total volume of available/provided/required information,<br />
only a small percentage will be consumed at the actual point<br />
of use.<br />
3. Before 2025, the user behavior will result in radical changes of today’s<br />
known operating systems.<br />
The user’s behavior, expectations, and aspiration will be the motors of<br />
these changes and, in particular, will become the theses’ reality. “Transmitters”<br />
dealing with this challenge by means of an engaged parking<br />
brake will surely face a nasty surprise.<br />
Not what you might think!<br />
The dictum will probably get an entirely new meaning. Instead of a<br />
bumpy invitation to look up where everything has been written down<br />
nice and neat, it could also mean Real & Touchable Front-end Matter.<br />
Even today, we (the transmitter) still flood the user (the receiver)<br />
with an over-the-top amount of bulk information, quite often with truly<br />
negative consequences. This kind of Technical Communication will<br />
presumably result in information overload and, eventually, will peak in<br />
the user suffering from turn away frustration without any motivation of<br />
ever coming back…<br />
martin.rueegg@maxonmotor.com<br />
martin@therueggs.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
289
Mobile Dokumentation / Mobile Documentation<br />
MOB 11<br />
Presentation<br />
The business case for mastering liquid content<br />
Chris Laska<br />
Excelling in one area rather than being all things to all people. Organizations<br />
need to focus on their unique niches and position themselves as<br />
the definitive source for information, products and services related to<br />
the specific places in the markets where they operate. <br />
Definition of liquid content<br />
Liquid content is next generation information, no longer comprised of<br />
static information, tailored around each unique user, on the basis of<br />
real-time multidimensional profiling.<br />
The value of content is measured by how easy it is to use it. Liquidity<br />
of content is a concept that captures aspects of immediacy, flexibility<br />
and pliability of content. The more liquid content is, the easier it is to<br />
reuse, access, edit and publish. Company-owned and in-company created<br />
content is available in a proprietary format that binds the content<br />
to a particular viewer, editor or content owner. To be liquid, means that<br />
content is freed to better serve customers and prospects in ways and via<br />
channels of their choice, fixed or mobile, interactive and live.<br />
Trends in content management<br />
Content management is a real challenge for all organizations and their<br />
brand portfolio and the awareness that content needs to be managed is<br />
growing. Content governance specifies that content created in the enterprise<br />
belongs to the enterprise as opposed to the person who created<br />
it. That content needs to be findable and available and needs to interact<br />
with content generated by users and communities outside the brand.<br />
Another trend shows that vendors are moving away from the idea of<br />
building a single fix-it-all enterprise content management system towards<br />
designing systems that actually deal with business problems. The<br />
role of a service partner and a long-term engaging and quality-driven<br />
partnership becomes apparent.<br />
Product information at your fingertips<br />
The internet and mobile channels fundamentally changed the way<br />
customers and prospects expect to find and engage with content related<br />
to a company’s products and services. Marketing organizations already<br />
embraced these new mediums (with personalized web experiences,<br />
video, and mobile apps). Technical documentation organizations however<br />
are more hesitant in responding. But the expectations of customers<br />
and prospects did change and the notion of the traditional technical<br />
publication has altered completely.<br />
Traditionally the technical publication is a static one-way deliverable<br />
that is managed, produced – printed – and shipped as part of a new<br />
product introduction or update. This classical supply chain is no longer<br />
relevant for customer experiences today that are increasingly shaped<br />
by the internet, mobile channels and social media. Customers, and even<br />
prospects, expect to rapidly find just the right information, relevant and<br />
personalized, at the right time and at their fingertips via the web or<br />
290<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
mobile device. They expect information to be tailored to their questions,<br />
visually presented, and their interaction with that information needs to<br />
be two-way.<br />
Organizations that are mindful of these changes respond strategically<br />
by moving to product content that is dynamic, interactive and personalized.<br />
Such content can best be described as “liquid”.<br />
Product-related content is critical at most stages of a customer’s journey.<br />
Prospects (both b2b and b2c) want product information when comparing<br />
and buying products. After the purchase, technical documentation<br />
is required to learn how to use a product. During the post-sales process,<br />
if the customer has difficulty using the product or the product is not<br />
working properly; technical documentation is needed for support. To<br />
provide an outstanding customer experience, a company must provide<br />
quick access to relevant, up-to-date technical information in compelling<br />
forms. By doing so, companies can increase revenues, improve out-ofbox<br />
experience, increase self-service, drive down call center calls, and<br />
ultimately increase repeat buying and word of mouth recommendations.<br />
Business case components<br />
Mastering liquid content is realized through structuring content referring<br />
to information or content that has been broken down and classified<br />
using metadata based on standard or proprietary forms of metadata.<br />
However the investment to structure content is likely to be much greater<br />
than the direct costs for a component content publishing system, including<br />
the software licenses and the hardware infrastructure needed in<br />
IT to support the new software. Yet total cost of ownership (TCO) must<br />
also include indirect costs for retraining workers to write stand-alone<br />
topics using new editing tools as well as change management costs. To<br />
make the business case for structuring content, we must align the many<br />
advantages of structured content with specific needs in a business or<br />
organization. A strategic choice for an experienced partner with a track<br />
record in dealing with content may yet be the easier part of the investment<br />
equation.<br />
Structured content has many advantages: modularity, single-sourcing,<br />
content reuse, multiple delivery formats and channels, and it facilitates<br />
translation dramatically. The new DITA structured content standard also<br />
adds benefits like topic-based authoring, conditional processing, taskorientation,<br />
component publishing, information typing, minimalism,<br />
inheritance, specialization, and simplified XML.<br />
Structured content also has some indirect costs that should figure in<br />
ROI calculations. Writers have to adapt their writing style and you need<br />
specialized copy to attend to a number of content needs.<br />
Serving the liquid customer: leverage content to deliver service<br />
In the end the business case comes down to the consumer. Fluid consumers<br />
today use non-linear decision making when purchasing and using<br />
products. When purchasing, customers use multiple channels (web,<br />
company website, mobile, store, call centre and social media) in search<br />
of product information. Product usage is usually determined by call<br />
centers or the company website and sharing is mostly done through the<br />
company website or social media.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
291
Mobile Dokumentation / Mobile Documentation<br />
Brave brands should limit publications to digital formats and produce<br />
publications for individual product configurations. But more importantly<br />
web and social channels now enable organizations to investigate and<br />
measure how users consume and apply content so that the content and<br />
the channels provided can be continuously improved.<br />
Documentation should match specific user experiences or knowledge<br />
profiles and has to be tailored to individual region/language needs.<br />
Contact: chris.laska@blonde.eu<br />
292<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 12<br />
Fachvortrag<br />
Apps für Technische Redakteure<br />
Martin Häberle, Karlsruhe<br />
„Smartphones und Tablets sind teures Spielzeug, fressen bloß Zeit und<br />
bringen nichts Neues!“ Solche Sätze sind zwar nicht ganz unwahr, man<br />
hört sie aber immer seltener. Denn heute nutzt praktisch jeder iPhone &<br />
Co. Insbesondere als Firmengeräte erfreuen sie sich größter Beliebtheit,<br />
ist doch <strong>2012</strong> in Deutschland fast jedes dritte verkaufte Mobiltelefon ein<br />
Smartphone. [1]<br />
Daher ist es Zeit, einmal den Nutzungskontext von kleinen und größeren<br />
Mobilgeräten zu betrachten. In diesem Vortrag wird der Schwerpunkt<br />
auf Tablet- und Smartphone-Anwendungen („Apps“) für iOS und<br />
Android gelegt. Es sollen einige ausgewählte Apps vorgeführt werden,<br />
die Berufstätige im Allgemeinen und Technische Redakteure im Speziellen<br />
optimal bei ihrer täglichen Arbeit unterstützen. Außerdem soll<br />
aufgezeigt werden, welche Tätigkeiten man sich auf einem Touch-Bildschirm<br />
besser erspart.<br />
1. Kommunikation<br />
2. Ideensammlung<br />
3. Notizen<br />
4. Selbstorganisation<br />
5. Recherche und<br />
Nachschlagen<br />
10 Einsatzzwecke für Smartphones und Tablets<br />
Für die kurze E-Mail zwischendurch oder den schnellen Check des<br />
Posteingangs eignen sich Touch-Geräte hervorragend. Mit der Chat-<br />
Funktion von Skype lassen sich schnell Links und Informationen mit<br />
Kollegen austauschen – auch in Besprechungen bleiben sie dezent im<br />
Hintergrund. Außerdem gibt es noch Twitter sowie Kurznachrichtendienste<br />
wie „WhatsApp“ und natürlich die Telefonfunktion im Smartphone,<br />
falls doch noch einer anruft.<br />
Geistesblitze lassen sich über das eingebaute Mikrofon als Sprachnotiz<br />
mit „Notability“ oder „GNotes“ (für Android) aufzeichnen, mithilfe<br />
von „Siri“ als Textnotiz diktieren oder über die virtuelle Tastatur eintippen<br />
und von überall abrufen. In einer Mindmap-Anwendung wie<br />
„Mindjet“ lassen sich zudem Ideen sammeln, Inhalte ordnen oder Informationsarchitekturen<br />
modellieren und mit dem Redaktionsrechner<br />
synchronisieren.<br />
Für Besprechungsnotizen hat der Papierblock ausgedient. Stattdessen<br />
wird der digitale Mitschrieb vom Tablet über den Exchange-Server in<br />
MS Outlook übertragen und die Notiz ist damit sofort auf dem PC verfügbar.<br />
Die Notizen lassen sich durchsuchen und z. B. in MS Word weiterverarbeiten.<br />
Dank der im Mobilgerät integrierten Fotofunktion werden<br />
auch Inhalte von Flipcharts, Whiteboards und Skizzen auf Papier<br />
mit einem Klick dokumentiert.<br />
Eine zentrale Aufgabenverwaltung, beispielsweise „GoTasks“ für Google<br />
Tasks, sowie zeit- und ortsabhängige Erinnerungen (mit der gleichnamigen<br />
iOS-App) sind wohl das wirksamste Hilfsmittel bei „digitaler Demenz“<br />
und schaffen Übersicht und Ordnung. Zeiterfassungs-Apps wie<br />
„mite“ oder „Anytime“ ermöglichen es Freiberuflern, Projektarbeitern<br />
und allen anderen, denen es auf jede Minute ankommt, ihre Aufwände<br />
mit wenigen Fingertipps korrekt zu verbuchen.<br />
Das allzeit verfügbare Web schließt nahezu jede Wissenslücke über<br />
eine einzige Suchanfrage. Wörterbuch-Apps erteilen schnellen Rechtschreib<br />
rat oder „LEO“ liefert die passende Übersetzung. Feed Reader<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
293
Mobile Dokumentation / Mobile Documentation<br />
6. Lektorat<br />
7. Präsentieren<br />
8. Unterwegs auf<br />
Daten zugreifen<br />
9. Lange Texte verfassen<br />
10. Zeit überbrücken<br />
und Spaß haben<br />
wie „Mobile RSS“ informieren über geänderte Seiten im Unternehmens-Wiki,<br />
über neue Aufgaben im Ticket-System oder den jüngsten<br />
Artikel im Lieblings-TR-Weblog.<br />
Im Qualitätssicherungsprozess wird die Vorabversion der bearbeiteten<br />
Dokumentation als PDF-Datei aufs Tablet gesendet und dort bequem<br />
mit „Adobe Reader“ durchgesehen. Anmerkungen und Korrekturen<br />
lassen sich direkt ins Dokument eintragen, speichern und per E-Mail<br />
verschicken.<br />
Apples iOS-Anwendung „Keynote“ lässt den mobilen Nutzer nicht nur<br />
PowerPoint-Foliensätze importieren und einfache Präsentationen auf<br />
Basis von Vorlagen erstellen und beeindruckend animieren, man kann<br />
diese auch komfortabel vortragen – Foliennotizen und Vorschau der<br />
nächsten Folie auf dem eigenen Bildschirm inklusive. Der Videoprojektor<br />
wird dabei – wie in diesem Vortrag – mittels HDMI/VGA-Kabel oder<br />
sogar drahtlos über Apples „AirPlay“ gespeist.<br />
Über Web-Dienste wie Dropbox, iCloud oder Google Docs (Google<br />
Drive) erhält der Nutzer von überall und mit jedem Endgerät Zugriff<br />
auf seine aktuellen Daten. Damit fällt es kaum noch ins Gewicht, dass<br />
iOS-Geräte dem Nutzer kein klassisches Dateisystem mehr bereitstellen.<br />
Auch Dokumente auf (S)FTP- und WebDAV-Servern sind mit der<br />
Alleskönner-App „GoodReader“ kein Hindernis mehr.<br />
Sie haben es vermutlich gleich gemerkt: Dieser Punkt passt nicht so<br />
richtig in die Liste. Touch-Geräte mögen für vieles gut geeignet sein,<br />
aber nicht zum ausführlichen Schreiben, zum strukturierten Erfassen<br />
von Inhalten und zum Organisieren von Textfragmenten – zumindest<br />
nicht ohne teures Zubehör. Denn zum einen ist die Bildschirmfläche<br />
von Tablets und besonders von Smartphones sehr begrenzt, zum anderen<br />
ist die Fingerbedienung viel unpräziser als der Mauszeiger am PC.<br />
Ob auf Reisen oder nach acht Stunden Redaktionsmarathon – Smartphones<br />
und Tablets sind nicht zuletzt tolle Unterhaltungsmaschinen<br />
und bringen Spiele, YouTube, Podcasts und all die anderen Dinge, die<br />
einem den Alltag versüßen, ohne andere zu stören (mit Kopfhörern)<br />
aufs Ohr und kristallklar auf den Bildschirm.<br />
Fazit<br />
Es bleibt festzuhalten, dass Tablets und Smartphones kein Ersatz für<br />
den PC darstellen können und sollen. Vielmehr ergänzen diese Geräte<br />
den Arbeitsalltag von Technischen Redakteuren und vereinfachen Abläufe,<br />
insbesondere wenn der Nutzer unterwegs ist. Zur Organisation<br />
und Kommunikation, zum Festhalten von Ideen und als Informationsquelle<br />
möchte man sein Smartphone oder Tablet bald nicht mehr missen,<br />
sobald man eines verwendet – ganz gleich ob privat oder beruflich.<br />
Weiterführende Links<br />
[1] Smartphone-Statistik: www.thinkwithgoogle.com/mobileplanet/de/<br />
[2] Apps für Technische Redakteure: www.lesegefahr.de/apps<br />
für Rückfragen: mail@lesegefahr.de<br />
294<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 13<br />
Fachvortrag<br />
3D-visualisierte Dokumentation für Wartung,<br />
Training und Verkaufsunterstützung<br />
auf mobilen Endgeräten<br />
Falk Aupers, Corena, Giessen<br />
Aufgrund der heutigen technischen Möglichkeiten ist es problemlos realisierbar,<br />
mobile Endgeräte wie Tablet-Computer oder Sub-Notebooks<br />
für die Darstellung 3D-visualisierter technischer Informationen zu verwenden.<br />
Häufig erwähnte Anwendungsfälle hierfür sind beispielsweise<br />
die Unterstützung des Wartungspersonals bei seiner Tätigkeit sowie die<br />
computerunterstützte Ausbildung.<br />
3D-Modell eines Waggons auf einem Tablet-Computer<br />
Produktstruktur im<br />
Produktdesign<br />
Die Verbindung zwischen Konstruktion und Technischer Dokumentation<br />
Heutiges Produktdesign baut in aller Regel auf Engineering- oder<br />
Konstruktions-Systemen auf, mit deren Hilfe 3D-visualisierte Informationen<br />
erzeugt werden und somit bereits vorhanden sind. Aus einer<br />
prozess-orientierten Sicht ist es wünschenswert, diese 3D-Daten so effizient<br />
wie möglich in die Erzeugung der Technischen Dokumentation mit<br />
einzubeziehen. Ansatzpunkt hierfür ist, die Technische Dokumentation<br />
mit den Augen des Produktdesigns zu betrachten.<br />
Das Produktdesign strukturiert den Gegenstand in Baugruppen oder<br />
Systeme, die wiederum hierarchisch gegliedert sind. Hieraus ergeben<br />
sich Hauptbaugruppen, Baugruppen und Unterbaugruppen, die funktional<br />
oder physikalisch in Bezug zueinander stehen. Als Beispiel sei<br />
genannt ein Dieselmotor, der eine Zylinderkopf-Einheit besitzt, die<br />
wiederum in den eigentlichen Zylinderkopf, ein Einlass-Ventil und ein<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
295
Mobile Dokumentation / Mobile Documentation<br />
S1000D und die<br />
Produktstruktur<br />
Auslass-Ventil gegliedert ist. Orientiert sich die Technische Dokumentation<br />
an dieser Produktstruktur, so lässt sich eine direkte Beziehung<br />
zwischen der Baugruppe im Engineering-System und der entsprechenden<br />
Information in der Dokumentation herstellen. S1000D ist solch eine<br />
Spezifikation für die Erstellung Technischer Dokumentation, die den<br />
Produktzusammenhang durch das Common-Source-Database- (CSDB)<br />
Konzept standardisiert.<br />
Das CSDB-Konzept der S1000D sieht vor, die Technische Dokumentation<br />
zu modularisieren. Die folgende Abbildung zeigt das Inhaltsverzeichnis<br />
einer Publikation aus der Dokumentation des Flugzeugs<br />
Me 262, das sehr schön die Herangehensweise bei der Modularisierung<br />
verdeutlicht.<br />
Inhaltsverzeichnis aus der Dokumentation der Me 262<br />
Die Produktstruktur als<br />
verbindendes Element<br />
Der Inhalt ist unterteilt in Abschnitte, die jeweils eine Baugruppe widerspiegeln,<br />
z. B. die „Randkappe“ oder den „Vorflügel“. Zu jeder dieser<br />
Baugruppen gibt es dann Informationsarten, hier sind es die „Beschreibung“<br />
und Anweisungen für den „Abbau“ und den „Anbau“. Damit diese<br />
Informationsmodule, in S1000D Datenmodule genannt, verwaltet werden<br />
können, klassifiziert das CSDB-Konzept die Produktstruktur und<br />
die Informationsarten und stellt die Kodierung in den Vordergrund. So<br />
bekommt die Randkappe nach S1000D Spezifikation den Kode „57-30-<br />
00“ und die Informationsart Abbau den Kode „520“.<br />
Engineering-Systeme verwalten das Produkt mit Hilfe des Systemaufbruchs<br />
in Analogie zu dem oben beschriebenen Vorgehen. Im Unterschied<br />
zur Kodierung der Datenmodule nach S1000D geht der Systemaufbruch<br />
jedoch runter bis zum letzten Ersatzteil, ist also wesentlich<br />
umfassender. Auch die Methodologie mag je nach eingesetztem System<br />
voneinander abweichen. Springender Punkt ist jedoch, dass in beiden<br />
Welten, dem Design und der Technischen Dokumentation nach S1000D,<br />
die Inhalte kodiert sind. Auf diese Weise lässt sich eine Beziehung zwischen<br />
einem Teil des Designs zum zugehörigen Modul bzw. den zugehörigen<br />
Modulen in der Dokumentation herstellen.<br />
296<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Verknüpfung eines 3D-Modells mit Technischer<br />
Dokumentation zu Trainingszwecken<br />
Die folgende Abbildung zeigt ein interaktives 3D-Modell, das zu Trainingszwecken<br />
mit Anweisungen aus der Technischen Dokumentation<br />
nach S1000D verknüpft wurde.<br />
Verknüpfung einer 3D-Simulation mit Anweisungen aus der Technischen<br />
Dokumentation<br />
Umsetzung<br />
Granularität der<br />
Information<br />
Der Lernende startet die Anwendung mit der Aufgabe, einen Teil des<br />
abgebildeten Motors auszubauen. Dabei wird er Schritt für Schritt mit<br />
den Anweisungen aus der Zerlegungsprozedur begleitet. Er gelangt zum<br />
jeweils nächsten Schritt, sobald er den Gegenstand im Fokus im Modell<br />
identifiziert und per Doppel-Klick entfernt hat oder indem er in der<br />
Prozedur den nächsten Schritt anfordert. Entfernte Teile finden sich<br />
dann im Inventar wieder und können jederzeit eingesehen werden.<br />
Eingebettet in die Anwendung sind kleine Videos, die bestimmte Abläufe<br />
noch einmal visuell verdeutlichen. Es werden in der Prozedur<br />
ebenfalls vorhandene Warnungen oder Hinweise eingeblendet. Hierbei<br />
gilt insbesondere, dass Warnungen vor den entsprechenden Schritten<br />
erfolgen, so wie es die Best Practices der Technischen Dokumentation<br />
vorsehen und es in der S1000D auch umgesetzt ist.<br />
Für die Umsetzung dieser Anwendung ist die Verknüpfung von 3D-<br />
Modell und Technischer Dokumentation über die Produktstruktur<br />
von grundlegender Bedeutung. Ein weiterer wichtiger Aspekt ist die<br />
Granularität der Information in den S1000D-Datenmodulen, die es<br />
erlaubt, einzelne Schritte sowie beispielsweise Warnungen und Teile zu<br />
identifizieren.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
297
Mobile Dokumentation / Mobile Documentation<br />
Zusammenfassung<br />
Ein Standard wie S1000D schafft über die Berücksichtigung der Produktstruktur<br />
bei der Modularisierung eine geeignete Schnittstelle für<br />
die Verknüpfung mit Designdaten. Dies und die benötigte Granularität<br />
der Information ist eine unverzichtbare Voraussetzung, um Anwendungen<br />
zu Trainingszwecken oder für die Unterstützung von Wartungspersonal<br />
zu erstellen.<br />
für Rückfragen: Falk.Aupers@corena.com<br />
298<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 14<br />
Fachvortrag<br />
Abenteuer TecDoc:<br />
Thesen zum Paradigmawechsel in<br />
der Technischen Dokumentation<br />
Georg O. Herriger, herriger & parter gmbh, Bern, Schweiz<br />
Vor 5 Jahren hat sich die kommunikative Welt radikal verändert!<br />
Mit Smartphone und Tablet entstand eine neue mediale Form, die sich<br />
rund um die Welt rasant verbreitet. Das revolutionäre, intuitiv-haptische<br />
Konzept des iPhones stieß 2007 eine explosive Entwicklung an, die seither<br />
an den Grundfesten jeglicher schriftlichen bzw. zeichengebundenen<br />
Kommunikation rüttelt.<br />
Etwas Ähnliches gab es schon einmal: Vor ca. 2.000 Jahren löste das<br />
Buch die antike Schriftrolle ab. Allerdings war jene Umstellung alles<br />
andere als explosiv: sie dauerte fast 400 Jahre, denn festgefügte Traditionen<br />
standen ihr im Weg.<br />
Schließlich setzte sich das Buch aber durch und bewahrte dann über<br />
alle evolutionären Stufen hinweg eine ganz spezifische Eigenart: den<br />
Aufbau in Seiten. Selbst ebooks haben nach wie vor Seiten …<br />
Zwar gibt es seit den Anfängen des Internets mit Hypertext eine gewisse<br />
Auflösung des strikt lineraren Buchverlaufs – das Grundlayout aller<br />
Dokumente blieb aber doch noch die Seite bzw. die „page“.<br />
Kein Wunder also, dass auch Technische Dokumentationen immer und<br />
ganz selbstverständlich aus Seiten bestehen. In modernen Manuals<br />
werden die Texte wohl säuberlich strukturiert und mit anschaulichen<br />
Bildern und Grafiken angereichert – das Ganze bleibt aber der guten<br />
alten Buchform treu – mit Seiten, Inhaltsverzeichnis und Index.<br />
Diese vom Buchdruck stammende, vertraute Form ist so selbstverständlich,<br />
dass sie ohne weitere Überlegung auch für die elektronische Verbreitung<br />
verwendet wird und so als pdf auf dem smarten Endgerät des<br />
itouch-Users landet.<br />
Doch wer schon liest eine pdf-Dokumentation am Handy? Niemand. Sie<br />
passt dort einfach nicht hin: Sie ist zu unhandlich, in der Regel zu technisch<br />
und fast immer mit langweiligen legalen Hinweisen überfrachtet.<br />
Kurz: ein klarer Absteller für User, für die das Handling ihres smarten<br />
Begleiters ein geradezu sinnliches Erlebnis darstellt.<br />
Das ist echt dumm! Denn gerade die mobilen Endgeräte, die doch immer<br />
und überall mit dabei sind, sind DIE optimalen Ausgabemedien<br />
für technische Hilfen aller Art! Zumal sie dank ihren hochauflösenden,<br />
farbigen Displays und den gestiegenen Bandbreiten der Mobilnetze<br />
alle medialen Inhalte wie Text, Bild, Grafik und Video völlig problemlos<br />
darstellen können. Nicht zu vergessen, dass dank LTE die Bandbreiten<br />
weiter und noch kräftiger am Steigen sind.<br />
Wie also sollte mann/frau ans Werk gehen, um eine TecDok so zu gestalten,<br />
dass sie wirklich zu den neuen mobilen Endgeräten passt?<br />
Dazu braucht es den radikalen denkerischen Bruch mit den herkömmlichen,<br />
seitenorientierten Traditionen, ein Umknicken jener Selbstverständlichkeiten,<br />
die bislang Technische Dokumentationen prägten. Wir<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
299
Mobile Dokumentation / Mobile Documentation<br />
sind beim Thema: es braucht den Paradigmawechsel! Nichts wie weg<br />
vom Ernsthaften, vom Beschreiben, vom Tiefgang, vom Befehlen. Und<br />
hin zum Spielerischen, zum Zeigen, zum Begleiten, zur Emotion.<br />
Ausgangspunkt für den solcherart geforderten Gesinnungswandel ist<br />
die simple, grundsätzliche Frage an jeden von uns: Was will ich eigentlich<br />
mit meiner Dokumentation erreichen?<br />
An sich ist die Antwort darauf klar: Eine möglichst einfache, verständliche,<br />
nachvollziehbare Anleitung, mit der der Nutzer das entsprechende<br />
Gerät bedienen und auftretende Probleme lösen kann.<br />
Das Ganze natürlich unter der „Randbedingung“, dass der Nutzer ein<br />
Mensch ist … Wie und was ein Mensch wahrnimmt und versteht, dazu<br />
hat die Multimediapsychologie einige Erkenntsnisse zu bieten.<br />
Informationen, Inhalte und Begriffe werden im Gehirn immer abgeglichen<br />
mit bereits vorhandenen neuronalen Mustern. Das geht umso<br />
leichter, d. h., man versteht diese umso besser, je weniger überraschend<br />
die neuen Inhalte sind, je besser sie unserer natürlichen Intuition entsprechen<br />
und je klarer strukturiert sie in gut verdaulichen Portionen<br />
daherkommen.<br />
Zudem kennt das menschliche Gehirn die Arbeitsteilung, genannt<br />
„Hemi sphärenspezialisierung“. In der linken Hälfte analysiert das verbale<br />
System auf sequentiell-lineare Art die abstrakten Logogene – das<br />
Zuhören und Lesen. Die rechte Hälfte hingegen erfasst die ganzheitlichen<br />
Imagene – die mehrdimensionalen bildhaften Informationen aus<br />
Bildern und Filmen.<br />
Für ein optimales Verstehen spannen beide Seiten zusammen („Doppelkodierung“):<br />
Die rechte Hälfte erfasst Anschauliches und Nachzuahmendes<br />
(via Bild bzw. Video), die linke steuert (via Text) das Erklärende<br />
und Strukturierende bei.<br />
Und genau diese multimedial-psychologischen Zusammenhänge sollten<br />
wir stets im Hinterkopf behalten und uns bei der Gestaltung von mobilen<br />
Dokumentationen immer wieder die Fragen stellen: Was ist meinem<br />
Nutzer vertraut und wie viel Neues kann ich ihm bieten bzw. zumuten?<br />
Mit welchem medialen Mix sollte ich sein Gehirn ansprechen und<br />
anregen?<br />
Wer diese fragende Denkweise als Grundsatz verinnerlicht hat, kommt<br />
via den folgenden 8 Etappen auf fast spielerische Weise zu einer tatsächlich<br />
einfachen, verständlichen und nachvollziehbaren Anleitung:<br />
Etappe 1. Einen generellen Ablauf mit Hilfe eines „Storyboards“ in<br />
einzelne Szenen aufgliedern und dabei ein schlankes und einfaches<br />
Bedien konzept entwickeln („visualize reduced complexity“).<br />
Etappe 2. Ein ansprechendes Design mit einem intuitiv zu erfassenden<br />
„sexy“ Look&Feel (z. B. mit realworld Metaphors) entwerfen, immer mit<br />
Rücksicht auf die Bedienungsrealität des Nutzers, so etwa mit für ihn<br />
gut lesbarer Schriftgröße oder Buttons, die der Größe seiner Fingerkuppen<br />
entsprechen. Beim Einsatz von unterschiedlichen Layoutvorlagen<br />
(Templates für Anzeige-, Auswahl-, Navigationsmodule etc.) gilt es, im<br />
Design die optische Konsistenz zu wahren.<br />
Etappe 3. Den detaillierten Handlungsablauf zielgerichtet in Step-by-<br />
Step-Prozeduren aufgliedern und strukturieren. Dabei ist es wichtig,<br />
300<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
auf das Prinzip „so wenig wie möglich, so viel wie nötig“ zu achten.<br />
Erforderliche Ergänzungsinformationen sollten auf eine tiefere Ebene<br />
ausgelagert werden.<br />
Etappe 4. Für jedes einzelne Modul, also für jeden Handlungsschritt,<br />
den Medienmix (Text, Grafik, Bild, Video) mit Bedacht bestimmen, damit<br />
der Sachverhalt wirklich optimal verständlich wird.<br />
Etappe 5. Eine Navigation anlegen, die die wichtigen Abschnitte übersichtlich<br />
aufzeigt und von jedem Punkt des Manuals aus direkt erreichbar<br />
ist. Zu einem mehrsprachigen Manual gehört auch die Möglichkeit<br />
eines einfachen Sprachwechsels.<br />
Etappe 6. Entscheiden, ob eventuell „special features“ aus der Welt der<br />
Mobilkommunikation in die Dokumentation eingebaut werden sollten.<br />
So etwa der Zugriff und die Integration von lokalen Gerätedaten (z. B.<br />
Ortskoordinaten, Kamerabild etc.) oder externen Daten (via Netzwerk,<br />
Bluetooth etc.).<br />
Etappe 7. Überlegen, wie der Nutzer am besten Zugang zur Dokumentation<br />
findet. Soll er sie über eine natives Applet aufrufen können? Oder<br />
via Google im Netz suchen? Oder gibt es andere Möglichkeiten …?<br />
Etappe 8. Und last but not least: objektiv testen, wie gut der Nutzer mit<br />
der gewählten Dokumentationsform klarkommt, wie schnell und sicher<br />
er den Anleitungen folgt. Kurz: wie gut die Usability tatsächlich ist.<br />
Unterwegs zu sein im Abenteuer, Fuß zu fassen und Präsenz zu zeigen<br />
in der hochspannenden neuen Mobilmedienwelt berechtigt zur<br />
Vorfreude:<br />
−−<br />
Auf die vielen motivierten User, die zu zufriedenen Kunden werden.<br />
−−<br />
Auf den Imagegewinn, sich mit einer State-of-the-art-Dokumentation<br />
von der Konkurrenz abzusetzen.<br />
−−<br />
Und schließlich auf das gute Gefühl, sich den für die Produkthaftung<br />
nicht unwesentlichen Qualitätsanforderungen der ISO-Norm 82079<br />
anzunähern.<br />
Solcherart wird der Paradigmawechsel gelingen!<br />
für Rückfragen: welcome@herrigerpartner.ch<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
301
Mobile Dokumentation / Mobile Documentation<br />
MOB 15<br />
Fachvortrag<br />
Autorensysteme für mobile Anwendungen –<br />
Totgesagte leben länger<br />
Prof. Dr. Michael Bauer, Hochschule Aalen<br />
Autoren – hier verstanden als Produzenten komplexer interaktiver und<br />
multimedialer Inhalte – und die Neuen Medien, das ist und bleibt eine<br />
Hassliebe. Einerseits stößt jede soft- und hardwaretechnische Innovation<br />
stets auf heftige Gegenliebe, bieten sich doch eine Vielzahl neuer<br />
Möglichkeiten. Andererseits finden sich Autoren jedes Mal ein Stück<br />
tiefer im verhassten digitalen Dschungel wieder und jedes Mal scheinen<br />
die Ideale „Cross Media“, „Cross Platform“ oder „Single Source“ etwas<br />
weiter in die Ferne zu rücken.<br />
Jüngstes Beispiel: die mobilen Endgeräte. Vor fünf Jahren machten das<br />
iPhone und später das iPad Computer wirklich mobil und seitdem bestimmt<br />
vor allem Apple die weitere Entwicklung der Technik und des<br />
Marktes. Aus der Verbindung von kleinen Rechnern mit Touch Screens,<br />
eingebautem GPS, Lage-Sensoren oder Kameras lassen sich völlig<br />
neue Anwendungen entwickeln. Verpackt in kleine Apps, angeboten in<br />
App-Stores.<br />
Kontrollierter Häppchenmarkt<br />
Für Autoren ist das auf den ersten Blick eine wunderbare neue Welt.<br />
Endlich haben ihre Produkte ein handliches Format und einen griffigen<br />
Namen: „App“ eben. Endlich liegen diese Anwendungen nicht<br />
mehr so offen im Netz herum. Endlich kann nicht mehr jeder kleine<br />
Pirat den mühsam erarbeiteten Code klauen. Und endlich lassen sich<br />
die Softwärchen wie Wurst und Wecken Stück für Stück verkaufen. Da<br />
tut es nicht besonders weh, wenn Apple jedes Mal ein Drittel vom Erlös<br />
einstreicht.<br />
Umso mehr allerdings, wenn es ans Produzieren geht. Denn dieser<br />
Häppchen-Markt funktioniert für Apple nur, wenn er streng kontrolliert<br />
wird. Deswegen ließen sich iOS-Apps zunächst nur in einer Apple-spezifischen<br />
Entwicklungsumgebung namens Xcode herstellen. Eine App<br />
in Xcode zu schreiben ist reine Programmierarbeit und erfordert gute<br />
Kenntnisse zum Beispiel in Objective-C. Jede einzelne App durchläuft<br />
dann einen mehrstufigen und unter Umständen mehrwöchigen Prüfungsprozess,<br />
bis sie im iTunes Store veröffentlicht wird.<br />
Marktdurchdringung auf Knopfdruck<br />
Nun sind Autoren in der Regel keine Informatiker. Ihre Aufgabe ist es,<br />
eigene Ideen oder die ihrer Auftraggeber zunächst in einzelne Medien<br />
(Texte, Bilder, Grafiken, Animationen, Videos, 3D-Inhalte) umzusetzen<br />
und diese dann mit Hilfe sogenannter Autorensysteme unter ein Dach<br />
zu bringen. Die Arbeit mit solchen Tools ist ein wichtiger, aber eben nur<br />
e i n Schritt in der Produktionskette. Das Ziel: In möglichst nur einer<br />
Autoren-Umgebung möglichst alle denkbaren Medienarten verknüpfen,<br />
beliebige Interaktionen herstellen und am Ende auf Knopfdruck alle<br />
gängigen Medien, Endgeräte und Betriebssysteme erreichen. Also bei<br />
hoher Marktdurchdringung die Entwicklungskosten gering halten.<br />
302<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Lange Jahre hat das ziemlich gut funktioniert. Mit Adobe Director von<br />
Macromedia stand ein Autorensystem zur Verfügung, mit dem auch<br />
solche Menschen Multimedia-Anwendungen herstellen konnten, die<br />
zuvor kein Informatikstudium absolviert hatten. Die Lernkurve war<br />
steil, weil sich Anwendungen auf einer grafischen Oberfläche nach dem<br />
Baukastenprinzip entwickeln ließen. Bei komplexeren Aufgaben half<br />
die Skriptsprache Lingo, mit der sich alle Medienjobs inklusive 3D erledigen<br />
ließen. Und zwar plattformübergreifend fürs Web, als Desktop-<br />
Anwendung auf DVD, als Kiosk-System sowohl für Windows als auch<br />
für Mac-OS.<br />
Steve Jobs und ein offener Brief<br />
Die heile Welt zerbrach 2005: Adobe kaufte Macromedia und schickte<br />
die alte Dame Director geradewegs aufs Abstellgleis. Nur die kleine<br />
Schwester Flash passte ins CS-Konzept und sie sollte fortan im Zusammenspiel<br />
mit der Laufzeitumgebung AIR das zentrale Autorentool sein.<br />
Damit sollte es später prinzipiell möglich sein, auch native Apps zum<br />
Beispiel für iOS und Android zu entwickeln. Mit der Version CS5 (Frühjahr<br />
2010) bot Flash einen iOS-Packager, mit dessen Hilfe sich native<br />
iPhone-Apps (*ipa) erzeugen ließen. Doch Pustekuchen: Solche Apps<br />
blieben mangels Reinrassigkeit prompt in Apples Endkontrolle hängen.<br />
Und im April 2010 erklärte Steve Jobs persönlich in einem viel beachteten<br />
offenen Brief an die Kollegen von Adobe Flash kurzerhand für tot.<br />
Tenor: Flash sei ein proprietäres Format, viel zu träge für die neue mobile<br />
Welt. Die Zukunft gehöre offenen Standards. HTML5 werde Flash<br />
schon bald als Multimedia-Frachter überholt haben.<br />
Doch schon im darauf folgenden September machte Apple eher kleinlaut<br />
eine Rolle rückwärts. Flash als Web-Format blieb für den mobilen<br />
Safari-Browser zwar weiterhin außen vor, mit dem Programm Flash<br />
Professional produzierte Apps hingegen wurden fortan akzeptiert.<br />
Flash bot sich damit als plattformübergreifendes Autorensystem an<br />
und wurde bis zur aktuellen Version CS6 konsequent in diese Richtung<br />
weiterentwickelt. Ähnlich wie Director hat das Tool eine grafische Oberfläche,<br />
unter der sich einfache Aufgaben schnell arrangieren lassen. Für<br />
individuelle Jobs steht die Skriptsprache ActionScript3 zur Verfügung.<br />
Annähernd alle Ziel-Plattformen können laut Adobe so aus einer Entwicklungs-<br />
bzw. Programmierumgebung heraus erreicht werden: Ausführbare<br />
bzw. installierbare Windows- und Mac-OS-Anwendungen für<br />
Desktop, DVD oder Kiosk, Webversionen für Browser mit Flash-Player<br />
und native Apps für Apple (*.ipa) und Android (*.apk).<br />
Mehr Licht als Schatten<br />
Zwei Jahre lang hat der Referent Flash als Autorenwerkzeug genutzt<br />
und dabei plattformübergreifende Applikationen produziert. Sein Fazit:<br />
Viel Licht und ein paar Schatten.<br />
Das Licht: Mit der Kombination AIR und Flash erreicht man tatsächlich<br />
alle wichtigen Ziel-Plattformen. ActionScript3 bietet viele Möglichkeiten,<br />
um auf die gängigsten Schnittstellen zur Hardware (z. B. GPS, Sensoren,<br />
Kameras) und Software (z. B. Dateisystem, Player) der einzelnen<br />
Gerätetypen und Plattformen Zugriff zu haben. Zwar ist der Entwicklungsaufwand<br />
nicht für alle Betriebssysteme zu 100 Prozent identisch.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
303
Mobile Dokumentation / Mobile Documentation<br />
Aber mit circa 80 bis 90 Prozent an plattformneutralen Inhalten kommt<br />
man dem Ideal schon ziemlich nahe. Der Rest sind individuelle Lösungen,<br />
zum Beispiel Video-Player für die verschiedenen Geräte. Ein<br />
Highlight: Seit knapp einem Jahr ist Flash endlich 3D-fähig. Die neue<br />
Stage3D-Schnittstelle sorgt für hardwarebeschleunigtes Rendering.<br />
Die Schatten: Nicht alle Medienformate lassen sich problemlos einbinden.<br />
Überraschenderweise ist es gerade PDF, Adobes eigenes Kind, das<br />
die meisten Zicken macht. Flash und AIR fehlt ein eigener PDF-Player.<br />
Speziell für Android-Geräte braucht’s dann doch fast einen Informatiker,<br />
um lokale PDFs zum Laufen zu bringen. Schatten wirft schließlich<br />
Adobe selbst. Flash CS6 war nach dem Erscheinen im Mai dieses Jahres<br />
mehrere Wochen lang voller schwerwiegender Bugs und die frühen Anwender<br />
fanden sich unversehens in der Rolle von Beta-Testern wieder.<br />
Ist Flash tatsächlich tot? Vielleicht mag das für Flash als Web-Format<br />
gelten. Flash als Werkzeug jedoch setzt die Ära der Alleskönner unter<br />
den Autorensystemen fort. Totgesagte leben manchmal eben etwas<br />
länger.<br />
für Rückfragen: michael.bauer@htw-aalen.de<br />
304<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
MOB 17<br />
Fachvortrag<br />
Mobile Service-Dokumentation<br />
auf iPad, Android & Co.<br />
Werner Hofmeister, Docware GmbH, Fürth<br />
Die rasante Verbreitung flexibler, ultraleichter und einfachst zu bedienender<br />
Smartphones und Tablets legt deren Nutzung im Kundendienst<br />
und im technischen Service nahe. Aus praktischen Erwägungen bietet<br />
sich der Einsatz mobiler Endgeräte insbesondere im Bereich Kundenaußendienst<br />
geradezu an. Doch auch der Aspekt, Fortschrittlichkeit und<br />
Innovationsgeist zu demonstrieren, spielt eine Rolle. Die intelligente<br />
mobile Nutzung von dynamischen, geschäftsrelevanten Informationen<br />
wird zum strategischen Verkaufselement. Aktuelle, fehlerfreie und kundenindividuelle<br />
Informationen, die unabhängig von Ort und Zeit zugänglich<br />
sind, werden zu einem entscheidenden Wettbewerbsfaktor.<br />
Mobile und maßgeschneiderte Service-Dokumentation<br />
als strategisches Verkaufselement<br />
Mobile und maßgeschneiderte Servicedokumentation bedeutet, dass<br />
ein Hersteller alle Informationen zu Wartung und Reparatur eines<br />
technischen Produkts seinen marktrelevanten Zielgruppen orts- und<br />
zeitunabhängig anbietet. Die Dokumentation wird nicht nur vom Endkunden<br />
verwendet, auch Verkäufer, Konstrukteure, Produktions- und<br />
Servicemitarbeiter oder Händler greifen darauf zu. Jede Zielgruppe hat<br />
unterschiedliche Vorstellungen, was die Servicedokumentation betrifft,<br />
und erhält die genau auf sie zugeschnittenen Informationen (und Funktionen).<br />
Moderne Systeme zur Erstellung von elektronischer Serviceliteratur<br />
sowie Ersatzteilkatalogen sind für ein Unternehmen daher eine<br />
wichtige Unterstützung, um die vielfältigen Nutzeranforderungen zu<br />
erfüllen, und die Grundlage, um die mobile ortsunabhängie Informationsbereitstellung<br />
durchzuführen.<br />
Mobile Software, die Service-Innovationen ermöglicht, wird daher immer<br />
wichtiger. Sie liegen auch für elektronische Ersatzteil- und Service-<br />
Informationssysteme voll im Trend. Als moderne Informationsplattformen,<br />
die komplexe Ersatzteil- und Serviceinformationen per Tablet,<br />
Smartphone, CD, DVD, USB-Stick oder via Internet – auch in Service-<br />
Portale oder E-Commerce-Systeme eingebunden – bereitstellen, leisten<br />
diese Systeme einen wesentlichen Beitrag zum Serviceerfolg im Maschinen-<br />
und Anlagenbau. Sie ermöglichen die optimale Versorgung der<br />
Zielgruppen mit Ersatzteil- und anderen Servicefall-relevanten Informationen.<br />
Sie vereinfachen und beschleunigen die Bestellung von Ersatzteilen,<br />
vermeiden Fehlbestellungen, unterstützen die Bereitstellung<br />
der richtigen Werkzeuge und Ersatzteile für den Techniker, reduzieren<br />
Personaleinsätze und ermöglichen kürzere Reaktionszeiten – was letztendlich<br />
in höherer Maschinenverfügbarkeit resultiert.<br />
Als mobile Serviceliteratur und Ersatzteilkataloge können Maschinenund<br />
Anlagenbauer die für Reparatur, Wartung, Instandhaltung und Ersatzeilverkauf<br />
nötigen Daten und Dokumente aktuell, ortsunabhängig,<br />
rund um die Uhr in allen benötigten Sprachen professionell und effektiv<br />
bereitstellen, verteilen und aktualisieren. Ersatzteillisten, Explosionszeichnungen,<br />
Bilder, Preise und Servicedokumente, wie Handbücher und<br />
Bulletins, stehen sinnvoll verlinkt in einem einzigen System bereit.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
305
Mobile Dokumentation / Mobile Documentation<br />
Mobile Service-Dokumentation auf iPad, Android & Co.<br />
Ob groß oder klein: Service-Dokumentation auf Tablets kann via Cloud-<br />
Computing und SaaS von allen Unternehmen genutzt werden<br />
Oft fehlen Klein- und Mittelstandsunternehmen die nötigen IT-Strukturen,<br />
um eine Lösung für die mobile und maßgeschneiderte Servicedokumentation<br />
bereitzustellen. Cloud-Computing bietet sich hier als Lösung<br />
an, übrig bleibt für die Unternehmen die gesicherte Datenpflege.<br />
Den großen Rest – die Bereitstellung von Software, IT-Umgebung, Datensicherung,<br />
Personal-Ressourcen etc. – erledigt die Cloud. Kommerziell<br />
liegen die Vorteile auch auf der Hand: Es sind keine Investitionen<br />
nötig, die Abrechnungen erfolgen meist zeit- oder nutzungsabhängig,<br />
wie heute bei Smartphones und Tablets üblich. Damit passen sich die<br />
Kosten automatisch den aktuellen Wirtschaftzyklen an.<br />
Information und Bestellung vor Ort via Tablet oder Smartphone<br />
Mobile und maßgeschneiderte Servicedokumentation gewährleistet<br />
Kundendienst-Mitarbeitern jederzeit schnellen Zugriff auf umfassende,<br />
komplexe Informationen – passend zum Gerätesystem vor Ort. Passwortgeschützt<br />
können Service-Manuals zu Geräten und Steuerungen,<br />
Bedienungsanleitungen, Installationsrichtlinien, Ersatzteilinformationen<br />
und Softwarebeschreibungen nach Bedarf abgerufen werden. Die<br />
Auswahl erfolgt in der Regel über die Maschine bzw. die Gerä<strong>tekom</strong>ponente<br />
oder die Seriennummer, zu der Informationen benötigt werden.<br />
Eine Volltextsuche ist möglich. Bei diesem Suchmodus wird eine<br />
Trefferliste der Service-Dokumente angezeigt, in denen der gesuchte<br />
Begriff verwendet wird. Beim Anklicken der aufgelisteten Dokumente<br />
erscheint sofort die Textstelle mit dem gesuchten Begriff.<br />
Werden Informationen zu Ersatzteilen benötigt, so können diese via<br />
Explosionszeichnung und zugehöriger Stückliste einfach und schnell<br />
identifiziert werden. Die unmittelbare Bestellung von Ersatzteilen ist<br />
möglich.<br />
306<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Wartungs-und Reparaturliteratur auf iPad, Android & Co.<br />
Online: fast alles ist möglich – offline: die App und ihre Grenzen<br />
Bei der Online-Bereitstellung der Informationen sind Tablet und<br />
Smartphone kaum Grenzen gesetzt. Problematisch wird der reine<br />
App-Betrieb ohne Online-Zugriff auf eine Online-Datenbank, denn die<br />
Hardware-Speichergrenzen sind schnell ausgeschöpft und auch der<br />
Multisession-Betrieb verschiedener Applikationen stößt an seine lokalen<br />
Hardware- und Betriebssystem-Grenzen, d. h., die lokale Speicherung<br />
von Daten und Dokumenten auf einem Tablet ist nur in kleinerem<br />
Umfang möglich, ein Dateisystem wie auf Desktop-PCs üblich existiert<br />
nicht. Denkt man an die Entstehung des Tablets zurück, weiß man,<br />
warum das so ist, denn seitens Apple war und ist das Ziel ganz klar<br />
festgelegt, alles in die Cloud zu verlagern und online abzuwickeln. Die<br />
berühmten Apps sind als kleine Programme konzeptioniert, die online<br />
auf ihre Backbone-Datenbanken zugreifen und erst über diese zu „atmen“<br />
anfangen. Komplexe lokale Tablet-Applikationen sind (bisher)<br />
nur bedingt vorgesehen.<br />
Chancen im Fokus<br />
Wägt man ab zwischen der konservativen Bereitstellung von Serviceliteratur<br />
(via Papier oder PDF) und der mobilen und maßgeschneiderten<br />
Servicedokumentation via Tablet & Co., kann die Entscheidung mit<br />
Blick auf die Chancen nur lauten: jetzt mobil!<br />
für Rückfragen: werner.hofmeister@docware.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
307
Mobile Dokumentation / Mobile Documentation<br />
MOB 19<br />
Tutorial<br />
„Böse Märchen“<br />
„Schöne Märchen“<br />
Technische Dokumentation auf mobilen<br />
Medien: Märchen, Mist und Möglichkeiten<br />
Dieter Gust, itl AG, München<br />
Märchen<br />
iPad, Galaxy und Co. beginnen die Nutzungsgewohnheiten auch bei<br />
Technischer Dokumentation zu revolutionieren und das Märchen der<br />
jederzeit an jedem Ort nutzbaren Online-Dokumentation wird Realität.<br />
Mit Blick auf die kleinen Bildschirmgrößen wird von einigen Experten<br />
allerdings pauschal die Abkehr von vermeintlich „alten Publishing-<br />
Hüten“ gefordert. Nur noch spezielle Apps würden den mobilen Endgeräten<br />
gerecht. Diese Behauptung gehört zum Bereich der „bösen<br />
Märchen“.<br />
Auch manche Juristen argumentieren eher im Bereich der „bösen Märchen“,<br />
indem sie <strong>2012</strong> immer noch behaupten, Anwender wollten lieber<br />
Papier als andere Lösungen. Diese Juristen fragen (etwa in Anlehnung<br />
an das Märchen „Schneewittchen“) den Spiegel nach der bevorzugten<br />
Dokulösung, nehmen aber immer nur den ersten Teil der Antwort wahr,<br />
nachdem Papier „das Schönste im ganzen Land“ sei. Dabei beruhen alle<br />
Umfragen auf den Alternativen DVD oder Papier, was nun 5 Jahre nach<br />
der umjubelten iPhone-Präsentation von Steve Jobs im Jahre 2007 wirklich<br />
überholt ist.<br />
Hyundai wagte 2011 eine Bekanntmachung, die Juristen hierzulande<br />
„die Haare zu Berge stehen lassen“ müsste, die Anwender jedoch „märchenhaft“<br />
erfreute: Für das Luxus-Auto Equus sollte es keine Papieranleitung<br />
mehr geben, sondern „nur“ noch einen iPad mit Bedienungsanleitungs-App.<br />
Es war vermutlich das erste Mal, dass ein technisches<br />
Produkt im Internet über diese neue Form einer Anleitung beworben<br />
wurde (http://www.youtube.com/watch?v=J4hm0eHHQP0).<br />
Die iPad-App umfasst neben einer 3D-Modell-Simulation des Fahrzeugs<br />
und Rundumsichten auch interaktive Animationen und Videos.<br />
Im Vordergrund steht die typische Marketing-orientierte Informationsdarstellung.<br />
Die eigentliche Anleitung ist unspektakulär im klassischen<br />
3-spaltigen Querformat als PDF-Datei integriert. Die ebenfalls PDFbasierte<br />
2-spaltige Kurzanleitung enthält kontextbezogene Verknüpfungen<br />
auf die auch direkt zugänglichen Videos und Animationen.<br />
308<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Equus iPad App Quick Reference Guide<br />
Das Feedback zu dieser App ist bisher recht zwiespältig ausgefallen.<br />
Dass die eigentliche Bedienungsanleitung nur als vermeintlich dröges<br />
PDF zur Verfügung gestellt wird, ist Ursache zahlreicher negativer<br />
Kritiken (siehe z. B. http://www.klaretexte.de/magazin/artikel/<br />
doku-auf-dem-ipad-so/).<br />
Einmal mehr habe ich den Eindruck, dass sich die meisten „Probiernutzer“<br />
von den Marketing-orientierten Informationen leiten lassen, um<br />
dann ein PDF als wenig benutzerfreundlich zu erleben. Entspricht aber<br />
diese Erwartungshaltung und das Vorgehen wirklich der realistischen<br />
Nutzung einer Bedienungsanleitung? Als ein Kollege mich fragte, ob so<br />
ein modernes Auto noch „Sicherungen“ habe, dauerte es wenige Sekunden<br />
und ich konnte ihm anhand der App die Antwort geben: Von der<br />
Startseite aus bietet die App eine hervorragende Volltextsuche in die<br />
Anleitung.<br />
Hyundai Equus Experience iPad App und die Volltextsuche (im PDF)<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
309
Mobile Dokumentation / Mobile Documentation<br />
Die Fundstellen zeigen, dass das Auto Sicherungen besitzt und wie man<br />
sie austauscht. Das PDF ist auf dem iPad perfekt lesbar und man findet<br />
sich relativ schnell im Handbuch zurecht. Klar, man könnte das PDF mit<br />
überschaubaren Mitteln noch besser gestalten und z. B. Instruktions-<br />
Videos mit einbinden (PDF ist multimedialer als die meisten wissen)<br />
oder das Inhaltsverzeichnis per Button oder Gestensteuerung schneller<br />
erreichbar machen.<br />
Der Ruf nach „Augmented Reality“ klingt natürlich viel spannender.<br />
Wer sich jedoch die Audi A1 eKurz-Info http://itunes.apple.com/de/<br />
app/audi-a1-ekurzinfo/id436341817?mt=8 wirklich anschaut, wird nach<br />
ersten „Endlich-mal-was-Cooles-Neues“-Gefühlen sich fragen müssen,<br />
ob der realistische Nutzungsaspekt besser abgedeckt ist. Ich meine<br />
eindeutig: nein!<br />
Die Hyundai Equus-App war für mich die erste App, die Marketing-<br />
Aspekte und eine typische Anleitungs-Nutzung zu einem sinnvollen<br />
Ganzen verbunden hat. Neben der Equus-iPad-App stellte Hyundai<br />
noch vor Mercedes eine weitere App vor, die dem Anspruch gut nutzbarer<br />
Online-Anleitungen durchaus gerecht wird: „Hyundai Centennial<br />
Service“, erhältlich unter http://itunes.apple.com/de/app/<br />
hyundai-centennial-equus-service/id480116475?mt=8<br />
Hyundai Centennial iPhone App mit einem Auszug der Anleitung<br />
Ende eines Märchens<br />
Die iPhone-App bietet einen guten Vergleich zur iPad-App: Ein 3-spaltiges<br />
Querformat-PDF wäre für das iPhone keine passende Lösung.<br />
Und dennoch lassen sich Instruktionsvideos gut in die iPhone-App integrieren.<br />
Die Datenmengen sind zwar in beiden Apps beachtlich, aber<br />
einmal downgeloadet kein Thema mehr (iPad-App über 760 MB Daten,<br />
iPhone-App ca. 200 MB).<br />
Märchen haben in der Realität oft drei Probleme: Es fehlt entweder die<br />
Technik zum Wahrwerden oder das Geld oder man glaubt nicht dran.<br />
Hyundai gab für <strong>2012</strong> bekannt, dass die Equus-Anleitung künftig wieder<br />
auf Papier mitgeliefert würde. Die App ist weiterhin in iTunes<br />
erhältlich, aber die <strong>2012</strong>-Version zeigt, dass sie wohl wenig genutzt<br />
wird: Ausgerechnet die Volltextsuche zeigt teilweise ein fehlerhaftes<br />
310<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Verhalten. Dennoch taugen beide Apps von Hyundai als hervorragende<br />
Referenz und zeigen, dass PDF nicht automatisch als überholt gelten<br />
muss.<br />
Mist<br />
Neben „märchenhaften“ Aussichten spiegelt der aktuelle Stand der<br />
mobilen Technischen Dokumentation auch viel „Mist“ wider. Aus Platzgründen<br />
folgt hier nur eine Liste der wichtigsten negativen Punkte:<br />
−−<br />
Auch die soeben verabschiedete Norm über Bedienungsanleitungen<br />
ISO IEC 82079 und der Guide zur Maschinenrichtlinie (über-) betonen<br />
die Wichtigkeit von Papier. Immerhin sind elektronische Medien<br />
„sinnvolle“ Ergänzungen. Juristen müssen sich „über den Stand der<br />
Stiefmutter in Schneewittchen“ erst noch hinausbewegen.<br />
−−<br />
Technische Dokumentation als native App auf iPhone/iPad oder Android-Geräten<br />
benötigt eine jeweils eigenständige Programmierung.<br />
Bei Kosten für eine „echte“ App von 20.000 EUR und mehr (nach<br />
oben offen!) drohen native Apps für die Technische Dokumentation<br />
jedoch Eintagsfliegen zu bleiben.<br />
−−<br />
Nicht das PDF-Format ist Mist, sondern die dilettantische Beurteilung,<br />
dass PDF für mobile Medien nicht geeignet sei. Leider macht<br />
sich PDF-Erfinder Adobe praktisch diesen Unsinn zu eigen und<br />
liefert bis einschließlich <strong>2012</strong> für Smartphones nur einen Minimal-<br />
PDF-Viewer.<br />
−−<br />
HTML5 und eventuell EPUB-3 sind voraussichtlich die am besten<br />
geeigneten Formate für Technische Dokumentation auf mobilen Medien,<br />
zumindest sobald eine Druckausgabe nicht mehr nötig ist. Aber<br />
sowohl was die Standardisierung der Videoformate anbelangt, als<br />
auch was die Unterstützung von ausgereiften kostenlosen Viewern<br />
insbesondere für E-Pub 3 betrifft, zeigen die Weltmarktführer aus<br />
den USA bisher eher ein chaotisches, kundenunfreundliches Verhalten.<br />
Eine nachvollziehbare Unterstützung der zu HTML5 gehörenden<br />
Standards CSS 3 und JavaScript fehlt jedenfalls. Den Viewer-Markt<br />
bei E-Pub allein den Verlagen zu überlassen geht auch völlig am Bedarf<br />
jenseits der Belletristik vorbei.<br />
Möglichkeiten<br />
Mercedes veröffentlichte Anfang <strong>2012</strong> erstmals die Bedienungsanleitung<br />
für die B-Klasse als App, sowohl für Android Smartphones als<br />
auch für das iPhone. Der „erste Wurf“ zeigte folgende Eigenschaften:<br />
−−<br />
Die Equus-Anleitungen (iPhone und iPad) standen wohl Pate.<br />
Mercedes konzentrierte sich zu Recht verstärkt auf die Use Cases für<br />
Anleitungen und weniger auf das Thema Werbung, wenn auch Werbe-Videos<br />
in das Konzept integriert wurden. Die Umsetzung ist optimiert<br />
für das iPhone und bestätigt so die typische Nutzungssituation<br />
für Technische Dokumentation: Ein iPhone hat man immer dabei, ein<br />
iPad nicht!<br />
−−<br />
Die vollständige Umsetzung der bisher Print-orientierten Auto-Anleitung<br />
in HTML-Seiten bringt eine zum Teil sehr tiefe Verschachtelung<br />
der einzelnen Informationen und eine tendenziell zu kleine<br />
Darstellung der Bilder. Hier wünscht man sich die bei PDF selbstverständliche<br />
(bei HTML-Lösungen aber kaum anzutreffende) Möglichkeit<br />
des freien Zoomens.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
311
Mobile Dokumentation / Mobile Documentation<br />
−−<br />
Die Volltextsuche läuft „nur“ über den redaktionell erzeugten Index,<br />
ein durchaus überlegenswerter Ansatz für die von mir gar nicht hoch<br />
genug einzuschätzende Suchfunktion. Allerdings fehlt so das Highlighten<br />
der Suchbegriffe im eigentlichen Text.<br />
−−<br />
Die zur App weitgehende identische Darstellung der Anleitung im Internet<br />
legt die Vermutung nahe, dass Mercedes auch sein Augenmerk<br />
auf ein effizientes, automatisches Produktionskonzept legte.<br />
Inzwischen liegt die 2. Version der App vor, siehe: http://itunes.apple.<br />
com/de/app/mercedes-benz-guides/id493497188?mt=8<br />
https://play.google.com/store/apps/details?id=com.daimler.moba.kundenapp.android&hl=de<br />
Die neue Version optimiert noch den meiner Meinung nach hervorragenden<br />
Ansatz der neuen Mercedes-Anleitungen.<br />
Neu hinzugekommen sind folgende Eigenschaften:<br />
−−<br />
Katalogkonzept: Man kann in einer App alle zur Verfügung gestellten<br />
Mercedes-Anleitungen verwalten. Die eigentlichen Daten sind also<br />
nicht mehr Bestandteil der App, sondern man kann diese entweder<br />
direkt streamen oder die Anleitung in der gewünschten Sprache lokal<br />
downloaden.<br />
−−<br />
Das Design orientiert sich nun am modernen „schwarzen Trend“, man<br />
könnte allerdings auch sagen, es entspricht nun weitgehend dem<br />
Hyundai Centennial Ansatz.<br />
−−<br />
Endlich funktioniert die App auch unter Android 4.<br />
Spätestens seit der Version 2 sind die Mercedes-Anleitungen die Referenz<br />
schlechthin für mobile Technische Dokumentation. Und nicht<br />
zuletzt der „mutige“ Ansatz, Warnhinweise ein- und ausklappbar zu gestalten,<br />
zeigt, dass man sich hier Gedanken über eine gut produzierbare<br />
und für Anwender dennoch gut nutzbare Dokumentation gemacht hat.<br />
312<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Spannend bleibt die Frage, ob dieses Anleitungskonzept nicht auch über<br />
einen reinen HTML-5-Ansatz oder einen EBUP-3-Ansatz, also ohne<br />
App-Installation umzusetzen wäre.<br />
Steve Jobs ist es wohl zu verdanken, dass Smartphones dank „Finger-<br />
Multitouch“ genial einfach bedienbare und vollwertige multimediale<br />
Informationszentralen geworden sind. Künftig bieten sich daher auch<br />
neue Konzepte an, die die „Dreieinigkeit“ von Technischer Dokumentation,<br />
Training und Service zu einem neuen Ganzen verbinden.<br />
Beispiel Wilo Assistent für eine App, die Pre-Sales-Themen, Service Dokumentation<br />
und Anleitungen integriert (https://play.google.com/store/apps/<br />
details?id=wilo.droid&hl=de)<br />
Märchen werden nur wahr, wenn man daran glaubt. Wie lautet noch<br />
eines der berühmten Zitate von Steve Jobs „Viele Leute wissen nicht<br />
was sie wollen, bis Du es ihnen zeigst“.<br />
für Rückfragen: dieter.gust@itl.eu<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
313
Mobile Dokumentation / Mobile Documentation<br />
MOB 20<br />
Workshop<br />
eBooks in der Technischen Dokumentation<br />
Jörg Ertelt, HelpDesign-technische & elektronische dokumentation, Wendlingen<br />
Die zunehmende Nutzung mobiler Endgeräte (Smartphones und Tablets)<br />
im privaten und beruflichen Alltag führt zu einer steigenden Nachfrage<br />
nach eBooks.<br />
Ob diese Hard- und Software die an sie gestellten Anforderungen erfüllen<br />
und Probleme lösen kann, oder ob sie selber Teile des Problems<br />
sind, muss sich allerdings noch herausstellen.<br />
Für den Einsatz im Bildungssektor, aber auch im Bereich der klassischen<br />
Technischen Dokumentation jedenfalls spielen eBooks zunehmend<br />
eine wichtige Rolle, auch wenn die „Killeranwendung“ noch auf<br />
sich warten lässt.<br />
Mit dem offenen Standard EPUB ist ein normiertes Format verfügbar,<br />
um z. B. Anleitungen zu erstellen. Die Erstellung kann mit Redaktionssystemen<br />
oder spezialisierter Software erfolgen.<br />
Im Workshop werden wir ein kleines eBook in Form einer Betriebsanleitung<br />
mit Sigil von Google erstellen.<br />
Über eBooks<br />
eBook steht für electronic book. Dabei handelt es sich nicht um ein Ausgabeformat,<br />
sondern um den Versuch, das Medium Buch in eine digitale<br />
Form zu übertragen, wobei die buchtypischen Eigenschaften erhalten<br />
bleiben sollen.<br />
Zum Öffnen von eBooks werden eine Soft- und Hardware benötigt.<br />
Die entsprechende Software ist oft mit der Hardware, einem eBook-<br />
Reader, gekoppelt. Allerdings sind auch so genannte Apps verfügbar, die<br />
auf eBook-Readern von unterschiedlichen Herstellern genutzt werden<br />
können.<br />
In diesem Workshop wird das Ausgabeformat EPUB betrachtet.<br />
Über EPUB<br />
EPUB-Logo<br />
EPUB steht für electronic publication. Dabei handelt es sich um ein<br />
Ausgabeformat in einem offenen XML-Standard für eBooks. EPUB<br />
wurde vom International Digital Publishing Forum (IDPF, http://idpf.<br />
org) entwickelt.<br />
EPUB unterstützt das Digitale-Rechte-Management, das allerdings von<br />
der jeweiligen Lesesoftware umgesetzt werden muss.<br />
314<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Mobile Dokumentation / Mobile Documentation<br />
Vorteile / Nachteile<br />
Programm-Beschreibung<br />
−−<br />
Offenes und standardisiertes Format, basierend auf XML, XHTML<br />
und CSS<br />
−−<br />
Kostenfrei<br />
−−<br />
Anpassung der Inhalte und des Layouts an unterschiedliche Bildschirmgrößen<br />
sowie Hoch-/Querformat<br />
−−<br />
Notizen, Lesezeichen, Markierungen sind nicht Bestandteil des Standards<br />
und müssen von der jeweiligen Lesesoftware bereitgestellt<br />
werden<br />
Über Sigil<br />
Sigil ist ein Open-Source-Editor von Google. Im August 2009 ist die erste<br />
Version veröffentlicht worden. Stand September <strong>2012</strong> ist Version 0.5.3<br />
aktuell.<br />
Zweck und Ziel von Sigil ist es, einen benutzerfreundlichen Editor für<br />
die Erstellung von EPUBs bereitzustellen, die sofort genutzt werden<br />
können.<br />
Sigil unterstützt sowohl WYSIWYG (What You See Is What You Get,<br />
Schwäbisch: „Wa de siescht des kriegscht au“) als auch das Editieren<br />
des XHTML-Quellcodes.<br />
−−<br />
Vollständige Unterstützung der EPUB2-Spezifikationen<br />
−−<br />
WYSIWYG- und Quellcode-Editor<br />
−−<br />
Unterstützte Bildformate: JPG, GIF, PNG und SVG<br />
−−<br />
Editor zum Bearbeiten von Metadaten, z. B. Titel und Sprache<br />
−−<br />
Unterstützte Importformate: *.txt, *.html, *.epub<br />
−−<br />
Tool zum Validieren des Quellcodes<br />
−−<br />
Vollständige Unterstützung von Unicode<br />
−−<br />
Reguläre Ausdrücke beim Suchen und Ersetzen<br />
−−<br />
Automatisches Erstellen des Inhaltsverzeichnisses<br />
−−<br />
Neben anderen Sprachen ist Sigil mit deutscher Programmoberfläche<br />
verfügbar (einige Dialoge sind trotzdem in Englisch)<br />
Die Sigil-<br />
Programmoberfläche<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
315
Mobile Dokumentation / Mobile Documentation<br />
Vorteile / Nachteile<br />
1. Der Buch-Browser mit den Ordnern Text (.xhtml-Dateien), Formatierungen<br />
(*.css-Dateien), Bilder (Bild-Dateien), Zeichensätze und<br />
Diverses.<br />
2. Der XML-Editor in geteilter Darstellung. Oben: Der WYSIWYG-Editor.<br />
Unten: Der Quellcode-Editor.<br />
3. Das Inhaltsverzeichnis.<br />
−−<br />
Kostenfrei, Open Source<br />
−−<br />
Schnelles Einarbeiten<br />
−−<br />
Einfaches Anwenden<br />
−−<br />
Komplettes Buch mit Titelblatt, Inhaltsverzeichnis, Impressum, Glossar,<br />
Bildverzeichnis usw.<br />
−−<br />
Ergebnis sofort verfügbar und nutzbar<br />
−−<br />
Keine Versionsverwaltung<br />
−−<br />
Kein Multi-Authoring<br />
−−<br />
Keine Textbausteinverwaltung<br />
−−<br />
Keine Variablen und Bedingungen<br />
Schritt für Schritt zum eBook im EPUB-Format mit Google Sigil:<br />
1. Sigil starten.<br />
2. Ein neues Buch anlegen: Menü Datei > Neu > Neues Buch.<br />
3. Buch speichern: Menü Datei > Speichern als.<br />
4. Neues xhtml-Dokument anlegen oder bestehendes Dokument einfügen:<br />
Auf dem Ordner Text Rechtsklick > Leeren Abschnitt hinzufügen<br />
oder Bestehende Dateien hinzufügen.<br />
5. Im XML-Editor Text einfügen und formatieren, Bilder bei Bedarf<br />
einfügen usw.<br />
6. Semantik hinzufügen, z. B. Titelblatt, Impressum oder Glossar: Auf<br />
einer Datei im Ordner Text Rechtsklick (oder eine neue Datei anlegen)<br />
> Semantik hinzufügen > gewünschte Semantik wählen.<br />
7. EPUB validieren: Menü Datei > EPUB validieren.<br />
8. Wenn Validierung erfolgreich, EPUB veröffentlichen zum Herunterladen<br />
oder direkt auf ein mobiles Endgerät aufspielen.<br />
9. EPUB lesen.<br />
für Rückfragen: joerg.ertelt@helpdesign.eu<br />
316<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien
Gesetze, Normen, Richtlinien<br />
NORM 1<br />
Fachvortrag<br />
CE-Kennzeichnung und CE-Richtlinien –<br />
Mythos und Wahrheit<br />
Jens-Uwe Heuer, Luther Rechtsanwaltgesellschaft, Hannover<br />
Die CE-Kennzeichnung wird in den Unternehmen häufig als lästige<br />
Formalie betrachtet. Nicht selten findet sich auch die Einstellung, dass<br />
die CE-Kennzeichnung ohnehin keiner Kontrolle unterliege und die<br />
Spielregeln nicht durch einen Schiedsrichter kontrolliert werden. Dieser<br />
Eindruck mag auch dadurch entstehen, dass durchaus fragwürdige<br />
Produkte die CE-Kennzeichnung tragen und im europäischen Markt<br />
zirkulieren. In diesem Fachvortrag soll dargestellt werden, wie es sich<br />
mit der CE-Kennzeichnung und der Überwachung tatsächlich verhält<br />
und welche Rolle hierbei die Technische Dokumentation spielt.<br />
Aktueller Stand der CE-Kennzeichnung<br />
Die CE-Kennzeichnung ist ursprünglich entstanden, um sogenannte<br />
technische Handelshemmnisse zu beseitigen: Durch die CE-Kennzeichnung<br />
sollte es möglich sein, dass die einzelnen Mitgliedsstaaten darauf<br />
verzichten können, den Sicherheitsstandard einzelner Produkte vor<br />
Import der Produkte zu überprüfen. Dieser Ansatz hat sich in der Tat<br />
bewährt. Für die der CE-Kennzeichnung unterliegenden Produkte bestehen<br />
in der Praxis kaum noch individuelle mitgliedstaatliche Anforderungen.<br />
Diese sind allenfalls unter dem Gesichtspunkt des Arbeitsschutzes<br />
oder von Feuerschutzanforderungen denkbar.<br />
Tatsächlich hat sich das System der CE-Kennzeichnung von dem Ansatz<br />
„Beseitigung von Handelshemmnissen“ weiterentwickelt. Es dient heute<br />
als Kontrollmöglichkeit für die Sicherheit von Produkten und als wichtiges<br />
Instrument des Produktsicherheitsrechts, das präventiv die Inverkehrgabe<br />
unsicherer Produkte verhindern will. Dieser präventive Ansatz<br />
der Produktüberwachung hat derzeit Vorrang vor dem sogenannten<br />
Haftungsansatz. Ursprünglich sollten Unternehmen durch die Drohung<br />
hoher Schadenersatzforderungen angehalten werden, Produkte sicher<br />
zu gestalten. Dies hat zum Entstehen des Produkthaftungsrechts auch<br />
auf europäischer Ebene mit der EG-Produkthaftungsrichtlinie geführt.<br />
Heute wird allgemein vertreten, dass sich dieser Ansatz nicht als besonders<br />
effizient bewährt hat. Es wird von einem Paradigmenwechsel „von<br />
der Produkthaftung zur Produktüberwachung“ gesprochen.<br />
Die Verstärkung der Produktüberwachung zeigt sich auch in dem Projekt<br />
des „New Legislative Framework“. Mit diesem wurde 2008 auf der<br />
europäischen Ebene ein neuer einheitlicher Rahmen für die CE-Kennzeichnungsrichtlinien<br />
definiert und postuliert, dass die Produktüberwachung<br />
in Europa vereinheitlicht und gestärkt werden soll.<br />
Diese Entwicklung begründet sehr deutlich folgenden Befund in Bezug<br />
auf die CE-Kennzeichnung: Es handelt sich nicht um eine bloße Förmlichkeit.<br />
Die Überwachung von Produkten und damit die Überwachung<br />
der CE-Kennzeichnung wird sich deutlich verschärfen. Die Aufgriffswahrscheinlichkeit<br />
für fehlerhaft gekennzeichnete Produkte ist deutlich<br />
höher als in der Vergangenheit.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
319
Gesetze, Normen, Richtlinien<br />
Technische Redakteure und CE-Kennzeichnung<br />
In Bezug auf die CE-Kennzeichnung ergibt sich beim Blick in die Praxis<br />
nicht selten, dass Technische Redakteure mit der CE-Kennzeichnung<br />
befasst sind. Dies kann sich auf die bloße Darstellung der technischen<br />
Unterlagen beschränken, wie sie z. B. nach Vorgabe der EG-Maschinenrichtlinie<br />
2006/42 für die Marktüberwachungsbehörden aufzubereiten<br />
sind. Es lässt sich allerdings auch beobachten, dass Technische Redakteure<br />
mehr und mehr inhaltliche Verantwortung für den CE-Konformitätsbewertungsprozess<br />
übertragen bekommen. So kann es etwa sein,<br />
dass die Technischen Redakteure bewerten sollen, ob Normen, die der<br />
CE-Kennzeichnung zu Grunde gelegt werden, vom Produkt eingehalten<br />
sind.<br />
Es lässt sich mit Recht intensiv diskutieren, ob dies der richtige Weg<br />
sein kann und ob Technische Redakteure vor ihrem Ausbildungshintergrund<br />
hier überhaupt dazu befähigt sind, sachkundig CE-Konformitätsbewertung<br />
zu betreiben. Diese Diskussion lenkt indessen von einer sehr<br />
wichtigen Tatsache ab:<br />
CE-Konformitätsbewertung versteht sich als Prozess, der unternehmensübergreifend<br />
zu organisieren ist. Eine Konformitätsbewertung<br />
kann nur gelingen, wenn Konstruktion, Herstellung und Technische Redaktion<br />
Hand in Hand arbeiten. Grundlage dafür ist die Risikoanalyse,<br />
die möglichst schon beim Konstruktionsprozess Produktrisiken insbesondere<br />
im Hinblick auf den von der jeweiligen Richtlinie geforderten<br />
Sicherheitsstandard auszuschließen hat. Während der Herstellung<br />
wie auch letztendlich in der Technischen Redaktion bleibt dann diese<br />
Risikoanalyse immer wieder auf ihre Richtigkeit zu überprüfen. Der<br />
Organisationsprozess ist so zu gestalten, dass das Produkt auch jeweils<br />
nachgebessert wird, wenn sich neue Risiken zeigen sollten. Die Technische<br />
Redaktion ist nicht selten hier faktische „Endkontrolle“. Wenn in<br />
der Technischen Redaktion umfangreiche Warn- und Sicherheitshinweise<br />
entstehen, sollte dies Anlass sein, über die Sicherheit des Produktes<br />
nachzudenken. Dies gilt allemal dann, wenn sich für den Technischen<br />
Redakteur abzeichnet, dass das von ihm durch Warnhinweise<br />
abzuschirmende Risiko auch konstruktiv abgeschirmt werden könnte.<br />
Es gilt die Grundregel: Konstruktion vor Instruktion. Erst wenn die konstruktiven<br />
Sicherheitsmaßnahmen ausgeschöpft sind, bleibt Raum für<br />
die Gefahrabwendung mittels Warn- und Sicherheitshinweisen.<br />
Benutzerinformationen und Überwachung der CE-Kennzeichnung<br />
Die Technische Dokumentation ist in zweierlei Hinsicht Nahtstelle zur<br />
Überwachung der CE-Kennzeichnung.<br />
Zum einen entstehen in der Technischen Redaktion häufig auch die begleitenden<br />
Dokumente, wie z. B. die Konformitätserklärungen. Es ist an<br />
dieser Stelle Aufgabe des Technischen Redakteurs, die Richtigkeit der<br />
dort enthaltenen Angaben nachzuhalten. In der Praxis kommt es dabei<br />
immer wieder zu Fehlern, indem z. B. veraltete Richtlinien oder Normen<br />
angegeben werden. Dies gilt es in jedem Fall zu vermeiden. Fehler in<br />
den Konformitätserklärungen würden in jedem Fall eine Marktüberwachungsbehörde<br />
dazu veranlassen, tätig zu werden und den Konformitätsbewertungsprozess<br />
einer genauen Überprüfung zu unterziehen.<br />
320<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
Zum anderen zeigt sich in der Überwachungspraxis, dass die Marktüberwachungsbehörden<br />
die Qualität der produktbegleitenden Dokumente,<br />
insbesondere Benutzerinformationen kontrollieren. Schlechte<br />
Benutzerinformationen indizieren dabei auch durchaus für eine<br />
Marktüberwachungsbehörde Fehler in der Konformitätsbewertung.<br />
Im übertragenen Sinne sind schlechte Benutzerinformationen für die<br />
Marktüberwachung ein „Alarmzeichen“, sich den Konformitätsbewertungsprozess<br />
genauer anzusehen.<br />
Dies lässt sich leicht mit guten Benutzerinformationen verhindern, die<br />
z. B. streng auf Grundlage der IEC 82079 erstellt sind.<br />
für Rückfragen: jens.heuer@luther-lawfirm.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
321
Gesetze, Normen, Richtlinien<br />
NORM 2<br />
Presentation<br />
Fachvortrag<br />
This presentation by Abraham de Wolf will be held in German and English<br />
The Machine and Copyrights<br />
The simple complexity of machine translation<br />
Issues addressed in the presentation are the impact of copyright laws<br />
when a text is translated using software in the form of<br />
−−<br />
Machine Translation such as offered online for free by Google or<br />
other commercial Machine Translation products;<br />
−−<br />
using a Translation Memory or<br />
−−<br />
using and creating a Terminology Database from third party texts.<br />
Important aspects also covered are what role does copyright law play<br />
in the creation of a Translation Memory and of a Terminology Database<br />
using third party texts. Does the claim of “fair use” under US law offer<br />
any protection for those who use third party texts? And why does<br />
it have no legal effect at all for texts originating in EU member states?<br />
What does “work for hire” mean in translation contracts and what role<br />
do contracts play when determining who owns a translation?<br />
The presentation examines these issues of copyright law and translations<br />
using software under English, US and German law.<br />
Die Maschine und das Recht<br />
Die schlichte Komplexität des Urheberrechts bei maschineller Übersetzung<br />
Der Vortrag befasst sich damit, was mit Urheberrechten passiert, wenn<br />
ein Text mit Unterstützung von Software übersetzt wird. Dabei wird<br />
genauer untersucht, welche Folgen die Nutzung hat von<br />
−−<br />
maschineller Übersetzung zum Beispiel von Google oder von anderen<br />
Anbietern;<br />
−−<br />
Translation-Memory-Software;<br />
−−<br />
Terminologie-Datenbank.<br />
Weitere Aspekte des Vortrages sind, welche Rolle das Urheberrecht bei<br />
der Erstellung einer Translation-Memory- und einer Terminologie-Datenbank<br />
spielt, wenn die Texte Dritter verwendet werden. Es wird auch<br />
erläutert, welche Bedeutung Komponenten des US-Urheberrechts in<br />
der EU haben, vor allem die Behauptung des „fair use“ und die Verwendung<br />
des Begriffs „work for hire“ in Verträgen werden näher untersucht<br />
und erklärt. Der Vortrag bezieht das US, englische und deutsche Urheberrecht<br />
ein.<br />
für Rückfragen: abraham.dewolf@lucysoftware.com<br />
322<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
NORM 4<br />
Fachvortrag<br />
Aktuelle Rechtsentwicklungen für<br />
die Technische Dokumentation<br />
Jens-Uwe Heuer, Luther Rechtsanwaltgesellschaft, Hannover<br />
Die <strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong> gibt wieder einmal Anlass, über aktuelle<br />
Rechtsentwicklungen mit Bezug zur Technischen Dokumentation zu<br />
berichten. Dies betrifft sowohl Entwicklungen und einen Überblick zu<br />
Rechtsprechung mit Bezug zur Technischen Dokumentation wie auch<br />
gesetzgeberische Aktivitäten.<br />
Rechtsprechung zur Technischen Dokumentation<br />
Leider bleibt der Wunsch manchen Technischen Redakteurs unerfüllt,<br />
von der Rechtsprechung die universell einsetzbare, alle Aspekte abdeckende<br />
Gerichtsentscheidungen zu erhalten. Vielmehr bleibt es nach<br />
wie vor ein „Puzzlespiel“, aus den unterschiedlichen Gerichtsentscheidungen<br />
die relevanten Passagen herauszulesen.<br />
Insgesamt lässt sich feststellen, dass sich sowohl im Vertragsrecht wie<br />
auch im Produkthaftungsrecht immer wieder Entscheidungen mit Bezug<br />
zur Technischen Dokumentation finden. Dies gilt sowohl für Entscheidungen,<br />
die sich mit aus Bedienungsanleitungen oder ähnlichen<br />
Dokumenten abgeleiteten Beschaffenheiten von Vertragsgegenständen<br />
befassen wie auch für haftungsrechtliche Sachverhalte. Nach wie vor<br />
begründet sich auf unzureichenden sicherheitsrelevanten Informationen<br />
eine Haftung des Herstellers. Häufige Fehlerursache ist dabei eine<br />
unzureichende Analyse des tatsächlichen Gebrauchs des Produktes und<br />
insbesondere der Fähigkeiten der jeweiligen Nutzergruppe, die mit dem<br />
Produkt angesprochen wird. Leider bleibt festzuhalten, dass nur allzu<br />
oft noch mit einer großen und damit groben Messlatte gearbeitet wird.<br />
Viele Haftungsfälle ließen sich tatsächlich vermeiden, wenn eine konkrete<br />
ins Einzelne gehende Auseinandersetzung mit dem Produkt und<br />
seiner Anwendung erfolgen würde.<br />
Auch im Produktsicherheitsrecht finden sich wieder Entscheidungen<br />
mit Bezug zur Technischen Dokumentation. Dahinter versteckt sich<br />
eine Tendenz der letzten Jahre: Produktsicherheitsrechtliche Vorgaben<br />
sind zunehmend relevant als Marktregeln. Dies bedeutet, dass deren<br />
Verletzung durch Mitwettbewerber als Verstoß gegen die Regeln des<br />
guten Wettbewerbs begriffen werden kann. Wer daher eine schlechte<br />
Bedienungsanleitung zur Verfügung stellt und damit Gefahr läuft, gegen<br />
das Produktsicherheitsrecht zu verstoßen, der muss nicht nur mit<br />
Maßnahmen der Marktüberwachung rechnen, sondern auch mit einem<br />
Vorgehen von Marktteilnehmern gegen ihn. Dies kann zu unangenehmen<br />
Situationen führen, wie z. B. Einstweiligen Verfügungen gerade in<br />
dem Moment, wo eine wichtige Messepräsentation des Produktes erfolgen<br />
soll. Diese Art der Vorgehensweise erweist sich in der letzten Zeit<br />
als durchaus erfolgreich, um unliebsame Konkurrenten auszuschalten.<br />
Entwicklung des Produktsicherheitsrechts<br />
Mit dem neuen Produktsicherheitsgesetz (das seit dem 1. Dezember<br />
2011 gilt) hat der Gesetzgeber eine neue Grundlage für die Eingriffe der<br />
Marktüberwachung in den Vertrieb von Produkten geschaffen. Diese<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
323
Gesetze, Normen, Richtlinien<br />
neue gesetzliche Grundlage wirft in der Anwendungspraxis noch eine<br />
Reihe von Fragen auf.<br />
Zu nennen ist hier beispielsweise die Einbeziehung von Komponenten<br />
in den Anwendungsbereich des Gesetzes. Hier bleibt klarzustellen, was<br />
dies in der Praxis tatsächlich bedeutet und inwiefern die Marktüberwachung<br />
tatsächlich beabsichtigt, Produkte zu überwachen, die Bestandteil<br />
anderer Produkte werden.<br />
Eine weitere interessante Fragestellung ist die Anwendung des ProdSG<br />
auf gebrauchte Produkte. Hier ist insbesondere darüber zu berichten,<br />
wie sich der Tatbestand der wesentlichen Veränderung im Rahmen der<br />
Anwendung der EG-Maschinenrichtlinie 2006/42 verändert hat.<br />
Schließlich ist darüber zu berichten, wie sich die Praxis der Gesetzesanwendung<br />
gestaltet.<br />
Neuer europäischer Rechtsrahmen<br />
Unter dem Stichwort „New Legislative Framework“ ist bereits 2008 der<br />
Anstoß gegeben worden, auf der europäischen Ebene die Grundlagen<br />
des Produktsicherheitsrechts neu zu gestalten. Ziel ist es dabei, die<br />
Richtlinien zur CE-Kennzeichnung zu vereinheitlichen, die aufgrund<br />
der historischen Entwicklung teils sehr unterschiedlich gestaltet sind.<br />
Darüber hinaus war es erklärtes Ziel, die Produktüberwachung in Europa<br />
zu intensivieren und zu vereinheitlichen.<br />
Der „New Legislative Framework“ steht nun vor seiner Umsetzung. Die<br />
erste Richtlinie, die nach diesem Konzept gestaltet ist, entstammt nicht<br />
dem „klassischen Bereich“ der CE-Kennzeichnung, sondern befasst sich<br />
mit dem Verbot gefährlicher Stoffe (ROHS). Die Einhaltung der ROHS-<br />
Vorgaben ist nun durch die CE-Kennzeichnung auszuweisen. Dies führt<br />
durchaus zu praktischen Schwierigkeiten und veranlasst, grundsätzlich<br />
den CE-Kennzeichnungsprozess in Unternehmen zu überprüfen.<br />
Weitere Richtlinien sind angekündigt und werden spätestens 2013 entstanden<br />
sein. Regelungsgebiete sind dabei u. a. die Niederspannungsrichtlinie,<br />
die Richtlinie über elektromagnetische Verträglichkeit und<br />
die ATEX-Richtlinie.<br />
Noch unklar ist an dieser Stelle das „Schicksal“ der EG-Maschinenrichtlinie<br />
2006/42. Hier besteht die Auffassung, dass diese Richtlinie<br />
den neuen Vorgaben bereits entspricht, was bei genauerer Betrachtung<br />
jedoch fraglich sein könnte.<br />
Die Richtlinien des „neuen Typs“ enthalten weitgehende Verpflichtungen.<br />
Das Konzept hierzu unterstreicht insbesondere auch die Wichtigkeit<br />
der Benutzerinformation.<br />
Der Fachvortrag wird über die Entwicklungen in der Rechtsprechung<br />
und der Rechtssetzung berichten und praktische Hinweise für die Arbeit<br />
in der Technischen Redaktion geben.<br />
für Rückfragen: jens.heuer@luther-lawfirm.com<br />
324<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
NORM 5<br />
Fachvortrag<br />
Neue ANSI Z535 – vom vernünftigen<br />
Umgang mit Sicherheitshinweisen<br />
Roland Schmeling, Schmeling + Consultants GmbH, Heidelberg<br />
Die ANSI Z535 gibt es, die Vorgängernormen mitgerechnet, seit den<br />
70er Jahren. Was kann bei Sicherheits- und Warnhinweisen noch neu<br />
sein?<br />
In der Tat sind die Änderungen, die die ANSI Z535 im vergangenen Jahr<br />
veröffentlicht hat, überschaubar, beschränken sich jedoch nicht auf die<br />
für die Technische Dokumentation zugeschnittene ANSI Z535.6, sondern<br />
umfassen die gesamte sechsteilige Normenreihe. Zudem ist mit<br />
der neuen IEC 82079-1 „Erstellen von Anleitungen“ eine bedeutende<br />
Norm entstanden, die die Systematik der Sicherheits- und Warnhinweise<br />
international regelt und sich dabei bewusst mit den nötigen Spielräumen<br />
an die ANSI Z535 anlehnt.<br />
Grund genug also, auf dem erreichten Verbreitungs- und Kenntnisstand<br />
die Flughöhe zu erhöhen und mit dem nötigen Abstand die Regeln zu<br />
sondieren, zu bewerten und an eine sinnvolle Praxis anzunähern.<br />
Dabei sollen folgende Standards herangezogen werden:<br />
−−<br />
ANSI Z535.3:2011 “Criteria for Safety Symbols”<br />
−−<br />
ANSI Z535.4:2011 “Product Safety Signs and Labels“<br />
−−<br />
ANSI Z535.6: 2011 “Product Safety Information in Product Manuals,<br />
Instructions, and Other Collateral Materials”<br />
−−<br />
DIN ISO 3864-2:2008 „Graphische Symbole – Sicherheitsfarben und<br />
Sicherheitszeichen – Teil 2: Gestaltungsgrundlagen für Sicherheitsschilder<br />
zur Anwendung auf Produkten“ (ISO 3864-2:2004), einschließlich<br />
der Berichtigung der Übersetzungstabelle für die Signalworte<br />
ISO 38642/Amd 1:2011<br />
−−<br />
ISO 7010:2011 “Graphical symbols — Safety colours and safety signs<br />
— Registered safety signs”<br />
−−<br />
SEMI S1-0708E:2008 “Safety Guideline for Equipment Safety Labels”<br />
−−<br />
IEC 82079-1 (zum Vergleich – zu dieser Norm gibt es ein eigenes<br />
Forum)<br />
−−<br />
VDMA-Leitfaden zu Sicherheitshinweisen in der Landtechnik (noch<br />
nicht veröffentlicht) und der entsprechende Bildzeichen-Katalog<br />
Embedded safety<br />
messages<br />
Piktogramme<br />
Themen<br />
Unter anderem werden die folgenden Themen diskutiert oder<br />
angeschnitten.<br />
Die „integrierten Warnhinweise“ sind Anlass für Diskussionen in den<br />
Unternehmen. Sind integrierte Warnhinweise noch hinreichend deutlich<br />
und auffällig? Oder sind die in Anlehnung an Warnschilder gestalteten<br />
Warnhinweise in Anleitungen schon weit über das Ziel einer wirksamen<br />
Gefährdungskommunikation hinausgeschossen?<br />
Was ist Stand der Dinge bei den Piktogrammen? Wie groß ist der Widerspruch<br />
zwischen ANSI-Piktogrammen und ISO-Symbolen wirklich?<br />
Wann lohnt es sich, eigene Piktogramme zu entwickeln?<br />
Die Folgen bei Nichtbeachtung fehlen in vielen Sicherheitskapiteln. Auf<br />
der anderen Seite haben Sicherheitshinweise grundlegenden Charakter.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
325
Gesetze, Normen, Richtlinien<br />
Sicherheitskapitel<br />
und Folgen bei<br />
Nichtbeachtung<br />
Prozess<br />
Signalworte<br />
Signalworte in der<br />
Übersetzung<br />
Wie können die Folgen bei grundlegenden Sicherheitshinweisen informativ<br />
und mit Nutzen für den Anwender angegeben werden?<br />
Ein VDMA-Projekt zu Sicherheitshinweisen bei Landmaschinen gibt<br />
wertvolle Anhaltspunkte und Beispiele.<br />
Wer im Unternehmen entscheidet über die richtigen Sicherheitshinweise,<br />
Warnhinweise und Warnschilder? Rechtsabteilung, Redaktion, Produktmanagement,<br />
Sicherheitsbeauftrager, die vielen Köche erzeugen<br />
Widersprüche. Zentrale Organisationsstelle sollte die Risikobeurteilung<br />
sein. Doch: Muss jedes Restrisiko in der Risikobeurteilung zwangsneurotisch<br />
zu einem Warnhinweis führen?<br />
Was hat es mit dem „neuen“ Signalwort „SAFETY INSTRUCTIONS“ auf<br />
sich? Sind die Signalworte überhaupt so wichtig, wie die Schärfe der<br />
nicht enden wollenden Diskussion vermuten lassen könnte?<br />
Wie kann man sinnvoll mit den übersetzerischen Mängeln umgehen?<br />
Die SEMI hat in ihrem Standard eine abweichende Übersetzungstabelle<br />
entworfen; wie ist dies zu bewerten, wie kann man mit dem entstehenden<br />
Konflikt umgehen?<br />
Fazit<br />
Häufig gibt es keine eindeutige Antwort auf diese Fragen; vielmehr<br />
müssen unternehmensspezifische Regeln für die Umsetzung vor dem<br />
Hintergrund der Produkte, Märkte, Anwendergruppen, der möglichen<br />
Risiken und wirtschaftlicher Belange festgelegt werden.<br />
für Rückfragen: r.schmeling@schmeling-consultants.de<br />
326<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
NORM 6<br />
Fachvortrag<br />
Der „Guide“ zur Maschinenrichtlinie<br />
2006/42/EG<br />
Gerhard Lierheimer, SL innovativ GmbH, Dinkelsbühl<br />
Die Richtlinie für Maschinen bedarf trotz ihrer strukturellen und inhaltlichen<br />
Neuausrichtung und Überarbeitung immer noch einer fachlichen<br />
Interpretation. Der Guide zur Maschinenrichtlinie versucht diese Lücke<br />
zu schließen. Herausgegeben von der Europäischen Kommission unter<br />
Mitarbeit unterschiedlicher Fachgremien (u. a. des VDMA) zeigt der<br />
Guide/Leitfaden die Originaltexte der Maschinenrichtlinie, die durch<br />
Interpretationen der Kommission ergänzt, verdeutlicht und in ihrer<br />
Ausrichtung präzisiert werden. Der Leitfaden bietet damit eine „Klärungshilfe“<br />
zu diskussionswürdigen Aussagen der Maschinenrichtlinie.<br />
Das Ende aller Diskussionen?<br />
Sicherlich wird über die Inhalte der Maschinenrichtlinie bis zum Ende<br />
ihrer Tage diskutiert werden – und diskutiert werden müssen. Zweck<br />
der Richtlinie war es ja, verbindliche und einheitliche Regelungen zu<br />
treffen. Dass diese Regeln nicht für alle Anwendungen im Geltungsbereich<br />
der Maschinenrichtlinie – und hier gerade in den Randbereichen<br />
– gelten können, ist zu verstehen. Gerade deshalb muss diskutiert und<br />
analysiert werden, um die für die jeweilige Aufgabenstellung passendste<br />
Lösung zu finden.<br />
Zielgruppe<br />
Der Leitfaden richtet sich an sämtliche Parteien, die mit der Anwendung<br />
der Maschinenrichtlinie befasst sind, unter anderem Hersteller,<br />
Importeure und Händler von Maschinen, notifizierte Stellen, Normungsgremien,<br />
Agenturen für Sicherheit und Gesundheitsschutz am<br />
Arbeitsplatz sowie für Verbraucherschutz, ferner Vertreter der zuständigen<br />
nationalen Verwaltungs- und Marktüberwachungsbehörden. Außerdem<br />
ist er für Juristen und für Studierende des EU-Rechts in den Bereichen<br />
Binnenmarkt, Sicherheit und Gesundheitsschutz am Arbeitsplatz<br />
und Verbraucherschutz von Interesse.<br />
Redaktionsteam<br />
Während der Erörterung der überarbeiteten Maschinenrichtlinie im<br />
Rat und im Europäischen Parlament erklärte sich die Kommission bereit,<br />
einen neuen Leitfaden für die Anwendung dieser Richtlinie zu<br />
erarbeiten.<br />
Dieser Leitfaden wurde unter Mitwirkung einer europäischen Redaktionsgruppe<br />
erstellt. Parallel zur Arbeit der Redaktionsgruppe steuerte<br />
eine Kernarbeitsgruppe „Maschinen“, die von ORGALIME eingesetzt<br />
worden war und der Vertreter der wichtigsten Branchen des Maschinenbaus<br />
angehörten, wichtige Beiträge der Industrie zu diesem Leitfaden<br />
bei. Die Entwurfsfassungen der Redaktionsgruppe wurden den<br />
Mitgliedstaaten und Interessengruppen zur Stellungnahme vorgelegt.<br />
Inhalte<br />
Der Vortrag kann nicht alle Inhalte des Leitfadens zur Maschinenrichtlinie<br />
2006/42/EC vorstellen, dazu ist der Umfang mit über 430 Seiten<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
327
Gesetze, Normen, Richtlinien<br />
zu groß. Der Vortrag wird aber die Basis dazu bilden, den Leitfaden<br />
korrekt lesen und interpretieren zu können – um ihn anschließend<br />
korrekt verwenden zu können. Dazu werden folgende Themenbereiche<br />
angesprochen:<br />
−−<br />
Zweck des Leitfadens zur Maschinenrichtlinie<br />
− − „Rechtliche“ Relevanz<br />
−−<br />
Erstellungsprozess und Erstellungsteam<br />
−−<br />
Aufbau und Struktur des Leitfadens<br />
−−<br />
Inhalte und Beispiele<br />
−−<br />
Deutsche Übersetzung<br />
−−<br />
Wie geht es weiter?<br />
Struktur<br />
Der Leitfaden zur Maschinenrichtlinie 2006/42/EG lehnt sich strukturell<br />
an die Abfolge der Maschinenrichtlinie an. Er greift einzelne Abschnitte,<br />
Sinneinheiten oder auch einzelne Begriffe auf und erklärt, verdeutlicht<br />
oder ergänzt die Sichtweise der Autoren der Richtlinie. Die erklärenden<br />
Texte stellen auch thematische Querverbindungen zu anderen Teilen<br />
der Maschinenrichtline oder auch innerhalb des Leitfadens her. Es ergibt<br />
sich daraus eine sehr starke Vernetzung der Inhalte, die sich durch<br />
bloßes Lesen der Maschinenrichtlinie so nicht – oder nur für versierte<br />
Verwender – herstellen lässt.<br />
Beispiele<br />
Anhand einer Sammlung von Beispielen verdeutlicht der Vortrag die<br />
Struktur und die Vorgehensweise des Leitfadens. Der Richtlinientext<br />
wird im Zusammenhang mit den Texten des Leitfadens dargestellt. Ergänzend<br />
dazu werden auch beispielhaft Folgerungen aus den einzelnen<br />
Leitfadentexten gezogen – die dann als eigentliche Lösungsansätze und<br />
Ergebnisse aus den Inhalten des Leitfadens gelten können.<br />
Deutsche Übersetzung<br />
Nach einer langen Wartezeit, in der der Leitfaden nur in englischer<br />
Sprache vorlag, ist jetzt die deutsche Übersetzung auf dem Markt. Sicher<br />
erschließt diese Übersetzung einen zusätzlichen Leserkreis und<br />
verdeutlicht die Begrifflichkeit der englischen Texte. Als Empfehlung<br />
kann aber gegeben werden, was für alle Übersetzungen gilt: In Zweifelsfällen<br />
den englischen Originaltext mit in die Entscheidungen einzubeziehen.<br />
Diese Empfehlung spricht auch die Kommission aus, da nur<br />
die englische Fassung von der Kommission geprüft wird.<br />
Fazit<br />
Mit der Erstellung des Leitfadens zur Maschinenrichtlinie und gerade<br />
auch mit der deutschen Übersetzung hat die Maschinenrichtlinie eine<br />
neue Aufmerksamkeit erreicht. Getroffene Entscheidungen wurden<br />
revidiert oder Entscheidungen erst auf Basis des Leitfadens, oft nach<br />
kontroverser Diskussion, getroffen. Beide Vorgehensweisen tragen zur<br />
Sicherheit der Maschinen bei – und damit ist die ursprüngliche Zielsetzung<br />
der Maschinenrichtlinie 2006/42/EG in einem hohen Maße<br />
erreicht.<br />
für Rückfragen: g.lierheimer@sl-i.de<br />
328<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
NORM 7<br />
Podiumsdiskussion<br />
Podiumsdiskussion:<br />
Technische Redaktion als Normenstelle?<br />
Moderation: Matthias Schulz, ProfiServices, Erkelenz<br />
Die Bedeutung gesetzlicher Anforderungen und Normen für die Erstellung<br />
Technischer Dokumentationen nimmt weiterhin zu. Gleichzeitig<br />
steigt das Bewusstsein für die Bedeutung der Produktsicherheit in weiten<br />
Teilen des Apparate- und Maschinenbaus. Oftmals wird die Menge<br />
verschiedener Vorschriften und Normen als kaum beherrschbare „Flut“<br />
wahrgenommen. Die Unternehmen reagieren darauf sehr unterschiedlich.<br />
Einige gehen organisiert an Rechts- und Normenrecherche heran<br />
und sorgen dafür, dass sog. „Compliance“ mit den Regeln unternehmensweit<br />
erreicht wird. Andere laufen der Entwicklung permanent hinterher,<br />
weil im Unternehmen niemand ausdrücklich die Verantwortung<br />
für die Aktualisierung, Verteilung und Umsetzung von Regeln trägt.<br />
Auf dem Hintergrund von Begriffen wie „Dokumentationsverantwortlicher“<br />
und „CE-Bevollmächtigter“ sind in den letzten Jahren immer<br />
häufiger Redaktionsabteilungen in die Rolle geschlüpft, die früher einer<br />
Normenstelle zugedacht war. Technische Redakteure sind heute oft aufgefordert,<br />
nicht nur die Gesetzestexte und Normen zu beschaffen und<br />
aktuell zu halten, sondern man überträgt ihnen auch Umsetzungsmaßnahmen,<br />
wie z. B. die Risikobeurteilung, Konformitätsnachweise, die<br />
Kommunikation mit Prüf- und Zertifizierungsstellen usw.<br />
Damit einzelne Redakteure oder Redaktionsabteilungen solchen Aufgaben<br />
gewachsen sind und sie erfolgreich meistern können, müssen verschiedene<br />
Voraussetzungen geschaffen werden:<br />
Personell:<br />
−−<br />
Es muss sichergestellt sein, dass die mit Normenrecherche und -verwaltung<br />
beschäftigten Personen fachlich hinreichend qualifiziert<br />
sind, z. B. bezüglich des Aufbaus, Einordnung, Auslegung von Normen.<br />
−−<br />
Wer Risikobeurteilungen moderieren oder mit durchführen soll,<br />
sollte nicht nur eine solide Methodenkenntnis haben (Welche Methoden<br />
eignen sich wozu am besten und wie werden diese eingesetzt?),<br />
sondern sollte auch über fachliches Know-how bezüglich der geforderten<br />
Sicherheitsmaßnahmen verfügen.<br />
Infrastrukturell:<br />
−−<br />
Recherche, Verwaltung, Aktualisierung und Verteilung von Normen<br />
oder speziell aufbereiteten Normeninhalten erfordert technische<br />
Hilfsmittel (z. B. eine Normendatenbank).<br />
−−<br />
Risikobeurteilungen sollten im Anlagenbau modular aufgebaut werden<br />
und sollten daher – vor allem bei häufiger Notwendigkeit neuer<br />
Risikobeurteilungen – datenbankgestützt erstellt und verwaltet werden.<br />
Da besonders kleinere und mittelständische Unternehmen des Maschinenbaus<br />
dieser Entwicklung permanent hinterherhängen, während sie<br />
gleichzeitig an der Auslastungsgrenze operieren, ist die Qualifizierung<br />
des Personals eine der größten Herausforderungen auf diesem Gebiet.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
329
Gesetze, Normen, Richtlinien<br />
Rechts- und<br />
Normenmanagement<br />
in der Dokuabteilung –<br />
Chance oder Last?<br />
In größeren Unternehmen mausert sich „Compliance“ vom Außenseiterthema<br />
zur Modeerscheinung, in die personell und materiell immer<br />
größerer Aufwand investiert wird. Hier stellt sich die Frage, inwieweit<br />
ein firmenweiter „Compliance“-Ansatz für mittelständische Unternehmen<br />
erforderlich und sinnvoll ist.<br />
Während der Podiumsversanstaltung diskutieren Matthias Schulz<br />
(ProfiServices, Erkelenz), Reno Sprater (Dräger Medical, Lübeck) und<br />
weitere Teilnehmer aus Unternehmen unterschiedlicher Branchen und<br />
Größen über die aktuelle Situation, erfolgreiche Konzepte, gescheiterte<br />
Ansätze und die Chancen für Technische Redaktionen. Im Kern geht<br />
es um die Frage, ob zusätzliche Aufgaben im Bereich „Compliance“ und<br />
„Normenmanagement“ für Technische Redaktionen eine Chance darstellen<br />
oder nur eine Last sind. Handelt es sich um einen Irrweg oder<br />
eine sinnvolle Ausweitung/Ergänzung ihres Tätigkeitsfeldes?<br />
Konkret sollen Fragen und Erfahrungen wie die folgenden diskutiert<br />
werden:<br />
−−<br />
Wie funktioniert Normenmanagement in größeren Unternehmen, im<br />
Mittelstand und in Kleinunternehmen?<br />
−−<br />
Ist es für Technische Redakteure überhaupt sinnvoll, solche Aufgaben<br />
zu übernehmen?<br />
−−<br />
Wenn ja, welche Voraussetzungen sind für eine professionelle Umsetzung<br />
erforderlich?<br />
−−<br />
Welche Recherchewerkzeuge werden benutzt und wie verteilt man<br />
die Informationen im Unternehmen? Ist eine spezielle Aufbereitung<br />
erforderlich?<br />
−−<br />
Gibt es hausinterne Schulungsmaßnahmen zu den gesetzlichen Anforderungen<br />
an die Produktsicherheit, interne Dokumentation und<br />
Benutzerinformation? Was ist auf diesem Gebiet erforderlich?<br />
−−<br />
Wie sieht das typische/ideale Mitarbeiterprofil für einen „Normenmanager“<br />
aus?<br />
Nach kurzen Einführungsreferaten möchten die Moderatoren des Podiums<br />
die Erfahrungen und Fragen der Zuhörer diskutieren und zu<br />
einem Erfahrungstausch anregen.<br />
für Rückfragen: mschulz@profiservices.de<br />
330<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Gesetze, Normen, Richtlinien<br />
NORM 8<br />
Workshop<br />
Aufbau eines CE-Managementsystems<br />
Volker Krey, Freier Berater + Trainer, Kassel<br />
Was spricht für ein<br />
CE-Managementsystem?<br />
Normenreihe der<br />
ISO 9000 heranziehen<br />
Grundlegende Anmerkungen zu einem CE-Managementsystem<br />
Fast 30 EG-Richtlinien zur CE-Kennzeichnung gibt es mittlerweile –<br />
diese gesetzlichen Vorschriften nennen vor allem Sicherheitsanforderungen<br />
für Produkte, die auf dem Markt bereitgestellt werden sollen.<br />
Somit sind bei der praktischen Umsetzung der CE-Kennzeichnung in<br />
den Unternehmen zunächst einmal umfangreiche Informationen aus<br />
den jeweils anzuwendenden CE-Richtlinien zu beachten. Aber: das alleine<br />
bringt noch keine effiziente Umsetzung zustande – denn die Anforderungen<br />
der CE-Richtlinien sind überwiegend abstrakt formuliert,<br />
so dass Unternehmen die für sie passenden konkreten CE-Maßnahmen<br />
selbst zu entwickeln und zu gestalten haben, wobei diese Maßnahmen<br />
auch im Zusammenhang aufeinander abgestimmt und in die betrieblichen<br />
Abläufe eingebunden werden sollten.<br />
Für diese organisatorische Aufgabe ist zu empfehlen, die erforderlichen<br />
CE-Maßnahmen systematisch in einem CE-Managementsystem<br />
zusammenzufassen.<br />
In vielen Unternehmen wird die Umsetzung der CE-Maßnahmen auch<br />
mit Veränderungen in den Geschäftsprozessen verbunden sein – das<br />
heißt: betriebliche Prozesse sind neu auszurichten.<br />
Da auch die weitverbreitete Normenreihe der ISO 9000 mit ihrem prozessorientierten<br />
Ansatz darauf ausgerichtet ist, betriebliche Prozesse zu<br />
optimieren, ist es naheliegend, danach zu fragen, inwieweit die Organisation<br />
der CE-Maßnahmen konform zur Normenreihe der ISO 9000<br />
erfolgen kann, so dass ein CE-Managementsystem entsteht, das:<br />
−−<br />
einerseits leicht in ein bestehendes Qualitätsmanagementsystem<br />
einzubinden ist oder<br />
−−<br />
andererseits die Grundlage für ein zukünftiges Qualitätsmanagementsystem<br />
bildet.<br />
Darüber hinaus ergeben sich auch von der Norm DIN EN ISO 9001:2008<br />
unmittelbare Verbindungen zu den CE-Maßnahmen – insbesondere sei<br />
hier der Punkt 5.1 erwähnt, wonach die oberste Leitung nachzuweisen<br />
hat, dass die rechtlichen Anforderungen ermittelt und erfüllt werden,<br />
was ohne Frage CE-Maßnahmen mit einschließt.<br />
Systematischer Aufbau eines CE-Managementsystems<br />
Zum Aufbau eines CE-Managementsystems wird im Workshop ein systematisches<br />
Vorgehen in 4 Schritten vorgestellt:<br />
1. Betrachteten CE-Kontext festlegen<br />
2. Bisherige CE-Maßnahmen erfassen<br />
3. Zukünftige CE-Maßnahmen entwickeln<br />
4. Zukünftige CE-Maßnahmen gestalten<br />
Weiterhin wird bei der Bearbeitung dieser Schritte ein CE-Praxisleitfaden<br />
zugrunde gelegt, in dem alle erforderlichen CE-Maßnahmen handlungsorientierend<br />
zusammengefasst sind.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
331
Gesetze, Normen, Richtlinien<br />
1 Betrachteten<br />
CE‐Kontext festlegen<br />
2 Bisherige<br />
CE‐Maßnahmen erfassen<br />
3 Zukünftige<br />
CE‐Maßnahmen<br />
entwickeln<br />
4 Zukünftige<br />
CE‐Maßnahmen<br />
gestalten<br />
Zunächst geht es darum, sich einen ersten Überblick zum Kontext der<br />
CE-Kennzeichnung zu verschaffen, in den das Unternehmen eingebunden<br />
ist. Es ist also zu fragen, wer beteiligt ist: im eigenen Unternehmen,<br />
bei den Lieferanten, bei den Kunden, Prüfstellen, Behörden, ...?<br />
Jetzt ist zu klären, welche CE-Maßnahmen das Unternehmen – insgesamt<br />
– bisher umsetzt; dabei sind ggf. auch noch nicht durchgeführte<br />
Maßnahmen zu beachten. Auf dieser Grundlage ist eine klare Entscheidung<br />
herbeizuführen, ob man die bisherige Ist-Situation verändern will<br />
und welche Ziele erreicht werden sollen.<br />
Will man also die CE-Kennzeichnung neu ausrichten, so sind nun alle<br />
zukünftig denkbaren CE-Maßnahmen zu ermitteln, wobei man alternative<br />
Maßnahmen in verschiedenen Lösungsvarianten zusammenfassen<br />
sollte, sodass eine Entscheidung für eine Gesamtlösung von aufeinander<br />
abgestimmten Einzelmaßnahmen herbeigeführt werden kann.<br />
Und schließlich sind die CE-Maßnahmen der festgelegten Gesamtlösung<br />
noch weiter zu konkretisieren sowie in die betrieblichen Abläufe<br />
einzubinden. Dabei können die Maßnahmen weiterhin auf die relevanten<br />
Anforderungen der ISO 9001 abgestimmt und entsprechend dokumentiert<br />
werden, sodass ein zertifizierungsfähiges CE-Managementsystem<br />
entsteht.<br />
Im Workshop werden diese vier Schritte mit Hilfe einer Arbeitsvorlage<br />
tiefer gehend behandelt.<br />
Für Rückfragen: info@volker-krey.de<br />
332<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards
Offene technische Standards<br />
OTS 1<br />
Fachvortrag<br />
XML – Standard oder proprietär?<br />
Ulrich Pelster, gds AG, Sassenberg<br />
XML ist das Datenformat von heute und morgen. Die Übersetzung „Erweiterbare<br />
Auszeichnungssprache“ macht deutlich, was das Ziel von<br />
XML ist: Ein standardisiertes, austauschbares Inhalts- und Strukturformat,<br />
das für individuelle Bedürfnisse erweitert werden kann. Aber führt<br />
das denn nicht zu einem Widerspruch? Ist durch eine individuelle Festlegung<br />
das Ergebnis am Ende nicht proprietär?<br />
Wer mit der Erstellung und Pflege strukturierter Inhalte zu tun hat,<br />
kommt um XML nicht herum. D. h. aber nicht zwangsläufig, dass man<br />
sich tiefgreifend mit XML auseinandersetzen oder gar auf geschätzte<br />
Arbeitsweisen, wie z. B. das Arbeiten im WYSIWYG, verzichten muss.<br />
Bei der Entwicklung von Prozessen steht die Sicherstellung von zukunftsorientierten,<br />
effizienten Lösungen im Vordergrund. Dies gilt vor<br />
allem in Verbindung mit Redaktionssystemen. Hier ist das Thema XML<br />
inzwischen gesetzt. Doch herrscht gerade in diesem Bereich eine große<br />
Verunsicherung. Funktional liegen die führenden Systeme gar nicht so<br />
weit auseinander, wie oftmals vermutet, ganz im Gegenteil. Jedoch liegen<br />
ihnen unterschiedliche Verfahrensweisen und Konzepte zugrunde,<br />
die zu unterschiedlichen Systemerscheinungen führen und damit letztlich<br />
auch unterschiedliche Zielgruppen ansprechen.<br />
Es soll erläutert werden, wie sich zwei unterschiedliche XML-basierte<br />
Verfahren darstellen und wo die Vor- und Nachteile liegen. Eine Unterscheidung<br />
der Verfahren kann man durch die Bezeichnung „offenes<br />
XML“ und „standardisiertes XML“ treffen.<br />
„Offenes XML“<br />
Mit der in diesem Beitrag als „offenes XML“ bezeichneten Verfahrensweise<br />
ist die individuell änderbare und die damit meist herstellerbezogene<br />
Vorfestlegung von Inhalts- und Strukturformaten gemeint.<br />
Diese Vorfestlegungen sind Einschränkungen, die in einer DTD (Document<br />
Type Definition) oder einem XML-Schema definiert werden,<br />
wo also der Aufbau der Dokumente festgelegt wird. Praktisch bedeutet<br />
diese Festlegung auch immer eine Einschränkung der strukturellen<br />
Möglichkeiten, die XML generell bietet.<br />
Die Bezeichnung „offenes XML“ bringt zum Ausdruck, dass die Festlegungen<br />
beliebig sind. Da aber ohne Festlegung kein Dokument erfasst<br />
werden kann, sind die Lösungen in der Regel firmenindividuell oder<br />
herstellerspezifisch. Einher mit dem Begriff „offen“ geht also auch der<br />
Begriff „proprietär“, weil konkrete Umsetzungen keinem festgelegten<br />
Standard entsprechen.<br />
Erfasst werden solche XML-Daten meist in „getaggter Darstellung“,<br />
d. h., der Text und die zugehörigen Strukturelemente werden im XML-<br />
Editor als XML-Tags dargestellt. Klassische Editoren sind bspw. XMetaL<br />
oder XMLSpy.<br />
Eine Sicherheitsinformation könnte in einer offenen XML-Struktur so<br />
aussehen:<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
335
Offene technische Standards<br />
Um die Publikationen, die in der Regel als PDF-Dokument oder im<br />
HTML-Format benötigt werden, zu generieren, sind Konvertierungen<br />
der XML-Daten erforderlich. Diese „Transformationen“ werden mittels<br />
Transformationssprachen wie zum Beispiel XSLT definiert.<br />
„Standardisiertes XML“<br />
Neben den offenen XML-Strukturen existieren auch unterschiedliche<br />
Ansätze, die „proprietäre Lage“ durch standardisiertes XML zu umgehen.<br />
Wird XML als Basis genutzt, um daraus ein standardisiertes Austauschformat<br />
zu definieren, kann in diesem Zusammenhang von „standardisiertem<br />
XML“ gesprochen werden.<br />
Während sich Verfahren wie DocBook und DITA dabei auf eine Buchoder<br />
Topic-orientierte Struktur konzentrieren (und dabei den Freiheitsgrad<br />
wiederum eingrenzen), gehen andere Standardisierungsansätze<br />
ungleich weiter. Sie berücksichtigen neben einer möglichst weitreichenden<br />
Abdeckung beliebiger Strukturen auch zusätzlich die XML-Darstellung<br />
aller denkbaren Formatierungsaspekte.<br />
Für den Bereich der Technischen Dokumentation sind hier als relevante<br />
Formate ODF und Open XML zu nennen. Beide Formate sind als<br />
internationale Normen veröffentlicht.<br />
Anders als bei der Erfassung „offener XML-Daten“ erfolgt die Verarbeitung<br />
von Daten mithilfe von Office-Lösungen wie Open Office (ODF)<br />
oder Microsoft Word (OpenXML). Die Festlegung von Layout und Struktur<br />
ist hier integriert und erfolgt nicht über eine DTD oder ein Schema.<br />
336<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
Hierzu werden Templates genutzt, in denen Dokumenteneigenschaften,<br />
Layouts und Strukturen definiert werden. Weiterhin kann mithilfe dieser<br />
Templates die Arbeitsumgebung anwendungsspezifisch eingerichtet<br />
werden.<br />
Die Publikation der auf „standardisiertem XML“ basierenden Inhalte<br />
erfolgt über Standardverfahren, die häufig Editor-seitig ablaufen.<br />
Welches XML für welche Anwendung?<br />
Beide dargestellten Ansätze besitzen ihre Berechtigung und aufgrund<br />
der unterschiedlichen Anforderungen und Konzepte kann das eine oder<br />
das andere Verfahren sinnvoll sein.<br />
Der wesentliche Unterschied bei der Arbeitsweise stellt sich durch<br />
die Validierung der Inhalte gegen die in der DTD bzw. dem Schema<br />
definierten Festlegungen dar. Bei Redaktionssystemen mit offenem<br />
XML-Verfahren wird bei der Erfassung von Daten deren Inhalt auf<br />
Einhaltung der Strukturfestlegungen geprüft. Durch die erzwungene<br />
Einhaltung werden konsistente Strukturen sichergestellt.<br />
Dem Technischen Redakteur sind damit aber auch sämtliche Freiheiten,<br />
die zu Abweichungen der Festlegungen führen würden, genommen.<br />
Aufgrund von sich ändernden Produkttypen, Regelwerken und<br />
Richtlinien sind somit regelmäßige Änderungen bzw. Erweiterungen<br />
der Struktur unumgänglich. Hieraus resultieren dann häufig DTD- bzw.<br />
Schema-Anpassungen, die in aller Regel nicht vom Anwender selbst<br />
durchgeführt werden können.<br />
Bei Redaktionssystemen auf Basis „standardisierter XML-Verfahren“<br />
erfolgt keine Validierung gegen eine DTD bzw. ein Schema. Allerdings<br />
können Strukturprüfungen und eine restriktive Erfassung von Inhalten<br />
mit Programmfunktionalitäten abgedeckt werden. Anpassungen<br />
von definierten Festlegungen und Layouts kann der Anwender selbst<br />
vornehmen.<br />
Grundlegend kann man sagen, dass die eher stringente und starre Arbeitsweise<br />
in Verbindung mit dem „offenen XML-Verfahren“ den Großkonzernen,<br />
bei denen eine Vielzahl von Redakteuren und Dienstleistern<br />
mit der Erstellung von Technischer Dokumentation beschäftigt ist,<br />
entgegenkommt.<br />
Ist hingegen Flexibilität und Dynamik gefragt, wie es häufig bei mittelständischen<br />
Unternehmen der Fall ist, bietet das „standardisierte XML-<br />
Verfahren“ deutliche Vorteile.<br />
für Rückfragen: ulrich.pelster@gds.eu<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
337
Offene technische Standards<br />
OTS 2<br />
Fachvortrag<br />
TBX – ein Standard für den Austausch<br />
terminologischer Daten: Anforderungen,<br />
Probleme, Verbesserungen<br />
Klaus-Dirk Schmitz, Fachhochschule Köln<br />
Die Erarbeitung konsistenter und zuverlässiger Terminologie ist zeitaufwändig<br />
und kostenintensiv. Deshalb wird eine möglichst häufige<br />
Wiederverwendung der Daten angestrebt, die aber nur durch einen<br />
Austausch terminologischer Daten zwischen unterschiedlichen Terminologieverwaltungssystemen<br />
geschehen kann.<br />
Auch im Zusammenspiel zwischen Auftraggebern, Sprachdienstleistern<br />
und Freiberuflern ist die Weitergabe terminologischer Daten in beide<br />
Richtungen durchaus üblich. Unternehmen stellen ihre Terminologie<br />
für den Übersetzungs prozess zur Verfügung und Übersetzer geben<br />
aktualisierte Terminologiebestände wieder zurück. Besonders die Einhaltung<br />
konsistenter Terminologieverwendung in größeren Projekten,<br />
an denen mehrere Parteien beteiligt sind, kann nur dann sichergestellt<br />
werden, wenn alle auf die gleiche Terminologie zugreifen können; unterschiedliche<br />
Terminologiewerkzeuge und individuelle Modellierungen<br />
von Terminologiebeständen erschweren aber den verlustfreien und<br />
konsistenten Austausch von terminologischen Daten.<br />
Als letztes wichtiges Szenario für den Austausch terminologischer Daten<br />
muss noch die Migration von Terminologie von einem System auf<br />
ein anderes genannt werden. Dies kann notwendig werden, wenn ein<br />
Anwender von einem Terminologiever waltungssystem auf ein System<br />
eines anderen Herstellers umsteigt, aber auch, wenn terminologische<br />
Daten in anderen Programmen wie z. B. Content-Management-Systemen<br />
oder (regelbasierten) Maschinellen Übersetzungssystemen oder<br />
auch in anderen Formaten wie z. B. HTML oder XML gebraucht werden.<br />
Anforderungen<br />
Will man terminologische Daten zwischen zwei bestimmten Systemen<br />
austauschen oder Daten aus einem System für eine andere Anwendung<br />
nutzen, so müssen normalerweise individuelle Konvertierungsroutinen<br />
entwickelt werden. Hierzu ist es einerseits erforderlich, die individuellen<br />
Export- und Importformate der beteiligten Systeme zu kennen und<br />
in den Konvertierungen zu berücksichtigen; andererseits muss man<br />
aber auch die „Semantik“ der Datenkategorien und der Datenmodelle<br />
der beiden beteiligten Systeme richtig interpretieren.<br />
Sind mehrere Systeme am Austausch terminologischer Daten beteiligt,<br />
so erhöht sich sehr schnell die Anzahl der notwendigen Konvertierungsroutinen.<br />
Deshalb möchte man gerne auf genormte Austauschformate<br />
zurückgreifen, wobei jedes der beteiligten Terminologieverwaltungssysteme<br />
„nur“ einen Import von Daten aus dem genormten<br />
Austauschformat und „nur“ einen Export in das genormte Austauschformat<br />
bereitstellen muss.<br />
Eines der bekanntesten und oft bereitgestellten Formate für den Datenaustausch<br />
ist das CSV-Format (comma-separated values). Bei diesem<br />
Format werden Informationen durch Kommata oder Tabulatoren und<br />
338<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
Datensätze durch Returns oder Absatzmarken getrennt. Auch wenn die<br />
einzelnen Daten in der Regel sauber voneinander getrennt werden, so<br />
ist doch die Bedeutung und Interpretation der einzelnen Daten unklar<br />
und nicht im Format abgelegt.<br />
Abb. 1: Daten einer spezifischen MultiTerm 2011-Termbank<br />
im CSV-Format<br />
Die Verwendung einer Auszeichnungssprache wie XML (extensible<br />
markup language) umgeht genau diese Problematik. Einer Information<br />
kann nicht nur durch die Markierung mit einem sog. Tag eine Bedeutung<br />
mitgegeben werden, auch die Gruppierung und Zuordnung von<br />
Daten wird mittels XML eindeutig festgelegt.<br />
TBX<br />
Will man jetzt ein genormtes Austauschformat definieren, so muss man<br />
eigentlich nur noch die XML-Auszeichnungselemente in den spitzen<br />
Klammern, die Tags, standardisieren und festlegen, auf welcher Ebene<br />
des Formats diese Elemente auftreten können. Genau dies macht das in<br />
der ISO 30042 (2008) festgelegte Austauschformat TBX (TermBase eXchange).<br />
TBX nutzt das in der ISO 16642 (2003) definierte terminologische<br />
Meta-Modell für die Ebenen und Strukturelemente der XML-Datei<br />
und die in ISOCAT (www.isocat.org) spezifizierten Datenkategorien für<br />
die Auszeichnung der einzelnen Informationswerte.<br />
Abbildung 2 zeigt sehr vereinfacht einen Ausschnitt aus einem terminologischen<br />
Eintrag in TBX.<br />
Abb. 2: vereinfachter Auszug aus einer TBX-Datei<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
339
Offene technische Standards<br />
Zwei grundsätzliche Probleme bei TBX<br />
TBX versucht bei sogenannten geschlossenen Datenkategorien auch<br />
die Werte, die auftreten können, als einfache Datenkategorien festzulegen.<br />
Das mag bei bestimmten Datenkategorien wie Genus zuverlässig<br />
funktionieren (Genus = m., f. oder n.), bei anderen wiederum auch noch<br />
ganz gut möglich sein (der Bearbeitungsstatus kann in unterschiedlichen<br />
Umgebungen unterschiedliche Werte erfordern), muss aber bei<br />
bestimmten Kategorien wie Fachgebiet zum Scheitern verurteilt sein, da<br />
sich keine Fachgebietsklassifikation finden lässt, die allen Bedürfnissen<br />
gerecht werden kann. Deshalb kann ein vollkommen „blinder“ Datenaustausch<br />
mit TBX nicht für alle Datenkategorien sichergestellt werden,<br />
da TBX z. B. keine Werte für die Datenkategorie Fachgebiet spezifiziert.<br />
Idealerweise sollte dem Nutzer marktüblicher Terminologieverwaltungssysteme<br />
seitens des Systemherstellers eine Import- und Exportfunktion<br />
für TBX bereitgestellt werden. Dies ist aber nur dann möglich,<br />
wenn das Terminologiever waltungssystem eine fest vorgegebene Eintragsstruktur<br />
mit festgelegten Daten kategorien hat; nur in diesem Fall<br />
kennt der Systementwickler die Semantik der Datenkategorien und<br />
kann sie adäquat in TBX abbilden. Hat man aber Terminologieverwaltungssysteme,<br />
bei denen der Nutzer die Datenmodellierung selbst vornehmen<br />
muss/kann (z. B. MultiTerm) oder eine vorgeschlagene Datenmodellierung<br />
modifizieren kann (z. B. bei cross-Term, qTerm oder auch<br />
TermStar), so kann der Systementwickler keine saubere TBX-Schnittstelle<br />
bereitstellen, da er die Bedeutung der vom Benutzer angelegten<br />
Datenkategorien nicht kennen kann. In diesen Fällen kann entweder<br />
nur ein spezielles Mapping-Tool helfen, durch das der Nutzer seine<br />
eigenen Datenkategorien auf die genormten ISOCAT-Datenkategorien<br />
abbildet (mappt), oder der Nutzer orientiert sich gleich beim Anlegen<br />
oder Modifizieren von Termbanken an den genormten Datenkategorien<br />
in ISOCAT.<br />
Fazit<br />
Auch wenn derzeit an einer Aktualisierung der TBX-Norm gearbeitet<br />
wird, können grundsätzlich nicht alle Probleme eines sauberen Terminologieaustauschs<br />
durch eine Norm gelöst werden. Hilfreich ist es in<br />
jedem Fall, seine eigene Terminologieverwaltung unter Berücksichtigung<br />
einschlägiger Normen zu konzipieren und die Daten entsprechend<br />
einzupflegen. Nur so kann ein Austausch terminologischer Daten vernünftig<br />
und verlustfrei funktionieren.<br />
Bibliographie<br />
ISO 12620 (2009). Terminology and other language and content resources<br />
– Specification of data categories and management of a Data Category<br />
Registry for language resources. Genf: ISO.<br />
ISO 16642 (2003). Computer applications in terminology – Terminological<br />
markup framework. Genf: ISO.<br />
ISO 30042 (2008). Systems to manage terminology, knowledge and content<br />
– TermBase eXchange (TBX). Genf: ISO.<br />
klaus.schmitz@fh-koeln.de<br />
340<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
OTS 3<br />
Fachvortrag<br />
3.0-Updates von XSLT und<br />
XPath auf einen Blick<br />
Dr. Thomas Meinike, Hochschule Merseburg<br />
Motivation<br />
Die 1999 vom W3C etablierte Transformationssprache XSLT gehört zu<br />
den ältesten und produktivsten Technologien im „XML-Universum“. Mit<br />
der 2007 erschienenen Version 2.0 wurden die Möglichkeiten wesentlich<br />
erweitert [1]. Fünf Jahre später stehen die 3.0-Spezifikationen von<br />
XSLT und der zum Zugriff auf XML-Strukturen und -Inhalte verwendeten<br />
Abfragesprache XPath sowie vom zusätzlich entwickelten XQuery<br />
vor der finalen Veröffentlichung. Die zum Entstehungszeitpunkt dieses<br />
Beitrages vorliegenden Arbeitsentwürfe [2–4] wurden zuletzt im Juli<br />
<strong>2012</strong> bzw. Dezember 2011 aktualisiert.<br />
Schwerpunkte<br />
An dieser Stelle wird nur ein formaler Überblick zu den wesentlichen<br />
Erweiterungen gegeben, da es sich insgesamt um eher kleinteilige und<br />
in der praktischen Anwendung codelastige Details handelt:<br />
−−<br />
Streaming soll vor allem die Arbeit mit sehr großen Ausgangsdokumenten<br />
verbessern. XML-Daten in der Größenordnung von mehreren<br />
hundert Megabytes oder gar Gigabytes bringen jeden noch so<br />
performanten Rechner schnell an seine Grenzen. Die Streaming-<br />
Technik erlaubt den sequenziellen Zugriff auf Teile des jeweiligen<br />
Dokuments. Dazu dienen die neuen XSLT-Elemente xsl:stream und<br />
xsl:iterate in Kombination mit xsl:next-iteration, xsl:break und xsl:oncompletion<br />
sowie xsl:fork und xsl:merge.<br />
−−<br />
Funktionen höherer Ordnung (Higher-Order Functions, HOF) ermöglichen<br />
die Nutzung von Funktionen als Parameter und / oder<br />
Rückgabewerte innerhalb eigener Funktionen. Zum Aufbau komplexerer<br />
Logik dienen die neuen XPath-Funktionen fn:filter, fn:fold-left,<br />
fn:fold-right, fn:map und fn:map-pairs.<br />
−−<br />
Informationen über (existierende) Funktionen und ihre Argumente<br />
lassen sich über fn:function-lookup, fn:function-name und<br />
fn:function-arity auswerten.<br />
−−<br />
Weitere neue Funktionen vereinfachen den selektiven Zugriff<br />
auf Knoten und Sequenzen: fn:head, fn:tail sowie fn:innermost,<br />
fn:outermost und fn:has-children. Diese lassen sich zwar auch durch<br />
andere Abfragen abbilden, sind jedoch bei passender Gelegenheit<br />
durchaus nützlich.<br />
−−<br />
Inline-Funktionen können direkt in Variablen vorgehalten und z. B.<br />
innerhalb von xsl:value-of wie vordefinierte oder mittels xsl:function<br />
deklarierte Funktionen aufgerufen werden. Die Erweiterungen zur<br />
funktionalen Programmierung erlauben ebenfalls das so genannte<br />
Currying.<br />
−−<br />
Im Kontext des Streamings, aber auch darüber hinaus, erscheint die<br />
in Aussicht gestellte Nutzung von Akkumulatoren sehr interessant.<br />
Mittels xsl:accumulator lassen sich während des Prozessierens Werte<br />
auf der Basis vorhergehender Schritte berechnen, ohne dafür separate<br />
Rekursionen schreiben zu müssen. Die Spezifikation enthält ein<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
341
Offene technische Standards<br />
für die Dokumentationspraxis taugliches Beispiel zur fortlaufenden<br />
Nummerierung von Abbildungen innerhalb eines Kapitels.<br />
−−<br />
Direktes Parsen und Serialisieren von XML- oder JSON-Daten wird<br />
durch die neuen Funktionen fn:parse-xml, fn:parse-xml-fragment,<br />
fn:parse-json, fn:serialize und fn:serialize-json vereinfacht.<br />
−−<br />
Maps stellen einen neuen Datentyp zur Verfügung, der die Ablage<br />
von Informationen vergleichbar mit assoziativen Arrays in anderen<br />
Sprachen erlaubt (Key-/Value-Paare). Neben dem Konstruktor map<br />
{…} existieren spezielle Funktionen mit map-Namensraumpräfix wie<br />
u. a. map:get und map:remove.<br />
−−<br />
Mathematische Funktionen: Bisher war Numerik auf die Grundrechenarten<br />
beschränkt, die prinzipiell auch zur Formulierung komplexerer<br />
Algorithmen ausreichen (siehe die Umsetzung von Sinus<br />
und Cosinus unter [1]). Nun sind 14 Funktionen mit math-Präfix zur<br />
komfortablen Ermittlung von Exponential-, Logarithmus-, Wurzelund<br />
Winkelfunktionswerten vordefiniert. So lassen sich beispielsweise<br />
der Sinus von 1 (Argument im Bogenmaß) über math:sin(1)<br />
= 0.479425538604203 und die Potenz 2^5 als math:pow(2,5) = 32 berechnen.<br />
−−<br />
XPath-Abfragen auf konkrete Knoten können mit xsl:evaluate dynamisch<br />
aus Zeichenketten konstruiert werden.<br />
−−<br />
Zur erweiterten Fehlerbehandlung dienen die neuen XSLT-Elemente<br />
xsl:try, xsl:catch und xsl:fallback.<br />
−−<br />
Den Zugriff auf Umgebungsvariablen des zugrunde liegenden Betriebssystems<br />
und darauf laufenden Anwendungen gestatten die<br />
Funktionen fn:environment-variable und fn:available-environmentvariables<br />
(etwa nützlich für die Abfrage temporärer Verzeichnisse wie<br />
TEMP oder TMP).<br />
−−<br />
Mit Paketen und Modulen sollen sich künftig umfangreiche Transformationen<br />
besser verwalten lassen. Dazu ergänzen xsl:package und<br />
weitere Elemente das bisherige Konzept der Einbindung externer<br />
Ressourcen über xsl:include bzw. xsl:import.<br />
−−<br />
Die bisherige, eher formale Unterscheidung von XSLT- bzw. XPath-<br />
Funktionen wird aufgehoben. Funktionen wie format-date, formatdateTime,<br />
format-time, format-number, generate-id, unparsed-text<br />
können ebenfalls mit dem fn-Präfix aufgerufen werden.<br />
−−<br />
An einigen Stellen wird Feinschliff sichtbar: xsl:copy erhält ein optionales<br />
select-Attribut, fn:unparsed-text-lines erleichtert den Umgang<br />
mit unstrukturierten Informationen wie CSV-Dateien (fn:unparsedtext<br />
aus XPath 2.0 benötigte noch die Angabe der systemabhängigen<br />
Zeilenumbruchnotation), inzeilige Zeichenkettenverknüpfung mit<br />
dem „||“-Operator, Ganzzahlformatierung mit fn:format-integer und<br />
mehr.<br />
−−<br />
Die neue Funktion fn:analyze-string gibt eine XML-Struktur zurück<br />
und ist eher für den Einsatz unter XQuery 3.0 konzipiert [4].<br />
342<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
Abb. 1: Prototypisches XSLT-3.0-Grundgerüst<br />
Insgesamt handelt es sich mehr um evolutionäre als revolutionäre Neuerungen.<br />
Für ambitionierte Entwickler dürfte aber längerfristig kein<br />
Weg an den 3.0-Versionen der genannten Technologien vorbeiführen.<br />
Abbildung 1 zeigt ein Grundgerüst mit den relevanten Namensräumen.<br />
Die Unterstützung durch Software ist noch unvollständig und hauptsächlich<br />
auf die kommerziellen Ausgaben des Prozessors Saxon 9.3/9.4<br />
beschränkt [5]. Letztere ist bereits in der aktuellen oXygen-Version<br />
14.0 integriert [6]. Im Vortrag werden die beschriebenen Facetten durch<br />
Codebeispiele untersetzt und praktisch demonstriert. Zur Vorbereitung<br />
wird das Studium der 2.0-Vortragsfolien empfohlen [1].<br />
Literaturangaben und Links<br />
[1] Meinike, T.: XSLT 2.0 und XPath 2.0 für Praktiker – Neuerungen im<br />
Überblick. In: <strong>tekom</strong>, Gesellschaft für technische Kommunikation e. V.,<br />
Tagungsband zur <strong>Jahrestagung</strong> 2007 in Wiesbaden, S. 212–215 (Folien<br />
unter http://www.<strong>tekom</strong>.de/upload/2284/INF_114_Meinike_Vortrag.pdf)<br />
[2] W3C: XSL Transformations (XSLT) Version 3.0,<br />
http://www.w3.org/TR/xslt-30/<br />
[3] W3C: XML Path Language (XPath) 3.0,<br />
http://www.w3.org/TR/xpath-30/<br />
[4] W3C: XPath and XQuery Functions and Operators 3.0,<br />
http://www.w3.org/TR/xpath-functions-30/<br />
[5] Saxon Product/Feature Matrix:<br />
http://www.saxonica.com/feature-matrix.html<br />
[6] XML Editor:<br />
http://www.oxygenxml.com/<br />
für Rückfragen: thomas.meinike@hs-merseburg.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
343
Offene technische Standards<br />
OTS 4<br />
Fachvortrag<br />
DITA für die multilinguale, modulare, multimodale<br />
Produktion von SAP-Lerninhalten<br />
Dr. Thilo Buchholz, SAP AG – Knowledge Productization Services, Walldorf<br />
Christian Lieske, SAP AG – SAP Language Services, Walldorf<br />
Überblick<br />
Seit Mitte 2011 setzt der Softwarehersteller SAP zur industrialisierten<br />
Produktion von Trainingsinhalten auf einen Ansatz, der auf der Darwin<br />
Information Typing Architecture (DITA) basiert. Der Ansatz sowie die<br />
ihn unterstützende technologische Plattform erlauben es, modulare Inhalte<br />
zu erstellen und gemäß Single Sourcing in verschiedenen Verwendungskontexten<br />
zu nutzen (z. B. sowohl als e-learning als auch als Präsenztraining).<br />
Im Folgenden werden Hintergründe des SAP-Ansatzes<br />
erläutert, das Implementierungsprojekt skizziert und der technologische<br />
Rahmen umrissen. Dabei wird auch auf die multilingualen Aspekte<br />
des Ansatzes eingegangen.<br />
Hintergrund zum SAP-Bildungsangebot<br />
Die SAP bietet über ihre Bildungssabteilung SAP Education vielfältige<br />
Möglichkeiten an, um Wissen aufzubauen. Momentan werden jährlich<br />
bis zu 300.000 Lernende in über 40 Ländern erreicht. Bereits seit 2001<br />
wird dabei für die Entwicklung von Lerninhalten auf die eXtensible<br />
Markup Language (XML) sowie einen Single-Sourcing-Ansatz gesetzt.<br />
Gegenwärtige Trends im Training im IT-/Software-Umfeld haben die<br />
SAP bewogen, das existierende Trainingsportfolio anzupassen. So führt<br />
die zunehmende Globalisierung sowohl dazu, Teile des Content-Entwicklungsprozesses<br />
an Partner auszulagern, als auch dazu, global produziertes<br />
Material zu übersetzen und zu lokalisieren.<br />
Die fortschreitende Standardisierung von Prozessen, Quell- sowie Ausgabemedien<br />
ermöglicht die Rekombination von Lernmodulen zu neuen<br />
Produkten. Dadurch wird die Individualisierung des Wissenserwerbs<br />
erleichtert. Der heutige Lerner erwartet im Sinne lebenslangen Lernens,<br />
dass er genau die Lerninhalte konsumieren kann, die er gerade<br />
braucht, und dass er auch genau dann auf die Inhalte zugreifen kann,<br />
wenn er sie braucht.<br />
Die Verfügbarkeit erschwinglicher mobiler Geräte wie z. B. Tablets oder<br />
Smartphones führt zu einer Mobilisierung des Wissenserwerbs.<br />
Ganzheitliches Innovationsprojekt<br />
Um die nötige Angebotserweiterung zu ermöglichen, startete SAP<br />
Knowledge Productization Services (KPS) – SAPs Produktionsabteilung<br />
für Trainings und Zertifizierungen – das Innovationsprojekt Multimodal,<br />
Modular Content Production (MMCP) zur industriellen, DITAbasierten<br />
modularen und multi-modalen Produktion von Lerninhalten.<br />
Ziel des MMCP-Projekts waren beschleunigte und kostengünstige Produktion,<br />
einfache Erweiterbarkeit auf neue Lernerfordernisse (z. B. auf<br />
mobilen Geräten) sowie verstärkte Berücksichtigung von Best Practices<br />
aus Didaktik, Produktion und Distribution.<br />
344<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
Diese anspruchsvollen Ziele wurden erreicht, indem das Projekt ganzheitlich<br />
methodologische Aspekte, Produktionsprozesse sowie unterstützende<br />
Werkzeuge und Infrastrukturen adressierte:<br />
−−<br />
Methodologische Aspekte: Es wird ein streng Lernziel-orientierter<br />
Ansatz gewählt, wobei die Analyse von Arbeitsaufgaben im Vordergrund<br />
steht. Somit reflektieren die Produkte diejenigen Aufgaben, die<br />
ein Mitarbeiter in einer bestimmten Rolle zu erfüllen hat, und befähigen<br />
den Mitarbeiter gerade dazu, diese Aufgaben zu erledigen. Dies<br />
wird erreicht durch eine Trennung des Designprozesses, basierend<br />
auf einer sogenannten Job-Task-Analyse, von der eigentlichen Erstellung<br />
der Materialien.<br />
−−<br />
Produktionsprozesse: Die eigentliche Erstellung der Inhalte wird<br />
durch ein semantisches Datenmodell (DITA) im Sinne der Aufgabenorientierung<br />
weitestgehend unterstützt. So stehen die prozeduralen<br />
Beschreibungen von Vorgehensweisen im SAP-System im Mittelpunkt<br />
und werden durch konzeptuelles Wissen angereichert. Somit<br />
erleichtert das Datenmodell vielfältige Wiederverwendung von Inhalten<br />
sowie die Berücksichtigung multilingualer Produktion und Self-<br />
Services für die Zusammenstellung von speziellen Präsenztrainings<br />
oder e-Learnings.<br />
−−<br />
Werkzeuge und Infrastrukturen: Die Integration von Partnern in den<br />
Content-Entwicklungsprozess wird ermöglicht durch Web-basierte<br />
Tools, die keine Installation erfordern. So können die Endbenutzer<br />
(z. B. Autoren) mit ihrer Hardware und ihrem Browser beispielsweise<br />
via Windows Terminal Server auf das Content-Management-System<br />
mit spezieller Funktionalität für modularisierte Inhalte zugreifen und<br />
unmittelbar mit der eigentlichen Erstellung der Inhalte beginnen.<br />
Technologischer Rahmen<br />
Bedingt durch die Produktionsrandbedingungen (z. B. DITA als Basis,<br />
Web-/Browser-basierte Werkzeuge, besondere Berücksichtigung von e-<br />
Learning, große Volumina, Unterstützung multilingualer Prozesse) fiel<br />
die Wahl der SAP auf technologische Komponenten, die von Implementierungspartnern<br />
für die SAP-Bedarfe miteinander verbunden wurden.<br />
So dient Alfresco Enterprise als Content-Management-System (CMS)<br />
und bietet die entsprechenden Features zur Dokumentenverwaltung.<br />
Innerhalb des CMS sorgt mit Componize ein zusätzliches Modul für die<br />
native Unterstützung von DITA, Metadaten-Verwaltung und Link-Management.<br />
Für die Aggregation von Modulen in DITA-maps wird Ditaworks,<br />
ein Tool der Firma Instinctools verwendet. Ditaworks integriert<br />
auch den eigentlichen XML-Editor. Hier findet SDL Xopus Verwendung.<br />
Zusätzlich wird die linguistische Qualität durch ein acrolinx Plug-in für<br />
SDL Xopus unterstützt. Die Ausgabeformate werden mittels Antenna<br />
House Formatter erzeugt. Die Schulungsinhalte werden durch verschiedenste<br />
Medien didaktisch angereichert. Hier findet z. B. der SAP Workforce<br />
Performance Builder zum Erstellen von interaktiven Simulationen<br />
und Demonstrationen Anwendung.<br />
Ein besonderer Aspekt der technologischen Arbeit war die sogenannte<br />
Migration existierender Inhalte. Dabei ging es darum, ca. 120 vorhandene<br />
Trainings – die in einem proprietären XML-Format existierten – in<br />
DITA zu überführen, gemäß den angepassten didaktischen Richtlinien<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
345
Offene technische Standards<br />
zu überarbeiten und in das neue Content-Management-System zu<br />
importieren.<br />
Multilinguale Dimensionen<br />
Da Lerninhalte übersetzt werden müssen, berücksichtigte das MMCP-<br />
Projekt frühzeitig die Produktion von Sprachvarianten. Der Fokus lag<br />
dabei auf denjenigen Geschäftsprozessschritten, für die aus technologischer<br />
Perspektive Implementationsbedarf bestand. Betroffene Bereiche<br />
waren die folgenden:<br />
−−<br />
Internationalisierung der DITA-basierten Produktion – Übersetzung<br />
von Standard-/Boilerplate-Texten (z. B. Phrasen wie „Am Ende dieser<br />
Übung …“ oder Urheberrechtsnotizen), Testen der Indexgenerierung,<br />
…<br />
−−<br />
Entscheidung bezüglich der an die Übersetzung zu übergebenden<br />
Pakete und Formate – DITA vs. XML Localization Interchange Format<br />
(XLIFF), PPT vs. PPTX or XLIFF, …<br />
−−<br />
Exponieren von Funktionalität für Übersetzungsbeteiligte – Validierung<br />
von XML, Generierung von PDFs zum in-country review, …<br />
Bei der Erarbeitung von Lösungen für die Produktion von Übersetzungen<br />
galt es, organisatorische und technologische Gegebenheiten zu<br />
berücksichtigen. In beiden Fällen war darauf zu achten, dass eine weitgehende<br />
Umstellung spezielle und kostenintensive Prozessschulungen<br />
(sowie eventuell Vertragsänderungen) bei den mit SAP kooperierenden<br />
Übersetzungsagenturen nötig gemacht hätten.<br />
Einsichten zu Projekt und Technologie<br />
Das MMCP-Projekt hatte eine Laufzeit von etwa drei Jahren. Herausforderungen<br />
ergaben sich aus der Laufzeit des Projektes, der Vielzahl<br />
der beteiligten Implementierungspartner und der produktiven Nutzung<br />
der Infrastrukturkomponenten schon während der Entwicklungsphase.<br />
Zudem galt es, die Auslagerung von Teilen des Produktionsprozesses zu<br />
unterstützen.<br />
Es ist dem Projektteam gelungen, alle Herausforderungen zu meistern<br />
und eine erweiterbare Plattform bereitzustellen, die eine industrielle<br />
Produktion der Lerninhalte für verschiedene Lieferkanäle in neun<br />
Sprachen erlaubt.<br />
für Rückfragen:<br />
thilo.buchholz@sap.com<br />
christian.lieske@sap.com<br />
346<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
OTS 5<br />
Fachvortrag<br />
Nachhaltige logistische Unterstützung in<br />
Zeiten des Wandels am Beispiel der ASD-<br />
Spec S1000D, S2000M und S3000L<br />
Jörg Rogge, Consinto GmbH, Siegburg<br />
Einleitung<br />
Seit rund 25 Jahren wird die Entwicklung der Spezifikationen „S1000D“<br />
für Technische Dokumentation und S2000M für Material-Management<br />
von der europäischen Luftfahrtindustrie vorangetrieben. Ursprünglich<br />
für militärische Großprojekte der Luftfahrt konzipiert, haben sich diese<br />
Spezifikationen in einer Vielzahl verschiedenster Projekte bewährt und<br />
gewinnen zwischenzeitlich auch für zivile Anwendungen an Bedeutung.<br />
Dabei kommen bei den meisten bisherigen Projekten in Deutschland<br />
überwiegend frühe Versionen der o. a. Spezifikationen zum Einsatz und<br />
verwenden bis heute Datenformate, die zwischenzeitlich technologisch<br />
weiterentwickelt wurden.<br />
Damit stellt sich für viele Projekte mit z. Z. sehr langen Nutzungszeiten<br />
die Frage, ob man auf den bisherigen Versionen verharrt oder ob man<br />
neue Versionen der Spezifikationen anwenden soll bzw. wie ein Übergang<br />
mit vertretbarem Aufwand möglich ist.<br />
Die Suite der ASD-Spezifikationen<br />
Wenn man sich heute mit den Spezifikationen der ASD, der AeroSpace<br />
and Defence Industries Association befasst, erkennt man schnell, dass<br />
die Familie der ASD Specs gewachsen ist und weiter wächst.<br />
Neben den beiden oben genannten Werken sind in der Zwischenzeit die<br />
Spezifikationen ASD S3000L für eine „Logistic Support Analysis (LSA)“<br />
und eine Schnittstellenspezifikation ASD S1003X für den Austausch von<br />
Daten zwischen den Spezifikationen S3000L und S1000D veröffentlicht<br />
worden. Eine Spezifikation ASD S4000M für das Thema der „Planbaren<br />
Materialerhaltung“ steht vor der Veröffentlichung, weitere Specs wie<br />
die ASD S5000F für ein Data-Feedback aus der Nutzungsphase oder die<br />
ASD SX000I als Handbuch für den „Integrated Logistic Support (ILS)“<br />
werden derzeit erarbeitet. Weitere Spezifikationen zur Beschreibung<br />
des Datenaustauschs oder z. B. zum Thema Ausbildung befinden sich in<br />
der Planungsphase und werden inzwischen mit starker Unterstützung<br />
der US-amerikanischen Industrie und den US-Streitkräften gemeinsam<br />
entwickelt.<br />
Insgesamt sind in den nächsten zwei bis drei Jahren rund ein Dutzend<br />
neuer Versionen oder ganz neuer Spezifikationen zu erwarten.<br />
Die Herausforderung<br />
Die ersten großen Projekte, bei denen die ASD-Spezifikationen in ihren<br />
frühen Versionen zur Anwendung gekommen sind, z. B. der Eurofighter<br />
„TYPHOON“, befinden sich noch im ersten Drittel ihrer Gesamtnutzungszeit.<br />
Die Softwaretools, mit denen die Daten nach S1000D bzw.<br />
S2000M erstellt wurden, sind inzwischen rund 15 Jahre alt und erreichen<br />
damit langsam ein kritisches Alter für Software. Damit stellt sich<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
347
Offene technische Standards<br />
die Frage, wie vor diesem Hintergrund eine nachhaltige Pflege und<br />
Fortschreibung der Materialgrundlagendaten gewährleistet werden<br />
kann.<br />
Gleichzeitig stellen sich in der heutigen Zeit neue Herausforderungen<br />
an den Schnittstellen zwischen den Daten der ASD-Spezifikationen und<br />
den heute in vielen Firmen verwendeten „Product Lifecycle Management<br />
(PLM)-“ und „Enterprise Ressource Planning (ERP)“-Systemen.<br />
Hier treffen sehr unterschiedliche „Datenwelten“ aufeinander und müssen<br />
harmonisiert und synchronisiert werden.<br />
Lösungsansatz<br />
Die Aufgabenstellung ist recht umfangreich und komplex und muss in<br />
beherrschbare Teilaufgaben zerlegt und schrittweise gelöst werden.<br />
Hierzu zählt u. a. das Mapping von Daten, mit dem z. B. Ergebnisse der<br />
Logistic Support Analysis nach dem bisher verwendeten US MIL-STD-<br />
1388-2B in die Strukturen der ASD-Spezifikation S3000L überführt<br />
werden können.<br />
Idealerweise sind neu zu schaffende Softwaretools für die S3000L damit<br />
in der Lage, die Arbeitsergebnisse aus der Vergangenheit weiterverwenden<br />
zu können.<br />
Mit der Suite der ASD-Spezifikationen geht die Zielsetzung einher,<br />
durchgängige Prozesse zwischen den verschiedenen Spezifikationen<br />
zu implementieren. D. h., auch die Software-Tools sollten auf der Basis<br />
einer homogenen Datenbank diese Prozesse unterstützen.<br />
An den Schnittstellen zu PLM- und ERP-Systemen ist nach generischen<br />
Lösungen zu suchen, wie die vielfach proprietären Datenformate<br />
dieser Systeme mit den neutralen Datenformaten der ASD-Spezifikationen<br />
korrespondieren können.<br />
Zusammenfassung<br />
Die beschriebene Problematik ist unausweichlich und kann nur in<br />
enger Kooperation von Projektfirmen und Softwareherstellern und in<br />
einem schrittweisen Vorgehen gelöst werden. Da parallel die Vorzüge<br />
der Anwendung der ASD-Spezifikationen für eine kostengünstige<br />
Erstellung und Pflege der Materialgrundlagendaten zu einer zunehmenden<br />
weltweiten Verbreitung und Anwendung, vor allem im zivilen<br />
Bereich, führt, wird auch die Nachfrage nach Tools sowie nach qualifizierter<br />
Beratung und Schulung weiter steigen und zum Entstehen<br />
durchgängiger Lösungen beitragen.<br />
joerg.rogge@web.de<br />
348<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
OTS 6<br />
Fachvortrag<br />
HTML5 – die neue ‚Silver Bullet‘ für die<br />
Verteilung technischer Information?<br />
Alexander Witzigmann, TANNER AG, Lindau<br />
Kennen Sie den Satz: „Naja, aber diesen Workaround können wir dann<br />
mit HTML5 beseitigen“? Oder diesen: „PDF ist out, HTML5 ist in“?<br />
Oder: „Nimm doch HTML5 und deine mobilen Endgeräte sind ohne<br />
Änderung mit deinem Online-Content belieferbar“? Klingt vielversprechend,<br />
aber was genau ist eigentlich HTML5? In welchem Status befindet<br />
sich dieser Standard? Und welchen konkreten Mehrwert erschließt<br />
HTML5 in welchen Anwendungsfällen?<br />
Ziele von HTML5<br />
Die Entwickler von HTML5 haben sich zum Ziel gesetzt, den Browser<br />
als Applikationsplattform ohne herstellerabhängige Erweiterungen auszubauen.<br />
Im Wesentlichen sollen Erfahrungen und Entwicklungen, die<br />
über die Jahre im Internet gesammelt wurden, in einen für alle Browser<br />
verbindlichen Standard eingearbeitet werden.<br />
Wesentliche Elemente hierfür sind:<br />
−−<br />
Einführung von „modernen“ Elementen zur Darstellung und Interaktion<br />
mit Inhalten (z. B. direkte Unterstützung von 3D-Animationen,<br />
Videos, Audio, Drag and Drop etc.).<br />
−−<br />
Einfache und automatisierbare Erstellung von Inhalten basierend<br />
auf bekannten Standards (HTML4/XHTML1 sind bekannte und verbreitete<br />
Standards, die heute bereits automatisiert aus Quellformaten<br />
erstellt werden können).<br />
−−<br />
Maximale Reichweite der Inhalte ohne hohe Aufwände in der Pflege<br />
oder spezifischen Entwicklung.<br />
−−<br />
Spezifischere Standardisierung von Inhaltsauszeichnungen und Applikationsverhalten<br />
und damit zielgerichtete Verwendung der Inhalte<br />
im konkreten Kontext der Anwender.<br />
−−<br />
Ablösung von proprietären Technologien, wie z. B. Adobe Flash und<br />
Microsoft Silverlight.<br />
So weit, so gut. Doch was genau ist HTML5?<br />
Was genau ist HTML5?<br />
Der Begriff HTML5 ist weniger exakt formal definiert, als man erwarten<br />
würde. Grund dafür ist zum einen die Geschichte des Standards und<br />
zum anderen die Menge an angrenzenden Standards, die in einzelnen<br />
Veröffentlichungen HTML5 zugeordnet werden, auch wenn sie nicht<br />
direkt Bestandteil von HTML5 sind.<br />
Geschichte von HTML5<br />
−−<br />
2004 „Initialer Meilenstein für die Weiterentwicklung von HTML“<br />
Eine Gruppe von Mitarbeitern der Firmen Apple, Mozilla und Opera<br />
schließt sich zusammen und erarbeitet den Vorschlag, den HTML-<br />
Standard weiterzuentwickeln. Dieser Vorschlag wird nicht angenommen<br />
und führt zur Gründung der WHATWG (www.whatwg.org).<br />
−−<br />
2005 „Erste Ergebnisse der Arbeitsgruppe WHATWG“<br />
Die ersten Arbeitsergebnisse werden unter dem Namen „Web Appli-<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
349
Offene technische Standards<br />
cations 1.0“ veröffentlicht. Ian Hickson ist der benannte Autor dieser<br />
Ergebnisse.<br />
−−<br />
2007 „W3C übernimmt die Spezifikation“<br />
Das W3C als wesentliches Organ für die Standardisierung von Internet-Technologien<br />
übernimmt den Stand der Spezifikation als Basis<br />
der neuen HTML-Arbeitsgruppe. Der Standard wird in HTML5 umbenannt<br />
und von beiden Arbeitsgruppen gemeinsam weiterentwickelt.<br />
−−<br />
2009 „Öffentliche Aufmerksamkeit wird signifikant“<br />
Durch den Einstieg von Google in den Browser-Markt und den Erfolg<br />
von Apple mit mobilen Endgeräten steigt das Interesse an HTML5<br />
und die Entwicklungskapazitäten zur Unterstützung des „Standards“<br />
nehmen zu.<br />
Vereinfacht kann man den Begriff folgendermaßen zusammenfassen:<br />
HTML5 = Auszeichnungssprache + Formatierungssprache +<br />
Skriptsprache.<br />
Auszeichnungssprache<br />
HTML4 wird im Wesentlichen um zusätzliche Elemente ergänzt. Nicht<br />
mehr zeitgemäße Elemente werden entfernt.<br />
Die direkte Verwendung von bereits existierenden W3C-Standards<br />
„SVG“ und „MathML“ ist vorgesehen.<br />
HTML5 basiert nicht mehr auf SGML, sondern standardisiert weit verbreitete<br />
„Best Practices“ bestehender Inhalte im Web. Eine Repräsentation<br />
von HTML5 als XML ist ebenso vorgesehen (XHTML 5).<br />
Formatierungssprache<br />
CSS bildet die Basis für die Darstellung der Inhalte. Die Version 3 des<br />
Standards wird als wesentlicher Baustein im Umfeld von HTML5 angesehen,<br />
wird jedoch als eigener Standard entwickelt und unabhängig<br />
fertiggestellt.<br />
Skriptsprache<br />
Zahlreiche Programmierschnittstellen, die im Wesentlichen über Java-<br />
Script verwendet werden, sind wesentliche Bestandteile von HTML5.<br />
Oft genannt werden ein API zur Darstellung von 2D-Elementen (Canvas),<br />
APIs zur Erstellung von offline verfügbaren Applikationen, Dragand-Drop-API,<br />
Zugriff auf im Inhalt ausgezeichnete Metadaten (Microdata)<br />
etc.<br />
Was ist HTML5 nicht?<br />
HTML5 ist weder final fertiggestellt, noch ist der konkrete Umfang eindeutig<br />
definiert.<br />
Ausgelöst durch die immer schnelleren Innovationszyklen im Web steigen<br />
die Herausforderungen, Standards in diesem Umfeld fertigzustellen<br />
und diese als „einzig gültige Version“ freizugeben.<br />
Das W3C hält an diesem Paradigma fest und plant bis zum Jahr 2014<br />
eine finale „Recommendation“ des Standards freizugeben. Parallel dazu<br />
verfolgt die Arbeitsgruppe WHATWG die Strategie eines lebenden<br />
Standards, der sich ständig weiterentwickelt und verbessert.<br />
350<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
Aktuelle Implementierungen<br />
Wie sehen jetzt aber die aktuellen Implementierungen der einzelnen<br />
Browser aus?<br />
Auch wenn es keinen finalen HTML5-Standard gibt, implementieren<br />
alle gängigen Browser große Teile des aktuellen HTML5-Standards.<br />
Im Wesentlichen ist diese Entwicklung von tatsächlich im Web verfügbaren<br />
Inhalten getrieben. Keine der öffentlich zugänglichen HTML5-<br />
Showcase-Applikationen, die von den Browser-Herstellern veröffentlicht<br />
werden, wird von den jeweiligen anderen Herstellern vollständig<br />
dargestellt.<br />
Aktuell ist es eher schwierig und immer eine Momentaufnahme, ein<br />
Subset von HTML5 zu definieren, das auf allen aktuellen Browsern korrekt<br />
und vollständig dargestellt wird.<br />
Bewertung der Anwendungsfälle für die Verteilung technischer Inhalte<br />
Kann ich eine Einführung von „modernen“ Elementen zur Darstellung<br />
und Interaktion mit Inhalten (z. B. direkte Unterstützung von 3D-Animationen,<br />
Videos, Audio, Drag and Drop etc.) verwenden?<br />
Nur bedingt. Klassische HTML- und JavaScript-basierte Anwendungen<br />
bieten immer noch eine deutlich stabilere Basis für eine browserübergreifende<br />
Nutzung der Inhalte. Da die Nutzung von HTML5<br />
abwärtskompatibel ist, kann aber eine explizit geprüfte Teilmenge an<br />
Funktionen bereits heute zu einer verbesserten Aufbereitung der Inhalte<br />
verwendet werden, ohne die Zielgruppe der Anwendung zu stark<br />
einzuschränken.<br />
Ist eine automatisierte Erstellung der Inhalte möglich?<br />
Ja. Wobei die Erstellung mindestens genau so komplex ist wie in klassischen<br />
HTML-basierten Applikationen.<br />
Lässt sich eine maximale Reichweite der Inhalte ohne hohe Aufwände<br />
in der Pflege oder spezifischen Entwicklung realisieren?<br />
Nein.<br />
Ist mit HTML 5 eine spezifischere Standardisierung von Inhaltsauszeichnungen<br />
und Applikationsverhalten und damit spezifischere Nutzung<br />
der Inhalte im konkreten Kontext der Anwender möglich?<br />
Ja, Google verwendet heute schon Metadaten aus HTML5 zur besseren<br />
Navigation der Inhalte für die suchende Zielgruppe.<br />
Ist die Ablösung von proprietären Technologien in Sicht, z. B. von Adobe<br />
Flash und Microsoft Silverlight?<br />
In Sicht ja, aber heute verwenden immer noch 93 % der kommerziellen<br />
Web-Seiten Adobe Flash. Die Notwendigkeit, die Inhalte in unterschiedlichen<br />
Browsern und Devices ohne Verlust an Inhalten darzustellen,<br />
erfordert immer noch den Einsatz von nativen Applikationen.<br />
für Rückfragen: Alexander.Witzigmann@TANNER.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
351
Offene technische Standards<br />
OTS 7<br />
Fachvortrag<br />
Mit DITA um die Welt<br />
Marijana Prusina, mp dokumentation, Karlsruhe<br />
Effiziente Lokalisierung ist für viele einer der wichtigsten Gründe, um<br />
mit der Dokumentation auf einen Standard wie DITA umzusteigen. Mit<br />
den folgenden Tipps aus der Praxis machen Sie Ihre DITA-basierte Dokumentation<br />
und Ihre Prozesse fit für eine effiziente Lokalisierung.<br />
DITA Open Toolkit<br />
Auf dem Dateisystem<br />
Grundlagen<br />
In der DITA-Welt gibt es für jede Sprache eine individuelle Topic-<br />
Datei, die den Inhalt in der jeweiligen Sprache enthält. Die Definition<br />
der Topic-Sprache erfolgt im Root-Element des Topics über das Attribut<br />
„xml:lang“, das als Wert ein Sprachkürzel enthält. Zum Beispiel:<br />
xml:lang =“en-gb“.<br />
Standardisierte Textbausteine, wie z. B. „Achtung“ oder „Beispiel“, werden<br />
erst beim Publizieren der Hilfe generiert. Das DITA Open Toolkit<br />
übernimmt hierbei auch die Lokalisierung und fügt diese Textfragmente<br />
in der benötigten Sprache ein. Aktuell unterstützt es standardmäßig<br />
53 Sprachen und ist leicht um weitere Sprachen erweiterbar.<br />
Die Dateien mit den Textbausteinen sind ebenfalls beliebig erweiterbar.<br />
Es ist ratsam, die Übersetzungen, die mit dem Toolkit mitkommen, lektorieren<br />
zu lassen, damit sie zu den eigenen Richtlinien und Qualitätsstandards<br />
passen.<br />
Verwaltung<br />
Eine bewährte Struktur für das Verwalten mehrsprachiger DITA-Dokumentation<br />
auf dem Dateisystem ist die folgende:<br />
Ordnerstruktur für mehrsprachige Dokumentation auf dem Dateisystem<br />
Mit den Metadaten, die DITA für das Verwalten der Dokumentation bietet<br />
(z. B. oder ), können Sie den Überblick darüber<br />
behalten, welche Dateien übersetzt werden müssen und welche nicht.<br />
Ein Nachteil der Dateisystemlösung ist definitiv, dass Delta-Übersetzungen<br />
automatisiert nicht möglich sind.<br />
352<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
Im CMS<br />
Auf dem Dateisystem<br />
Im CMS<br />
Im TMS<br />
Tipp: XLIFF<br />
Bedingter Text und<br />
Wiederverwendung<br />
Bei Content-Management-Systemen gibt es je nach Hersteller unterschiedliche<br />
Prinzipien des Übersetzungsmanagements. Wichtig ist generell,<br />
dass Sie mitverfolgen können oder benachrichtigt werden, wenn es<br />
Änderungen an der Quelldatei gab und Sie übersetzen lassen müssen.<br />
Außerdem sollten Sie darauf achten, dass eine Delta-Übersetzung möglich<br />
ist, d. h., dass bei Änderungen nicht die gesamte Datei zur Übersetzung<br />
gegeben wird, sondern nur der neu zu übersetzende Teil. Damit ein<br />
Übersetzer hier dennoch genug Kontext hat, wäre es ideal, die gesamte<br />
Datei zu übermitteln, aber nur den neuen Teil bearbeitbar zu machen.<br />
Übersetzungsmanagement<br />
Wenn Sie auf Dateisystem-Ebene arbeiten, sollten Sie dem Übersetzer<br />
die komplette Ordnerstruktur schicken, damit Sie die Übersetzungen<br />
später auch wieder einfach in Ihre Ordnerstruktur integrieren können.<br />
In einem Übersetzer-Briefing sollten Sie außerdem folgende Informationen<br />
mitschicken:<br />
−−<br />
Zu übersetzende Dateien<br />
−−<br />
Ggf. DTDs zum Validieren<br />
−−<br />
Zu nutzendes Encoding<br />
−−<br />
Hinweise zum Übersetzen oder Ausfüllen von Attributwerten (z. B.<br />
„xml:lang“ oder „navtitle“)<br />
−−<br />
Hinweis: Kein Übersetzen von Datei- oder Ordnernamen<br />
Gängig ist ein Export der zu übersetzenden Dateien als ZIP-Datei und<br />
ein Import der fertigen Übersetzung auf demselben Weg. Ideal ist eine<br />
direkte Anbindung an ein Translation-Memory-System.<br />
Wenn Sie ein Translation-Memory-System nutzen, entfallen alle bis auf<br />
den letzten der oben genannten Punkte für das Übersetzer-Briefing.<br />
Sie können im TMS in der Regel DTDs hochladen und entsprechend<br />
einstellen, welche Elemente oder Attribute übersetzbar sein sollen oder<br />
vielleicht nur zu Information angezeigt werden, aber nicht bearbeitbar<br />
sind. Sowohl die Validierung als auch das Encoding werden automatisch<br />
vom System übernommen und sparen Ihnen viel Arbeit beim Import<br />
der Übersetzungen.<br />
Da ein DITA-Übersetzungspaket in der Regel aus vielen einzelnen<br />
Dateien besteht, kann die schiere Anzahl den Verwaltungsaufwand in<br />
die Höhe treiben und auch fehleranfällig machen. Das Austauschformat<br />
XLIFF ermöglicht es Ihnen, alle Dateien in einer einzelnen Datei zusammenzuführen<br />
und diese später auch wieder in die vielen einzelnen<br />
Dateien zurückzuverwandeln. Testen und besprechen Sie mit Ihrem<br />
Übersetzungsdienstleister, welches Szenario sich für beide Seiten lohnt.<br />
Textproduktion<br />
Sowohl bei der Filterung mit DITAVAL als auch bei der Verwendung des<br />
conref-Mechanismus sollten Sie am besten immer ganze Sätze filtern<br />
oder wiederverwenden. In den Zielsprachen kann es unter Umständen<br />
notwendig sein, Satzteile umzustellen oder zu flektieren, was bei der<br />
Nutzung von conref oder DITAVAL sehr schwierig wird. Wenn Sie dennoch<br />
auf kleinerer Ebene filtern oder wiederverwenden möchten, z. B.<br />
bei Produktnamen, achten Sie darauf, dass diese immer im Nominativ<br />
verwendet werden, um Probleme zu reduzieren.<br />
für Rückfragen: mp@mp-dokumentation.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
353
Offene technische Standards<br />
OTS 8<br />
Tutorial<br />
Neue Möglichkeiten des PDF-Standards<br />
ISO 32000 in der Technischen Dokumentation<br />
Ulrich Isermeyer, Adobe Systems GmbH, München<br />
PDF ist als offener ISO-Standard 32000 das meistgenutzte Universalformat.<br />
Dieses Tutorial beschäftigt sich mit der aktuellen Acrobat-Version,<br />
die alle Möglichkeiten von PDF für die Technischen Redakteure erstellbar<br />
und editierbar macht. Darunter fällt z. B. die Text-Editierfunktion,<br />
die Umbrüche und Formatierungen für PDF-Übersetzungs-Workflows<br />
zulässt. Seit <strong>2012</strong> gibt es einen neuen ISO-Standard für Barrierefreiheit<br />
– PDF/UA. Im Tutorial wird aufgezeigt, welche Schritte erforderlich<br />
sind, um eine Technische Dokumentation barrierefrei zu machen.<br />
PDF-Erstellung mit Intelligenz und Struktur<br />
Die PDF-Erstellung ist für viele Redakteure ein einziger Mausklick,<br />
jedoch gibt es deutliche Unterschiede zwischen einem dummen einfachen<br />
PDF und einem PDF-Dokument mit Struktur. Neben der automatischen<br />
Erstellung von Lesezeichen, dem automatisierten Tagging,<br />
der Konvertierung von Hyperlinks etc. gibt es auch noch Multimedia-<br />
Inhalte wie Videos oder 3D. Dieser Teil beschäftigt sich mit den unterschiedlichen<br />
PDF-Inhalten, die direkt bei der Erstellung automatisch<br />
in das Dokument mit eingebracht werden können. Dabei gibt es einige<br />
Details, die man bei der Erstellung aus unterschiedlichen Quellen wie<br />
WEB, Scans, Office (Word), Framemaker, Indesign oder auch CAD-Programmen<br />
beachten sollte. So können in Word beispielsweise bestimmte<br />
PDF-Workflows direkt als Makro aufgerufen werden.<br />
PDF Maker in MS Word mit integrierten Aktionen<br />
PDF-Editierung für Texte und Bilder<br />
Bei Abstimmungsprozessen werden meist die Kommentar- und Text-<br />
Korrekturwerkzeuge genutzt, die alle Änderungen in die Original-<br />
Editoren wie Word, Framemaker oder Robohelp wieder zurückgeben.<br />
Änderungen in letzter Minute am Text oder bei Bildern in großen PDF-<br />
Dokumentationen selber waren in der Vergangenheit nicht so ganz<br />
trivial, da es eventuell unerwünschte Textumbrüche auf den Folgeseiten<br />
gab. Das Tutorial zeigt die neuesten Möglichkeiten von Acrobat bei der<br />
Text- und Bild-Editierung und geht auf unterschiedliche Szenarien ein.<br />
354<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Offene technische Standards<br />
PDF-Editierung in Adobe Acrobat XI<br />
Barrierefreie PDF-Dokumente nicht nur für blinde Menschen<br />
Wichtigste Voraussetzung für barrierefreie PDF-Dokumente ist die Tag-<br />
Struktur bei der PDF-Erstellung. Durch diese Struktur sind auch hochkomplexe<br />
Dokumentationen erheblich besser zu navigieren. Zusätzlich<br />
können diese mit Screenreadern vorgelesen werden und sind durch die<br />
Struktur auch für Mobilgeräte erheblich besser geeignet, da ein Text-<br />
Reflow besonders bei kleinen Displays genutzt werden kann. Neben<br />
Tags sind Ersatztexte für Bilder und die Touchup Leserichtung wichtig,<br />
damit auch mit der Tastatur in der richtigen Reihenfolge vorgelesen<br />
wird. Mit dem neuen Prüfwerkzeug in Acrobat XI kann das Dokument<br />
gegen den neuen ISO Standard für Barrierefreie Dokumente (PDF/<br />
UA – Usability/Accessibility) und den Web-Standard für Barrierefreiheit<br />
(WCAG 2.0) geprüft und repariert werden. Somit wird das Thema<br />
PDF-Barrierefreiheit aus der Experten-Ecke in den normalen Workflow<br />
eines Redakteurs verschoben. Beispiele zu barrierefreien PDF-Dokumenten<br />
findet man auch unter www.acrobatusers.de.<br />
Automatische Überprüfung auf Barrierefreiheit mit interaktiver Aktion<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
355
Offene technische Standards<br />
Archivierung der Technischen Dokumentation mit PDF/A<br />
Barrierefreiheit und Archivierung schließen sich nicht aus. Deshalb ist<br />
es auch einfach möglich, mit dem ISO Standard PDF/A 2a (a = accessible)<br />
sowohl barrierefreie also auch archivierbare PDF-Dokumente zu<br />
haben. Archivdokumente wurden in der Vergangenheit im Pixelformat<br />
TIFF abgelegt – seit 2005 hat sich der ISO Standard PDF/A durchgesetzt,<br />
der seit der Version PDF/A 2 auf dem PDF-Stand 1.7 basiert.<br />
Neben der neueren PDF-Version sind hier auch Attachments und Ebenen<br />
(Layer) zulässig, so dass auch mit technischen Zeichnungen in der<br />
Technischen Dokumentation gearbeitet werden kann. Dieses Tutorial<br />
behandelt die unterschiedlichen PDF/A-Versionen und geht auf Besonderheiten<br />
bei der Erstellung und Reparatur mit dem Preflight Engine<br />
ein.<br />
für Rückfragen: ulrich.isermeyer@adobe.com<br />
356<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und<br />
Kostenmanagement
Personal- und Kostenmanagement<br />
PKM 1<br />
Fachvortrag<br />
Der Wert eines<br />
Mitarbeiters<br />
Wie sich die TK im Human Capital<br />
Management positionieren kann<br />
Dr.-Ing. Michael Schaffner, GMVK Berlin GmbH / FOM Berlin Hochschule für Oekonomie &<br />
Management<br />
Was ist ein Blaukelchen wert? Um mit Frederic Vesper [1], Biochemiker<br />
und Mitglied des Club of Rome, zu argumentieren: In etwa 1,5 Cent,<br />
wenn lediglich der Wert von Mineralien (Phosphor, Kalzium, Fluor),<br />
Fleisch, Blut und Federkleid gerechnet werden. Als Schädlingsbekämpfer,<br />
Verbreiter von Samen, Bio-Indikator für Umweltbelastungen, Symbiosepartner<br />
und Freudespender für das menschliche Gemüt beträgt<br />
der Wert hingegen 154,09 €. Und was ist ein Mitarbeiter wert?<br />
Strategische Personalentwicklung als Reaktion<br />
auf Megatrends der Wirtschaft<br />
Nach Studien [2] der Deutschen Gesellschaft für Personalführung<br />
(DGFP e.V.) gehören zu den Top-Megatrends im Personalmanagement:<br />
−−<br />
demografischer Wandel<br />
−−<br />
Wertewandel<br />
−−<br />
Globalisierung<br />
−−<br />
Digitalisierung und Virtualisierung von Arbeit<br />
Zur Bewältigung dieser Herausforderungen wird verstärkt auf Personalrisikomanagement<br />
(Identifikation von Personalrisiken) und Human<br />
Capital Management (Evaluation des Humanvermögens) gesetzt.<br />
Kapitalbewertung<br />
von Unternehmen<br />
Berechnung von<br />
human capital (HC)<br />
Human Capital Management – eine Begriffsbestimmung<br />
In einer Wissensgesellschaft sinkt die Bedeutung traditioneller Vermögenswerte<br />
in Relation zum Wissens- und Humanvermögen, das sich in<br />
dynamischen Unternehmen zum kritischen Erfolgsfaktor für den Unternehmenserfolg<br />
entwickelt. [3] Nach Scholz ist die Wirtschaftskrise<br />
2009 ein Weckruf gewesen. [4] Bei der Kreditvergabe reichte den Banken<br />
das materielle Bilanzvermögen der Unternehmen oft nicht mehr<br />
aus. „Die Mitarbeiter sind unser wichtigstes Kapital“ heißt es immer,<br />
doch wenn es darauf ankommt, ist es offenbar doch nichts wert. Es bilden<br />
sich jedoch zunehmend Tendenzen heraus, dass neben dem bilanziellen<br />
Vermögen auch das Humankapital – selbst von Kreditinstituten<br />
– stärker in den Fokus rückt.<br />
Beim täglichen „war for talents“, dem Kampf um die besten Mitarbeiter,<br />
wird in der Personalwirtschaft häufig ganz simpel mit dem Wiederbeschaffungswert<br />
eines Mitarbeiters gerechnet (ca. das 0,75- bis 1,5-fache<br />
eines Jahresgehalts). Für die Berechnung des human capital (wobei der<br />
Begriff nicht als „Menschenmaterial“, sondern positiv zu interpretieren<br />
ist) gibt es mehr als drei Dutzend unterschiedliche Bewertungsverfahren.<br />
Zu den bekanntesten gehören:<br />
−−<br />
Marktwert-Verfahren, z. B. human capital ist die Differenz von Marktwert<br />
und Buchwert oder der Börsenwerte dividiert durch die Anzahl<br />
der Mitarbeiter. Wie falsch diese Betrachtung sein kann, haben wir<br />
zuletzt bei Facebook gesehen.<br />
−−<br />
Accounting-Verfahren, z. B. human capital ist die Summe aller Investitionen<br />
(Beschaffung, Einarbeitung, Fortbildung) minus der Ab-<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
359
Personal- und Kostenmanagement<br />
schreibungen in Mitarbeiter (z. B. lineare Abschreibung der Beschaffungs-<br />
und Fortbildungskosten). Auch diese Verfahren erschließen<br />
das Humankapital nicht in Gänze.<br />
−−<br />
Indikatoren-Verfahren, z. B. human capital wird ermittelt über Fragebogen,<br />
Interviews, Test etc. mit gewichteten und monetär bewerteten<br />
Indikatoren. Fehlende Normierungen und möglicherweise willkürliche<br />
Gewichtungen erschweren eine organisationsübergreifende<br />
Vergleichbarkeit.<br />
Saarbrücker Formel<br />
Mitarbeiter als Unternehmenswert berechnen<br />
Alles in allem hat jedes Verfahren seine Berechtigung, schafft es doch in<br />
jedem Fall ein notwendiges Bewusstsein für den Produktivfaktor „Humankapital“.<br />
Den umfassendsten Ansatz verfolgt die Saarbrücker Formel<br />
[5] mit einer Kombination der drei oben beschriebenen Verfahren.<br />
In verkürzter Form beschreibt die Saarbrücker Formel das Humankapital<br />
(HC-Wert) als<br />
−−<br />
Summe branchenüblicher Gehälter über alle Mitarbeiter (Marktwert),<br />
−−<br />
gemindert um das erodierende Wissen im Beschäftigungsverlauf<br />
(Accounting),<br />
−−<br />
gemehrt um die Investitionen in Personalentwicklung (Accounting)<br />
sowie<br />
−−<br />
gemehrt bzw. gemindert um einen Motivationsfaktor der Mitarbeiter<br />
(Indikator)<br />
– und dies summiert über alle Mitarbeiter aller Abteilungen (i bis g)<br />
eines Unternehmens, was den Humankapitalwert eines Unternehmens<br />
ergibt (bzw. umgerechnet pro Kopf).<br />
Abb. 1: Saarbrücker Formel<br />
Wissen ist<br />
Wertschöpfung<br />
erodierendes Wissen<br />
Besondere Aufmerksamkeit genießt dabei der HC-Wertverlust, der sich<br />
über den Kapitalfaktor „Wissen“ definiert. Dabei wird die Wissensrelevanzzeit<br />
w i<br />
(Wie lange ist ein vorhandenes Wissen ohne Qualifizierung<br />
für ein Unternehmen wertschöpfend nutzbar?) in Bezug zur Beschäftigungsdauer<br />
b i<br />
gesetzt. Ist ein Mitarbeiter länger bei einem Unternehmen<br />
beschäftigt, als sein Wissen über die Zeit up-to-date bleibt, so<br />
verliert dieser Mitarbeiter (bzw. diese Beschäftigungsgruppe) seinen<br />
Wert für das Unternehmen. Es muss also investiert werden. Typische<br />
Investitionen in die Personalentwicklung PE i<br />
sind Qualifizierung oder<br />
Personaleinstellung.<br />
Typische Wissensrelevanzzeiten sind beispielsweise sieben Jahre<br />
für Ingenieure, neun Jahre für Werkzeugmacher oder 13 Jahre für<br />
360<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
Motivation als<br />
Wertschöpfungsfaktor<br />
Humankapital-Wert<br />
einer Technischen<br />
Redaktion<br />
Ausgewogenenheit<br />
der Mittel<br />
Bürofachkräfte. Zum wertschöpfungsrelevanten Wissen gehören das<br />
Kern-Fachwissen (Ausbildungswissen) und das Erfahrungswissen (berufsübergreifendes<br />
Handlungswissen).<br />
Ein ebenfalls gewichtiger Faktor ist die HC-Wertveränderung, die sich<br />
in einem Motivationsindex widerspiegelt. Hoch motivierten Mitarbeitern<br />
gelingt es, ihr persönliches und durch Wissensveralterung sinkendes<br />
Humankapital überzukompensieren und maßgeblich zur Wertschöpfung<br />
beizutragen, während Demotivation zu einem dramatischen<br />
Wertverlust führen kann. Zu den Motivationsbestandteilen zählen:<br />
−−<br />
Einsatzbereitschaft (commitment)<br />
−−<br />
Unternehmensbindung/Loyalität (retention)<br />
−−<br />
Arbeits- und Führungssituation (context)<br />
Bei aller vorhandenen Kritik an dem Saarbrücker Modell (z. B. Unschärfen<br />
durch Betrachtung von Marktgehältern, Definition von Wissensrelevanzzeiten,<br />
Bewertung von PE-Investitionen, Messung von Motivation)<br />
ist es doch ein brauchbares Instrument, um im Betriebsalltag<br />
Argumente für strategische Planungen zu erarbeiten.<br />
Technische Kommunikation im Human Capital Management<br />
Wie schon beschrieben, tut jedes Unternehmen gut daran, den monetarisierten<br />
Wert seiner Mitarbeiter zu kennen – letztlich auch, wenn um<br />
ein Gespräch mit Kreditgebern geht.<br />
Berechnen wir einmal – und das Berechnungsbeispiel ist auf alle Beschäftigtengruppen<br />
anwendbar – den Humankapital-Wert (HC-Wert)<br />
eines 20-köpfigen Redaktionsteams. Als branchenübliches Marktgehalt<br />
wird 42.000 € angenommen. Dann beträgt die Wertbasis dieser Abteilung<br />
für das Unternehmen 840.000 €. Die Mitarbeiter sind ausgebildete<br />
Ingenieure und Technische Redakteure, deren Wissen nach durchschnittlich<br />
sieben Jahren veraltet, die durchschnittliche Beschäftigungsdauer<br />
beträgt 13 Jahre. Es findet keine Personalentwicklung statt und<br />
die Motivation ist durchschnittlich gut (meint: M i<br />
= 1 = wertneutral).<br />
Aufgrund der Wissenserosion (Faktor 0,54 = 7/13) beträgt der HC-Wert<br />
lediglich 453.600 €. Das Unternehmen verliert also 386.400 € durch den<br />
natürlichen Prozess der Wissensveralterung (Erosion).<br />
Um die ursprüngliche Wertbasis wieder zu erreichen, müssten entweder<br />
pro Jahr knapp 400 T€ in die Personalentwicklung (ca. 20 T€ pro Mitarbeiter)<br />
investiert werden oder der Wertverlust durch maximal hohe<br />
Motivation kompensiert werden.<br />
Beides ist in der Praxis nur schwer umsetzbar. Es ist also ein Mittelweg<br />
zu finden. Wenn beispielsweise für jeden Mitarbeiter per anno rund<br />
3.000 € Qualifizierungsmaßnahmen geplant werden, die Fachwissen<br />
wie auch Schlüsselqualifikationen aufbauen (daher sollte Bildungsurlaub<br />
auch nicht mit Fliegenfischen oder Bauchtanz vertan werden)<br />
und dadurch der Motivationsindex (nachgewiesen durch Zufriedenheitsanalysen)<br />
um 50 % gesteigert werden kann, ist die ursprüngliche<br />
Wertbasis wieder nahezu erreichbar – das Unternehmen agiert als<br />
Humankapital-Optimierer.<br />
Die Rechnung:<br />
(840.000 [Wertbasis] ./. 386.400 € [Wertverlust] + 60.000 € [Wertkompensation])<br />
x 1,5 [Wertveränderung] = 770.400 € = 91,7 %<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
361
Personal- und Kostenmanagement<br />
Neue Technologien<br />
können Werte<br />
vernichten<br />
Wenn dies allerdings nicht geschieht, die Frustration steigt und die Motivation<br />
um die Hälfte sinkt, beträgt der Humankapital-Wert nur noch<br />
226.800 € – das Unternehmen ist dann ein Humankapital-Vernichter.<br />
Was passiert, wenn durch Einführung neuer Technologien die Produktivität<br />
steigt, Fachwissen und Erfahrungswissen durch Automatismen<br />
ersetzt und Stellen abgebaut werden? Zunächst einmal nichts, sofern alle<br />
anderen Einflussfaktoren gleich bleiben (leicht nachrechenbar, denn der<br />
HC-Wert bleibt bei jeder Mitarbeiterzahl bei 91,7 % von der Wertbasis).<br />
Allerdings geschieht dies in Praxis nicht in dieser idealtypischen Form.<br />
Denn oft werden Fachspezialisten durch Assistenzen ersetzt, wodurch<br />
sich der Humankapital-Wert durch andere Gehaltsstrukturen automatisch<br />
verändert. Meist noch schwerer wirken sich jedoch die Faktoren<br />
Wissensrelevanzzeit und Motivation aus. Da überwiegend Routinetätigkeiten<br />
über Technologien abgedeckt werden, wird das fachspezifische<br />
Wissen weitaus bedeutender. Je fachspezifischer Wissen ist, umso<br />
schneller veraltet es jedoch, so dass der Wertverlust deutlich steigt.<br />
Und wenn kein Change-Management betrieben wird, also der Veränderungsprozess<br />
bei Technologie-Projekten nicht durch Mitarbeitereinbindung<br />
und -motivation begleitet wird, kann das Absinken des Wertveränderung-Indexes<br />
dramatische Folgen haben – einmal ganz davon<br />
abgesehen, dass vielleicht sogar das Projekt scheitert.<br />
Fazit und Ausblick<br />
Den Gesamt-Kapitalwert eines Unternehmens unter Berücksichtigung<br />
des Humankapitals (neben den bilanziellen Werten) zu errechnen,<br />
macht ein Unternehmen transparenter, hilft die Wertschöpfung besser<br />
zu interpretieren und vor allem Steuerungsmaßnahmen zu ergreifen,<br />
um einen Unternehmenswert strategisch, nachhaltig und ganzheitlich<br />
auf hohem Niveau zu halten.<br />
Wenn ein Unternehmen die Mitarbeiter nur als Kostenfaktor betrachtet<br />
und Personalmaßnahmen lediglich über Kopf- oder Produktivitätskennzahlen<br />
definiert, erleidet es ohne Investitionen und Fördermaßnahmen<br />
einen erheblichen Wertverlust. Die Saarbrücker Formel hilft,<br />
mögliche Maßnahmen auch monetär – und damit für die Führungsetage<br />
verständlich(er) – zu definieren und damit auch die bislang weniger<br />
als wertschöpfungsrelevant gesehenen Beschäftigtengruppen, wie die<br />
Technische Dokumentaton, ins Blickfeld zu rücken.<br />
Anmerkungen<br />
[1] Vesper, F.: Der Wert eines Vogels, 4. Auflage München 1987<br />
[2] DGFP (Hrsg.): DGFP-Studie – Megatrends und HR Trends, Düsseldorf<br />
2011. DGFP (Hrsg.): Personalcontrolling – Status-quo und Perspektiven,<br />
Düsseldorf 2007. DGFP (Hrsg.): Human Capital Management,<br />
Düsseldorf 2005<br />
[3] Becker, M.: Systematische Personalentwicklung, 2. Auflage, Stuttgart<br />
2011, S. 375<br />
[4] Scholz C. / Stein V. / Bechtel R.: Human Capital Management, 3. Auflage,<br />
Köln 2011, S. 15<br />
[5] Scholz, C.: Die Saarbrücker Formel; in: personal manager 2/2005, S. 16ff<br />
für Rückfragen: schaffner@gmvk.de<br />
362<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
PKM 2<br />
Fachvortrag<br />
‚Offer to Operation‘ Dokumentation:<br />
Herausforderungen für Prozesse und<br />
Systeme der Technischen Dokumentation<br />
Dr.-Ing. Axel Poestges, SDL, Stuttgart<br />
Ob ein Unternehmen erfolgreich ist, wird wesentlich durch die Festlegungen<br />
in Vision, Mission und Strategie bestimmt. Unter gegebenen<br />
strategischen Randbedingungen aber entscheiden die Festlegungen<br />
im Geschäftsmodell, wie erfolgreich ein Unternehmen tatsächlich am<br />
Markt ist. Speziell bei der Umsetzung von Globalisierungszielen gibt es<br />
mehrere erfolgsbestimmende Elemente:<br />
−−<br />
Global Information Management,<br />
−−<br />
Product LifeCycle Management und<br />
−−<br />
Information Supply Chain.<br />
Je mehr Ressourcen- und Wertschöpfungsflexibilität ein Unternehmen<br />
absichern möchte, umso klarer und einfacher muss das Zusammenwirken<br />
der oben genannten Elemente gestaltet sein.<br />
In der typischen Diskussion über Wertschöpfungsphasen kennt man<br />
die Abschnitte ‚Offer to Order‘ (OTO) und ‚Order to Cash‘ (OTC). Das ist<br />
aber nur ein Teil des Prozesses. Sowohl Betriebs- bzw. Aftermarketphase<br />
als auch der Bereich von ‚Customer Experience‘ hin zu Produktentwicklung<br />
und -pflege fehlen komplett. Dieser Bereich, in der Praxis als<br />
‚Offer to Operation‘ bezeichnet, ist aber unter operativen Aspekten der<br />
mit Abstand wichtigste Wertschöpfungsabschnitt.<br />
Je hybrider die hergestellten Produkte sind, umso mehr entscheidet<br />
die angemessene Vernetzung der Wertschöpfungskette mit der Information<br />
Supply Chain über Erfolg, Komplexität und Kosten. Gerade bei<br />
global agierenden Unternehmen nimmt die Hebelwirkung exponentiell<br />
zu. Unternehmen, die in der Lage sind, ähnlich einer Variantenkonfiguration<br />
die durch die kundenindividuelle Wertschöpfung bestimmte<br />
Information Supply Chain zu konfigurieren, haben die Komplexität und<br />
damit die Kostentreiber im Griff.<br />
Was ist neu an ‚Offer to Operation‘ Dokumentation?<br />
Die Idee konfigurierbarer Informationen ist nur teilweise neu. Cross<br />
Media Publishing deutet zum Beispiel etwas Ähnliches an. Hier werden<br />
z. B. formatübergreifend Inhalte der Technischen Dokumentation im<br />
E-Learning weiter verwendet. Wirklich neu und anders bei der ‚Offer to<br />
Operation‘ Dokumentation ist aber, dass organisatorische und technische<br />
Möglichkeiten geschaffen und genutzt werden, um Wertschöpfung<br />
und Informationsversorgung anforderungsgerecht und angemessen zu<br />
synchronisieren.<br />
Dazu ist zunächst einmal eine Beantwortung der Frage nötig, welche<br />
Wertschöpfungskonstrukte praktisch möglich sind. Hier spielt die<br />
Einbindung von Partnern ebenso eine entscheidende Rolle wie Veränderungen<br />
der Wertschöpfungstiefe oder die Umsetzung von ‚Make<br />
or Buy‘-Entscheidungen. Insbesondere diejenigen Unternehmen,<br />
die mit dezentralisierten Produktionsstandorten, anspruchsvollen<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
363
Personal- und Kostenmanagement<br />
Transportprozessen und ausgelagerten Aftermarketaktivitäten arbeiten,<br />
sind quasi prädestiniert für die Nutzung von ‚Offer to Operation‘<br />
Dokumentation.<br />
Sobald die Wertschöpfungsvarianten bekannt und dokumentiert worden<br />
sind, werden den einzelnen Varianten die entsprechenden Informationen<br />
nach Inhalt und Medium zugeordnet. Werden also einzelne<br />
Komponenten auf dem Seeweg transportiert, so werden die notwendigen<br />
Anweisungen automatisch zum richtigen Zeitpunkt, in der richtigen<br />
Sprache und im richtigen Format erzeugt und bereitgestellt. Werden<br />
Service und Ersatzteilversorgung an einen Partner ausgelagert, so werden<br />
die notwendigen Serviceunterlagen automatisch z. B. in digitaler<br />
Form zum Download angeboten. Natürlich erfordert diese Organisation<br />
der Information Supply Chain ein entsprechendes Content Management<br />
und eine entsprechende Einbindung der Lokalisierung.<br />
Welcher Nutzen ist von ‚Offer to Operation‘ Dokumentation zu erwarten?<br />
Der Hauptvorteil einer ‚Offer to Operation‘-Organisation der Information<br />
Supply Chain liegt in signifikanten Geschwindigkeits- und Aktualitätsvorteilen.<br />
Keine Änderung der Wertschöpfungskette (sofern die<br />
entsprechende Variante vorgedacht wurde) erfordert kompliziertes und<br />
sequentielles Nachführen der Information Supply Chain. Insbesondere<br />
die Präsenz in neuen Märkten mit neuen Formen der Wertschöpfungsorganisation<br />
(z. B. bei der Forderung nach landessprachlicher Kommunikation)<br />
lässt sich mit ‚Offer to Operation‘ wesentlich schneller bewerkstelligen<br />
als mit einer klassischen sequenziellen Vorgehensweise.<br />
Damit wird also nicht nur das Time-to-Market verkürzt, sondern – was<br />
im Zuge der Umsetzung von Globalisierungszielen einen deutlich höheren<br />
Stellenwert hat –‚Time to efficient Operation‘ im Zielmarkt. Denn<br />
konsistente Inhalte sowie schnelle Inhaltsanpassung und -bereitstellung<br />
bringen klare Kosten- und vor allem Wettbewerbsvorteile.<br />
Welches ist der richtige Weg zu einer ‚Offer to Operation‘ Dokumentation?<br />
Ähnlich wie beim Cross Media Publishing bestimmt auch bei der ‚Offer<br />
to Operation‘ Organisation der Grad der Integration zwischen Wertschöpfungskette<br />
und Information Supply Chain das Aufwandsniveau<br />
auf dem Weg zu einer nachhaltigen organisatorischen Verbesserung.<br />
Viele Unternehmen sind (abhängig von der generellen Organisationsqualität)<br />
schon damit überfordert, alle relevanten Wertschöpfungsvarianten<br />
zu erfassen, zu beschreiben und zu dokumentieren. Ähnliches<br />
gilt sinngemäß auch für die Information Supply Chain. Der Weg zum<br />
Ziel beginnt also mit einer Analyse dieser beiden Perspektiven. Diese<br />
Vorbereitungen sind denen ähnlich, die im Vorfeld eines Variantenkonfigurators<br />
zu absolvieren sind. Weitere Aktivitäten sind bereits aus der<br />
Realisierung von Global Information Management-Konzepten bekannt<br />
und spielen sich zwischen Inhaltserstellung und ‐bereitstellung ab.<br />
Fazit<br />
Ohne Frage ist ‚Offer to Operation‘ Dokumentation eine eher organisatorische<br />
als informationstechnische Herausforderung. In jedem<br />
Fall ist aber die vorgestellte Herangehensweise ein ideales Instrument,<br />
um die Organisation wie auch die Information Supply Chain auf<br />
364<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
globalisierungsfreundliche Füße zu stellen. Die Eigeninitiative reicht<br />
für die Initialzündung – für einen zielorientierten Weg und greifbare<br />
Ergebnisse sind Best-Practice-Betrachtungen sowie eine methodische<br />
Unterstützung unabdingbar.<br />
für Rückfragen: apoestges@sdl.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
365
Personal- und Kostenmanagement<br />
PKM 3<br />
Partnerpräsentation<br />
Outsourcing der gesamten Dokumentation<br />
Stefan Magerstedt, KHS GmbH, Dortmund<br />
Dirk Wilke, cognitas GmbH, Ottobrunn<br />
Die cognitas GmbH hat die komplette Dokumentation der KHS GmbH im<br />
Rahmen einer Funktionsnachfolge übernommen. Die Dokumentationserstellung<br />
erfolgte bei der KHS GmbH dezentral in mehreren Teams.<br />
Der Vortrag zeigt die Vorgehensweise beim Outsourcing der kompletten<br />
Dokumentation eines Unternehmens. Er zeigt die Beweggründe beim<br />
outsourcenden Unternehmen, zwingende Voraussetzungen und das<br />
Vorgehen beim kompletten Übernahmeprozess.<br />
Die KHS GmbH ist ein Weltmarktführer und bevorzugter Lieferant<br />
der Verpackungsindustrie mit Fokus auf Getränke-Applikationen und<br />
komplette Anlagen. Der Konzern gehört zur Salzgitter AG, beschäftigt<br />
weltweit ca. 4500 Mitarbeiter und hat einen Jahresumsatz von ca. 920<br />
Millionen Euro. Basierend auf einer modular aufgebauten Produktpalette<br />
entwickelt und produziert KHS kundenspezifische Lösungen. Im<br />
Mittelpunkt steht die Ingenieursleistung zur Realisierung optimaler<br />
mechanischer und prozesstechnischer Abläufe.<br />
Die cognitas GmbH ist einer der führenden Dokumentationsdienstleister<br />
in Deutschland. Zu den Kernkompetenzen gehören die Erstellung<br />
von Betriebs- und Wartungshandbüchern im Maschinen- und Anlagenbau,<br />
das Übersetzungsmanagement und Consulting-Leistungen wie<br />
Prozessanalyse und Einführung eines neuen Redaktionssystems.<br />
Ausgangslage<br />
Zum Zeitpunkt der Entscheidung für das Outsourcing war die Dokumentationserstellung<br />
bei der KHS GmbH dezentral organisiert, wobei<br />
redaktionelle Vorgaben zentral gesteuert wurden. Die Redakteure waren<br />
in den jeweiligen Fachbereich integriert.<br />
Bedingt durch die dezentrale Struktur konnten der Austausch zwischen<br />
den Redakteuren und die Synergieeffekte zwischen den Fachbereichen<br />
nicht in allen Punkten optimal genutzt werden.<br />
Der Aufbau eines modularen Redaktionssystems und die Einführung<br />
eines abgestimmten Redaktionsleitfadens waren laufende Projekte.<br />
Einzelne Fachbereiche setzten bereits externe Dienstleister ein. Der<br />
Erfahrungsschatz eines großen Dokumentationsdienstleisters war eine<br />
gute Voraussetzung für die Erstellung von modularer Dokumentation<br />
basierend auf den Vorgaben der Maschinenrichtlinie in einem XMLbasierten<br />
Redaktionssystem.<br />
Beweggründe für das Outsourcing<br />
Im Rahmen eines KHS-weiten Restrukturierungsprogramms zur Förderung<br />
eines nachhaltigen Wachstums und zur Optimierung interner<br />
Abläufe wurde die Dokumentationserstellung analysiert und bewertet.<br />
Mögliche Lösungsansätze waren:<br />
−−<br />
Interne Umstrukturierung<br />
−−<br />
Teil-Outsourcing<br />
−−<br />
Komplett-Outsourcing<br />
366<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
Am Ende traf die KHS GmbH die Entscheidung, die Dokumentation<br />
vollständig in die Hände eines Dokumentationsdienstleisters zu geben.<br />
Zielvorgaben<br />
Die Erwartungen an das Projekt sind hoch und das Spektrum der Zielvorgaben<br />
macht deutlich, wie stark das Outsourcing in die Unternehmensprozesse<br />
eingreift:<br />
−−<br />
Kostenreduzierung und höhere Planbarkeit durch Fixkosten pro<br />
Anleitung<br />
−−<br />
Zentralisierung und abgestimmte Prozesse<br />
−−<br />
Effizienzsteigerung und Skalierbarkeit der Ressourcen<br />
−−<br />
Qualitätssteigerung und Harmonisierung der Betriebsanleitungen<br />
über alle Fachbereiche<br />
Vorgehensweise<br />
In enger Abstimmung entwickeln die Projektverantwortlichen beider<br />
Firmen einen Lösungsweg.<br />
Die Ausarbeitung eines Dienstleistungskatalogs bildet das Gerüst für<br />
klar umrissene Dienstleistungen und eine regelbasierte, nachvollziehbare<br />
Preisfindung.<br />
Bisherige Prozesse zur Dokumentationserstellung werden analysiert<br />
und so angepasst, dass sie zu einer partnerschaftlichen und effektiven<br />
Zusammenarbeit beider Firmen passen.<br />
Die Skalierbarkeit der Ressourcen verbessert sich entschieden durch<br />
die fachbereichsübergreifende Zusammenarbeit der Redakteure und<br />
die Übernahme von Aufträgen von anderen Firmen aus der Region.<br />
Der Funktionsübergang ermöglicht es allen bisherigen Dokumentationsmitarbeitern,<br />
sich bewusst für die neue Firma zu entscheiden. Dabei<br />
wird die räumliche Nähe zwischen Redaktionsteam und Produktionsstandort<br />
beibehalten. Eine einheitliche, zentrale Struktur bildet die<br />
Klammer um alle Redaktionen. Ein reger Austausch zwischen den Redakteuren<br />
stärkt die Zusammenarbeit im Tagesgeschäft. Neu eingestellte<br />
Mitarbeiter bringen neue Impulse und neue Fähigkeiten mit.<br />
In eigenen Teilprojekten werden die Übersetzungs- und Publikationsschnittstelle<br />
optimiert und Synergieeffekte durch ein miteinander verzahntes<br />
modernes Trainings- und Dokumentationskonzept gehoben.<br />
Herausforderungen<br />
Zu den Herausforderungen des Projekts gehört es, über Jahre gewachsene<br />
standortspezifische Strukturen zu erfassen, zu entflechten und an<br />
die neue Situation anzupassen:<br />
−−<br />
Aus der kollegialen Zusammenarbeit zwischen Dokumentationsmitarbeitern<br />
und fachlichen Ansprechpartnern in der Konstruktion<br />
entsteht eine offene und faire Zusammenarbeit zwischen Auftraggeber<br />
und Kunde.<br />
−−<br />
Während das Tagesgeschäft weiterläuft, fängt ein wachsendes und<br />
engagiertes Team den Know-how-Verlust auf, der entsteht, da einige<br />
der bisherigen Dokumentationsmitarbeiter sich nicht für den Weg<br />
zum Dokumentationsdienstleister entschieden.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
367
Personal- und Kostenmanagement<br />
−−<br />
Der hohe Durchsatz an Dokumenten macht eine effektive und pragmatische<br />
Verzahnung von Prozessen und IT-Infrastruktur notwendig.<br />
Hier gilt es, den Firmen-Policies beider Firmen Rechnung zu tragen.<br />
Konsequenzen<br />
Der Prozess des Outsourcings gibt allen Themen rund um die Dokumentation<br />
eine größere Sichtbarkeit innerhalb eines Unternehmens.<br />
Für Aufgaben, die bisher nebenbei oder basierend auf Erfahrungswerten<br />
erledigt wurden, müssen Leistungen definiert, passende Prozesse<br />
etabliert und Schnittstellen abgesprochen werden.<br />
Fazit<br />
Die Erwartung bei einem Outsourcing-Projekt in diesen Dimensionen<br />
ist hoch. Definierte Vorgaben an die Qualität der zu erstellenden Dokumentation<br />
und die einzusetzende Redaktionsumgebung erleichtern den<br />
Projektstart.<br />
Die Form des Komplett-Outsourcings greift tief in die Unternehmensprozesse<br />
ein, eine sorgfältige Prozessanalyse ist daher unabdingbar.<br />
In dem konkreten Projekt ist es abzusehen, dass sich das Vorgehen für<br />
beide Seiten in den Folgejahren auszahlen wird.<br />
für Rückfragen:<br />
Stefan.Magerstedt@khs.com<br />
Dirk.Wilke@cognitas.de<br />
368<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
PKM 4<br />
Fachvortrag<br />
Ressourcenplanung im<br />
Übersetzungsmanagement<br />
Constantin Walter, Across Systems GmbH, Karlsbad<br />
Durch eine effektive und effiziente Planung verfügbarer Ressourcen<br />
können Unternehmen jeder Größenordnung stabile Abläufe gewährleisten<br />
und nicht zuletzt beträchtliche Einsparungen realisieren. Während<br />
in anderen Bereichen und Branchen Standardlösungen existieren<br />
und sich hinter dem Stichwort „Enterprise Resource Planning“ sogar<br />
eine eigene Disziplin verbirgt, werden die Anforderungen des Übersetzungsmanagements<br />
häufig nicht ausreichend adressiert.<br />
Zusammenfassung und Ausblick<br />
Nach einer kurzen Einführung in die allgemeinen Charakteristika von<br />
ERP-Systemen erfolgt der Einstieg in die Spezifika des Übersetzungsmanagements.<br />
Hierzu gehören insbesondere die Einordnung der Ressourcen im Allgemeinen<br />
und der Lieferanten im Speziellen. Auch die Unterschiede,<br />
die sich durch die jeweilige Position in der Lieferkette ergeben, müssen<br />
berücksichtigt werden.<br />
Fundament jeglicher Planungen, und damit auch der Ressourcenplanung,<br />
ist ausreichende Information über die Fakten. Durch entsprechende<br />
Kennzahlen und Berichte lassen sich Entscheidungen und<br />
Zukunftsplanungen begründen. Neben der Auswertung des aktuellen<br />
Datenbestands müssen selbstverständlich auch die Daten der Vergangenheit<br />
betrachtet werden.<br />
Das höhere Ziel hinter all diesen Betrachtungen besteht im Ableiten<br />
von Managemententscheidungen auf verschiedenen Ebenen. Neben<br />
operativen Aktivitäten (beispielsweise welcher Mitarbeiter eine Aufgabe<br />
am sinnvollsten übernehmen kann) geht es auch um Entscheidungen<br />
mit größerer Tragweite wie die Kapazitäts- und Personalplanung.<br />
Auch Automatisierungspotentiale lassen sich in diesem Zug einfacher<br />
verorten und realisieren.<br />
Die Ansätze des Enterprise Resource Planning können auch im Übersetzungsmanagement<br />
gewinnbringend genutzt werden, um Laufzeiten<br />
zu verkürzen, Ressourcen optimaler zu nutzen und letzten Endes Kosten<br />
einzusparen.<br />
für Rückfragen: cwalter@across.net<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
369
Personal- und Kostenmanagement<br />
PKM 5<br />
Workshop<br />
Aufbau eines Kennzahlensystems für<br />
Technische Kommunikation<br />
Dr.-Ing. Michael Schaffner, GMVK Berlin GmbH / FOM Berlin Hochschule für Oekonomie &<br />
Management<br />
Dr.-Ing. Wolfgang Sturz, Sturz-Gruppe, Dr.-Ing. Sturz GmbH,<br />
Oft klagt die Technische Kommunikation darüber, vom Management<br />
keine ausreichende Beachtung zu finden. Ausschlaggebend hierfür sind<br />
nicht zuletzt meist intransparente Kosten- und Leistungsstrukturen.<br />
Kommunikation mit dem obersten Management heißt, deren Sprache<br />
zu sprechen. Hier helfen Kennzahlensysteme, um dem Management<br />
Transparenz und eine professionelle Steuerung der Organisationseinheit<br />
zu signalisieren. Der Workshop erläutert eine kennzahlengestützte<br />
Organisation und gibt praktischen Einblick in den Aufbau eines individuellen<br />
Kennzahlensystems für die Technische Kommunikation.<br />
In dem Workshop werden konzeptionelle Grundlagen einer Kennzahlen-gestützten<br />
Organisation vorgestellt:<br />
−−<br />
Strategieorientierter Planungsprozess<br />
−−<br />
Kybernetischer Regelkreis<br />
−−<br />
Controlling als Instrument der Unternehmensführung<br />
−−<br />
Kennzahlen und Kennzahlensysteme<br />
Anschließend wird in moderierten Arbeitsgruppen modellhaft und<br />
praktisch ein Kennzahlensystem (Balanced Scorecard) für die Technische<br />
Kommunikation ausgearbeitet.<br />
−−<br />
Ausarbeitung einer beispielhaften Strategieplanung für die Technische<br />
Kommunikation und Operationalisierung von kennzahlenrelevanten<br />
Strategiefeldern<br />
−−<br />
Ausarbeitung relevanter Kennzahlen<br />
−−<br />
Zusammenfassende Darstellung eines beispielhaften Kennzahlensystems<br />
Der Workshop schließt mit einer Diskussion und Ausblick auf weitere<br />
Betätigungsfelder.<br />
für Rückfragen:<br />
schaffner@gmvk.de<br />
sturz@sturz-gruppe.de<br />
370<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
PKM 6<br />
Workshop<br />
Ihre individuelle Standortbestimmung<br />
in Sachen Lokalisierungsmanagement<br />
Dr.-Ing. Axel Poestges, SDL, Stuttgart<br />
Global Information Management ist ein Managementsystem wie beispielsweise<br />
Qualitäts- oder Umweltmanagement und muss daher fest<br />
im Geschäftsmodell eines Unternehmens verankert werden. Unternehmen<br />
mit nur einem Produkt in abgegrenzten lokalen Märkten haben<br />
andere Anforderungen an die Information Supply Chain als ein Global<br />
Player. Das Management der Information Supply Chain ist umso<br />
komplexer, je mehr Ressourcen am Wertschöpfungsprozess beteiligt<br />
sind und je globaler vernetzt der Wertschöpfungsprozess selbst ist.<br />
Global Information Management ist daher ein schwer beherrschbarer<br />
Komplexitätstreiber.<br />
Wer einen globalen Fußabdruck hinterlassen möchte, muss sein Global<br />
Information Managementsystem virtuos beherrschen, andernfalls<br />
bleiben die Ergebnisse der Globalisierungsstrategie stets suboptimal.<br />
Die fundierte Kenntnis von Ausgangssituation und Ist-Zustand ist eine<br />
unabdingbare Forderung, um ein Global Information Managementsystem<br />
weiterentwickeln und optimieren zu können. Die für diesen Zweck<br />
verfügbaren Best Practices sind überschaubar und zielführende Werkzeuge<br />
kaum bekannt.<br />
Wie wird das Global Information Management<br />
Self Assessment angewendet?<br />
Das Global Information Management Self Assessment (GIM Self Assessment)<br />
ist ein IT-unterstütztes Werkzeug für die Standortbestimmung<br />
in Sachen Global Information Managementsystem. Wie der Name<br />
andeutet, nutzt das Assessment die Kenntnis der Best Practices erfolgreicher<br />
Global Player sowie umfangreiche Benchmark-Informationen,<br />
um einem Unternehmen mit globaler Ausrichtung eine belastbare<br />
Standortbestimmung zu ermöglichen.<br />
Das GIM Self Assessment deckt alle Bereiche der Information Supply<br />
Chain ab und ermöglicht eine individuelle Standortbestimmung.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
371
Personal- und Kostenmanagement<br />
Das Global Information Management Self Assessment besteht aus drei<br />
Bausteinen:<br />
−−<br />
Analyse<br />
−−<br />
Evaluierung<br />
−−<br />
Interpretation<br />
Der zentrale Baustein des GIM Self Assessments ist der Fragebogen. Er<br />
enthält sowohl Multiple-Choice-Fragen als auch Beschreibungen sowie<br />
eine Abfrage quantitativer Daten. Dieser Fragebogen kann entweder direkt<br />
von den entsprechenden Fachabteilungen im Unternehmen beantwortet<br />
oder im Rahmen mehrtägiger Workshops zusammen mit einem<br />
Berater bearbeitet werden.<br />
Nachdem alle Fragen vollständig beantwortet worden sind, wird der<br />
Fragebogen im Rahmen der Evaluierung mit einem IT-unterstützten<br />
Tool ausgewertet. Die Ergebnisse werden in einer Vielzahl verschiedener<br />
Diagramme in unterschiedlichem Detaillierungsgrad dargestellt<br />
und dokumentiert. Zentrales Diagramm in diesem Kontext ist eine<br />
Spinnennetz-Darstellung, die den Status in allen Phasen des Informations-Lebenszyklus<br />
im Vergleich zu Industrie-Standards und Industrie<br />
Best Practices zeigt. Diese Darstellung erlaubt eine unmittelbare Identifikation<br />
der Defizite und Suboptima im Unternehmen.<br />
Das Spinnennetzdiagramm als zentrale Grafik des Global Information<br />
Management Self Assessments zeigt auf, wo das Unternehmen im Vergleich<br />
zu Industry Best Practices steht.<br />
In der Interpretationsphase werden die identifizierten Defizite mit<br />
typischen, erfolgreichen Projekten in vergleichbaren Branchen verglichen.<br />
Die Defizite werden unter Verwendung der entsprechenden<br />
372<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
Benchmark-Daten bewertet und Verbesserungspotenziale ermittelt.<br />
Diese Potenziale können dann unmittelbar in einem separaten Projekt<br />
als Business Case dargestellt werden.<br />
Was wird im Workshop gemacht?<br />
Im Workshop lernen Sie den umfangreichen Fragebogen kennen, der<br />
den wichtigsten zentralen Baustein des Assessments darstellt. Im ersten<br />
Teil (nach Einführung und Vorstellung von Tool und Methode) wird ein<br />
gemeinsames Problemverständnis und ein kleinster gemeinsamer Problemnenner<br />
auf der Basis der generischen Information Supply Chain<br />
erarbeitet. Dieser Schritt erlaubt sowohl eine gemeinsame Diskussion<br />
der Ergebnisse als auch möglicher Problemlösungen. Im zweiten Teil<br />
des Workshops werden in drei Arbeitsgruppen die ausgewählten Fragenkomplexe<br />
des Global Information Management Self Assessments<br />
bearbeitet. Die Ergebnisse werden im Nachgang mit dem Auswertungstool<br />
analysiert und das Ergebnis interpretiert (Eine Zusammenfassung<br />
der Ergebnisse erhalten die Workshop-Teilnehmer im Nachgang per<br />
E-Mail).<br />
Neben der Diskussion der Einzelaspekte werden auch beispielhafte<br />
Gesamtergebnisse des Assessments diskutiert. Zu diesem Zweck werden<br />
drei ausgewählte praktische neutralisierte Beispiele vorgestellt und<br />
gemeinsam diskutiert. Die Arbeitsgruppen haben die Aufgabe, aus den<br />
Ergebnissen konkrete Handlungsempfehlungen abzuleiten. Diese Empfehlungen<br />
werden anschließend mit den konkreten Kundenprojekten<br />
verglichen und ggf. abweichende Resultate diskutiert.<br />
Was können Sie aus dem Workshop mitnehmen?<br />
Neben der Auswertung der individuellen Gruppenarbeiten erhält jeder<br />
Workshop-Teilnehmer einen Gutschein für die Auswertung eines<br />
Global Information Management Maturity Assessments. Dieses Assessment<br />
liefert Ergebnisse, die mit dem des Self Assessment vergleichbar<br />
sind, jedoch auf einem höheren Niveau aggregiert werden. Jeder<br />
Teilnehmer, der den zugehörigen Fragebogen zurücksendet, bekommt<br />
eine Auswertung sowie ein entsprechendes Dossier mit konkreten<br />
Handlungsempfehlungen.<br />
für Rückfragen: apoestges@sdl.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
373
Personal- und Kostenmanagement<br />
PKM 7<br />
Workshop<br />
Übliche Fehler bei<br />
der Problemlösung<br />
Houston, …! Problemlösungsprozess<br />
in Dokumentation und Übersetzung<br />
Isabelle Fleury, Fleury & Fleury Consultants, Köln<br />
Viele meinen, es gäbe keine Probleme, sondern nur Herausforderungen.<br />
Andere wiederum haben ständig Probleme, während von anderen behauptet<br />
wird „sie hätten ein großes Problem“. Egal, zu welcher Aussage<br />
jeder selbst tendiert, illustrieren die Sätze zusammengenommen vor allem<br />
eins: Jeder versteht unter „Problem“ etwas anderes: Ärgernis (tägliche<br />
Plagegeister), Symptom oder Störung, Störungsursache, (Aus-)Wirkung<br />
oder schwierige Anforderung (die berühmte Herausforderung).<br />
Weil „Probleme“ im Arbeitsalltag außerdem häufig anzutreffen sind,<br />
lohnt es sich, Klarheit zu schaffen und einen Weg zu finden, wie sie behandelt<br />
werden können und wie man zu zielgerichteten, effizienten und<br />
ausgewogenen Lösungen kommt.<br />
Nicht jedes Problem verdient die Anwendung eines ausführlichen<br />
Problemlösungsprozesses (PLP). In Dokumentation und Übersetzung<br />
eignet sich ein PLP für Probleme, die einen negativen Einfluss auf die<br />
Projektziele (Termin, Qualität, Kosten) oder auf eine Geschäftsbeziehung<br />
haben.<br />
Der PLP kann in unterschiedlichen Projektphasen angewendet werden:<br />
zur Festlegung des Produktionsablaufs und zur Abwehr von erkannten<br />
Risiken; in der Steuerungsphase beim Auftreten von Schwierigkeiten<br />
und zur Hebung von Best Practices.<br />
−−<br />
Besprechung von Lösungen, bevor das Problem genau analysiert ist<br />
−−<br />
Umsetzung von Lösungen, obwohl relevante Informationen zum Problem<br />
oder zur Lösung fehlen<br />
−−<br />
Personen beschäftigen sich mit Problemen und/oder Lösungen, die<br />
nicht in ihren Zuständigkeitsbereich fallen<br />
−−<br />
Beschäftigung mit Problemen, die zu allgemein, zu komplex oder<br />
ungenau definiert sind<br />
−−<br />
Umsetzung der ersten Lösung, die einem einfällt, egal wie geeignet<br />
sie ist<br />
−−<br />
Problemlösung nur durch eine oder wenige Personen, ohne kritische<br />
Betrachtung durch Dritte<br />
−−<br />
Kein Plan zu Implementierung und Bewertung der Lösung<br />
Um nicht in diese üblichen Fallen zu tappen, wird der Problemlösungsprozess<br />
in sechs abgestimmte Schritte unterteilt, die die Konzentration<br />
auf eine Aufgabe richten und ein überstürztes Handeln vermeiden.<br />
374<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Personal- und Kostenmanagement<br />
Problemlösungsprozess in sechs Schritten<br />
Problemanalyse<br />
Lösungsmöglichkeiten<br />
Empfehlung/<br />
Entscheidung<br />
Lösungsumsetzung<br />
Die genaue Analyse des Problems stellt die wichtigste Phase im Prozess<br />
dar.<br />
−−<br />
Beschreibung und Abgrenzung des Problems zum gegenwärtigen<br />
Zeitpunkt: Auslöser, Symptome, mögliche Ursachen, aktuelle Auswirkungen,<br />
Umfeldfaktoren<br />
−−<br />
Beschreibung der Folgen in der Zukunft, Einfluss auf Projektziele<br />
−−<br />
Anforderungen an die Lösung(en), Ziele des Lösungsprozesses<br />
Zur korrekten Analyse müssen die richtigen Personen herangezogen<br />
werden: Beteiligte an Ursache, Betroffene von Auswirkungen, erfahrene<br />
Personen, die nicht direkt betroffen sind.<br />
Erst in einem zweiten Schritt werden Lösungsmöglichkeiten mit Hilfe<br />
von Problemlösungstechniken ermittelt.<br />
−−<br />
Mögliche Lösungsansätze oder Kombinationen von Maßnahmen<br />
suchen<br />
−−<br />
Auswirkungen aller Lösungsansätze auf Projektziele und Eignung<br />
gemessen an Zielen des Lösungsprozesses eruieren<br />
−−<br />
Risiken analysieren, die die Umsetzung der Lösungsansätze im Projekt<br />
bringt<br />
Erst dann nähert man sich der Entscheidung.<br />
−−<br />
Prüfen, ob alle nötigen Informationen zur Entscheidung vorhanden<br />
sind<br />
−−<br />
Gegenseitige Beeinflussung der Lösungsmöglichkeiten besprechen<br />
−−<br />
Alternativen erwägen und Empfehlung festhalten<br />
−−<br />
Den richtigen Entscheider finden<br />
−−<br />
Entscheidung über Steuerungsmaßnahme(n) treffen<br />
−−<br />
Projektziele neu abstimmen<br />
Jetzt erst wird im Projekt gehandelt, und dies sollte mit den üblichen<br />
Projektmanagement-Instrumenten erfolgen.<br />
−−<br />
Prozessablauf und Projektpläne anpassen<br />
−−<br />
Anweisungen an Beteiligte und Projektdokumentation anpassen<br />
−−<br />
Kommunikation der Steuerungsmaßnahmen an Beteiligte<br />
−−<br />
Festlegung der Schritte zur Qualitätssicherung<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
375
Personal- und Kostenmanagement<br />
Wirkungsprüfung<br />
PLP-Bewertung<br />
Bis die Steuerungsmaßnahmen greifen, kann es dauern. Wenn ein<br />
Problem im Projekt schon eingetreten ist, ist jede weitere Verzögerung<br />
gefährlich. Eine oder mehrere zusätzliche Kontrollen sollten eingeplant<br />
und durchgeführt werden, um sicher zu sein, dass die Maßnahmen greifen<br />
und die erwartete Wirkung zeigen.<br />
Der Problemlösungsprozess ist komplex und erstreckt sich eventuell<br />
über mehrere Tage/Monate. Mit einer Auswertung wird zum einen rückblickend<br />
analysiert, ob die gewählten Steuerungsmaßnahmen geeignet<br />
waren und welche zur allgemeinen Verbesserung der Unternehmensprozesse<br />
genutzt werden können. Zum anderen reflektieren die Beteiligten,<br />
wie das Instrument ihnen geholfen hat und wie sie es in Zukunft<br />
besser anwenden können, um schneller und besser ihre Probleme zu<br />
lösen.<br />
Im Workshop wird dieser Problemlösungsprozess an konkreten Beispielen<br />
aus dem Publikum angewandt. Die Teilnehmer experimentieren<br />
in Kleingruppen mit den dort vorgestellten Techniken.<br />
für Rückfragen: if@fleuryfleury.com<br />
376<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Social Media
Social Media<br />
SOCIAL MEDIA<br />
Presentation<br />
Engaging readers in your documentation –<br />
how and why with social media<br />
Sarah Maddox, Atlassian, Sydney, Australia<br />
Blogs, websites, forums... There is so much information out there! We<br />
know that our documentation is the best source of information available<br />
to our customers. How can we make sure that people find our documentation?<br />
How do we even know that people are looking for information<br />
about our products?<br />
One answer lies in the clever use of social media.<br />
Introducing social documentation tools<br />
We begin by examining why you would want to use social media as part<br />
of your technical communication toolbox.<br />
This presentation shows how to integrate your documentation with<br />
Twitter, YouTube and Flickr, in order to draw readers into the documentation.<br />
I’m using a wiki called Confluence. The tools shown in the<br />
presentation are applicable to most web-based platforms, including<br />
Confluence.<br />
You will learn innovative techniques and take away ideas to put into<br />
practice in your own technical communication. For example:<br />
−−<br />
See how to harness the information that expert bloggers provide.<br />
−−<br />
Find out how running a doc sprint can improve your documentation,<br />
enhance your team‘s reputation, and add value your organisation and<br />
its products.<br />
−−<br />
Investigate how rewarding your readers can keep them interested<br />
in the documentation, ensuring that they absorb what they read and<br />
complete the tasks assigned to them.<br />
Feedback<br />
Some documentation platforms, such as a wiki, allow readers to add<br />
comments to the pages. We will look at the types of comments received<br />
on a live documentation wiki.<br />
As an alternative to comments, we will see how to add a feedback form<br />
via an online service called Wufoo.<br />
Blogs<br />
Engaging with bloggers is a good way of giving customers extra information.<br />
It is also a way of generating links back into your documentation<br />
from the bloggers’ sites, thus drawing readers into your documentation.<br />
What’s more, it is a good thing to have the support of bloggers,<br />
since many of them are influential in your community of readers and<br />
customers.<br />
This presentation describes a model for linking from the documentation<br />
to relevant external blogs.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
379
Social Media<br />
Managing updates by everyone<br />
Collaborating on document development produces an excellent repository<br />
of information. The level of collaboration, and the controls put in<br />
place, depend on the environment and audience requirements. This<br />
presentation discusses how to manage updates by subject matter experts<br />
and community authors. We examine the questions of copyright<br />
and intellectual property, how to monitor the updates made, and some<br />
permission schemes for controlling the editing rights.<br />
Doc sprints<br />
A doc sprint is a short period of time when a group of people collaborate<br />
to write a specific set of documents. We will examine the reasons<br />
for holding such an event and the results of some recent doc sprints.<br />
The references section includes links to detailed articles on planning<br />
and running a doc sprint.<br />
Flickr<br />
We will take a quick look at using shared photographs from Flickr to<br />
engage your readers.<br />
YouTube<br />
Adding a video is a good way of making your documentation more attractive,<br />
informative and engaging. We will look at the example of some<br />
release notes, where the technical writers re-use a video produced by<br />
the marketing team, thus making good use of the effort spent in producing<br />
the video.<br />
Twitter<br />
Twitter opens the way for innovative technical communication techniques.<br />
In this presentation, we discuss these ideas:<br />
−−<br />
Using Twitter as a medium for release notes.<br />
−−<br />
Inviting customers to Tweet their hints and tips about your products.<br />
−−<br />
Incorporating Twitter activity streams in your documentation.<br />
−−<br />
Rewarding the community for sharing their tips.<br />
You will see how to:<br />
−−<br />
Embed a live Twitter stream onto your page.<br />
−−<br />
Provide a link that prepopulates a tweet for your readers, giving them<br />
the option to tweet your suggested words or change the words before<br />
tweeting.<br />
−−<br />
Build a Twitter widget.<br />
Gamification<br />
Gamification is a current buzz word in user interface design as well as<br />
technical communication. It means the application of game techniques<br />
to things that are not games, such as software and documentation.<br />
We will see a configuration guide that includes some of the features of a<br />
game. The guide uses Twitter to add interactivity to the documentation,<br />
and specially-designed graphics to add appeal to the pages. Humorous<br />
380<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Social Media<br />
language enhances the pages too. We will examine why and how this<br />
was done, and the results.<br />
Documentation as an emotional experience – does that sound weird?<br />
This presentation says not.<br />
References<br />
“The Death Of SEO: The Rise of Social, PR, And Real<br />
Content”: http://www.forbes.com/sites/kenkrogue/<strong>2012</strong>/07/20/<br />
the-death-of-seo-the-rise-of-social-pr-and-real-content/<br />
Wufoo Online Form Builder: http://wufoo.com/<br />
A “Tips of the Trade” page linking to external blogs:<br />
https://confluence.atlassian.com/display/JIRA/Tips+of+the+Trade<br />
Example of a contributor licence agreement:<br />
https://confluence.atlassian.com/display/ALLDOC/ACLA+v2.0<br />
How to plan a doc sprint:<br />
http://ffeathers.wordpress.com/<strong>2012</strong>/09/07/how-to-plan-a-doc-sprint/<br />
Doc sprint wiki: http://confluence.atlassian.com/display/DOCSPRINT<br />
A „Tips via Twitter“ page:<br />
https://confluence.atlassian.com/display/JIRA/Tips+via+Twitter<br />
Dragon Slayer documentation:<br />
http://confluence.atlassian.com/display/ATLAS/Here+Be+Dragons<br />
A crowd-sourced guide to Twitter by technical communicators:<br />
https://wikitechcomm.onconfluence.com/display/DOC/Home<br />
How to embed Twitter: http://ffeathers.wordpress.com/2011/01/02/howto-embed-twitter-streams-and-prepopulate-tweets-in-your-document/<br />
Speaker‘s contact details<br />
Blog: http://ffeathers.wordpress.com<br />
Email: sarah@atlassian.com<br />
Twitter: @sarahmaddox<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
381
Professionelles Schreiben /<br />
Technical Authoring
Professionelles Schreiben / Technical Authoring<br />
TA 2<br />
Working with a Style Guide within DITA<br />
Tony Self, HyperWrite, Melbourne, Australia<br />
Overview<br />
As more companies implement DITA to streamline the development of<br />
documentation and user assistance, best practices for DITA authoring<br />
are being established. While the OASIS DITA standard provides rules<br />
for the use of elements and attributes, it does not provide clear guidelines<br />
for how to practically apply the mark-up, and how to create consistency<br />
so that DITA documents can be more readily interchanged. In<br />
traditional authoring, a style guide would provide real-world examples<br />
and clear recommendations. However, existing style guides are written<br />
for style-based authoring, and not for semantic authoring. Dr Tony Self<br />
has analysed the way in which DITA has been used, and has developed<br />
a DITA Style Guide to fill the gap between the DITA standard and traditional<br />
style manuals. Consistent mark-up enables efficiency of authoring<br />
and interchange of documents, and standard approaches create<br />
simple solutions to mark-up dilemmas.<br />
The Problem<br />
Although DITA is a standard, mark-up semantics can be applied in<br />
non-standard ways. If DITA topics are really going to be interchanged<br />
freely between members of a team and even between companies, DITA<br />
authors have to apply DITA semantics consistently. The DITA language<br />
reference helps a little, but what helps more is a style guide. This was<br />
the motivation for the development of “The DITA Style Guide”.<br />
Context<br />
While the DITA technical standard is precise, the DITA approach itself<br />
is not universally understood or agreed. Working with DITA is made<br />
difficult by the lack of agreed common practices, let alone best practices.<br />
Common practices must be adopted so that the advantages of the modular,<br />
XML-based DITA document architecture can be realised.<br />
Best practices for technical communication are typically captured in a<br />
style guide. Tony Self embarked on a research project, as part of his PhD<br />
by artefact and exegesis, to discover what constitutes best practice in<br />
DITA, and how this information could be encapsulated. The product of<br />
that research was “The DITA Style Guide”, which was first published in<br />
March 2011.<br />
Influences on Technical Communication<br />
The advent of DITA and other structured authoring approaches is the<br />
result of strong influences on technical communication. Twenty years<br />
ago, technical publishing was simple, as the deliverable was almost always<br />
a printed document, the product line that the document supported<br />
was relatively simple, and the production lead times were lengthy.<br />
The environment is vastly different now. There are different “delivery<br />
platforms”, ranging from embedded user assistance, to Web, to eBooks,<br />
to synthetic voice… in addition to the venerable printed book. Product<br />
life cycles are incredibly short. In the software industry, programming<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
385
Professionelles Schreiben / Technical Authoring<br />
approaches have dramatically changed to cope with these shorter cycles,<br />
and other demands provide pressure from every avenue. These<br />
pressures show no sign of abating, as technological change flows<br />
through nearly every manufacturing, design and service industry.<br />
Structured Authoring is Different<br />
Structured authoring is different from traditional style-based, linear<br />
authoring in two key ways:<br />
−−<br />
the need for separation of content and form (the author is not concerned<br />
with presentational form during the writing process)<br />
−−<br />
the modular architecture (documents are written as re-usable components,<br />
with topics being the basic building blocks).<br />
These two key differences have significant impact on writing approaches.<br />
In the respected “Chicago Manual of Style”, first published in 1906,<br />
70% of the guidelines concern presentational form. In DITA authoring,<br />
presentational form is applied automatically at the publishing stage, and<br />
is derived from the semantic mark-up applied during authoring. A DITA<br />
style guide therefore needs to address the best practices for semantic<br />
mark-up, rather than the best practices for presentational mark-up.<br />
The topic-based modular document architecture is less of a change for<br />
technical communicators who have previously worked with hypertext<br />
documents, which are also topic-based. Even so, the re-use and modularity<br />
principles within DITA require changes in mindset, and having<br />
documented best practices makes the transition easier.<br />
The Need for a Style Guide<br />
For the benefits of a DITA approach to be realised, technical communicators<br />
need to be producing high quality documents suitable for re-use<br />
and modularisation, and this means that not only must the DITA standard<br />
be adhered to, but common practices must be applied. One of the<br />
difficulties of DITA adoption is working without a relevant Style Manual.<br />
Traditional style manuals, with their focus on presentational style, are<br />
entirely unsuitable for semantic authoring.<br />
What goes in a DITA Style Guide?<br />
A general purpose DITA style guide should contain supra-organisational<br />
semantic mark-up rules; rules that can be followed by writers<br />
386<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
in all organisations. This is very important when the formal language<br />
rules (such as those in the official OASIS DITA Language Reference)<br />
are open to interpretation. For example, DITA has and <br />
elements, either of may be technically permitted in a particular<br />
circumstance. A style guide should stipulate which element should be<br />
chosen for that circumstance. Further, the DITA Language Reference is<br />
large, technical, and impenetrable for “non-technical” technical authors,<br />
and includes information that, while relevant to information architects,<br />
is not applicable to content writers.<br />
What Next?<br />
The DITA Style Guide was published with the intention of future transition<br />
to a community-owned, open source document, perhaps published<br />
as a Wiki. In the shorter term, the DITA Style Guide is being incorporated<br />
into some DITA authoring tools, to make it easier to access best<br />
practice information when it is most needed. The guide will continue to<br />
be available as a low-cost printed publication or eBook.<br />
tony.self@hyperwrite.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
387
Professionelles Schreiben / Technical Authoring<br />
TA 3<br />
Presentation<br />
Write less, say more –<br />
The added value of minimalism<br />
Jang F.M. Graat, JANG Communication, Amsterdam<br />
This is a shortened version of an article that appeared in tcworld<br />
magazine. The full article text is available at: http://<br />
www.tcworld.info/tcworld/technical-communication/article/<br />
write-less-say-more-the-added-value-of-minimalism/<br />
Information overload<br />
We live in an information era. Before book printing was invented, when<br />
copies were made manually, a single human being could gain all available<br />
knowledge by reading all the manuscripts in the library. But those<br />
days are gone forever. Today, a single human being cannot even take<br />
in all the information that is available in his everyday life, let alone in<br />
a library. And even if you could read all the books in your local library,<br />
there is always a terminal that connects you to the world wide web,<br />
which grows faster than anyone can read. In just over 2 decades, the<br />
world wide web has grown to 155 million websites.<br />
To a lesser extent, this development to an information overload has also<br />
occurred in user manuals, especially where users in safety-conscious<br />
jobs are concerned. The amount of information that is supposed to<br />
make our lives safer has passed a point where it backfires. Pilots in a<br />
commercial airline have to drag an entire suitcase full of documentation<br />
into the cockpit with them. When an emergency occurs, they should go<br />
through the manual to find the correct procedure to use, losing valuable<br />
time in a critical situation. Needless to say that they will often fall back<br />
on the old procedures that they learned by heart – and sometimes do<br />
exactly the wrong thing, as the airplane control system has been modified<br />
in unexpected ways.<br />
With the amount of information becoming available second by second,<br />
the hardest task we are facing today is not processing, but finding the<br />
information. This is the main reason why Google has become one of<br />
the internet’s most powerful companies in a matter of years. By doing a<br />
better job than other search engines, Google has virtually wiped out all<br />
competition. Because doing a better job in finding stuff has become vital<br />
to our survival in the information tidal wave that is attacking us every<br />
day. If we need information, we need it super fast. To survive an upcoming<br />
deadline, we need concise, immediately useable information, and we<br />
need it right now.<br />
The user in the center<br />
Minimalism is born from this insight: the user only wants to know what<br />
he or she needs to know, when he or she needs to know it. The average<br />
user is really not interested in the product itself, just like you couldn‘t<br />
care less how a hammer is made or what material it is made of or which<br />
aerodynamics studies went into the design of the hammer head or how<br />
ergonomics studies made your grip on the handle better. All of that information<br />
might be useful for someone (e.g. an ergonomist or an industrial<br />
designer) but least of all for the user. The user just wants to drive<br />
388<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
a nail into a wall and only needs to know which side of the hammer to<br />
hold to do so. This might sound like an extreme simplification but it is<br />
really a helpful metaphor to use when designing minimalist documentation.<br />
Look at your beloved product from disinterested and unaffective<br />
perspective: it is just a hammer enabling the user to drive a nail into<br />
a wall. It is never a goal in itself and if the user finds another tool that<br />
does the job easier, he will.<br />
Minimalism starts with defining clear and singular topics. Each topic<br />
in minimalist documentation answers one single question. How do I do<br />
this? What went wrong? What are my options here? Whenever a section<br />
answers more than one single question, it should be divided into more<br />
than one section. Designing the documentation in this way helps the<br />
user find concise information quickly. It also enables you to reuse the<br />
same information in different media (such as context-sensitive online<br />
help), without making any changes to the content.<br />
Another aspect in minimalist documentation is the use of diagrams<br />
to reduce the number of words. If an image is better than a thousand<br />
words, then do not make the mistake of also including those thousand<br />
words. If you do not trust the user‘s interpretation of your image, then<br />
the image is probably not good enough, so either improve the clarity of<br />
the image or do not use it if you cannot clearly illustrate what you want<br />
to say.<br />
And finally there is the aspect of disclosing information. Enabling the<br />
users to find exactly what they need and when they need it. This is a<br />
science in itself and cannot be covered extensively in a short article on<br />
minimalism. But again the minimalist principle is easy to understand<br />
and should guide any design decisions made: put the users in the centre<br />
and minimize the effort and time they need to find the information they<br />
need. Tools for disclosure of information are a clear document structure<br />
(overall structure for PDFs and printed books; internal topic structure<br />
for all media), a good table of contents, a well-designed index, a usercentered<br />
help wizard (not at the level of Microsoft‘s infamous Clippy)<br />
and, last but not least, an effective user community platform.<br />
Added value<br />
In the end everything leads to the same thing: added value. As the title<br />
of my article suggests: writing more does not usually add value to a<br />
documentation product. This may run counter to our initial idea of adding<br />
value: more is better. More options in a product, more information<br />
in the manual. But the reverse is true if the documentation is viewed as<br />
a means to an end, instead of being the goal itself. From that minimalist<br />
perspective, adding value is achieved by reducing the burden of documentation.<br />
What you get is what you need. And what you need is fewer<br />
words.<br />
On the production side of documentation, the added value of fewer<br />
words is clear from the start. Fewer words means less work maintaining<br />
the documentation. Note that I do not state it takes less work writing<br />
it in the first place, as creating minimalist documentation does require<br />
more thinking and a much higher investment, especially if tech writers<br />
are beginners in minimalism. But once the minimalist documentation<br />
is created, the cost of maintenance will drop dramatically: one change<br />
in a product option generally only leads to a change in one single topic,<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
389
Professionelles Schreiben / Technical Authoring<br />
as the changed piece of information only appears in that one singular<br />
topic. The same is true of typos or mistakes in the documentation.<br />
Fewer words also means more concise manuals, which reduces the cost<br />
of printing (if this is still done) but in any case reduces file sizes (when<br />
produding PDFs and online help) and makes web-based documentation<br />
faster to access via the internet. Fewer words also means lower<br />
translation cost, especially when those fewer words appear in simpler<br />
sentences.<br />
But even though the cost of producing good documentation is an important<br />
factor on the balance sheet of your company, it should be less<br />
important than a much more important, but less tangible, factor: user<br />
satisfaction. Often neglected, user satisfaction is what drives sales, reduces<br />
help desk costs and generally boosts the company‘s market value.<br />
Minimalist documentation puts the user in the centre, and aims to maximize<br />
user satisfaction.<br />
Contact: jang@jang.nl<br />
390<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
TA 4<br />
Presentation<br />
EPUB3: What does it offer, and is it ready?<br />
Scott Prentice, Leximation, Inc., San Rafael, USA<br />
The EPUB3 specification was approved in October 2011 and there has<br />
been a lot of talk about its features and benefits. However, as with any<br />
new format it can take some time for the tools to catch up. If you’re creating<br />
eBooks, you’ll want to deliver the right format to your customers,<br />
but how do you know what the right format is? Moving ahead too early,<br />
may leave some people unable to use your files, and moving ahead too<br />
late may mean that you’re not taking advantage of new features. This<br />
presentation goes over the new features in EPUB3 and examines the<br />
current state of the readers and authoring tools, to help you decide if it’s<br />
time to move to EPUB3.<br />
Brief History of the EPUBformat<br />
The EPUBspecification is maintained by IDPF (International Digital<br />
Publishing Forum).<br />
−−<br />
Initial EPUBapproved in 2007, superseding the older Open eBook<br />
standard<br />
−−<br />
EPUB2.0.1 approved 2010<br />
−−<br />
EPUB3 approved October 2011<br />
−−<br />
EPUB3 Fixed Layout format approved May <strong>2012</strong><br />
−−<br />
Dictionaries and Indexes Working Groups, in progress<br />
What’s New in EPUB3?<br />
−−<br />
Files now based on HTML5<br />
−−<br />
Ability to embed multimedia (both audio and video)<br />
−−<br />
Media overlays provide ability to “read-along” by syncing audio to the<br />
highlighting of words<br />
−−<br />
Scripting support allows dynamic interaction with the content<br />
−−<br />
Better support for fonts and page layout (MathML, headers/footers,<br />
embedded fonts, CSS2.1/CSS3 support)<br />
−−<br />
Better SVG image support<br />
HTML5 Impact<br />
New HTML5 element replaces the NCX file for TOC navigation.<br />
For fallback to EPUB2, the NCX file can be included. The HTML5<br />
and tags HTML5 elements like , ,<br />
provide useful structured for books. As with EPUB2, all content<br />
and packaging files are XML (XHTML5).<br />
CSS2.1 and CSS3<br />
Supports CSS2.1 except fixed positioning (avoids rendering and interoperability<br />
issues). Also bidirectional font support should use HTML5<br />
markup rather than CSSproperties. Use of absolute positioning is discouraged,<br />
and may not be consistently supported by readers.<br />
CSS3 support includes the Speech, Fonts (embedding and obfuscation),<br />
Text (hyphenation, line and word breaks, alignment, and emphasis),<br />
and Writing Modes (except bidi, which is handled with HTML5), Media<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
391
Professionelles Schreiben / Technical Authoring<br />
Queries, Namespace, Multi-Column Layout, Ruby, and Display Property<br />
(header/footer) modules.<br />
Good support for Asian language documents with vertical writing, right<br />
to left pagination, ruby, tate-chu-yoko, and kenten characters.<br />
Layout Enhancements<br />
HTML5 and elements provide a container for the author<br />
to define header and footer content that is displayed appropriately<br />
by the reading system.<br />
HTML5 element can provide a useful method of offering additional<br />
information to the reader without taking up valuable screen<br />
space.<br />
Multimedia<br />
HTML5 and elements provide integrated multimedia<br />
support. MP4 support recommended for audio (MP3 required). Reading<br />
systems should support at least one of the H.264 and VP8 video codecs.<br />
Media Overlays<br />
Enables a “read-aloud” feature, by matching up specific tags in the<br />
HTML content with offsets in an included audio file. The mapping between<br />
HTML and audio is done in a SMIL file.<br />
Scripting Support<br />
In EPUB2, scripting was discouraged (generally not supported), but<br />
that’s no longer the case with EPUB3. Use scripting for interactivity and<br />
dynamic layout capabilities.<br />
MathML Support<br />
EPUB3 readers should fully support the display of mathematic equations<br />
through MathML (although, as with most things actual support<br />
may vary).<br />
SVG Support<br />
XHTML documents support the embedding of SVG document fragments<br />
by reference (via img or object elements) or inclusion (within the<br />
svg:svg element in the XHTML). SVG documents can also be included<br />
directly in the EPUBspine.<br />
Tool and Reader Support<br />
Authoring and conversion tools that support EPUB3 include: InDesign<br />
CS6, RoboHelp 10, oXygen 14, and the DocBook to EPUBXSLT.<br />
EPUB3 reading systems include: AZARDI Desktop 11 (Mac, Windows,<br />
Linux), AZARDI OL (browser), Readium (Chrome plugin), iBooks (iOS),<br />
Kobo app (iOS), Kobo reader (?), plus a few “educational” readers.<br />
392<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
EPUB2 or EPUB3?<br />
EPUB3 reading systems should process EPUB2 documents as the<br />
EPUB2 spec defines. So, providing an EPUB2 file will work properly in<br />
“all” readers.<br />
An EPUB3 file can include the EPUB2 NCX (TOC) so it can be read in<br />
an EPUB2 reading system. The EPUB2 reading system should not have<br />
problems with basic content in HTML5, but any other special features<br />
will likely not work.<br />
Until there is better reader support for EPUB3, it’s probably best to stick<br />
with EPUB2 or very basic EPUB3 publications, unless you know that<br />
your target audience is capable of using EPUB3 files.<br />
Resources<br />
EPUB3 specification – http://idpf.org/epub/30/<br />
Fixed Layout Format – http://idpf.org/epub/fxl/<br />
Liz Castro – http://www.pigsgourdsandwikis.com<br />
http://www.epubtest.com/resources.php<br />
Contact: sp10@leximation.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
393
Professionelles Schreiben / Technical Authoring<br />
TA 5<br />
Partner presentation<br />
Changing the engine without stopping the car<br />
Jang F.M. Graat, JANG Communication, Amsterdam<br />
Susanne Dahlén, IAR Systems AB, Uppsala<br />
The drag of legacy documentation<br />
Quite a few heads of documentation departments face an impossible<br />
choice. They would love to move their team to a modern reuse solution,<br />
so that they can finally concentrate more on the quality of their<br />
products instead of always putting out fires and barely ever meeting the<br />
deadlines for publication. But the sheer amount of legacy documentation<br />
keeps them from innovations that would imply a full break with the<br />
past. In many cases, the legacy documentation is still very much alive<br />
and simply has to be taken along into whatever new system is being<br />
considered.<br />
Manually converting legacy documentation may not be feasible due to<br />
the sheer volume of materials: it would mean that the introduction of a<br />
new efficient reuse system causes more work instead of less. And this<br />
usually kills the innovation project before it has even started.<br />
The project we will be presenting has allowed at least one documentation<br />
manager to get out of this fix and step into the modern world without<br />
leaving all the goodies from the past behind. Our presentation outlines<br />
how we built a future-safe (XML-based) documentation platform<br />
that supports automatic reuse of content, and how we pulled in existing<br />
content with minimal manual work.<br />
Even though this project deals with Adobe FrameMaker only, the same<br />
principles and similar methods apply to other authoring tools.<br />
Creating and performing magic tricks<br />
Adobe talks about unstructured versus structured FM, but this does no<br />
justice to all those authors (including the people at IAR Systems AB at<br />
the start of the project) who work in a very structured manner, even if<br />
they do not use the structured FM interface. My friend Michael Müller-<br />
Hillebrand uses the term „format-based“ FM in such cases, where the<br />
structure is expressed in the applied paragraph and character format<br />
tags and the order in which they appear in the document.<br />
Starting from such format-based FM documents, conversion to structured<br />
FM is not a piece of cake, but not a hopeless task either. The trick<br />
in using FM’s built-in conversion tools is to translate the paragraph and<br />
character formats into elements. Once all formats are translated, specified<br />
sequences of elements can be wrapped in higher-order elements<br />
and this continues until the top level (root element) is reached.<br />
After conversion, all formatting is removed from the document, as content<br />
is now wrapped into elements with semantic labels rather than<br />
format tags. The next step is to reapply formatting using an EDD. In our<br />
case, the EDD does not contain any direct formatting but simply applies<br />
the paragraph and character format tags that were there in the first<br />
place. There is no visible difference, but under the hood a whole new<br />
layer of structure is inserted between the pure content and the final<br />
output.<br />
394<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Light at the end of the tunnel<br />
After converting the format-based FM materials to structured FM, the<br />
road opened up and the destination – an intelligent content reuse system<br />
– became visible at the end of the tunnel. Instead of purchasing<br />
one of the available CMSs, a tailor-made system was created using FM’s<br />
built-in ExtendScript. With this system, the authors can start working<br />
on moving elements into a repository, working slowly towards ever<br />
higher reuse percentages in the full set of documents, without ever leaving<br />
any content behind.<br />
The choice for a tailor-made system allowed a couple of things that<br />
would have been hard to achieve with many of the existing CMSs.<br />
First of all, there are no unwanted side-effects of the CMS and its publishing<br />
engine, which might introduce small differences in the final<br />
layout of the new materials compared to the legacy documentation. In<br />
a company where the house style is strictly enforced, any small deviation<br />
will cause problems and might mean a lot of customizing work to<br />
be done in a “fully finished” solution. The tailor-made reuse system does<br />
not change the source materials or the publication engine; it just allows<br />
pushing materials into a repository of reusable elements.<br />
Also, the tailor-made reuse system does not require all parts of the<br />
document to be in the repository. Even if half of the materials are in and<br />
the other half is not, there is nothing that keeps you from publishing<br />
the documents. This allows for a smooth transition to maximum reuse of<br />
your structured FM content.<br />
The small print<br />
This short article does not give any details about the techniques that<br />
were used and, most of all, the bears we had to shoot off the road in<br />
order to reach our destination. It has been quite a challenging project,<br />
as the format-based FM materials were of the most complex and technically<br />
advanced type that Jang has ever seen in his career. If you do want<br />
to see a little more of the pitfalls and workarounds in the conversion<br />
to structured FM, you should probably also put TA16 (Jang’s tutorial on<br />
conversion techniques) on your list.<br />
Contact:<br />
jang@jang.nl<br />
susanne.dahlen@iar.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
395
Professionelles Schreiben / Technical Authoring<br />
TA 6<br />
Presentation<br />
The Usability of Layout:<br />
Advanced Visual Editing<br />
Leah Guren, Cow TC, Karmiel, Israel<br />
The Usability Argument<br />
The current trend towards content-only strategies, single sourcing,<br />
DITA, and one-button publishing has led to a separation of content and<br />
design. These strategies have compelling business cases, but they have<br />
led to a large step backwards in documentation usability. This is because<br />
design is now out of the hands of the technical communicators, and is<br />
often controlled by people who are not trained in the area of documentation<br />
usability.<br />
Usability testing of product documentation often reveals the cost of<br />
poor design and layout. Users have trouble locating information or they<br />
fail to correctly identify the information they are looking for. They misunderstand<br />
visual cues about the relationships and hierarchies on the<br />
page. They don’t read⎯they scan⎯and therefore miss the subtle design<br />
that may be more appropriate for other types of writing.<br />
In short, all technical communicators must understand the basic design<br />
concepts as they relate to usability.<br />
Design Concepts: PARCH<br />
The mnemonic PARCH stands for Proximity, Alignment, Repetition,<br />
Contrast, and Hierarchies.<br />
−−<br />
Proximity: Things that are close together on the page have an implied<br />
relationship. This is not just horizontal placement, but vertical placement,<br />
as well.<br />
−−<br />
Alignment: Things need to line up based on logical, meaningful<br />
plumb lines. When plumb lines are fractionally off or are not properly<br />
reused, the resultant layout looks messy and unprofessional. Worse, it<br />
creates confusion over the relationships of elements on the page.<br />
−−<br />
Repetition: Very much like the golden rule of consistency in writing,<br />
repetition means that page design should be consistent. Elements of<br />
the same meaning or level should look the same. Placement and location<br />
should be the same. For example, consistently placing a shaded<br />
example box at the bottom of the page facilities access.<br />
−−<br />
Contrast: The opposite of repetition, contrast implies that we must<br />
use appropriate techniques to focus the reader’s attention. For example,<br />
hazards broken out of text and marked with an icon; a preferred<br />
setting in a table appearing in bold or with a thicker border around<br />
the cell; the critical concept in a graphic highlighted with some sort of<br />
callout or annotation.<br />
−−<br />
Hierarchies: A key way that readers understand flow is through levels<br />
of headings and indents. Too many levels, plus no visual distinction<br />
between them, create a visual mixed message for readers.<br />
396<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Other Design Best Practices<br />
We can see the PARCH concepts applied to these basic elements of<br />
design:<br />
−−<br />
White space: Sometimes referred to as negative space, white space is<br />
the empty space between words, lines, paragraphs, at margins, around<br />
headings, etc. Without adequate white space, a document is not readable.<br />
Unfortunately, the automation used by many XML-generated<br />
documents leads to poor use of white space. Headings float meaninglessly<br />
between blocks of text, instead of being properly mated to their<br />
paragraphs. Bullets and layered info floats, rather than being properly<br />
mated to their parent paragraph. In fact, meaningful use of white<br />
space is the biggest casualty of the automation and “content-only”<br />
strategies. For best practices, follow a 3:1 ration of white space with<br />
headings (that is, three times as much white space above as after).<br />
−−<br />
Chunking: The concept of proximity is also seen in how we chunk<br />
information on the page. Paragraphs with overly-opened line spacing,<br />
and without sufficient white space in between, end up looking like<br />
one big lump, instead of visually recognizable chunks of content. This<br />
makes it much harder for users to scan and locate information. For<br />
best practices, always make chunks of information visually separated<br />
on the page through the use of white space. Use single line spacing<br />
and no indent for paragraphs, with ample white space between.<br />
−−<br />
Readability: Every choice we make has to improve the readability<br />
of the document. That includes the typefaces we select, the types of<br />
graphics, and even colors. When designers make choices based on<br />
aesthetics, rather than functionality, they can reduce the usability of<br />
the document. You must learn the functional differences between<br />
serif and sans serif typefaces, plus understand the advantages and<br />
drawbacks of color.<br />
Conclusion<br />
It is time for technical communicators to become better versed in the<br />
language of design. We need to be able to guide and influence the developers<br />
and designers. There is no reason that an XML css cannot be<br />
created to follow better guidelines of chunking, mating, and white space<br />
usage. The representation of content makes a big difference in the overall<br />
usability of the document for readers.<br />
If you have any questions please contact: leah@cowtc.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
397
Professionelles Schreiben / Technical Authoring<br />
TA 7<br />
Presentation<br />
Writing for Global Audiences<br />
Barbara Jungwirth, reliable translations llc, New York City, USA<br />
English-only documentation is usually aimed at a relatively educated<br />
audience, such as computer programmers, service technicians, and other<br />
technical experts. These professionals do speak English and are familiar<br />
with the English terms used in their specific field. However, English – or<br />
at least U.S. or UK English – is generally not their primary language.<br />
There are two different approaches to handling this linguistic challenge:<br />
−−<br />
Controlled English comprises an approved vocabulary list, as well as<br />
strict rules about the grammar and syntax that can be used.<br />
−−<br />
Global English, by contrast, is a set of guidelines about the type of<br />
vocabulary, grammar and syntax that should be avoided.<br />
Because of its prescriptive nature text in controlled English may sometimes<br />
lose nuances of meaning, while text following the loser global<br />
English guidelines can usually preserve such nuances.<br />
Structuring Your Document<br />
Lists can sometimes better illustrate a set of items than can a descriptive<br />
paragraph. Tables can present the relationship between distinct<br />
pieces of information in a fairly intuitive way. Procedures can sometimes<br />
be summarized in flow charts that require little linguistic knowledge.<br />
Repeating the most important information for each section in<br />
that section’s introduction and summary aids understanding. Shorter<br />
paragraphs are easier to digest. Try to discuss only one concept in each<br />
paragraph.<br />
Vocabulary issues<br />
One of the most important issues is consistency in word choice: same<br />
concept = same term. A corollary to this rule is to use standard terms<br />
with standard spellings and use standard word forms (e.g., assign someone<br />
a task, don’t “task” him or her). Homonyms (words that sound the<br />
same, but mean different things) are difficult to distinguish even for<br />
native speakers, let alone readers with a limited command of English.<br />
Similarly, don’t use acronyms and abbreviations unless absolutely necessary.<br />
If they are indispensable, provide a glossary of terms.<br />
Syntax & grammar questions<br />
Long convoluted sentences with many dependent clauses are difficult<br />
to understand. Complex concepts with many variables can still be expressed<br />
in a series of sentences. Each of these sentences should refer to<br />
the concept explained in the previous sentence by name. Non-specific<br />
pronouns, such as “this” are harder to interpret than if the specific item<br />
to which “this” refers is repeated.<br />
However, do not omit syntactic cues in order to shorten sentences. In<br />
English prepositions such as “that” can often be dropped and the sentence<br />
is still grammatically correct. Leaving such cues in makes it easier<br />
for readers to analyze the relationship between different phrases in a<br />
sentence.<br />
398<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Many languages do not have an equivalent of the gerund, or “ing” form,<br />
of verbs. As a result, readers who are subconsciously translating into<br />
their native language often find this feature challenging. Similarly, many<br />
languages have fewer layers of past and future tenses than English.<br />
For technical documents one past and one future tense should usually<br />
suffice. If they don’t, rewriting the sequence of events in a more linear<br />
fashion – first event one, then event two, etc. – should help non-native<br />
English speakers better understand your text.<br />
Cultural issues<br />
Use the literal meaning of words. Wordplays and metaphors rarely carry<br />
over well across languages and cultures. For the same reason, do not<br />
use expressions referring to sports, movies or cultural icons. Since your<br />
audience comes from many different cultures, avoid anything that might<br />
offend: politics, religion, even slightly off-color jokes.<br />
Keep in mind that time zones, units of measure and holidays differ<br />
among nations. Some such references may be unavoidable, but don’t<br />
add them unnecessarily. Visual clues may also differ – not everyone’s<br />
stop sign looks the same as in the U.S., for example. And for readers<br />
from a left-to-right language it is not necessarily obvious that a sequence<br />
starts on the top left of the page. Arrows or numbers help to<br />
clarify the direction in which steps are to be performed.<br />
Many cultures have more than one form of address. Being too formal<br />
rarely offends, but the opposite may well do so. So write in a formal<br />
tone, without going overboard – the Queen of England is unlikely to<br />
read your heater installation manual.<br />
Evaluating your document<br />
When creating documents that will be read online also take into account<br />
slower download speeds and differing standard fonts on non-<br />
English computer systems. It’s also a good idea to have colleagues from<br />
the countries where the document will be mostly used read your text to<br />
point out potential pitfalls.<br />
i18n, t9n, L10n<br />
The presentation focuses on writing for audiences who will read the<br />
text in its original English. But such documents sometimes do end up in<br />
other languages. So here’s a short primer on the terminology associated<br />
with translation:<br />
−−<br />
i18n means Internationalization, the process by which local references<br />
in the original are removed.<br />
−−<br />
t9n stands for Translation, that is transferring the text into another<br />
language.<br />
−−<br />
L10n is Localization, which adapts the translation to a specific country.<br />
I will send a list of resources to attendees who give me their business cards<br />
after the presentation. If you would like that resource list, but did not attend<br />
the presentation, e-mail me at office@reliable-translations.com.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
399
Professionelles Schreiben / Technical Authoring<br />
TA 8<br />
Fachvortrag<br />
Simplified Technical English – Ja oder Nein?<br />
Eine Entscheidungshilfe für Unternehmen<br />
Herbert Kaiser, Kaiser Fachkommunikation GmbH, Hildesheim<br />
Unsere Mission: Technische Informationen an den Nutzer kurz, klar<br />
und eindeutig vermitteln.<br />
Soll dies weltweit erfolgen, müssen effiziente Kommunikationsmittel<br />
eingesetzt werden. Zwei Szenarien verdeutlichen, was globale Kommunikation<br />
leisten soll:<br />
Szenario 1 – externe globale Kommunikation<br />
Technische Dokumentation für Anwender. Produktinformationen sollen<br />
weltweit von Nutzern verstanden und umgesetzt werden.<br />
Szenario 2 – interne globale Kommunikation<br />
Verschiedene Unternehmensbereiche multinationaler Konzerne müssen<br />
sich weltweit austauschen, d.h. mit mehreren Nationen und Sprachen.<br />
Selbst wenn Englisch als konzerninterne Mittlersprache festgelegt<br />
wurde, erschweren die verschiedenen Varianten des Englisch und<br />
unterschiedliche Kenntnisstände die Kommunikation.<br />
Was kann dabei Simplified Technical English leisten?<br />
Grundlagen<br />
Durch die Erkenntnisse der Verständlichkeitsforschung ist unsere Zunft<br />
auf das Regelbasierte Schreiben bzw. die Kontrollierten Sprachen aufmerksam<br />
geworden: Technische Informationen, die nach bestimmten<br />
Regeln strukturiert und erstellt worden sind, werden vom Nutzer besser<br />
verstanden.<br />
Erste Versuche gab es bereits in den 1930er und 1970er Jahren. Den<br />
nachhaltigsten Effekt aber hat seit 1986 der Sprachstandard „Simplified<br />
Technical English“ (STE) mit der Spezifikation ASD-STE100 (Copyright<br />
and Trademark of ASD, Brussels, Belgium). Er wurde entwickelt, um die<br />
internationale Kommunikation in der Luftfahrt zu vereinfachen. Inzwischen<br />
hat er sich als ausgereifter und konsequenter Standard bewährt,<br />
der als Vorbild für Style-Guides, Leitfäden oder Anleitungen für Technisches<br />
Schreiben mit modifizierten Regeln dient.<br />
STE-Regeln<br />
Das Dictionary des STE gibt erlaubte allgemeine Wörter vor, das Regelwerk<br />
besteht aus Standard-Regeln und speziellen Regeln, die den Mechanismus<br />
der Kontrollierten Sprache STE bestimmen.<br />
Einige Standard-Regeln:<br />
−−<br />
Konsistente Terminologie<br />
−−<br />
Listen/Aufzählungen statt komplizierter Fließtext<br />
−−<br />
Korrekte Einstufung der Sicherheitshinweise.<br />
Beispiele für spezielle Regeln:<br />
−−<br />
Begrenzte Satzlänge<br />
400<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
−−<br />
Keine „–ing-Form“ der Verben<br />
−−<br />
Keine „schwammigen“ Hilfsverben<br />
−−<br />
Einfache Zeiten.<br />
Absolut gesehen führt STE in der Technischen Dokumentation immer<br />
noch ein Nischendasein. Warum wird es auf dem breiten Markt nicht<br />
angewendet? Fehlt es an den richtigen Informationen?<br />
Oft werden in Diskussionen über STE Thesen in den Raum gestellt, die<br />
nicht den Fakten entsprechen und potenzielle Nutzer verunsichern.<br />
Einige der häufigsten Thesen sollen hier hinterfragt werden.<br />
These 1: STE = Simplified English = Global English = etc. …<br />
Hier werden verschiedene Ansätze gleichgestellt. Tatsache ist aber, dass<br />
einzig STE gemäß ASD-STE100 verbindliche MUSS-Regeln mit den<br />
entsprechenden Konsequenzen für Autor und Leser hat.<br />
These 2: STE eignet sich nur für die Luftfahrt<br />
STE ist zwar von der Luftfahrtindustrie entwickelt worden, aber nur<br />
ca. 3 % des Vokabulars aus dem Dictionary sind luftfahrtspezifisch. Die<br />
Schreibregeln lassen sich generell auch in anderen Industriezweigen<br />
anwenden.<br />
These 3: STE ist entwickelt worden, um Übersetzungen zu erleichtern<br />
Fakt ist: STE wurde entwickelt, um Übersetzungen zu vermeiden. Es ist<br />
von seiner Konstruktion und Wortwahl so klar verständlich und eindeutig,<br />
dass Nutzer mit Minimalkenntnissen der englischen Sprache<br />
technische Informationen sofort verstehen und 1:1 umsetzen können.<br />
Natürlich werden durch das Regelbasierte Schreiben mit STE Übersetzungen<br />
vereinfacht, weil Translation Memorys sehr viel effizienter<br />
eingesetzt werden können. Dies ist ein positiver Nebeneffekt, entspricht<br />
aber nicht der ursprünglichen Intention und nutzt das gesamte Potenzial<br />
dieses Sprachstandards nicht aus.<br />
These 4: STE wird nur in großen Firmen eingesetzt<br />
Aufgrund der Historie des STE wird es vorwiegend bei multinationalen<br />
Projekten großer Konzerne eingesetzt. Aber was hindert kleinere<br />
Unternehmen daran, sich international mit STE besser verständlich zu<br />
machen?<br />
These 5: STE ist zu komplex und zu schwierig<br />
Wer immer diese These in den Raum stellt, sollte sich doch einmal intensiv<br />
mit STE befassen. Meine Antithese nach 26 Jahren Praxis: Jeder<br />
Autor mit technischem Sachverstand und gutem technischen Englisch<br />
kann STE mit professionellem Training innerhalb kurzer Zeit erlernen<br />
und anwenden.<br />
These 6: Tools sind Voraussetzung, um STE anwenden zu können<br />
STE wurde zu Beginn der 1980er Jahre entwickelt, als aufgrund der minimalen<br />
Rechnerleistungen noch nicht an solche Tools zu denken war.<br />
Aber darin liegt gerade der Vorteil: Es ist so einfach und nachvollziehbar<br />
aufgebaut, dass ein Tool nicht zwingend erforderlich ist.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
401
Professionelles Schreiben / Technical Authoring<br />
Tool-Gläubigkeit darf uns nicht zu der Annahme verleiten, man könne<br />
STE auf Knopfdruck bekommen. Die Warnung auf der Website der<br />
ASD-STE100 spricht für sich: „Always remember: Tools will not think in<br />
your place. Software is not a substitute for good training.“<br />
Natürlich können uns Tools bei der Arbeit unterstützen, aber es gibt<br />
keine Prüfalgorithmen, die die Semantik berücksichtigen. Die wichtigste<br />
Komponente des STE – das strukturierte Denken – kann uns kein<br />
Tool abnehmen.<br />
These 7: STE wirkt sich negativ auf den Autor aus<br />
Einige Übersetzer und englische Muttersprachler stoßen sich daran,<br />
dass Regelbasierte Texte „zu einfach“ klingen und ihre Sprachästhetik<br />
beleidigen. Oft wird in diesem Zusammenhang darauf verwiesen, dass<br />
der Autor durch STE monoton formuliert, weniger kreativ wird etc.<br />
Auch hier muss ganz klar differenziert werden, denn es gilt der Leitsatz<br />
für Technische Kommunikation: „If your goal is to write a novel, this is<br />
not your job.“ Mit STE sollen technische Inhalte kurz, klar und eindeutig<br />
vermittelt werden, d. h. der Anwendungsbereich ist eingeschränkt.<br />
Bewusst mehrdeutige oder assoziative Texte mit blumiger und synonymreicher<br />
Sprache können damit nicht erstellt werden.<br />
Meine Erfahrungen zeigen, dass sich STE durchaus positiv auf den<br />
Autor auswirkt. Wer sich intensiv mit diesem Sprachstandard beschäftigt,<br />
wird durch das Regelwerk immer weiter auf den Weg geführt,<br />
strukturiert zu denken und dies in Text umzusetzen. Der Autor muss<br />
seine Gedanken und Informationen gemäß dem Regelwerk/Dictionary<br />
mit wenigen erlaubten Worten und verbindlichen Regeln umsetzen, also<br />
höchst kreativ arbeiten. Um die Inhalte eindeutig und sicher dem Leser<br />
zu vermitteln, müssen diese konkretisiert und von allem unnötigen<br />
Ballast befreit werden.<br />
Fazit:<br />
STE hat sich in 26 Jahren als ausgereifter und konsequenter Standard<br />
bewährt. Wenn die Voraussetzungen stimmen, kann STE als ideales<br />
Kommunikationsmittel in beiden Szenarien eingesetzt werden.<br />
Szenario 1 – externe globale Kommunikation<br />
In STE erstellte Technische Dokumentation wird von Anwendern mit<br />
minimalen Englischkenntnissen sofort verstanden und kann 1:1 umgesetzt<br />
werden. Dies kann kostentreibende Übersetzungen überflüssig<br />
machen. Wenn Übersetzungen in andere Sprachen gefordert sind, können<br />
diese wesentlich günstiger erstellt werden.<br />
Szenario 2 – interne globale Kommunikation<br />
Für Technische Kommunikation kann STE als firmenspezifische „lingua<br />
franca“ oder „Master-Sprache“ genutzt werden. Die klaren und verbindlichen<br />
MUSS-Regeln dieses Sprachstandards gleichen sprachliche und<br />
interkulturelle Kommunikationsbarrieren aus und garantieren Konsistenz<br />
und einheitliche Qualität.<br />
Website für STE: http://www.asd-ste100.org<br />
für Rückfragen: info@kaiser-fachkom.de<br />
402<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
TA 9<br />
Partnerpräsentation<br />
Entdeckungsbericht: Redakteure der<br />
Firma MENCK erkunden ihre Zielgruppe<br />
Rouven Andersson, MENCK GmbH, Kaltenkirchen<br />
Dr. Britta Görs, selbstständige Beraterin, Hamburg<br />
Die MENCK GmbH ist ein Unternehmen mit derzeit ca. 160 Mitarbeitern.<br />
Mit ihren Geräten und Dienstleistungen ist sie beteiligt, weltweit<br />
große Bauwerke wie Brücken, Hafenanlagen, Offshore Windanlagen<br />
oder Öl- und Gasplattformen zu verankern. MENCK hat sich auf die<br />
Herstellung und Bereitstellung großer Rammhämmer für Über- und<br />
Unterwasser-Rammungen in Wassertiefen von 2000 m und tiefer spezialisiert.<br />
Die Firma bietet außerdem standard- und kundenspezifische<br />
Speziallösungen für die Gründung von Offshore Bauwerken an.<br />
MENCK liefert neben Gerätetechnik auch Projektmanagement-Kompetenz<br />
und spezifische Servicekompetenz entsprechend den Projektanforderungen.<br />
Dies umfasst sowohl den Verkauf und Vermietung von<br />
Hammer-Equipment-Systemen als auch die Lieferung von Paketlösungen<br />
bis hin zur Übernahme und Durchführung komplexer Projekte.<br />
Technische<br />
Dokumentation<br />
Ausgangssituation<br />
Zielbestimmung<br />
Technische Redaktion<br />
Zurzeit besteht die Technische Redaktion von MENCK aus drei Technischen<br />
Redakteuren und gehört organisatorisch zur Engineering-Abteilung.<br />
Der Jahreswechsel 2011/12 war durch eine personelle Neuausrichtung<br />
und -aufstellung der Redaktion geprägt. Parallel begann die<br />
Zusammenarbeit mit der Beraterin Dr. Britta Görs. Gemeinsam mit ihr<br />
wurde das Projekt Zielgruppen-Analyse gestartet.<br />
Die Redaktion erstellt sowohl Operating Manuals für einzelne Geräte<br />
als auch projektspezifische Equipment Manuals, die das Zusammenwirken<br />
der Geräte beschreiben. Für jedes Projekt generieren die Redakteure<br />
den Ersatzteilkatalog und stellen die entsprechenden Zeichensätze<br />
zusammen. Im Jahr werden ca. 30 Projekte mit einem Seitenumfang<br />
von ca. 1300 Seiten pro Projekt betreut.<br />
Die Produkte der Firma MENCK werden überwiegend im Offshore-<br />
Bereich eingesetzt. Die Dokumentation wird „just in time“ für die jeweiligen<br />
Projekte angefertigt. Es gibt kaum Vorlaufzeiten. Zwischen<br />
der Fertigstellung der technischen Umsetzung bis zur Auslieferung der<br />
Dokumentation liegen meist nur 3–4 Wochen.<br />
Die Besatzung der Schiffe ist international zusammengesetzt, die Kommunikation<br />
erfolgt auf Englisch. Daher hat sich MENCK entschieden,<br />
die Dokumentation in Englisch zu erstellen und auszuliefern.<br />
Sowohl die Redaktion wie auch der Bereichsleiter gehen davon aus,<br />
dass sich die Dokumentation vor allem an die hauseigenen Servicetechniker<br />
richtet. Diese begleiten vor Ort den Einsatz der Maschinen.<br />
Projekt: Zielgruppe<br />
Das Projekt startete mit einer Zielbestimmung. Die beiden Redakteure<br />
und der Leiter der Engineering-Abteilung tauschten sich über ihre<br />
Erwartungen an das Projekt Zielgruppen-Analyse aus. Neben der Frage<br />
„Welche Fragen sollen mit Hilfe der Zielgruppen-Analyse beantwortet<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
403
Professionelles Schreiben / Technical Authoring<br />
Wer macht was?<br />
Servicetechniker<br />
Andere Abteilungen<br />
Zwischenergebnis<br />
werden?“ wurde auch diskutiert, welche Aspekte in der Untersuchung<br />
nicht betrachtet bzw. diskutiert werden sollen.<br />
In moderierten Workshops haben die beiden Technischen Redakteure<br />
ihre Vorstellungen gesammelt, wer während eines Hammer-Einsatzes<br />
welche Aufgaben mit welcher Qualifikation ausübt.<br />
In einem Gespräch mit dem Leiter der Servicetechniker und einem<br />
Servicetechniker berichteten diese ihre Sicht auf die Bedeutung und<br />
die Verwendung der Anleitungen. Außerdem stellten sie vor, welche<br />
Qualifikation für die Einstellung eines Servicetechnikers bei MENCK<br />
gefordert ist und wie ein Vorstellungsgespräch abläuft. Ebenso wurde<br />
die Frage diskutiert, wie ein Servicetechniker von MENCK für seinen<br />
ersten Einsatz auf einer Baustelle vorbereitet wird. Sowohl der Leiter<br />
der Servicetechniker als auch der anwesende Servicetechniker sehen<br />
keinen Unterschied bezüglich der Qualifizierung eines MENCK-Servicetechnikers<br />
und eines Servicetechnikers des Kunden, der auf einem<br />
Schiff den Hammer fährt. MENCK-Techniker besitzen nur den Vorteil,<br />
einen sehr guten Einblick in die hauseigene Montage und Konstruktion<br />
der Geräte zu haben.<br />
Eine Möglichkeit, weitere Informationen über die Zielgruppe wie auch<br />
ihre Arbeit zu erhalten, ist, das Wissen anderer Abteilungen zu nutzen.<br />
Dafür wurden Unterlagen des Marketings und des Vertriebs gesichtet.<br />
Leider war dieser Weg nicht sehr erfolgreich. Der direkte Austausch mit<br />
den Servicetechnikern und der hauseigenen Montageabteilung erwies<br />
sich als sinnvoller.<br />
Die Zielgruppe sind die Servicetechniker von MENCK bzw. der Kunden<br />
von MENCK. Servicetechniker sind als Experten anzusehen, die sehr<br />
gut im Umgang mit den Geräten und dem Zusammenspiel der Geräte<br />
geschult sind.<br />
In der nächsten Projektphase wurde der Expertenstaus der Techniker<br />
dahingehend untersucht, wie detailliert die Dokumentation sein muss<br />
oder kann, um sie zu unterstützen. Folgende Hypothesen dienten als<br />
Ausgangspunkt:<br />
−−<br />
Servicetechniker sind in der Lage, ohne explizite Aufforderungen<br />
Handlungen mit entsprechenden Kontrollen abzuschließen.<br />
−−<br />
Servicetechniker erkennen Bauteile und Werkzeuge ohne referenzsichernde<br />
Abbildung.<br />
−−<br />
Auch ohne Sicherheits- und Warnhinweise reagieren Servicetechniker<br />
sensibel und in angemessener Art und Weise auf die Gefährdungen.<br />
Im weiteren Verlauf des Projektes wurden diese Annahmen überprüft.<br />
Außerdem untersuchten die Redakteure in Anwendungstests einzelne<br />
Teile der Dokumentation und kontrollierten so den zielgruppengerechten<br />
Aufbau und Ausgestaltung der Anleitungen.<br />
Erkenntnisgewinn und Auswertung<br />
In dem Vortrag werden insbesondere folgende Fragen diskutiert:<br />
−−<br />
Welches Wissen über die Zielgruppe existierte vor und nach dem<br />
Projekt?<br />
−−<br />
Welche Auswirkungen hatte das Projekt auf die Erstellung der Dokumentation?<br />
404<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
−−<br />
Wie konnten Redakteure die Auseinandersetzung mit der Zielgruppe<br />
in ihren Alltag integrieren?<br />
−−<br />
Hat das Projekt die Arbeit der Redaktion verändert?<br />
−−<br />
Welche Rolle hat in dem Projekt die externe Beraterin gespielt?<br />
für Rückfragen:<br />
rouven.andersson@menck.com<br />
info@britta-goers.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
405
Professionelles Schreiben / Technical Authoring<br />
TA 10<br />
Fachvortrag<br />
Do you speak Deutsch? Produkte<br />
mit englischen Benutzeroberflächen<br />
auf Deutsch beschreiben<br />
Marc Achtelig, indoition engineering, Zirndorf<br />
Manchmal soll zu einem Produkt eine Beschreibung in deutscher Sprache<br />
entstehen, wichtige Bedienelemente oder sogar die komplette Benutzeroberfläche<br />
(das „User Interface“) des Produkts ist jedoch englisch<br />
und wird nicht lokalisiert. In diesem Fall müssen Sie sich entscheiden:<br />
Verwenden Sie in Ihrem (deutschen) Text die englischen Originalbegriffe,<br />
oder übersetzen Sie beispielsweise die Bezeichnung eines englischen<br />
Menüpunkts oder die englische Beschriftung einer Schaltfläche?<br />
Beides hat Vor- und Nachteile:<br />
−−<br />
Wenn Sie die englischen Originalbegriffe verwenden, entsteht schnell<br />
hässliches „Denglisch“ und viele Benutzer verstehen die genaue Bedeutung<br />
nur ungenau.<br />
−−<br />
Wenn Sie die englischen Originalbegriffe übersetzen, geht nicht selten<br />
der Wiedererkennungswert verloren und Benutzer suchen verzweifelt<br />
nach Elementen und Funktionen, die auf dem Gerät ganz<br />
anders heißen als in der Dokumentation.<br />
Generell liefert ein Blick auf die Zielgruppe die beste Entscheidungsgrundlage:<br />
Wenn Ihre Zielgruppe über gute Englisch-Kenntnisse verfügt<br />
Wenn Sie davon ausgehen können, dass die große Mehrheit der Leser<br />
die Bedeutung aller englischen Bezeichnungen versteht, verwenden Sie<br />
die Begriffe aus der Benutzeroberfläche in deren Originalsprache ohne<br />
Übersetzung.<br />
Beispiel: Wählen Sie den Menüpunkt „File > Print options“.<br />
Fügen Sie bei Bedarf hinter ungewöhnlichen Begriffen bei deren erstem<br />
Vorkommen eine Übersetzung in Klammern ein – jedoch nur dann,<br />
wenn dies für das Verständnis wichtig ist.<br />
Beispiel: Aktivieren Sie die Option „Landscape“ (Querformat).<br />
Leiten Sie, falls nötig, auch Verben aus den englischen Originalbegriffen<br />
ab, wenn es dazu keine einfache, der Zielgruppe geläufige Übersetzung<br />
gibt.<br />
Beispiel, wenn es in einem Programm eine Funktion namens „Commit“<br />
gibt: Committen Sie das Ruleset.<br />
Verwenden Sie, falls nötig, auch in Überschriften die englischen Originalbegriffe,<br />
um einen maximalen Wiedererkennungseffekt zu erzielen.<br />
Nicht: Berichte drucken.<br />
Sondern: Reports drucken.<br />
Nehmen Sie allerdings ins Stichwortverzeichnis grundsätzlich sowohl<br />
die englischen Originalbegriffe als auch übersetzte Begriffe auf.<br />
406<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Wenn Ihre Zielgruppe nur über geringe oder<br />
keine Englisch-Kenntnisse verfügt:<br />
Wenn Sie davon ausgehen müssen, dass ein substanzieller Anteil der<br />
Zielgruppe nicht über ausreichende Englisch-Kenntnisse verfügt, um<br />
die Bedeutung aller Bezeichnungen aus der Benutzeroberfläche zu verstehen,<br />
verwenden Sie in Handlungsanweisungen und Referenzen zwar<br />
ebenfalls die englischen Originalbegriffe, fügen Sie unmittelbar danach<br />
jedoch jeweils eine Übersetzung in Klammern hinzu.<br />
Beispiel: Wählen Sie den Menüpunkt „File > Print options“ (Datei ><br />
Druckeinstellungen).<br />
Verwenden Sie außerhalb von Handlungsanweisungen und Referenzen<br />
grundsätzlich übersetzte Begriffe. Ist der Bezug zur Bedienoberfläche<br />
wichtig, fügen Sie in Klammern den englischen Begriff an.<br />
Zeichnen Sie immer den Originalbegriff mit Ihrem Zeichenformat<br />
für Bedienelemente aus, um den Benutzern die Zuordnung zur Softwareoberfläche<br />
zu erleichtern. Falls Sie kein entsprechendes Zeichenformat<br />
zur Verfügung haben (so wie wir in diesem Tagungsband), verwenden<br />
sie Anführungszeichen.<br />
Beispiel: Wenn Sie die Option Querformat („Landscape“) verwenden,<br />
können Sie die ganze Tabelle auf einer einzigen Seite ausdrucken.<br />
In Überschriften sind erklärende Ergänzungen in Klammern meist<br />
nicht sinnvoll, da noch kein enger Bezug zur Benutzeroberfläche besteht.<br />
Auch würden Überschriften durch einen Zusatz zu lang und<br />
unübersichtlich.<br />
Nicht: Reports drucken<br />
Nicht: Reports (Berichte) drucken<br />
Nicht: Berichte (Reports) drucken<br />
Sondern: Berichte drucken.<br />
Nehmen Sie auch hier ins Stichwortverzeichnis grundsätzlich sowohl<br />
die übersetzten Begriffe als auch die Originalbegriffe auf.<br />
Allgemeingültige Begriffe immer übersetzen<br />
Belassen Sie generell nur die tatsächlich auf der Benutzeroberfläche<br />
zu findenden Originalbeschriftungen in englischer Sprache. Übersetzen<br />
Sie grundsätzlich alle allgemeingültigen Begriffe. Machen Sie also<br />
beispielsweise die Platine nicht zum Board, den Steckplatz nicht zum<br />
Socket, die Schaltfläche nicht zum Button und die Registerkarte nicht<br />
zum Tab.<br />
Nicht: Klicken Sie auf den „Print“ Button.<br />
Sondern: Klicken Sie auf die Schaltfläche „Print“.<br />
Oder: Klicken Sie auf „Print“ (Drucken).<br />
Offenkundige<br />
Anglizismen<br />
Vorsicht vor Anglizismen bei englischem „Input“<br />
Wenn Sie als Quelle für Ihre Dokumente mit englischsprachigen Dokumenten<br />
arbeiten, z. B. mit englischen Spezifikationen oder Marketing-<br />
Unterlagen, laufen Sie leicht Gefahr, überflüssige Anglizismen in Ihre<br />
Dokumente einzubauen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
407
Professionelles Schreiben / Technical Authoring<br />
Versteckte Anglizismen<br />
Beugung und Mehrzahl<br />
Viele Leser empfinden Anglizismen als befremdlich oder verstehen Sie<br />
nur ungenau. Wenn Sie dann ohnehin schon viele englische Begriffe<br />
aus der Benutzeroberfläche zitieren, wird es besonders heikel.<br />
Verwenden Sie Anglizismen wie alle Fremdwörter nur dann, wenn es<br />
dafür einen wichtigen Grund gibt.<br />
Verwenden Sie Anglizismen nicht:<br />
−−<br />
aus Nachlässigkeit<br />
−−<br />
um Kompetenz, Agilität oder Modernität zu suggerieren<br />
−−<br />
um sich vor einer klaren Aussage zu drücken<br />
Verwenden Sie Anglizismen nur dann, wenn:<br />
−−<br />
es keine geläufige deutsche Entsprechung gibt, wenn also ein Wort<br />
mit deutschen Wörtern nur langatmig oder unvollkommen umschrieben<br />
werden könnte<br />
−−<br />
das englische Wort Ihrer Zielgruppe bereits geläufiger ist als das entsprechende<br />
deutsche Wort<br />
−−<br />
es sich um eine feststehende Produktbezeichnung oder Teilebezeichnung<br />
handelt, die Sie selbst nicht beeinflussen können<br />
Nicht jeder Einfluss eines englischen Originaltexts ist auf den ersten<br />
Blick erkennbar, kann Ihr Dokument aber trotzdem negativ prägen.<br />
Übernehmen Sie insbesondere keine englischen Redewendungen.<br />
Beispiele: Sinn machen („to make sense“) statt sinnvoll sein, einmal<br />
mehr („once more“) statt noch einmal, nicht wirklich („not really“) statt<br />
eigent lich nicht.<br />
Tipps zu Rechtschreibung und Grammatik<br />
Die wichtigste Grundregel lautet: Sie schreiben einen deutschen Text,<br />
also gelten die Regeln der deutschen Rechtschreibung und Grammatik<br />
– nicht die der englischen.<br />
Beugen Sie auch englisch-stämmige Wörter grundsätzlich entsprechend<br />
der deutschen Grammatik.<br />
Die Mehrzahl fast aller Anglizismen bilden Sie durch Anhängen von s.<br />
Anders als im Englischen wird dabei ein „y“ nicht zu „ie“.<br />
Groß- oder Kleinschreibung, Zusammenschreibung oder Getrenntschreibung<br />
Schreiben Sie englische Substantive in einem deutschen Text groß.<br />
Anders als im Englischen werden im Deutschen zusammengesetzte<br />
Substantive prinzipiell zusammengeschrieben. Eine Getrenntschreibung<br />
ohne Bindestrich ist im Deutschen falsch. Eine Zusammenschreibung<br />
ist grundsätzlich immer richtig, allerdings oft schlecht lesbar.<br />
Um die Lesbarkeit zu verbessern, können Sie zwischen Wortgliedern<br />
Bindestriche einfügen. Dies gilt sowohl für rein englisch-englische<br />
Zusammensetzungen als auch für gemischt englisch-deutsche oder<br />
deutsch-englische Zusammensetzungen. Verwenden Sie keinen Bindestrich<br />
bei Wörtern, die bereits im Englischen zusammengeschrieben<br />
werden. Wörter, die mit einem Adjektiv beginnen, können Sie optional<br />
auch komplett getrennt schreiben. Dies ist oft besonders übersichtlich<br />
(Beispiel: Compact Disc).<br />
408<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Geschlecht<br />
Schwierig kann die Bestimmung des Geschlechts werden. Allgemein<br />
richtet sich das Geschlecht bei Fremdwörtern primär nach der Wortendung.<br />
Da Anglizismen aber häufig andere Endungen haben als die<br />
klassischen Fremdwörter, ist diese Methode nicht immer eindeutig. Ist<br />
eine Zuordnung des Geschlechts über die Wortendung nicht möglich,<br />
richtet sich das Geschlecht nach der deutschen Übersetzung. Beispiel:<br />
„das Pattern“, denn die entsprechende Übersetzung ist „das Muster“.<br />
Aller dings können auch hier Zweifelsfälle entstehen, nämlich dann,<br />
wenn es zu einem Wort Übersetzungen mit unterschiedlichem Geschlecht<br />
gibt. Beispiel: „die E-Mail“ oder „das E-Mail“ (Übersetzungen:<br />
„die Post“ oder „das Schreiben“). Falls auch das Geschlecht der deutschen<br />
Übersetzung nicht eindeutig ist, müssen Sie, falls nötig, in einem<br />
Wörterbuch nachschlagen. Wenn Sie ein Wort dort nicht finden, bevorzugen<br />
Sie im Zweifelsfalle die sächliche Form.<br />
Tipps zum Erstellungsprozess<br />
Ist es besser, zuerst die englische Dokumentation zu erstellen und dann<br />
erst im zweiten Schritt daraus die deutsche Version zu generieren?<br />
Oder ist es besser, mit der deutschen Version zu starten und diese dann<br />
im zweiten Schritt übersetzen zu lassen?<br />
Vorteile, wenn Sie mit der deutschen Version beginnen:<br />
−−<br />
Die Texte werden von einem Muttersprachler geschrieben. Der Redakteur<br />
benötigt keine speziellen Englischkenntnisse.<br />
−−<br />
Die Übersetzung kann gut außer Haus gegeben werden und ist auch<br />
ohne detaillierte Produktkenntnisse erstellbar, denn Übersetzer müssen<br />
nicht zwischen zu übersetzenden und nicht zu übersetzenden<br />
Texten unterscheiden.<br />
Vorteile, wenn Sie mit der englischen Version beginnen:<br />
−−<br />
Die englische Dokumentation ist früher verfügbar, das Produkt kann<br />
somit früher auf den internationalen Markt.<br />
−−<br />
Wenn das Master-Dokument in englischer Sprache vorliegt, lassen<br />
sich leichter Übersetzer finden, insbesondere für Übersetzungen in<br />
seltene Sprachen.<br />
−−<br />
Wenn die Texte anschließend vom Redakteur selbst ins Deutsche übersetzt<br />
werden, lässt sich dies als zusätzlicher Korrekturlauf nutzen.<br />
Weitere Informationen<br />
Lucchesi, Angeliki, Anglizismen lernen Deutsch, <strong>tekom</strong>-<strong>Jahrestagung</strong><br />
2002<br />
Fischer, Sylvia, Stolpersteine im Englischen, technische kommunikation,<br />
Heft 03/10<br />
Ikonomidis, Ageliki, Anglizismen auf gut Deutsch: Ein Leitfaden zur<br />
Verwendung von Anglizismen in deutschen Texten, Buske Verlag, 2009,<br />
ISBN 978-3-87548-560-8<br />
Achtelig, Marc, Reihe Lösungen zur Technischen Dokumentation: „Writing<br />
Plain Instructions“– Wie Sie Handbücher, Online-Hilfen und andere<br />
Formen Technischer Kommunikation schreiben, die jeder Benutzer<br />
versteht, Zweisprachige Ausgabe: Englisch + Deutsch, indoition publishing<br />
<strong>2012</strong>, ISBN 978-3-943860-09-2<br />
für Rückfragen: ma@indoition.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
409
Professionelles Schreiben / Technical Authoring<br />
TA 11<br />
Fachvortrag<br />
Vagheit<br />
Lexikalische<br />
Mehrdeutigkeiten<br />
Mehrdeutigkeiten – finden,<br />
auflösen, vermeiden<br />
Achim Götz, euroscript Services GmbH, Berlin<br />
In der Technischen Kommunikation sollen Sachverhalte klar und verständlich<br />
dargestellt werden. Mehrdeutigkeiten führen nicht nur zu<br />
Fehlinterpretationen beim Leser, sondern auch zu Übersetzungsfehlern<br />
und Problemen bei der korrekten Wiederverwendung von Textbausteinen<br />
und Modulen in Redaktionssystemen.<br />
Seien wir ehrlich: Mehrdeutigkeiten sind in vielen Fällen gar kein Problem.<br />
Oft ergibt sich die richtige Lesart aus dem Kontext, entweder dem<br />
sprachlichen Kontext oder dem situativen Kontext.<br />
Nehmen wir als Beispiel das Wort Absatz, ein Wort mit vielen Bedeutungen.<br />
Der Leser kann aus dem sprachlichen Kontext erkennen, welche<br />
Bedeutung gemeint ist: „Der Absatz konnte im vergangenen Jahr<br />
um 10 % gesteigert werden.“ Wenn ein Kunde in einem Schuhgeschäft<br />
nach Schuhen mit flachem Absatz fragt, dann wird durch den situativen<br />
Kontext klar, dass es sich um Schuhabsätze handeln muss.<br />
Warum also das Ganze? Am Ende erleben wir doch wesentlich weniger<br />
Missverständnisse, als zu befürchten wäre. Doch genau die Fähigkeit<br />
des Menschen, über Mehrdeutigkeiten hinwegzusehen, macht die Gefahr<br />
aus. So erscheint dem Autor selbst der Text eindeutig, er versteht<br />
ihn entsprechend seiner Intention. Der Leser aber kann diese Intention<br />
nur aus dem Text erschließen und steht dadurch möglicherweise vor<br />
der Wahl.<br />
Der Leser in diesem Fall muss nicht zwingend der (End-)Kunde sein.<br />
Auch Übersetzer sind von denselben Problemen betroffen, wenn nicht<br />
sogar noch mehr: Gewollte Unschärfen lassen sich oft nicht übersetzen,<br />
so dass diese aufgelöst werden müssen, auch wenn sie dem Textverständnis<br />
in der Quellsprache keinen signifikanten Abbruch tun.<br />
Keine Mehrdeutigkeit im sprachlichen Sinne, aber leider immer wieder<br />
anzutreffen ist die Vagheit. Die Sprache bietet allerlei Möglichkeiten,<br />
sich unpräzise auszudrücken. Immer wieder werden deshalb Benutzer<br />
mit Angaben konfrontiert, die mehrdeutig sind. Ein einfaches Beispiel<br />
hierfür ist das Wort „regelmäßig“. Es liegt in der Interpretation des<br />
Lesers, ein passendes Zeitintervall zu finden. Die Wahrscheinlichkeit,<br />
dass er dabei das gemeinte findet, ist gering. Wenn immer es möglich<br />
ist, sollten konkrete Angaben und Werte verwendet werden, damit dem<br />
Leser jeder Interpretationsspielraum genommen wird.<br />
Für Technische Redakteure muss es ein Ärgernis sein, dass es im Deutschen<br />
(und in quasi jeder anderen natürlichen Sprache) Wörter gibt,<br />
die mehrere Bedeutungen tragen. Laut Guinness-Buch der Rekorde<br />
ist „Läufer“ das deutsche Wort mit den meisten Bedeutungen, es sind<br />
24. Sie kennen sicherlich auch andere Beispiele. Bei diesen umgangssprachlich<br />
auch „Teekesselchen“ genannten Wörtern kann man zwischen<br />
solchen unterscheiden, die orthografisch gleich sind (Homonyme,<br />
z. B. „Bank“) und solchen, die sich im Schriftbild unterscheiden (Homophone,<br />
z. B. „Rad“ / „Rat“). In geschriebenen Texten sollten Homophone<br />
keine Rolle spielen, der Leser kann sie unterscheiden.<br />
410<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Komposita<br />
Syntaktische<br />
Mehrdeutigkeit<br />
Präpositionen<br />
Attribute<br />
Mehrdeutigkeiten<br />
durch Bezüge<br />
Für echte Homonyme muss sichergestellt werden, dass sie durch den<br />
Kontext eindeutig werden. Es ist unwahrscheinlich, dass jemand sein<br />
Geld auf einer Parkbank anlegt, genauso unplausibel wäre es, wenn<br />
jemand auf einem Geldinstitut Platz nimmt.<br />
Falls der Kontext alleine nicht ausreicht, ist es ein Fall für die Terminologie-Abteilung.<br />
Wird „Geldinstitut“ als Vorzugsbenennung anstelle von<br />
„Bank“ vorgeschrieben, ist die Mehrdeutigkeit vermieden, auch wenn<br />
der Kontext nicht ausreicht.<br />
Bei der Bildung von zusammengesetzten Wörtern entstehen häufig<br />
neue Mehrdeutigkeiten. Ob eine Holzschraube eine Schraube aus Holz<br />
oder aber eine Schraube für Holz ist, wird aus dem Wort alleine nicht<br />
klar. Ein fast schon sprichwörtliches Beispiel sind die verschiedenen<br />
Zusammensetzungen mit „Schnitzel“ wie Kalbsschnitzel oder Jägerschnitzel.<br />
Komposita, die nicht dem allgemeinen Sprachgebrauch entstammen,<br />
sollten deshalb sorgfältig geprüft und wenn nötig umschrieben<br />
werden (Schnitzel nach Jägerart).<br />
Doch auch wenn alle Wörter eindeutig sind, können sich Mehrdeutigkeiten<br />
im Satz ergeben. Begünstigt wird dies durch den Nominalstil<br />
einerseits und Verknappungen und Auslassungen andererseits. Mehr<br />
als ein Gesetzestext hat es bereits zu zweifelhaftem Ruhm gebracht,<br />
weil die tatsächliche Aussage und die von den Autoren gewünschte<br />
nicht übereinstimmen. Alleine durch Befolgen der Regel „eine Aussage<br />
je Satz“ werden bereits viele Klippen umschifft.<br />
Präpositionen bringen nicht immer die gewünschte Eindeutigkeit: „Bolzen<br />
hinter der Führung abfeilen.“ Soll der Bolzen, der sich hinter der<br />
Führung befindet, abgefeilt werden oder soll der Leser zum Abfeilen<br />
hinter die Führung gehen? Zusätzlich ergibt sich in diesem Beispiel<br />
eine zweite Mehrdeutigkeit. Wir wissen nicht, ob es ein oder mehrere<br />
Bolzen sind, da Singular und Plural gleichlautend sind. Ein Artikel<br />
(„den“ oder „die“) sorgt für Klarheit, ein Präpositionalgefüge kann die<br />
erste Mehrdeutigkeit auflösen: „Den hinter der Führung befindlichen<br />
Bolzen abfeilen.“<br />
Ein weiteres Beispiel: „Lackierte Gehäuseteile und Befestigungselemente<br />
dürfen nicht gestapelt werden.“ Es ist nicht klar, ob sich das<br />
Attribut „lackiert“ nur auf Gehäuseteile oder auch auf Befestigungselemente<br />
bezieht, dürfen also Befestigungselemente generell nicht<br />
gestapelt werden oder trifft dies nur auf lackierte Befestigungselemente<br />
zu? Im ersten Fall genügt es, die Satzstellung zu verändern („Befestigungselemente<br />
und lackierte Gehäuseteile …“) im zweiten Fall sollte<br />
das Attribut wiederholt werden („Lackierte Gehäuseteile und lackierte<br />
Befestigungselemente …“).<br />
Bezüge mit Personalpronomen können zu Mehrdeutigkeiten führen:<br />
„Die Wartungsklappe wird mit der Schraube befestigt. Sie ist aus Aluminium.“<br />
Wir bleiben ratlos: Ist die Schraube oder die Wartungsklappe<br />
aus Aluminium? Das Beispiel zeigt einen weiteren Fallstrick: Der Satz<br />
„Sie ist aus Aluminium“ wird mit den gängigen Translation-Memory-<br />
Systemen als Segment abgespeichert und möglicherweise wieder übernommen,<br />
auch wenn der Bezug in einem anderen Kontext ein anderer<br />
ist und möglicherweise auch der Genus des Personalpronomens ein<br />
anderer sein müsste.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
411
Professionelles Schreiben / Technical Authoring<br />
Mehrdeutigkeiten<br />
vermeiden<br />
Die genannten Beispiele für Mehrdeutigkeiten sind allesamt nicht<br />
schwer zu finden und aufzulösen. Bestimmte sprachliche Muster sind<br />
nahezu prädestiniert dafür, mehrdeutig zu werden – hier kann sowohl<br />
beim Schreiben als auch beim Prüfen besondere Aufmerksamkeit<br />
helfen. Begriffsorientierte Terminologiearbeit und klare Benennungsgrundsätze<br />
tun ihr Übriges.<br />
für Rückfragen: achim.goetz@euroscript.de<br />
412<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
TA 12<br />
Fachvortrag<br />
Gesucht und gefunden: Premium<br />
Dokumentation verlangt Premium Index!<br />
Harry Stricker, Fischer Computertechnik GmbH, Radolfzell<br />
Mindestens in der Papierwelt bietet ein gutes Indexverzeichnis, auch<br />
Stichwortverzeichnis oder Register genannt, einen schnellen Zugang<br />
zur Information. Die Erschließung von Inhalt, also das Zuweisen von<br />
Schlagwörtern, die den Inhalt repräsentieren, ist aber auch nützlich<br />
für die elektronische Welt, da die Volltextsuche, wie wir sie heute kennen,<br />
nur limitierte Möglichkeiten zum Auffinden von Inhalten bietet.<br />
In XML-basierten Redaktionsprozessen lassen sich bereits heute automatisiert<br />
Indexverzeichnisse generieren – worauf müssen wir achten,<br />
wenn wir ein Premium Indexverzeichnis erstellen wollen?<br />
Dedicated Indexing<br />
Embedded Indexing<br />
Wie geht der Profi vor?<br />
Wer hätte das gedacht: Wenn der Profi-Indexer ans Werk geht, dann<br />
legt er ein zu indexierendes Dokument oftmals in gedruckter Form<br />
neben sich und erfasst völlig losgelöst von der digitalen Dokumentenquelle<br />
in einer separaten Datei Indexeinträge und die dazu passenden<br />
Seitenzahlen. Dazu verwendet er eine spezielle Software für Dedicated<br />
Indexing. Aufgrund der Tatsache, dass hier eine separate Index-Datei<br />
entsteht, wird das Verfahren auch Seperate File Indexing genannt.<br />
Das soll einer verstehen: Brauchen wir tatsächlich ein extra Index-Tool,<br />
um ein Indexverzeichnis zu erstellen? Alle gängigen DTP-Tools unterstützen<br />
uns doch bei der automatisierten Generierung von Indexverzeichnissen.<br />
Alles, was wir tun müssen, ist direkt im Dokument ein paar<br />
Indexmarken zu erfassen und auf den Generier-Knopf zu drücken –<br />
und schwupp haben wir ein gut sortiertes und ggf. schon passend layoutetes<br />
Indexverzeichnis mit Seitenzahlreferenz. Die Seitenzahl kann<br />
sich dann ruhig auch noch einmal ändern – auf Knopfdruck wird sie<br />
aktualisiert. Diese Methode, also das Einbetten von Indexmarken in das<br />
Dokument, wird Embedded Indexing genannt und stellt den Gegenpol<br />
zum Dedicated Indexing dar.<br />
Der Profi-Indexer hat ein paar gute Gründe für sein „dedi cated“ Vorgehen:<br />
Ein qualitativ hochwertiges Indexverzeichnis entstehe schnell und<br />
kostengünstig eben nur mit dem Vorgehen Dedicated Indexing und mit<br />
der Unterstützung der einschlägigen Software. Die Methode Embedded<br />
Indexing hingegen sei zu sperrig, d. h., es unterstütze den Index-Entstehungsprozess<br />
nicht optimal. Deshalb sei der Vorteil „Aktualisierung der<br />
Seitenzahl auf Knopfdruck“ nachrangig einzuordnen.<br />
An dieser Stelle müssen wir uns fragen: Was macht denn ein gutes<br />
Indexverzeichnis aus? Und dann wollen wir uns auch fragen, welche<br />
der Kriterien und Features sind denn relevant für die Technische Dokumentation<br />
bzw. welche wollen und können wir uns überhaupt leisten?<br />
Automatisierte Indexverzeichnis-Erstellung mit<br />
Content-Management-Systemen<br />
In den letzten 10 Jahren haben sich XML und Content-Management-<br />
Systeme (CMS) mehr und mehr in der Technischen Redaktion durchgesetzt.<br />
Diese Entwicklung ist eine der Antworten auf die zentrale<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
413
Professionelles Schreiben / Technical Authoring<br />
Embedded Indexing<br />
mit CMS<br />
Vielfältige<br />
Problemstellungen<br />
Herausforderung an die Technische Redaktion: Print- und Online-Medien<br />
rechtzeitig, benutzer- und mediengerecht in der passenden Sprache<br />
zu erstellen.<br />
Das Automatisierungskonzept der meisten CMS-Hersteller sieht natürlich<br />
auch einen Mechanismus zur automatisierten Index-Generierung<br />
vor. CMS-Redakteuren steht in der Regel eine Embedded-Indexing-<br />
Funktionalität zur Verfügung: Die Indexmarke wird direkt im Modul<br />
erfasst und mit dem Modul gespeichert. Wird das Modul im Standard-<br />
Übersetzungsprozess an das Translation-Memory-System (TMS) ausgespielt,<br />
dann wird in diesem Zuge auch gleich die Indexmarke übersetzt.<br />
Im Publikationsvorgang werden schließlich aus allen zusammengestellten<br />
Modulen die enthaltenen Indexeinträge ermittelt und an einer<br />
gewünschten Stelle im Dokument ein passendes (modulübergreifendes)<br />
Index-Verzeichnis erstellt – und das in jeder Sprache.<br />
Es ist nicht selbstverständlich, dass in diesem Prozess ein konsistentes<br />
und vollständiges Indexverzeichnis entsteht. Gründe dafür sind:<br />
−−<br />
Module, und damit auch die Indexmarken, werden möglicherweise<br />
von verschiedenen Redakteuren asynchron erstellt.<br />
−−<br />
Module (inkl. Index-Marke) werden möglicherweise in einer anderen<br />
Dokumentzusammenstellung, in einem anderen Kontext, wiederverwendet.<br />
−−<br />
Änderungen müssen in der (Modul-)Quelle, bei systematischen Änderungen<br />
ggf. in vielen Modulen, nachgezogen werden.<br />
Die potentielle Wiederverwendung der Indexmarke und die kollaborative<br />
Entstehung eines Indexverzeichnisses mit CMS erfordert ein klares<br />
redaktionelles Index-Konzept. Nur so kann für möglichst hohe Konsistenz<br />
und Vollständigkeit im Indexverzeichnis gesorgt werden. Wenn<br />
sich hier pragmatische Regeln definieren lassen, dann kann auf diese<br />
Weise ein durchaus akzeptabler Index generiert werden, der beinahe<br />
nebenher (kostengünstig) entsteht.<br />
Rechnergestützte alphabetische Sortierung<br />
Immer wenn wir uns per Embedded-Indexing-Verfahren ein Indexverzeichnis<br />
generieren lassen, werden die Einträge ganz selbstverständlich<br />
alphabetisch richtig sortiert. Aber auch beliebige andere Listen (z. B. in<br />
der Textverarbeitung oder Tabellenkalkulation) können wir mit Hilfe<br />
von Rechnern automatisch sortieren lassen.<br />
Dabei ist die richtige Sortierung gar nicht so selbstverständlich zu erreichen,<br />
wenn die länderspezifischen lexikographischen Alphabetisierungsregeln<br />
berücksichtigt werden sollen. Beispiel: In Deutschland wird<br />
das diakritische Zeichen „Ä“ vor „B“ sortiert. Der Schwede erwartet das<br />
„Ä“ hingegen nach dem „Z“. Dafür sortiert der Schwede das „V“ und<br />
das „W“ zusammen und sieht gerne zuerst Klein- vor Großbuchstaben<br />
(z. B. „karl“ vor „Karl“). Außerdem gibt es im Schwedischen nach dem<br />
„Z“ noch einen weiteren Sonderbuchstaben, den es im Deutschen so gar<br />
nicht gibt – das „A“ mit Kringel: „Å“.<br />
Die Anforderungen an die Sortierung sind also nicht ganz trivial. Auch<br />
die Anforderungen aus dem asiatischen Sprachraum mit den tausenden<br />
Zeichen (Ideogrammen) machen die Sortieraufgabe nicht leichter.<br />
Allein im Chinesischen gibt es mindestens 3 Ansätze für die Sortierung:<br />
nach Aussprache, Anzahl der Striche oder Radikale.<br />
414<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Die computergestützte Sortierung basiert letztlich darauf, dass jedes<br />
Zeichen, das mit dem Computer gespeichert wird, durch einen numerischen<br />
Wert repräsentiert wird – das war bereits beim ASCII-Code so<br />
und das ist im heutigen Standard Unicode so. Da die Reihenfolge der<br />
Zeichen im Unicode nicht den verschiedenen Vorstellungen von Sortierung<br />
in den Kulturen entsprechen kann, braucht es Vorgaben (Sortiertabellen),<br />
in denen definiert ist, welchen Platz in einer Sortierung<br />
einem Zeichen zugeteilt werden soll. Ein entsprechender Sortieralgorithmus<br />
muss mit diesen Informationen die zu sortierenden Zeichenketten<br />
vergleichen und Reihenfolgen ableiten.<br />
Natürlich bieten die gängigen DTP-Tools, von FrameMaker bis Word,<br />
entsprechende Sortierungs-Funktionalität, mit der auch ein Index nach<br />
den kulturellen Vorgaben sortiert werden kann. In einem automatisierten<br />
Redaktionsprozess mit CMS findet die richtige Sortierung idealerweise<br />
bereits im Publikationsprozess statt.<br />
für Rückfragen: stricker@fct.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
415
Professionelles Schreiben / Technical Authoring<br />
TA 13<br />
Fachvortrag<br />
Instruktionsdesign als Leitfaden<br />
für die Technische Redaktion bei<br />
der Erstellung von eLearnings<br />
Dr. Christian Schindelin und Bernd Growek, T3 GmbH, Erlangen<br />
Motivation<br />
In vielen Unternehmen setzt sich die Idee durch, die Technische Redaktion<br />
auch mit der Erstellung von eLearnings zu beauftragen. Das Wissen,<br />
welche Inhalte neu zu schulen und wie sie mit bereits bekannten<br />
Inhalten verzahnt sind, ist bei den Redakteuren im Allgemeinen bereits<br />
vorhanden.<br />
Allerdings fehlen den Technischen Redakteuren oft das „Wie“ der Herangehensweise<br />
und das „Womit“ des technischen Rahmenwerks, auf<br />
denen die interaktive Präsentation im eLearning schließlich aufgebaut<br />
ist.<br />
Hier kommt das Instruktionsdesign oder Instructional Design zu Hilfe.<br />
Es bezeichnet die systematische Planung, Entwicklung und Evaluation<br />
von Lernumgebungen und Lernmaterialien. Der Begriff stammt aus den<br />
USA und wurde namentlich von Robert Gagné geprägt [1].<br />
Basierend auf den Prinzipien des Instruktionsdesigns wurde das T3<br />
Didactic Design entwickelt: Es besteht einerseits aus einer Herangehensweise,<br />
den Lehrstoff zu erheben und zu didaktisieren. Andererseits<br />
enthält es das Rahmenwerk, das seine Inhalte aus einem XML-basierten<br />
Redaktionssystem bezieht. Beides zusammen ist dazu geeignet,<br />
die Hürden für die Mitarbeiter der technischen Dokumentationsabteilungen<br />
zu senken, so dass es leichter fällt, eine systematische Vorgehensweise<br />
zu praktizieren. Die technische Komplexität des T3 Didactic<br />
Design ist weitgehend vor dem Redakteur verborgen, so dass er sich auf<br />
die Inhalte selbst und die angewendete Didaktik konzentrieren kann.<br />
Der Vortrag widmet sich dem ersten Teil, der didaktischen Herangehensweise.<br />
Leitgedanke<br />
T3 Didactic Design – theoretische Grundlagen<br />
Der zentrale Leitgedanke des T3 Didactic Design ist die konsequente<br />
Handlungsorientierung. Ziel ist es, nicht einfach nur Faktenwissen zu<br />
vermitteln, sondern beim Lerner Handlungs- und Problemlösungskompetenz<br />
aufzubauen. Dazu braucht es den nötigen „Unterbau“ aus Fakten-<br />
und Konzeptwissen.<br />
416<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Abb. 1: Arten von Wissen<br />
Unterstützung und<br />
Führung des Lerners<br />
Um das geforderte Wissen zu erwerben, muss der Lerner unterstützt<br />
werden. Das T3 Didactic Design bietet hierzu verschiedene Didaktiktypen<br />
an. Die Didaktiktypen basieren aufeinander, wie in der folgenden<br />
Wissenspyramide abgebildet:<br />
Abb. 2: Wissenspyramide<br />
Mediendidaktik und<br />
visuelle Präsentation<br />
Beispielsweise steht an unterster Stelle der Didaktiktyp „Know What“,<br />
der das relevante Faktenwissen behandelt. Für ein spezielles Handlungsziel<br />
durchläuft der Lerner einmal die Pyramide von unten nach<br />
oben.<br />
Die Kombination von Didaktiktypen, die das T3 Didactic Design für ein<br />
einzelnes Lernziel vorsieht, heißt „Lernobjekt“.<br />
Die visuelle Präsentation im eLearning kann verschiedene Schwerpunkte<br />
setzen. Das T3 Didactic Design deklariert dazu die folgenden<br />
Topictypen, die den Didaktiktypen zugeordnet werden:<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
417
Professionelles Schreiben / Technical Authoring<br />
Abb. 3: Topictypen<br />
Modularisierung<br />
XML-basierte Erfassung<br />
im Redaktionssystem<br />
Beim Topictyp Show werden beispielsweise Videos oder Animationen<br />
als Hauptinformationsträger verwendet, textuelle Erläuterungen unterstützen<br />
zusätzlich die Visualisierung.<br />
Damit ein Lernobjekt modular (wieder)verwendbar ist, benötigt es die<br />
Festlegung eines Lernziels und einen eigenen Schluss in Form einer<br />
Wissensüberprüfung und eines Feedbacks. Damit kann das Lernobjekt<br />
als ein in sich geschlossenes „Reusable Learning Objekt“ (RLO) behandelt<br />
und in verschiedenen Kontexten (Modul, Kurs) in gleicher Form<br />
eingebaut werden. Praktisch angewendet wird dies beispielsweise zur<br />
Adaption an unterschiedliche Lernpfade oder Lerner-Level sowie für<br />
die zusätzliche Nutzung zum situativen Lernen als Knowledge Nuggets<br />
auf Informations- und Wissensplattformen.<br />
Aus mehreren RLOs lassen sich gemäß Lehrplänen größere Einheiten<br />
aufbauen. Beispielsweise können mehrere RLOs zu einem<br />
Modul zusammengefasst werden; mehrere Module bilden dann den<br />
eLearning-Kurs.<br />
Zur strukturierten Erfassung der Didaktik- und Topictypen in einem<br />
XML-basierten Redaktionssystem bietet T3 das T3 Learning Plugin an,<br />
das die Basisfunktionen des Redaktionssystems mit dem T3 Didactic<br />
Design fusioniert. Durch das T3 Learning Plugin [2] werden Content-<br />
Management-Systeme (CMS) zu Learning-Content-Management-Systemen<br />
(LCMS) erweitert.<br />
Dieses Plugin erleichtert die Arbeit des Redakteurs zusätzlich, da multimediale<br />
Web-based Trainings automatisiert generiert werden. Die<br />
SCORM-Konformität der produzierten Ergebnisse gewährleistet eine<br />
volle Interoperabilität mit allen gängigen Learning-Management-Systemen<br />
(LMS).<br />
418<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Nutzerführung<br />
Wissensvermittlung<br />
Lernzielkontrollen<br />
Eingespielte Workflows<br />
Perspektive für<br />
Technische Redakteure<br />
Nutzen des T3 Didactic Design in der Technischen Redaktion<br />
Das T3 Didactic Design führt die Redakteure beim Planen neuer Lernobjekte.<br />
Im Redaktionssystem mit T3 Learning Plugin erleichtern Templates<br />
die Anlage neuer Topics gemäß den Didaktik- und Topictypen.<br />
Das T3 Didactic Design zielt auf eine hohe Akzeptanz bei Lernern und<br />
garantierten Lernerfolg. Jede Aussage wird visuell unterstützt; Animationen,<br />
Videos, Grafiken werden textsynchron eingesetzt. Interaktive<br />
Topics werden explizit unterstützt.<br />
Das T3 Didactic Design beinhaltet Übungen und Tests nach dem QTI-<br />
Standard, um den Lerninhalt zu vertiefen sowie den Lernerfolg gezielt<br />
und automatisch zu überprüfen. Die Tests können auch zur systemgestützten<br />
Zertifizierung des Lerners eingesetzt werden.<br />
Das T3 Learning Plugin bietet nahtlose Unterstützung in einem Redaktionssystem.<br />
Bei der eLearning-Erstellung kann die Technische Redaktion<br />
auf allen Workflows und Übersetzungsfunktionen eines Redaktions<br />
systems aufbauen.<br />
Das Erstellen von eLearnings gestattet es, redaktionelle Inhalte strukturiert<br />
und standardisiert in aufgelockerter und visuell ansprechender<br />
Form darzubieten. Dies ermöglicht es insbesondere den Redakteuren,<br />
die bisher überwiegend in der „klassischen“ Technischen Dokumentation<br />
eingesetzt waren, ihre Kompetenzen zu erweitern und auszubauen.<br />
Fazit<br />
Das T3 Didactic Design ist eine Methode, mit der Technische Redakteure<br />
in die Lage versetzt werden, neben klassischen Dokumentationsformen<br />
auch anspruchsvolle eLearning-Produktionen selbst zu erstellen.<br />
Hinweise:<br />
[1] Wikipedia http://de.wikipedia.org<br />
[2] Erläuterung zum T3 Learning Plugin unter<br />
http://tinyurl.com/c6v2kk3<br />
Für Rückfragen:<br />
Christian.Schindelin@T3.de<br />
Bernd.Growek@T3.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
419
Professionelles Schreiben / Technical Authoring<br />
TA 15<br />
Workshop<br />
Educating DITA<br />
Nolwenn Kerzreho, Université Rennes 2, France<br />
Tony Self, Swinburne University of Technology, Australia<br />
Overview<br />
As some areas of technical communication continue to move from linear,<br />
document-centric authoring to structured, topic-based approaches<br />
using the DITA semantic mark-up language, it is becoming more apparent<br />
that some existing practices have to be abandoned and new methods<br />
and techniques taken up. The skills required for these new methods<br />
and techniques can either be taught in the classroom at university level<br />
or taught in the workplace. The way in which universities have taught<br />
DITA techniques provides a useful insight into how DITA skills can also<br />
be transferred in the workplace.<br />
DITA<br />
The Darwin Information Typing Architecture (DITA) is an XML-based<br />
architecture for writing and delivering information using structured<br />
authoring techniques. It is aimed at technical communicators, authors,<br />
editors, and creators of textual content.<br />
The approach enabled by DITA represents a major shift in the way in<br />
which technical communicators and other writers approach a documentation<br />
project. DITA effectively separates the content from the presentation;<br />
technical communicators using DITA can no longer use traditional<br />
style-based techniques and authoring tools to write manuals and other<br />
documents. This is because DITA is based on semantic mark-up and<br />
integrated metadata, both of which are new concepts for most technical<br />
communicators.<br />
Two Universities, Two Hemispheres<br />
Swinburne University of Technology is located in Melbourne, Australia.<br />
Until 2011, a post-graduate Technical Communication programme was<br />
run within the Faculty of Life and Social Sciences, offering post-graduate<br />
qualifications for students. One of the Graduate Diploma subjects<br />
offered was “Structured Authoring with DITA”.<br />
Université Rennes 2 is located in Brittany, France, and offers post-graduate<br />
and under-graduate vocational studies in technical communication<br />
disciplines. One of the technical communication subjects offered is<br />
“Structured Authoring”, which, like the Swinburne subject, focusses on<br />
the DITA semantic mark-up language.<br />
Why is education important for writers moving to DITA?<br />
Writing structured topic-based documents using a semantic mark-up<br />
language is markedly different in many respects to writing in a linear,<br />
document-centric form. Technical communicators migrating from legacy<br />
to structured approaches need to abandon some practices, focus on core<br />
writing skills, and develop new methods and techniques. The change<br />
can be described as re-educating a technical writer as an information<br />
engineer.<br />
420<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Application in the Workplace<br />
There is a difference between education and training, and that may impact<br />
how approaches to “education” in DITA can be applied to “training”<br />
in DITA.<br />
The objective of education is to gain knowledge about facts, principles,<br />
and concepts. Training is more focussed on teaching a skill. Assessment<br />
of education is based on testing a student’s knowledge of concepts and<br />
ability to apply concepts to solve problems. Assessment in training is<br />
usually about testing the student’s ability to perform a task. This is usually<br />
(perhaps unfairly) summarised as education = theory, training =<br />
practice.<br />
To be a competent DITA practitioner in the workplace, an author does<br />
need to have a firm understanding of the concepts of structured, semantic<br />
authoring. It is not a field where learning by rote (recalling which<br />
buttons to press or menus to select) is relevant. DITA is principally a<br />
methodology, and is not a software tool. For that reason, training authors<br />
in DITA is very similar to educating students in DITA theory. While you<br />
may be able to train someone to use a DITA authoring tool, you need to<br />
do more to educate them to write within the DITA methodology.<br />
In the Workplace<br />
Workplace training in DITA can take a similar approach to university<br />
education. The new skills required for a DITA author can be summarised<br />
as:<br />
−−<br />
information typing<br />
−−<br />
topic-based writing for re-use<br />
−−<br />
minimalism<br />
−−<br />
separation of content and form<br />
−−<br />
XML and mark-up language<br />
−−<br />
DITA vocabulary<br />
−−<br />
Software tools<br />
The first five of these new skills are conceptual, and the last two are<br />
mostly practical.<br />
If authors working in an organisation have no education in DITA or<br />
structured authoring, they will need to be taught all seven skills. Those<br />
with education in structured authoring may only need training in the<br />
software tools used by the organisation, and perhaps in the DITA vocabulary<br />
if their learning was based on another semantic mark-up<br />
language.<br />
Student Outcomes<br />
Colin M. (graduated in 2009) was hired by a company based in the<br />
Bouches-du-Rhône region, South of France about six months after<br />
graduating. He later left that company to work for a semiconductor<br />
manufacturing group in Eindhoven in The Netherlands, where he continues<br />
to work as a Product Data Analyst and DITA Implementor. Without<br />
the educational background in DITA, his career would have been<br />
very different.<br />
Peter C. (graduated in 2011) was already working as a technical communicator<br />
in an automotive company in Melbourne, Australia, but was<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
421
Professionelles Schreiben / Technical Authoring<br />
confronted with documentation challenges that only an XML-based<br />
approach could meet. The DITA subject helped improve his understanding<br />
of DITA so he could make informed strategy decisions about<br />
his own documentation projects. This conceptual knowledge has made it<br />
possible for Peter to manage a large and complex DITA document engineering<br />
process that extracts technical information from an inventory<br />
management system and incorporates it with conventionally-written<br />
content.<br />
Conclusion<br />
Writing structured topic-based documents using a semantic mark-up<br />
language is different in many respects to writing in a linear, documentcentric<br />
form, and requires different skills. Formal education can provide<br />
the conceptual framework and the core skills, but further training,<br />
particularly in software tools, may be required in the workplace. The<br />
approaches to university education and workplace training can be quite<br />
similar, but it is critical that DITA authors acquire the necessary theoretical<br />
and practical skills to make them effective practitioners.<br />
aself@swin.edu.au<br />
nolwenn.kerzreho@uhb.fr<br />
422<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
TA 16<br />
Tutorial<br />
Crossing the divide – Advanced techniques<br />
for conversion to structured FrameMaker<br />
Jang F.M. Graat, JANG Communication, Amsterdam<br />
Most of the techniques that will be explained in this tutorial were developed<br />
in a project for one of my customers, who will be co-presenting<br />
that project with me in TA5: Changing the engine without stopping the<br />
car.<br />
Preparing the documents<br />
Some features of the unstructured FM interface do not translate well<br />
into the structured paradigm. In fact, some features break FM’s builtin<br />
conversion and cause a fatal crash. This means that such features<br />
have to be either removed or changed in such a way that FM can handle<br />
them properly.<br />
One particular case is anchored frames that contain text frames. In one<br />
project, such frames were used to place notes for the authors in the side<br />
heads. A script finds all occurrences of such constructions and moves<br />
the content into the main document, applying specific paragraph format<br />
tags so that they can be recognized for what they are. After conversion,<br />
the re-applied paragraph formats makes the notes appear in the side<br />
heads again.<br />
Another feature does not lead to crashes but offers an opportunity to increase<br />
the quality of converted materials: the use of different sidehead<br />
icons for different types of notes. If the images are linked instead of<br />
copied into the FM documents, their filenames can be used to apply new<br />
paragraph formats to the note texts. This allows distinguishing an „Info“<br />
note from a „Caution“ and „Warning“, or whatever note categories you<br />
may have. Again, after conversion, the icons can be brought back into<br />
the formatting (using a slightly different and easier to manage method).<br />
Conversion tables and their usage<br />
The information about creating conversion tables in FM’s documentation<br />
is more or less enough to do the straightforward conversion work.<br />
But the really interesting work starts where the documentation ends.<br />
Higher-level conversion rules can be applied until reaching the very top<br />
of the tree. The order in which certain rules are applied may become an<br />
obstacle if you do not have a clear idea of the structure that is inherent<br />
in the source document’s formatting.<br />
Creating complex expressions at higher-level rules can be made less<br />
error-prone by using variables for sets of elements that often appear<br />
together. You can go one step further by using text insets to create and<br />
manage a set of conversion tables: each conversion table being specifically<br />
optimized for one type of document. The tutorial, procedure and<br />
reference chapters may have different structures and can be converted<br />
using different conversion tables. Also, if you are a consultant like myself,<br />
you may want to use a number of modules that can be combined<br />
into a fitting conversion table for each particular customer, without having<br />
to copy and paste generic enhancements for often occurring formats<br />
and constructions.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
423
Professionelles Schreiben / Technical Authoring<br />
Applying conversion tables when you have books with a large number<br />
of chapter files can be tricky, especially if some of the chapter files are<br />
generated content which do not require conversion to structured FM.<br />
Also, backup files should be skipped and you do not necessarily want to<br />
overwrite the source files – in case you do need them to check on possible<br />
manual corrections that must be made later. All of these requirements<br />
call for a script that processes a book, moving files out of the way<br />
of the “Structure Documents” command and creating a safe location<br />
for the files to end up in. A fairly simple script can save lots of valuable<br />
time later on.<br />
Post-processing the result<br />
Some features of format-based FM cannot be converted using the builtin<br />
tools. One of these is conditional text. When you select the option to<br />
show all conditional text, none of the markers for that text are visible<br />
and therefore cannot be converted. If you decide on hiding the conditional<br />
text, you will be able to convert the marker to structured FM but<br />
you will loose the content. The only way out of this is converting the<br />
markup-based conditional text into attribute-based conditional text using<br />
a script in the converted document.<br />
Many structural features that may be obvious to the author cannot be<br />
expressed in a conversion table rule at all. Fortunately, there are tools<br />
that let you automate the enhancement of your structured document<br />
based on the properties of elements and the order in which they appear.<br />
The most effective tool for this type of work is West Street Consulting’s<br />
FrameSLT: it makes the power of XSLT available within the environment<br />
of structured FM. This allows you to define an XPath query to find<br />
specific elements or attributes and apply structural transformations on<br />
them. Even though this tool would easily fill an entire tutorial (I will<br />
reapply that tutorial to next year’s tcworld conference) or a full-day<br />
course, I will be showing some examples of its incredible power.<br />
Contact: jang@jang.nl<br />
424<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
TA 17<br />
Tutorial<br />
Sprachregeln und Redaktionsleitfaden<br />
Andreas Baumert, Hochschule Hannover<br />
Annette Verhein-Jarren, Hochschule für Technik Rapperswil, Schweiz<br />
Den Nutzen von Sprachregeln bestreitet niemand. Kein Unternehmen<br />
hält es für sinnvoll, dass jeder Mitarbeiter so schreibt, wie ihm der<br />
Schnabel gewachsen ist. Dennoch scheuen viele den Aufwand, solche<br />
Regeln zu entwickeln. Wir zeigen einen Weg, dieses Problem in den<br />
Griff zu kriegen.<br />
Sprachregeln, oft ein anderes Wort für Grammatik<br />
„Etwa fünfzehn Jahre nach Eröffnung der Golden Gate Bridge stellte<br />
ein Mitarbeiter der Autobahngesellschaft von Nordkalifornien am ostwärtigen<br />
Ende der Brücke Rostspuren fest. Ein Maler wurde mit dem<br />
Neuanstrich beauftragt. Er fing am verrosteten Ende an und arbeitete<br />
sich zum westlichen Ufer vor. Nach Abschluss der Arbeiten waren fünfzehn<br />
Jahre vergangen, man stellte am ostwärtigen Ende Rostspuren<br />
fest.“ (1) So leitete Peter Eisenberg 1986 seine Grammatik ein. Seitdem<br />
sind Tausende Grammatik-Buchseiten entstanden, etliche davon aus<br />
seiner Feder.<br />
Dieses Geschäft ist frustrierend. Seit Jahrhunderten versuchen Wissenschaftler,<br />
die Regeln der deutschen Sprache zu erkennen und zu notieren.<br />
Stets gelingen ihnen nur Teilerfolge, beachtliche zwar, doch nie der<br />
letzte große Wurf: die endgültige Beschreibung aller Regeln des Deutschen.<br />
Das hat wenigstens zwei Gründe.<br />
1. Die Sprache verändert sich, langsam zwar und nur schwer zu beobachten,<br />
doch stetig. Der Verdacht liegt nahe, dass es DIE Regeln DES<br />
Deutschen gar nicht gibt. Über Näherungswerte – wenn auch beeindruckend<br />
gute – kommt man nicht hinaus.<br />
2. Auch die Methoden, mit denen man sie beschreibt, werden häufig<br />
über Bord geworfen und durch andere ersetzt. Für den Laien ist diese<br />
Angelegenheit enttäuschend; so hat die Duden-Grammatik von 1984<br />
für ihn nichts gemein mit jener, die der gleiche Verlag gut zwanzig Jahre<br />
später auf den Markt brachte. (2) War das alte Buch falsch, alles ein<br />
Irrtum?<br />
Weit gefehlt: Wie gut eine Grammatik auch ist: Sie beschreibt nur einen<br />
Ausschnitt der Regeln einer Sprache, wenn man von Kunstsprachen<br />
einmal absieht. Dabei nutzt sie jene Instrumente, die sich gerade in der<br />
Wissenschaft durchsetzen konnten. Oft – keineswegs immer – ist sie<br />
besser als ihre Vorgängerin, das interessiert aber nur den linguistischen<br />
Experten. Andere Sprachanwender wollen nur möglichst einfache Antworten<br />
auf ihre Fragen finden. Beiden gemein ist, dass sie sich daran<br />
gewöhnt haben, bloß einen Teil der Sprache beschrieben zu sehen, eine<br />
Untermenge.<br />
Redaktionsleitfaden<br />
Jede Redaktion sollte Regeln folgen, wie Dokumente zu gestalten sind,<br />
wie man die verfügbaren Rechner und Programme nutzt und was bei<br />
der Projektabwicklung zu beachten ist. Die Regelwerke haben unterschiedliche<br />
Namen – Gestaltungsrichtlinie, Redaktionsleitfaden, DTD<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
425
Professionelles Schreiben / Technical Authoring<br />
Schlechter Ruf<br />
Aufwand<br />
Untersuchen<br />
oder XML-Schema –, sie liegen in vielen Formen vor, gedruckt, als Datei,<br />
elektronische Vorgangssteuerung und oft als implizites Handlungswissen<br />
der Mitarbeiter: Man macht es eben so und nicht anders.<br />
Wie solche Redaktionsleitfäden entstehen, worauf ihre Autoren achten<br />
müssen, ist bekannt, eine Einführung steht zum kostenlosen Herunterladen<br />
im Internet bereit. (3)<br />
Nicht vergleichbar gewiss ist, wie Sprachregeln gewonnen werden. Das<br />
hat zwei Gründe:<br />
1. Sprachregeln haben einen schlechten Ruf und<br />
2. sie sind nur mit beträchtlichem Aufwand zu erstellen.<br />
Zu 1: Die kontrollierte Sprache, wie eine geregelte Sprache über viele<br />
Jahre hieß, scheint das Gegenteil des kreativen Sprachgebrauchs, der<br />
als einzige „Sprachregel“ einer Demokratie angemessen ist. Deswegen<br />
will keiner, der bei Verstand ist, die Sprache kontrollieren. Doch darum<br />
geht es nicht, die gefürchteten Welten von Huxley und Orwell bleiben<br />
Fiktion. Geregelte Sprachen sind nur für wenige Ausschnitte der Kommunikation<br />
sinnvoll, beispielsweise für einige Anleitungstexte oder<br />
auch für Geschriebenes, das Menschen mit Leseschwierigkeiten verstehen<br />
müssen.<br />
Zu 2: Funktionierende Sprachen dieses Typs gibt es für das Englische,<br />
vor allem das Basic-English und die ASD-STE 100. Alles ist vorgegeben,<br />
der Satzbau ist eingeschränkt, jedes Wort steht in einer Liste, ebenso<br />
seine gestattete Verwendung.<br />
Wer aber das Deutsche kennt und seine Grammatiken studiert hat, ahnt<br />
Schlimmes, wenn er darüber nachdenkt, englische controlled languages<br />
auch für unsere Sprache zu konstruieren. Vergleicht man die geringen<br />
Einsatzmöglichkeiten mit dem nötigen Aufwand, um eine Grammatik<br />
des Deutschen auf wenige Regeln zu reduzieren und das passende<br />
Lexikon zu entwickeln, lohnt sich die Mühe nicht. Eine angemessene<br />
Lösung mit dem Anspruch, jedem Unternehmen dienen zu können,<br />
würde den Verbund von Forschungseinrichtungen und eine jahrelange<br />
Initiative verlangen. Das ist nicht unmöglich, realistisch ist es aber derzeit<br />
nicht.<br />
Die Not zur Tugend machen<br />
Wenn die Mittel für den besten Weg nicht zur Verfügung stehen – Kooperation<br />
von Forschungseinrichtungen, Verbänden und Unternehmen<br />
– muss man sich für die zweitbeste Methode entscheiden: Das Problem<br />
untersuchen, es begreifen und eine Lösung entwickeln, die sukzessive<br />
den Sprachgebrauch einer Redaktion ändert.<br />
Der erste Schritt ist die Untersuchung der vorhandenen Dokumente.<br />
Will man nur wenig regeln, ist jeder Text recht, vom Brief bis zur<br />
Internetseite. Ist eine eher umfassende Sprachregelung gewünscht,<br />
beschränkt man sich besser auf den Dokumenttyp 4 nach Baumert/<br />
Verhein-Jarren: „Dokumente für die rein professionelle Nutzung, Service-Handbücher,<br />
Texte für Fachleute – vom Narkosearzt bis zum Kfz-<br />
Mechatroniker.“ (4)<br />
Diese Texte untersucht man auf irritierenden oder widersprüchlichen<br />
Sprachgebrauch. Dabei empfehlen wir eine grobe Einteilung besonders<br />
nach den bei Baumert/Verhein-Jarren in den Kapiteln 5 und 6<br />
426<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
Begreifen<br />
Lösung<br />
vorgegebenen Kategorien: Wörter und Sätze. Nehmen wir an, dass die<br />
vorhandenen Dokumente in der Beugung von Verben großzügig sind:<br />
Beispielsweise nutzen die Redakteure mehrere Zeitformen unterschiedlich.<br />
Das ist ein störendes Element, es wirkt sich negativ auf die<br />
Qualität der Texte, den Aufwand für deren Aktualisierung und die Übersetzung<br />
aus.<br />
Zwar kennt das Deutsche sechs Zeitformen des Verbs – Präsens, Präteritum,<br />
Perfekt, Plusquamperfekt, Futur 1 und 2 –, es gestattet aber<br />
einen recht großzügigen Umgang mit ihnen. „Gestern fahre ich nach<br />
Wiesbaden“ ist ebenso möglich wie „Heute fahre ich …“ oder „Morgen<br />
fahre ich …“. Aus dem Tempus (Fachausdruck für: Zeitform) des Verbs<br />
allein erkennt man nicht, wann etwas geschieht. Temporaladverbien<br />
wie „gestern“, „heute“ und „morgen“ müssen zu Hilfe eilen, damit alles<br />
verständlich bleibt.<br />
Um dieses Phänomen anständig beschreiben zu können, muss man<br />
eine Grammatik zu Rate ziehen und ihre Ausführungen verstehen. Nur<br />
wer begreift, kann auch die Lösung korrekt anwenden.<br />
Nun kann die Redaktion entscheiden: Ab jetzt verwenden wir nur drei<br />
Zeiten (Präsens, Futur, Perfekt). Die natürliche Zeit muss immer der<br />
grammatischen entsprechen. Für bestimmte Dokumente reicht allerdings<br />
das Präsens. Es ist der Anfang einer geregelten Sprache, der die<br />
Formenvielfalt des Deutschen erheblich reduziert.<br />
Erfahrene Redakteure kennen diese Lösung natürlich, sie gehört schon<br />
heute zum Inventar ihrer redaktionellen Kompetenz. Dazu werden sich<br />
andere gesellen, die Schritt für Schritt den Kern der geregelten Sprache<br />
bilden.<br />
Jede Sprachregelung dieser Art ist Teil des Redaktionsleitfadens, der<br />
zwar mit der Zeit sehr umfangreich wird, den man aber nur im Notfall<br />
konsultieren wird: Schließlich hat jeder Redakteur an der Lösung mitgewirkt,<br />
sie begriffen und so verinnerlicht.<br />
Literatur<br />
(1) Eisenberg, Peter (1986): Grundriß der deutschen Grammatik. Stuttgart:<br />
Metzler, S. 9.<br />
(2) Drosdowski, Günther; Augst, Gerhard (1984): Duden Grammatik<br />
der deutschen Gegenwartssprache. 4., völlig neu bearb. und erw. Aufl.<br />
Mannheim: Dudenverlag. Neu: Dudenredaktion [Hrsg.] (2006): Die<br />
Grammatik. Überarb. Neudr. der 7., völlig neu erarb. und erw. Aufl.,<br />
Mannheim: Dudenverlag.<br />
(3) Baumert, Andreas (1998): Gestaltungsrichtlinien: Style Guides<br />
planen, erstellen und pflegen. Reutlingen: Doculine.<br />
http://nbn-resolving.de/urn:nbn:de:bsz:960-opus-3196<br />
(4) Baumert, Andreas; Verhein-Jarren, Annette (2011): Texten für die<br />
Technik. Leitfaden für Praxis und Studium. Heidelberg: Springer, S. 138.<br />
Eine Literaturliste finden Sie unter:<br />
http://www.jahrestagung.tr-studium.de<br />
für Rückfragen: averhein@hsr.ch<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
427
Professionelles Schreiben / Technical Authoring<br />
TA 18<br />
Tutorial<br />
XML<br />
XML in documentation –<br />
benefits<br />
DITA Vs S1000D<br />
The structure of<br />
a data module<br />
Technical Authoring: Zero to<br />
S1000D in 1 hour 45 minutes<br />
Nandini Gupta, Gyanesh Talwar, Adobe Systems, Noida, India<br />
S1000D is an international standard for technical publications of equipment,<br />
aerospace, and defence. S1000D also is an XML mark-up language<br />
for technical documentation, like DITA.<br />
This session starts with XML basics and goes on into the details of how<br />
XML is used in the various documentation mark-up languages, such<br />
as DITA, DocBook, and S1000D. Further, in this session, we learn about<br />
S1000D, its relevance, and what all it entails.<br />
XML is a pared down version of SGML. Using XML, you can create<br />
mark-up languages, such as Music Mark-up Language, xDocBook, DITA,<br />
and S1000D.<br />
The creation of an XML mark-up language takes place with creation of<br />
a DTD. A DTD decides the name, structure and vocabulary of a mark-up<br />
language. You refer a DTD in the XML files you create and hence follow<br />
the same set of rules in all the XML files that refer to the same DTD.<br />
Further, you need CSS or XSL to render the content in a form consumable<br />
by an end user. XSL is more powerful than CSS. While CSS can only<br />
format and present the contents of the XML files, an XSL can actually<br />
selectively display some of the content of the XML.<br />
This session then explains the benefits of XML in documentation,<br />
such as reuse, multichannel publishing, platform independence, and<br />
modularity.<br />
A comparison between similar elements of DITA and S1000D helps<br />
DITA users understand the basics of S1000D quickly.<br />
If you work with DITA in FrameMaker, understanding FrameMaker’s<br />
S1000D functionality is easy. In FrameMaker UI, you use the same basic<br />
structured-authoring environment for S1000D as you use for DITA:<br />
−−<br />
Structure view<br />
−−<br />
Element Catalog<br />
−−<br />
Element boundaries and Element Boundaries (as Tags)<br />
−−<br />
A file with structured applications (S1000D-structapps.fm)<br />
Both DITA and S1000D are technical documentation specifications created<br />
with XML. However, while DITA is used mostly by the computer<br />
industry, S1000D is used in Defense systems, Civil aviation products, and<br />
Construction industry products.<br />
DITA is adopted voluntarily for benefits such as multichannel publishing,<br />
conditional processing, content reuse, consistency of structure, and<br />
platform independence. While S1000D has similar benefits, adopting<br />
S1000D is often a contractual/legal requirement and is based on internationally<br />
agreed neutral standards.<br />
All data modules contain two main sections, identAndStatus Section and<br />
content. identAndStatus Section contains a comprehensive set of metadata<br />
elements used to manage the data module. The idstatus section is<br />
not normally displayed to the user of the publication and is often not<br />
editable by the author.<br />
428<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
The two main<br />
components of an<br />
S1000D data module<br />
Modular publications<br />
Data module types<br />
Applicability<br />
While the available element structure of the identAndStatusSection is<br />
identical for all data modules, the content section varies for each type<br />
of data module. The content section is the part of the data module that<br />
appears in the output. The structure of the various S1000D modules is<br />
fairly simple to comprehend if you know basic DTD.<br />
One of the S1000D specification’s key features is the Data Module (DM).<br />
A data module is an easy-to-manage document designed for reuse. A<br />
typical data module provides a small amount of content about a specific<br />
topic in a clearly defined context.<br />
S1000D is a standard for data interchange and ensures that all data follows<br />
a common set of rules and reduces the lifecycle costs for a project.<br />
S1000D issue 4.0 defines a fixed set of data module types.<br />
Applicability lets you show only the right content in the right conditions<br />
to the right user. Either at the Data Module (DM) level or at an element<br />
level, you can specify the applicable conditions, products, or product<br />
models for displaying the content. Applicability can be global (module<br />
level) or inline (element level).<br />
Three types of applicability modules in S1000D help you achieve the<br />
applicability filtering:<br />
−−<br />
Applicability Cross Reference Table (ACT)<br />
−−<br />
Condition Cross Reference Table (CCT)<br />
−−<br />
Product Cross Reference Table (PCT)<br />
The session will conclude with 3 use cases of applicability in S1000D.<br />
References<br />
http://blogs.adobe.com/tcs/2011/03/tcs-specific/framemaker-10-a-ditapractitioner%E2%80%99s-primer-for-s1000d.html<br />
nandinig@adobe.com | gtalwar@adobe.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
429
Professionelles Schreiben / Technical Authoring<br />
TA 19<br />
Tutorial<br />
Light Programming for Technical Writers<br />
Russ Ward, Spirent Communications, Germantown, USA<br />
So you’ve heard it many times, perhaps from yourself… “I’m a technical<br />
writer – I don’t know / can’t learn / don’t need to know how to program<br />
a computer. Software development is for engineers!”<br />
Well, now hear this… hogwash! Some modest development skills would<br />
not only significantly enhance your value to the marketplace, it may also<br />
re-energize your enthusiasm for your career.<br />
Why are development skills important?<br />
Why? Simply because you get to make the computer do what you want<br />
and thus quickly add value to the process. The alternative? Wait for<br />
someone else to build the tools you need, if ever. Imagine if the boss<br />
says “You know, if we just had this feature in Word, it would save so<br />
many hours of busywork” and then asks two different employees what<br />
can be done:<br />
Employee 1: “Sure, we could do it. Let me do a little research and work<br />
up a prototype.”<br />
Employee 2: “Well, I guess we could send a feature request to Microsoft,<br />
although we’ve been doing that for years without any response.”<br />
Who do you think gets the raise and/or survives the next layoff? In addition<br />
to the potential of providing direct tangible benefit to the current<br />
workflow, development experience also gives you the following:<br />
−−<br />
A more intimate knowledge of the software development process in<br />
general, which is an invaluable asset to writers working with software<br />
user assistance. If you don’t do software UA, it is still great exercise<br />
for any brain working in a technical field.<br />
−−<br />
A more commanding knowledge of your authoring and publishing<br />
tools, especially if you dabble with customizations of them. Once you<br />
operate your desktop publisher from the inside out, even if just a little<br />
bit, you’ll encounter an explosion of enlightenment.<br />
Can I really do it?<br />
If you are a competent technical writer, of course you can. To be clear,<br />
we aren’t talking about preparations to be the chief development lead<br />
for NASA or Anonymous… we are talking about some basic skills to enhance<br />
your primary job description. Your last name is “Writer,” which is<br />
what people know you by, but your first name “Technical” should mean<br />
something as well. Creative writing, journalism, etc. is nice, but that’s not<br />
what we get paid for.<br />
Basic programming concepts<br />
The core of the presentation will begin with an overview of general<br />
concepts related to programming, with a special emphasis on how these<br />
concepts should not be foreign to most technical writers. We are in the<br />
business of providing instructions and that is exactly what programming<br />
is, only to a different audience (the computer). And arguably, in<br />
some cases the computer is a less challenging audience, because there<br />
430<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
are far less variances in the semantics of language. Either it computes,<br />
or it does not.<br />
If you can present a procedural roadmap to a human user, you should<br />
be able to present a programmatic roadmap to a computer. The hurdle<br />
is learning new languages, complete with new grammars. But as daunting<br />
as that may seem, there are many aspects about computer languages<br />
that can make them easier than human languages. For example, there<br />
are far fewer words and you don’t even need to know that many of them<br />
to make some really interesting stuff happen.<br />
Demonstrations for the presentation<br />
The bulk of the remaining presentation will focus on demonstrations<br />
of various common places that a technical writer might find scripting<br />
and software development to be useful. All of these demonstrations are<br />
chosen with the novice developer in mind, because the point is “light<br />
programming,” not advanced engineering. The following are some key<br />
areas that will be addressed:<br />
−−<br />
Basic Windows command line scripting. Using the basic file management<br />
utilities and other capabilities supported by Windows batch file<br />
scripts, you can automate a variety of simple activities such as file<br />
backups. The simple syntax of command line commands makes it<br />
easy to write and test these types of scripts.<br />
−−<br />
Web page scripting. Many technical writers spend a lot of time producing<br />
HTML to be rendered in a browser. With a little bit of Java-<br />
Script expertise, you can really spice up your presentation and potentially<br />
begin to add useful features for your readers.<br />
−−<br />
Customizing Microsoft Office applications. All mainstream Microsoft<br />
applications provide a well-featured macro environment that can be<br />
used for limitless automation. And, it may be less complex to use than<br />
you realize, especially with the built-in “macro recorder” that helps<br />
write the code for you. A number of simple examples will be demonstrated,<br />
such as the basic example of adding a button in Microsoft<br />
Word to automatically format an image.<br />
−−<br />
Customizing Adobe applications with ExtendScript. Many flagship<br />
Adobe products are integrated with a scripting engine called Extend-<br />
Script, a highly-capable and very accessible automation tool based on<br />
JavaScript. The bulk of examples will focus on FrameMaker, as it is a<br />
mainstream tool for many technical writers. As time permits, Photoshop<br />
and Indesign scripting may be demonstrated as well.<br />
−−<br />
Customizing Adobe FrameMaker through API clients. FrameMaker<br />
provides a rich API for customization by use of the C language and<br />
the freely-available FrameMaker Development Kit (FDK). As the<br />
most advanced of the programming topics addressed in this presentation,<br />
coverage will be light and superficial, but hopefully sufficient to<br />
inspire the adventurous mind with thoughts of possibilities.<br />
Presentation takeaway<br />
Attendees should leave the presentation with some knowledge of how<br />
to get started, a host of sample files and scripts, and perhaps a touch of<br />
inspiration.<br />
For any questions, attendees and non-attendees can contact:<br />
russ.ward@spirent.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
431
Professionelles Schreiben / Technical Authoring<br />
TA 20<br />
Workshop<br />
Hands On with EPUBs<br />
Scott Prentice, Leximation, Inc., San Rafael, USA<br />
Are you interested in developing ebooks as one option for delivering<br />
content to your customers? The EPUB format is the most widely accepted<br />
ebook format and there are many tools available for creating EPUB<br />
files. Providing your content as an EPUB means that it will be available<br />
on almost every device and platform, making your content always available<br />
to your customers. In this workshop, we’ll walk through the basics<br />
of the structure of an EPUB file and work with a number of popular<br />
authoring tools and conversion processes for creating EPUBs.<br />
Overview<br />
Viewing an EPUB requires a reader application or dedicated reader<br />
device. An EPUB is a collection of XHTML, XML, CSS, and media files<br />
wrapped up in a zip archive. The best way to learn about the EPUB format<br />
is to open your EPUB and review the contents.<br />
Popular Reader Applications<br />
−−<br />
iBooks on iPad/iPhone/iPod<br />
−−<br />
Aldiko on Android devices<br />
−−<br />
EPUBReader plugin for Firefox<br />
−−<br />
Readium plugin for Chrome<br />
−−<br />
Adobe Digital Editions on Windows or Mac OS<br />
−−<br />
Kindle and Nook desktop and mobile apps<br />
Dedicated Reader Devices<br />
−−<br />
Amazon Kindle<br />
−−<br />
Barnes & Noble Nook<br />
−−<br />
Kobo eReaders<br />
−−<br />
Sony eReaders<br />
−−<br />
lots more!<br />
Creating an EPUB<br />
There are two main ways to create an EPUB. You can either create<br />
content in an authoring tool then export to EPUB or you can convert<br />
to EPUB from existing content (PDF, HTML, DITA, etc.). Each tool has<br />
unique methods for authoring or conversion. Depending on the type of<br />
content you’re working with, you’ll likely be drawn to one method or the<br />
other. I tend to think that most techcomm publishers will use the conversion<br />
method rather than crafting individual EPUB documents.<br />
Regardless of the creation method you use, your EPUB will probably<br />
require some manual modifications. There are no “perfect” options!<br />
Popular EPUB Authoring Tools<br />
−−<br />
Adobe InDesign, Apple Pages, Sigil<br />
−−<br />
Also ... Adobe RoboHelp, MadCap Flare, Microsoft Word, OpenOffice<br />
−−<br />
oXygen XML Editor isn't a typical “authoring tool” but a great EPUB<br />
tool<br />
432<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
−−<br />
And others (see Resources page on www.epubtest.com)<br />
−−<br />
What about Apple iBooks Author? Nope, it doesn’t create EPUBs<br />
Popular EPUB Conversion Tools<br />
−−<br />
Calibre<br />
−−<br />
DITA for Publishers (DITA-OT plugin)<br />
−−<br />
WebWorks Publisher<br />
−−<br />
PDF to EPUB converters<br />
−−<br />
Various utilities and plugins (see Resources page on www.epubtest.<br />
com)<br />
EPUB2 or EPUB3?<br />
IDPF (International Digital Publishing Forum) released the EPUB3<br />
specification in October 2011; replacing the 2.0.1 spec. EPUB3 adds support<br />
for HTML5, SVG, MathML, and more. Tool and reader support for<br />
EPUB3 is still lacking (although it’s getting better!). For now use EPUB2<br />
unless you know that your target device/application supports EPUB3.<br />
Viewing the Contents of an EPUB<br />
After creating an EPUB, you’ll likely need to open and “fix” little formatting<br />
problems. Just change the “.epub” extension to “.zip” and use an archive<br />
extraction tool (assuming it’s not DRM’d). Putting it back together<br />
after modifying the contents can be tricky (not just a matter of “zipping”<br />
it back up). Best to use a tool that can open EPUBs:<br />
−−<br />
oXygen XML Editor<br />
−−<br />
Sigil<br />
−−<br />
eCub or Jutoh<br />
Structure of an EPUB File<br />
−−<br />
mimetype file (at root) contains “application/epub+zip”<br />
−−<br />
META-INF/container.xml points to the OPF file<br />
−−<br />
OPF file contains metadata, manifest, and spine<br />
−−<br />
OPF references XHTML, CSS, media, and image files<br />
−−<br />
OPF also references the TOC (an NCX in EPUB2 and an XHTML nav<br />
in EPUB3)<br />
DEMO: Open and Review EPUB<br />
−−<br />
Using oXygen XML Editor, open EPUBs and review, note the file<br />
names and folder structure<br />
−−<br />
File and folder names will vary<br />
−−<br />
Locate files by following references, start with container.xml, note<br />
metadata usage in NCX and OPF files<br />
−−<br />
Review structure and syntax of NCX and OPF files<br />
DEMO: Review Content Files<br />
−−<br />
Locate various types of content inside the EPUB, note references to<br />
each file in the OPF file<br />
−−<br />
Identify “chapter” HTML files in EPUB, note that each starts on a new<br />
“page” in EPUB reader<br />
−−<br />
Open HTML (XHTML) files and review coding styles<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
433
Professionelles Schreiben / Technical Authoring<br />
DEMO: Edit HTML<br />
−−<br />
Make a copy of an EPUB<br />
−−<br />
Open the EPUB and open an HTML file<br />
−−<br />
Make some edits, then save, review changes in EPUB reader<br />
−−<br />
Make more edits but intentionally make invalid, save, and validate ..<br />
in oXygen you’ll see a nice debugging screen that links to the errors<br />
Packaging the EPUB<br />
Once all of the files “look” good, you’ll need to package (zip) and validate<br />
the EPUB. If you’re using oXygen or Sigil, this will be done for you,<br />
otherwise you’ll need to do the packaging yourself. The mimetype file<br />
must be “first” in the package and be uncompressed, with the remaining<br />
files follow.<br />
On Mac or other UNIX systems, use the following commands (run from<br />
within EPUB project folder)<br />
$ zip -0Xq thegreatstory.epub mimetype <br />
$ zip -Xr9Dq thegreatstory.epub *<br />
On Windows systems, use the ePubPack utility sourceforge.net/projects/<br />
epubpack/<br />
Validate your EPUB<br />
To ensure the EPUB meets the specification, use the EpubCheck utility<br />
– code.google.com/p/epubcheck/. Requires Java JRE 1.5 or later. Reports<br />
any violations.<br />
$ java -jar /path/to/epubcheck.jar thegreatstory.epub<br />
Create Kindle MOBI file<br />
The Amazon Kindle doesn’t read the standard EPUB file, there are a<br />
number of converters available, but it’s best to use the official tool from<br />
Amazon. Link on Resources page on www.epubtest.com. Creates a<br />
MOBI file from the EPUB.<br />
$ /path/kindlegen thegreatstory.epub<br />
Contact: sp10@leximation.com<br />
434<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Professionelles Schreiben / Technical Authoring<br />
TA 21<br />
Workshop<br />
The purpose of<br />
a definition<br />
Adding Value through Glossaries<br />
Leah Guren, Cow TC, Karmiel, Israel<br />
The need for glossaries<br />
Users are increasingly abandoning official product documentation in<br />
favor of other sources, which are not controlled by the company and<br />
may not be accurate. A main reason for this mass exodus is assumed<br />
knowledge; that is, user frustration at terms and concepts that are not<br />
explained.<br />
By providing rich, value-added glossaries, we can make our documentation<br />
more accessible, more appealing, and more useful to a wider range<br />
of users. A good glossary provides these benefits:<br />
−−<br />
It supports the needs of different users. Users are never a completely<br />
homogeneous group. A glossary can fill in knowledge gaps without<br />
getting in the way of advanced users.<br />
−−<br />
It helps users learn. It serves as a handy, centralized location for<br />
short, easy-to-consume pieces of information about the product and<br />
domain.<br />
−−<br />
It showcases expertise. Each well-written definition underlines your<br />
company’s expertise in the domain in a subtle yet effective way.<br />
−−<br />
It helps keep users loyal to your documentation. If users can understand<br />
product terms and concepts within the product documentation,<br />
they are less likely to go elsewhere to find answers.<br />
A definition in product documentation it is not meant to explain every<br />
detail; its real function is to give users enough of an understanding—the<br />
context—to be able to continue using the documentation. Think of it as a<br />
hook upon which users can then hang more information.<br />
What should you include?<br />
How do you know what you should define? Consider the following:<br />
−−<br />
Product terms. Think of product names, especially different flavors of<br />
products and related products.<br />
−−<br />
Features. Users don’t always understand what feature names do. For<br />
unusual features, include feature concepts (what the feature actually<br />
does).<br />
−−<br />
Interface elements. Think about terminology used to discuss types of<br />
interface elements. Do all of your users know what an “option button”<br />
is?<br />
−−<br />
Workflow concepts. Are there terms that apply to your users’ workflow<br />
but aren’t explicitly named in the interface? Does your company<br />
use a term that may not be universally recognized in the industry?<br />
−−<br />
Actions (verbs with special use). Do you use special terms to describe<br />
any user action?<br />
−−<br />
User groups or classes. Do you talk about group leaders or trainees or<br />
associates or administrators?<br />
−−<br />
Domain concepts. Think of technical terms in the field, acronyms or<br />
initializations, and even concepts.<br />
−−<br />
Any word that your company uses in a special way.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
435
Professionelles Schreiben / Technical Authoring<br />
Classification<br />
The Definition<br />
Statement<br />
The Example<br />
Acronyms and<br />
Initializations<br />
Best practices<br />
A good definition is made of up these elements:<br />
The classification is the first thing that points the reader’s mind in<br />
the right direction. For example, a classification for “chair” might be<br />
“furniture.”<br />
This is the short (one or two sentence) actual definition. It cannot be too<br />
broad (for example, if I say that a chair is a type of furniture that you<br />
can sit on, I am accidentally including things that aren’t chairs, such<br />
as sofas). It cannot be too narrow (for example, if I say that a chair has<br />
arms, I am accidentally excluding all the chairs that don’t have arms).<br />
The trick is to find the elements that capture the essence of this object<br />
or concept.<br />
The example helps the reader understand the definition. I like to think<br />
of it as the “aha! factor.” In some cases, an example may be a wellknown<br />
instance of the concept (for example, if I was defining DTP, I<br />
might mention Microsoft Word as an example, because many people<br />
recognize it, even if they hadn’t previously been familiar with the concept<br />
of DTP). It may be a picture (this works well for definitions of<br />
physical things). It may be a well-known use case. When choosing an<br />
example, ask yourself, “Will this make sense to my reader?”<br />
When defining any shortened form, always include the spell-out after<br />
the term, in parentheses. For example:<br />
−−<br />
DTP (desktop publishing): a software application that…<br />
Conclusion<br />
A good set of definitions, in a central, easily-accessible location (glossary<br />
chapter in a print document or a glossary tab in online Help, for example),<br />
can add value to your documentation and improve user loyalty.<br />
If you have any questions please contact: leah@cowtc.com<br />
436<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology
Terminologie / Terminology<br />
TERM 1<br />
Partnerpräsentation<br />
Terminologie für modulare Produkte<br />
am Beispiel Konica Minolta (CoLa)<br />
Dr. François Massion, D.O.G. Dokumentation ohne Grenzen GmbH, Leonberg<br />
Rainer Lotz, Konica Minolta Business Solutions Europe GmbH, Langenhagen<br />
„Jede Reise beginnt mit dem ersten Schritt“ (Laotse)<br />
Konica Minolta: Firmenvorstellung und Herausforderung<br />
Konica Minolta Business Solutions Europe GmbH in Langenhagen ist<br />
eine 100 % Tochtergesellschaft von Konica Minolta Business Technologies<br />
in Japan und eine der drei regionalen Hauptverwaltungen von<br />
Konica Minolta Business Technologies.<br />
Die Systemsoftware für unsere Produkte wird von ca. 30 R&D-Abteilungen<br />
entwickelt. Davon sind 80 % in Japan ansässig, 10 % in den USA,<br />
8 % in Indien und 2 % in Europa. Die sprachlichen Inhalte der Systemsoftware<br />
werden von den R&D-Abteilungen festgelegt. Die Ausgangssprache<br />
ist im Regelfall Japanisch. Danach erfolgt eine Übersetzung ins<br />
Englische.<br />
Innerhalb von Konica Minolta Europa ist eine Dokumentationsabteilung<br />
mit 6 Mitarbeitern für die Lokalisierung der Produkte verantwortlich.<br />
Als Austauschformat werden Excel-Tabellen verwendet. Pro Woche<br />
erreichen die Dokumentationsabteilung etwa 20 bis 30 Übersetzungsaufforderungen<br />
für unterschiedliche Produkte in unterschiedlichen<br />
Excel-Strukturen: Manchmal ist es nur ein Wort, manchmal sind es<br />
auch 1000 Wörter. Zurzeit existieren etwa 100.000 Lines of Code oder<br />
„Strings“ pro Sprache.<br />
Jeder String aus diesen Excel-Tabellen findet sich auf den Bedienoberflächen<br />
wieder. Die Übersetzungen der Strings sind die Basis für die<br />
Produkte selbst sowie auch für alle weiterführenden Dokumente, wie<br />
z. B. Benutzerhandbücher, Help-files und Trainingsunterlagen.<br />
Bisher wurden die Excel-Tabellen an ein Übersetzungsbüro geschickt<br />
und übersetzt. Dabei wurden mehrere Translation Memorys für die<br />
jeweiligen Produkte erstellt. Es wurde ohne Terminologie übersetzt.<br />
Dieser Prozess ist mehr oder weniger „historisch gewachsen“ und<br />
funktionierte eigentlich recht gut, allerdings sind die Übersetzungen<br />
inkonsistent.<br />
Gründe für den Aufbau einer Terminologie<br />
Ein wesentlicher Grund waren unter anderem die Kreuzbeziehungen,<br />
also dass Wörter aus der Steuerung aus verschiedenen Quellen stammen.<br />
Je mehr diese Kreuzbeziehungen zunehmen, desto stärker wird<br />
der Druck, eine Terminologie aufzubauen.<br />
Gleichzeitig mit dem Aufbau einer Terminologie wurde der Grundstein<br />
für eine zur Zeit noch nicht bestehende „Corporate Language“ gelegt.<br />
Identifikation und Quelle von Term-Kandidaten<br />
Aus den Excel-Tabellen werden Term-Kandidaten nach Regeln gefiltert,<br />
evaluiert und in die grammatikalische Grundform gebracht. Danach<br />
erfolgt der Import in ein Terminologietool.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
439
Terminologie / Terminology<br />
Zusätzlich werden existierende Varianten aus diesen Excel-Tabellen<br />
aufgenommen und den eigentlichen Begriffen zugeordnet.<br />
Zu einem englischen Begriff kann es Varianten geben, z. B. Homonyme,<br />
neue Wortschöpfungen, diverse Schreibweisen und Abkürzungen. Stellenweise<br />
bestehen bis zu 20 Varianten für einen einzelnen Begriff. Zukünftig<br />
soll nur noch ein Begriff verwendet werden, wobei die heutigen<br />
Varianten auf eine „Negativliste“ überführt werden sollen.<br />
Ein besonderes Problem sind dabei Abkürzungen, denn für jeden einzelnen<br />
String steht nur ein begrenzter Bereich (Areas) im Gerätedisplay<br />
zur Verfügung, z. B. auf den Software-Buttons. Je nachdem, auf welchem<br />
Screen der Button steht, darf ein Button an einer Stelle z. B. bis<br />
zu 20 Zeichen enthalten, an einer anderen Stelle aber nur 15 Zeichen,<br />
an wieder einer anderen Stelle nur noch 10 Zeichen. Die Areas werden<br />
ganz zu Anfang einer Produktentwicklung von den entsprechenden<br />
Abteilungen festgelegt und sind nicht mehr veränderbar.<br />
Übersetzt wird nur der Begriff und zugleich werden drei Varianten<br />
gebildet: Eine lange, eine mittlere und eine kurze. Nur eine dieser Varianten<br />
darf zukünftig verwendet werden.<br />
Technische Lösung<br />
Das Terminologiekonzept war von Anfang an begriffsorientiert und<br />
mehrsprachig. Eine Nutzergruppe hatte die Aufgabe, die englische Terminologie<br />
zu erfassen und zu pflegen, während der externe Übersetzungsdiensleister<br />
für die fremdsprachigen Äquivalente zu sorgen hatte.<br />
Ursprünglich enthielt das System eine Reihe von Feldern, die drei Ebenen<br />
(Begriff, Sprache oder Benennung) zugeordnet waren.<br />
Die aufgesetzten Prozesse basieren auf einer Zusammenarbeit verschiedener<br />
Spezialisten aus unterschiedlichen Organisationen und<br />
Standorten. Daher war es erforderlich, für die Terminologieverwaltung<br />
eine webbasierte Terminologielösung zu finden, auf die alle Beteiligten<br />
zugreifen konnten. Das TVS (Terminologieverwaltungssystem) sollte in<br />
der Lage sein, alle benötigen Felder abzubilden und diese eventuell zu<br />
ändern oder zu ergänzen, wenn es die im Laufe des Projekts gesammelten<br />
Erfahrungen erfordern.<br />
Auch war es besonders wichtig, dass das TVS mit regelmäßigen Aktualisierungsimports<br />
zuverlässig auskommt. Dabei sollten beim Import<br />
Informationen nur auf bestimmten Ebenen (Benennungsebene und<br />
nicht Begriffsebene) zu ändern / ergänzen sein und Homonyme erkannt<br />
werden. Das TVS LookUp erfüllte diese Anforderungen und wird<br />
eingesetzt.<br />
Zum zweiten Teil der technischen Lösung gehörte die Auswahl einer<br />
softwaregestützten Prüftechnologie. Ziel war es zu prüfen, ob die festgelegte<br />
Terminologie unter Berücksichtigung flektierter Formen und<br />
Plurale tatsächlich in allen Fremdsprachen konsistent angewandt wurde.<br />
Ferner sollte das Prüfprogramm Verstöße gegen die knapp 40 Regeln<br />
des Style Guides für die Stringbildung und für Abkürzungen feststellen.<br />
Das System ErrorSpy erfüllte die meisten (aber nicht alle) Anforderungen.<br />
Durch die direkte Verbindung zu LookUp als Terminologiequelle<br />
konnte der Prüfer jederzeit die zusätzlichen Informationen (Definition,<br />
440<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Attribute) ansehen und bei Bedarf sogar die Terminologie editieren (bei<br />
entsprechenden Rechten).<br />
Die Längenprüfung wurde vorerst aufgrund der Beschaffenheit der<br />
Quelldateien (Excel-Dateien mit Strings) und der Berechnung einer<br />
variablen Länge nicht möglich.<br />
Erfahrungen<br />
Seit Projektbeginn wurden natürlich viele Erfahrungen gesammelt. Da<br />
viele englische Strings nicht immer leicht zu verstehen waren, wurde<br />
die Terminologie vor der Übersetzung in alle Sprachen zuerst ins Deutsche<br />
übersetzt und validiert.<br />
Bei der Terminologieprüfung ist eines von den noch nicht ganz gelösten<br />
Problemen die Anzahl der falschen Fehlermeldungen. Das liegt daran,<br />
dass die Fachterminologie auch mehrere relativ allgemeine Wörter enthält<br />
(wie „set“), die in sehr vielen Strings vorkommen und logischerweise<br />
anders übersetzt wurden.<br />
Weitere Erfahrungen wurden in Bezug auf die Kommunikation gesammelt.<br />
Während des Projekts haben die Teilnehmer auf die harte Tour<br />
gelernt, dass eine disziplinierte und standardisierte Kommunikation<br />
absolut wichtig ist. Eine Kommunikationsplattform auf der Basis von<br />
Microsoft Sharepoint wurde eingerichtet.<br />
Ausblick<br />
Aktuell besteht eine Terminologie mit etwa 2.500 englischen Begriffen,<br />
Definitionen und Erklärungen sowie mit etwa 1.000 Varianten und dazugehörigen<br />
Übersetzungen.<br />
Der bereits in Englisch und Deutsch vorhandene Style Guide wird bei<br />
den R&D Abteilungen vorgestellt und auf weitere Sprachen erweitert.<br />
Weiter soll das Qualitätssicherungsprogramm zum einen möglichst viele<br />
stilistische Regel automatisch prüfen und zum anderen durch Lernfunktionen<br />
oder optimierte Algorithmen die Anzahl falscher Fehlermeldungen<br />
(Noise) reduzieren.<br />
Schließlich sollen von Anfang an die Autoren der Strings für die Qualitätskriterien<br />
sensibilisiert werdenund besser übersetzbare Strings<br />
generieren.<br />
für Rückfragen:<br />
francois.massion@dog-gmbh.de<br />
rainer.lotz@konicaminolta.eu<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
441
Terminologie / Terminology<br />
TERM 2<br />
Fachvortrag<br />
Terminologiemanagement für VDI-Richtlinien<br />
Bernd Lenhart, Stefan Ziesche, Verein Deutscher Ingenieure e.V., Düsseldorf<br />
Über den VDI<br />
Der VDI Verein Deutscher Ingenieure e.V. ist mit seinen fast 150.000<br />
Mitgliedern die größte Ingenieurvereinigung Deutschlands. Die Erstellung<br />
von technischen Regeln ist eines seiner Satzungsziele. Der VDI<br />
wird dabei von einem technisch-wissenschaftlichen Netzwerk mit über<br />
600 Gremien unterstützt.<br />
Terminologie bei der Richtlinienarbeit<br />
Das VDI-Richtlinienwerk besteht aus über 2000 gültigen Dokumenten.<br />
Jährlich werden über 200 VDI-Richtlinien neu herausgegeben. Dabei ist<br />
Terminologiearbeit unerlässlich, um einmal definierte Begrifflichkeiten<br />
zu verwenden und damit den Sprachgebrauch von VDI-Richtlinien zu<br />
vereinheitlichen. Mithilfe der Einführung eines Terminologieverwaltungssystem<br />
(TVS) sollte der Überblick über bereits definierte Sachverhalte<br />
vereinfacht und deren weitere Verwendung gesichert werden.<br />
Vorüberlegungen<br />
Das TVS sollte alle definierten Begriffe aus den VDI-Richtlinien enthalten.<br />
Alle an der Richtlinienarbeit beteiligten Personen sollten Zugriff<br />
auf die Datenbank, aber je nach ihrer Funktion unterschiedliche Rechte<br />
erhalten. Mithilfe einer Verknüpfung zu den bereits bestehenden Online-Anwendungen<br />
des VDI sollte der Zugriff erleichtert werden. Einsprüche<br />
zur Terminologie durch die Redaktion VDI-Richtlinien sollten<br />
in die Datenbank aufgenommen werden können, damit diese bei einer<br />
Überarbeitung der Richtlinie abrufbar sind.<br />
Konzeption<br />
Zu Beginn des Jahres 2005 wurde mit der Konzeption einer terminologischen<br />
Datenbank begonnen. Im Zuge einer Diplomarbeit [1] wurden<br />
die technischen und benutzerdefinierten Anforderungen eines zukünftigen<br />
TVS untersucht. Eine erstellte Excel ® -Liste mit 30 Probeeinträgen<br />
diente als Ausgangspunkt für den Import von Begriffen in ein TVS. Der<br />
Import dieser Probeeinträge wurde in drei namhaften Systemen auf<br />
Kompatibilität und Handhabbarkeit getestet. Eine Evaluation der aus<br />
diesem Test resultierenden Ergebnisse ergab, dass keines der getesteten<br />
Systeme den Anforderungen einer Terminologieverwaltung für die<br />
Richtlinienarbeit gerecht werden konnte.<br />
Eigenentwicklung als<br />
Online-Plattform<br />
Realisierung<br />
Aufgrund der Testergebnisse wurde entschieden, ein eigenes TVS zu<br />
entwickeln. Dieses sollte auf einer Online-Plattform basieren und nach<br />
den Vorgaben der Vorüberlegungen erstellt werden. Die Entwicklung<br />
übernahm die VDI-Service GmbH und erstellte ein Datenbanksystem<br />
auf Grundlage der Programmiersprachen PHP und SQL. Das erstellte<br />
TVS ist für den Aufruf im Browser konzipiert und hat damit vor<br />
allem den Vorteil, dass weitere Anpassungen der Software an neue<br />
Entwicklungen ohne weitere Lizenzierungen und mit einem geringen<br />
442<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Kostenaufwand realisiert werden können. Als Datenbasis konnte die<br />
oben genannte, fortgeführte Excel ® -Liste 1:1 übernommen werden.<br />
Nach anfänglichen Schwierigkeiten aufgrund von Formatfehlern musste<br />
die Excel ® -Liste erneut bereinigt und an das neue Datenbanksystem<br />
angepasst werden. Damit Sonderzeichen und Formatierungen korrekt<br />
dargestellt werden konnten, wurde die Liste mit HTML-Tags versehen.<br />
Nutzerverwaltung<br />
Suchmöglichkeiten<br />
Umgang<br />
Eine Nutzerverwaltung ermöglicht sowohl den direkten Log-in durch<br />
Benutzername und Passwort als auch die Weiterleitung der Zugangsberechtigung<br />
aus der bestehenden VDI-Richtlinien-Projektdatenbank.<br />
Dieser Zugang kann dabei in seinem Umfang eingeschränkt werden.<br />
Übersetzern können beispielsweise nur die Begriffe angezeigt werden,<br />
die für ihre Arbeit tatsächlich relevant sind. Darüber hinaus ist eine<br />
zeitliche Beschränkung des Zugangs möglich.<br />
Nutzer haben in der Datenbank die Möglichkeit, ihre Suche nach Benennungen,<br />
Dokumentennummer, Datum und Fachgebiet einzugrenzen<br />
oder den Fließtext zu durchsuchen. Ist eine Suche erfolgreich, werden<br />
alle gefundenen Ergebnisse in einer Listenansicht anhand der Vorzugsbenennung<br />
aufgeführt. In der weiterführenden Detailansicht erhält<br />
man dann Einsicht in Begriffsdefinition, Beispiele und Anmerkungen,<br />
weitere Benennungen und Quellenangaben. An dieser Stelle erscheinen,<br />
sofern vorhanden, die Anmerkungen der Redaktion zu den jeweiligen<br />
Einträgen in Form des Einspruchs. Nutzer können von hier aus zur<br />
Begriffsliste zurückkehren oder durch die Datensätze blättern.<br />
Detailansicht in VDI-Term<br />
Terminologiepflege<br />
Die Terminologiepflege der Datenbank wird zentral in der Redaktion<br />
vorgenommen. Die in Richtlinien enthaltenen Begriffe werden anhand<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
443
Terminologie / Terminology<br />
der Datenbank abgeglichen und auf terminologische Fehler untersucht.<br />
Werden Fehler im Entwurf der Richtlinie entdeckt, erfolgt der Einspruch<br />
nach VDI 1000 [2] an das jeweilige Gremium. Wird ein Fehler in<br />
einer endgültigen Fassung (sogenannter Weißdruck) einer VDI-Richtlinie<br />
entdeckt, wird eine Anmerkung im TVS hinterlegt, damit der Fehler<br />
bei einer Überarbeitung der Richtlinie behoben werden kann.<br />
Diagramm der Terminologiepflege<br />
Nach dem Import neuer Begriffe in das TVS erfolgt eine Darstellungsprüfung.<br />
Ansichtsfehler und fehlerhafte Verknüpfungen werden manuell<br />
behoben. Erst jetzt werden die Daten für die allgemeine Ansicht<br />
freigeschaltet.<br />
Die Terminologiepflege erfolgt so, dass die Daten mit Veröffentlichung<br />
der Richtlinie im Datenbanksystem hinterlegt und abrufbar sind. Je<br />
nach Publikationsumfang werden 100 bis 300 Begriffe monatlich in die<br />
Datenbank eingepflegt. Dabei werden Begriffe aus Entwürfen durch<br />
die Begriffe der endgültigen Fassung ersetzt. Begriffe aus zurückgezogenen<br />
Richtlinien, die nicht ersetzt oder deren Begriffe nicht in ein<br />
Fortsetzungsdokument übernommen werden, werden als „archiviert“<br />
gekennzeichnet und sind weiterhin abrufbar, so dass keine Information<br />
verloren geht.<br />
Zum Vortrag<br />
Der Vortrag erläutert die Planung, Umsetzung und aktuelle Verwendung<br />
des TVS eingehender und geht auf Besonderheiten wie die Benutzerverwaltung,<br />
die Upload-Funktion und die automatische Verlinkung ein.<br />
Quellen<br />
[1] G. Kamann: Konzeption einer Terminologiedatenbank für den Verein<br />
Deutscher Ingenieure e.V.; Diplomarbeit, Hochschule Magdeburg-<br />
Stendal (FH) Magdeburg 22.08.2005<br />
[2] VDI 1000:2010-06 VDI-Richtlinienarbeit; Grundsätze und Anleitungen.<br />
Berlin: Beuth Verlag<br />
für Rückfragen: vdi-richtlinien@vdi.de<br />
444<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
TERM 3<br />
Partnerpräsentation<br />
Mit Excel und Prüftool:<br />
Terminologieverwaltung und<br />
-prüfung konzernweit einführen<br />
Dr. Rachel Herwartz, TermSolutions, Dormagen<br />
Dr. Holger Brüggemann, Mitutoyo CTL Germany GmbH, Oberndorf<br />
Ausgangslage bei Mitutoyo<br />
Die Firma Mitutoyo ist einer der bedeutendsten Anbieter von Produkten<br />
der Präzisionslängenmesstechnik. Ausgehend von der Zentrale<br />
im japanischen Kawasaki ist Mitutoyo in vielen Ländern mit Produktions<br />
stätten, Niederlassungen und Entwicklungslaboratorien aktiv. Die<br />
Produktpalette reicht vom einfachen Handmessmittel (Messschieber,<br />
Bügelmessschraube) bis zu komplexen, computergesteuerten<br />
Koordinatenmessgeräten.<br />
In Oberndorf am Neckar und weiteren Standorten in den USA arbeiten<br />
hoch spezialisierte Mitarbeiter ausschließlich an der Entwicklung von<br />
Software für die Koordinatenmessgeräte von Mitutoyo.<br />
In der Vergangenheit gab es im Bereich der Softwareentwicklung keine<br />
einheitliche, zentral verwaltete Terminologie. Zum Start eines neuen<br />
Softwareprojektes wurde damit begonnen, ein professionelles Terminologiemanagement<br />
einzuführen.<br />
Regeln zur Terminologievereinheitlichung<br />
Da die Unternehmenssprache bei Mitutoyo Englisch ist, an den Standorten<br />
in Deutschland jedoch vor allem in Deutsch kommuniziert wird,<br />
wurde der Terminologieleitfaden für Mitutoyo in Deutsch und Englisch<br />
verfasst. Er enthält Regeln zur Benennungsbildung in Deutsch und<br />
Englisch und zur Definitionserstellung.<br />
Bildung des Terminologiezirkels<br />
Der zweite Teil des Leitfadens beschreibt die Terminologieabstimmungsprozesse.<br />
Es wurde ein Terminologiezirkel eingerichtet, der Vertreter<br />
von allen Standorten und von allen Abteilungen, die an einem<br />
Softwareprojekt beteiligt sind, umfasst. Dieser wird vom Terminologieverantwortlichen<br />
einberufen und moderiert.<br />
Terminologieliste in Excel als zentraler Datenbestand<br />
Der dritte Teil des Leitfadens erklärt die Felder und den Aufbau der<br />
Terminologieliste, d. h. der für die Terminologieverwaltung verwendeten<br />
Exceltabelle. Diese ist begriffsorientiert und benennungsautonom<br />
aufgebaut und erfüllt damit die Anforderungen an eine moderne<br />
Terminologieverwaltung.<br />
Zurzeit enthält diese Terminologieliste ca. 600 Begriffe mit mehr als<br />
3500 Benennungen. Die meisten der ca. 600 Begriffe sind freigegeben,<br />
d. h., es gibt eine Definition in Englisch mit Quellenangabe, mindestens<br />
eine erlaubte Benennung und teilweise verbotene Benennungen in<br />
Deutsch und Englisch. Für ca. 300 Begriffe existieren Benennungen in<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
445
Terminologie / Terminology<br />
weiteren Sprachen: Spanisch, Portugiesisch, Französisch, Italienisch,<br />
Japanisch und Chinesisch.<br />
Terminologieprüfung mit termXact (VBA-Makros)<br />
An den Standorten Oberndorf, Neuss (Deutschland) und Los Angeles,<br />
Seattle (USA) wurden verschiedene Abteilungen mit bis zu 120 Entwicklern,<br />
Testern, Technischen Redakteuren und Anwendungstechnikern<br />
in das Terminologieprojekt eingebunden.<br />
Allen Mitarbeitern steht der Leitfaden, die Terminologieliste und das<br />
Prüftool „termXact“ zur Verfügung, mit dem die Texte auf verbotene<br />
Benennungen geprüft werden können.<br />
Welche Erfahrungen der Terminologieverantwortliche bei Mitutoyo bei<br />
der Abstimmung und Prüfung der Terminologie über vier Standorte in<br />
Deutschland und den USA sammeln konnte und worauf man generell<br />
bei der Durchführung eines solchen Projekts achten sollte, das zeigt<br />
Ihnen dieser Partnervortrag.<br />
für Rückfragen:<br />
herwartz@termsolutions.de<br />
Holger.Brueggemann@MITUTOYO-CTL.DE<br />
446<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
TERM 4<br />
Fachvortrag<br />
Terminologie now – und was kommt dann?!<br />
Susanne Arndt, Institut für Verkehrssicherheit und Automatisierung, TU Braunschweig<br />
Terminologien als Sammlungen von Benennungen werden hauptsächlich<br />
in der Übersetzung und Technischen Redaktion eingesetzt.<br />
Begreift man sie jedoch als Modelle fachlichen Wissens, ergeben sich<br />
neue Einsatzgebiete für terminologische Daten. Im Projekt iglos req<br />
des Instituts für Verkehrssicherheit und Automatisierungstechnik (iVA)<br />
der TU Braunschweig wird eine Integration von Terminologien in das<br />
Requirements Engineering angestrebt. Im Vordergrund steht dabei die<br />
Entwicklung eines iglos-Plug-ins zur semantischen Optimierung natürlichsprachlicher<br />
Anforderungen, das in die Arbeitsumgebung von<br />
Anforderungsschreibern integriert ist und Terminologien als Wissensbasis<br />
für diese Zielgruppe nutzt. Hierfür kooperiert das iVA mit dem<br />
Softwareentwickler atego und begleitet zusätzlich das interdisziplinäre<br />
Großprojekt „Anwendungsplattform Intelligente Mobilität“ (AIM) des<br />
Deutschen Zentrums für Luft- und Raumfahrt in Braunschweig.<br />
Einheitlichkeitsstreben<br />
und<br />
Parallelterminologien<br />
Isolierte Begriffe und<br />
Benennungsmanagement<br />
oder<br />
Begriffssysteme und<br />
Wissensmanagement?<br />
Terminologiemanagement now<br />
Das heutige Terminologiemanagement wird vor allem für bestimmte<br />
Anwender betrieben. Hauptsächlich zu nennen sind hierbei Übersetzer<br />
und Technische Redakteure, für die es vor allem darum geht, Wunschoder<br />
Vorzugsbenennungen zu gebrauchen. Einerseits sind terminologische<br />
Bemühungen natürlich getrieben vom Wunsch nach möglichst<br />
eindeutiger, reibungsloser Kommunikation mit Firmeninternen, mit<br />
Zulieferern und am wichtigsten mit den Kunden. Insbesondere der<br />
Kontakt mit letzteren sollte möglichst unter dem Prinzip der Verständlichkeit<br />
erfolgen. Dies erfordert gegebenenfalls eine Anpassung der<br />
Terminologie an deren Bedürfnisse. Es zeichnet sich hierdurch eine<br />
Entstehung von Parallelterminologien ab, deren Management noch<br />
erschwert wird, wenn Marketingstrategien weitere Anforderungen an<br />
die Unternehmenssprache stellen [CB11]. Andererseits ist das Terminologiemanagement<br />
auch dem Gedanken der Corporate Identity geschuldet,<br />
bei der auch ein einheitlicher sprachlicher Auftritt des Unternehmens,<br />
die Corporate Language, nicht fehlen darf – auch wenn diese sich<br />
manchmal von der fachlichen Terminologie unterscheidet [PD06].<br />
Der Fokus der heutigen Terminologiearbeit liegt größtenteils auf dem<br />
Benennungsmanagement. Es herrscht zwar eine Begriffsorientierung,<br />
doch der Begriff wird weniger als Wissenseinheit aufgefasst, sondern<br />
vielmehr als Bezugspunkt für die Benennungszuordnung. Mit terminologischen<br />
Verfahren wie der Termextraktion werden Benennungsbestände<br />
erhoben, die oft nicht konsistent sind. Das führt dazu, dass<br />
eine 1:n- oder n:1-Relation zwischen Begriffen und Benennungen<br />
vorliegt (Polysemie, Homonymie, Synonymie). Hier spielen ebenfalls<br />
Bindestrichschreibungen und Abkürzungen als Benennungsalternativen<br />
eine Rolle. Die Terminologiearbeit nach der Extraktion muss dann<br />
die bestenfalls eineindeutige Zuordnung von Benennung zu Begriff<br />
vornehmen, was beinhaltet, dass unerwünschte Benennungen ggf. als<br />
„abgelehnt“ deklariert werden müssen [DTT10], [FS10]. Der Zusammenhang<br />
der einzelnen Begriffe ist jedoch nicht so stark im Fokus der<br />
Terminologiearbeit [KDS05]. In der terminologischen Praxis wird hier<br />
allenfalls die Beziehung zwischen Oberbegriffen und ihren jeweiligen<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
447
Terminologie / Terminology<br />
Unterbegriffen modelliert. In der Terminologienormung wird jedoch<br />
von weiteren Begriffsrelationen ausgegangen, die zur Modellierung<br />
eines Begriffssystems herangezogen werden können. Hierzu zählen hierarchische<br />
Beziehungen (Abstraktionsbeziehung, Bestandsbeziehung)<br />
und nicht-hierarchische Beziehungen (sequentielle Beziehungen, oppositionelle<br />
Beziehungen, pragmatische Beziehungen) [2330].<br />
Synergieeffekte<br />
durch Terminologie<br />
Neue<br />
Terminologieersteller =<br />
neue<br />
Terminologieverwender?<br />
Terminologiemanagement für Anforderungsschreiber?<br />
Oft wird die zentrale Erarbeitung einer unternehmensweiten Terminologie<br />
dadurch begründet, dass durch eine konsistente Sprache<br />
−−<br />
viele Recherchearbeiten und Nachfragen der einzelnen Mitarbeiter,<br />
−−<br />
eine inkonsistente Dokumentation,<br />
−−<br />
auf der inkonsistenten Dokumentation basierende inkonsistente<br />
Übersetzungen und<br />
−−<br />
generell Missverständnisse in der gesamten internen und externen<br />
Kommunikation<br />
vermieden werden können [MB10]. Hierfür wird empfohlen, möglichst<br />
früh im Produktionsprozess mit der Terminologieerhebung zu beginnen.<br />
Das erfordert, dass weitere Unternehmensangehörige ins Boot geholt<br />
werden, die nicht Redakteur, Übersetzer oder Terminologe sind, die<br />
aber dennoch für eine frühzeitige Konsistenz der Benennungen sorgen<br />
sollen, indem ihnen sprachliche Leitfäden zur Anleitung und Unterstützung<br />
gegeben werden [EW08]. In diesem Rahmen werden alle Personen<br />
relevant, die an einer – für welche Zwecke auch immer gedachten – Informations-<br />
und Dokumentationserstellung beteiligt sind. Dabei sind<br />
eigentlich fast alle Unternehmensbereiche aus allen Produktlebenszyklusphasen<br />
vertreten [SS10].<br />
Im Anschluss an die Terminologieerhebung kann die an den verschiedenen<br />
Stellen und mit unterschiedlichen Beteiligten erhobene Terminologie<br />
für das gesamte Unternehmen verfügbar gemacht werden, damit<br />
jeder am Corporate Wording und den Vorteilen einer störfreieren Kommunikation<br />
teilhaben kann [HL11], [CB11]. Solange jedoch die Strukturierung<br />
der Terminologien sich hauptsächlich auf Benennungen und<br />
deren Verhältnis zu Begriffen bezieht, bleibt ihr unmittelbar erkennbarer<br />
Nutzen auf bestimmte Nutzergruppen beschränkt – namentlich die<br />
Technischen Redakteure und die Übersetzer.<br />
Ein Blick auf mögliche weitere Einsatzorte von Terminologien ist jedoch<br />
selten. Warburton nennt zum Beispiel „computer-assisted translation<br />
[…], controlled authoring, product classification, spell checking, indexing,<br />
keyword management, glossary publishing, and search engine optimization<br />
“ ([KW11]: 488). Voraussetzung für einen derartigen Einsatz sei<br />
jedoch die Einhaltung bestimmter Grundsätze für die Datenverwaltung,<br />
die herkömmliche, oft übersetzungsorientierte Terminologieverwaltungssysteme<br />
nicht leisten können [KW11].<br />
Es ist notwendig, nutzerorientierte Terminologiearbeit zu betreiben,<br />
die Terminologie neu interpretiert – und zwar im Licht der potentiellen<br />
Zwecke, die sie für neue Anwender haben kann. Ein zentraler<br />
möglicher Einsatzort ist die Anforderungserhebung und -dokumentation<br />
(auch als Requirements Engineering oder Produktspezifikation<br />
bezeichnet). In der Softwareentwicklung wird Requirements Engineering<br />
als „kooperativer, iterativer, inkrementeller Prozess, dessen Ziel es<br />
ist zu gewährleisten, dass (1) alle relevanten Anforderungen bekannt<br />
448<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Besonderheiten<br />
des Requirements<br />
Engineerings<br />
und in dem erforderlichen Detaillierungsgrad verstanden sind, (2) die<br />
involvierten Stakeholder [= Anforderungssteller, S.A.] eine ausreichende<br />
Übereinstimmung über bekannte Anforderungen erzielen,<br />
(3) alle Anforderungen konform zu den Dokumentationsvorschriften<br />
dokumentiert bzw. konform zu den Spezifikationsvorschriften<br />
spezifiziert sind“ ([KP07]: 705)<br />
Die Anforderung (oder en. requirement) hat dabei drei Definitionen und<br />
wird verstanden als: „(1) Eine Bedingung oder Eigenschaft, die ein System<br />
oder eine Person benötigt, um ein Problem zu lösen oder ein Ziel<br />
zu erreichen. (2) Eine Bedingung oder Eigenschaft, die ein System oder<br />
eine Systemkomponente aufweisen muss, um einen Vertrag zu erfüllen<br />
oder einem Standard, einer Spezifikation oder einem anderen formell<br />
auferlegten Dokument zu genügen. (3) Eine dokumentierte Repräsentation<br />
einer Bedingung einer Eigenschaft wie in (1) oder (2) definiert.“<br />
([KP07]: 697)<br />
In der Fachliteratur zum Requirements Engineering wird der Einsatz<br />
von Glossaren bereits gefordert. Im Fokus steht hier ebenfalls oft die<br />
Suche nach Homonymen und Synonymen, die zu Missverständnissen<br />
während des Entwicklungsprozesses führen können (vgl. [KP07],<br />
[TW08]). Allerdings wird hier auch schon immer auf die Gefahren hingewiesen:<br />
„Der Aufbau eines Glossars ist in der Praxis mit vielen Problemen<br />
verbunden. Es ist eine unliebsame Aufgabe, die niemand gerne<br />
übernehmen möchte, geschweige denn motiviert durchführt. Damit hat<br />
man schon ungünstige Startbedingungen. Oft verschwindet das Glossar<br />
in einem Dokument, das niemand liest.“ ([TW08]: 146)<br />
Um den ungünstigen Start der Terminologiearbeit im Requirements<br />
Engineering zu vermeiden, müssen dessen Besonderheiten bei der<br />
Terminologiebereitstellung berücksichtigt werden. Nur dadurch können<br />
Motivationsfaktoren genutzt werden, die helfen, die Terminologiearbeit<br />
in diesem Bereich zu etablieren.<br />
Hier ist zunächst die Vielzahl der unterschiedlichen Beteiligten zu<br />
berücksichtigen, aufgrund derer es zu interdisziplinärer Kommunikation<br />
zwischen Experten auf unterschiedlichen Gebieten, aber auch zu<br />
Experte-Laie-Kommunikation kommen kann. Diese unterschiedlichen<br />
Beteiligten gehen unterschiedlich mit den in Anforderungsdokumenten<br />
präsentierten Informationen um, so dass ein gegenseitiges Verstehen<br />
unter Umständen nicht gewährleistet werden kann [KP07]. Die Terminologie<br />
kann hier als Interpretationshilfe dienen, mit der das gemeinsame<br />
Verständnis erreicht und potentielle Missverständnisse offengelegt<br />
werden können.<br />
Des Weiteren muss berücksichtigt werden, dass die Anforderungserhebung<br />
ein teilweise mit kreativen Mitteln durchgeführter Prozess ist.<br />
Pohl nennt als Techniken der Erhebung und Gewinnung z. B. Brainstorming<br />
oder Mind-maps. Mit diesen Techniken werden zunächst die<br />
wichtigsten Bedürfnisse an das zu entwickelnde Produkt erfasst. Im<br />
Sinne einer ersten Ideensammlung sind solche Anforderungen naturgemäß<br />
nicht nur gedanklich vage und unpräzise, sondern auch sprachlich.<br />
Das ist vor allem bei Kundenanforderungen so [KP07], aber auch bei<br />
Experten ist das nicht ungewöhnlich. Hier zeigt sich, dass das Erheben<br />
von Anforderungen in einer Detaillierungsspirale erfolgt, in der vor<br />
allem Dekompositionen und Spezialisierungen erfolgen [FG12], [ES99].<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
449
Terminologie / Terminology<br />
Im Projekt „Anwendungsplattform Intelligente Mobilität“ (AIM) des<br />
Deutschen Zentrums für Luft- und Raumfahrt wurde darüber hinaus<br />
beobachtet, dass das Wissen der Experten oft nicht explizit genug<br />
Eingang in die Anforderungsdokumentation findet. Es bleibt dadurch<br />
implizit und personengebunden und muss durch zeitintensive Reviews<br />
oder Frage-Antwort-Prozesse erst explizit gemacht werden. Durch eine<br />
Terminologie kann das benötigte Wissen bereits dem Schreiber einer<br />
Anforderung bereitgestellt werden, ohne dass zusätzliche Personen<br />
hinzugezogen werden müssen. Dies dürfte auch einen positiven Effekt<br />
auf Reviews haben.<br />
Die Klärung impliziten Wissens geschieht immer nur da, wo die Kommunizierenden<br />
ein Bedürfnis für weitere Klärung verspüren – unabhängig<br />
vom systemischen Missverständnis- oder Ungenauigkeitspotential<br />
der verwendeten Terminologie. Für den Entwicklungsprozess<br />
relevantes Expertenwissen wird dadurch im günstigsten Fall eine Zeit<br />
lang nicht berücksichtigt. Wird dies rechtzeitig bemerkt, kann das implizit<br />
gebliebene Wissen noch nachträglich berücksichtigt werden, doch<br />
das erfordert zumindest zusätzliche Kommunikationsschritte oder sogar<br />
Nachbesserungen und Änderungen der bisherigen Entwicklungsergebnisse.<br />
Im schlimmsten Fall bleibt das implizite Wissen bis zum Schluss<br />
einfach unbemerkt, zeigt sich dann aber später in ungenügenden Produkten<br />
oder Dienstleistungen und der Unzufriedenheit der Kunden.<br />
Semantische Relationen<br />
für das Requirements<br />
Engineering<br />
Terminologien und Terminologieprozesse für Anforderungsschreiber<br />
Wie muss eine Terminologie beschaffen sein, die die Besonderheiten<br />
des Requirements Engineerings berücksichtigt? Der Anforderungsschreiber<br />
aus der Praxis wird sich im Normalfall keinerlei Gedanken<br />
um verschiedenartige Benennungen machen wollen, deswegen sind<br />
solche Fragen für ihn zweitrangig. Wichtiger ist, ob im Rahmen der<br />
Anforderungserhebung „alles“ bedacht wurde und hinreichend detailliert<br />
spezifiziert wurde. Die Terminologie muss also primär der Dokumentation<br />
von Wissen dienen, das über die linguistischen Relationen<br />
von Synonymie, Homonymie, Polysemie, Äquivalenz und Akronymie<br />
hinausgeht.<br />
Hierfür eignet sich das Terminologiemanagementsystem iglos, das eine<br />
Vielzahl semantischer Relationen zwischen terminologischen Einheiten<br />
verwalten und modellieren kann [SSS11]. Hier sind vor allem die<br />
in [2330] beschriebenen hierarchischen Beziehungen (Abstraktionsbeziehung,<br />
Bestandsbeziehung) zu nennen, da diese dem oben beschriebenen<br />
Dekompositions- und Spezialisierungsvorgängen des Requirements<br />
Engineerings besonders entgegenkommen. Weitere inhaltliche<br />
Relationen sind hier ebenfalls von Bedeutung, sofern sie den Anforderungsschreiber<br />
bei der Anforderungserhebung unterstützen, indem sie<br />
Informationen bereitstellen, die die Anforderungen präziser und vollständiger<br />
machen. Aus der Requirements-Engineering-Literatur könnten<br />
hier zum Beispiel folgende Relationen übernommen werden (vgl.<br />
[KP07]), die nicht nur auf der syntaktischen Ebene der Anforderungen,<br />
sondern auch auf der lexikalische Ebene der Anforderungsterminologie<br />
brauchbar sind:<br />
−−<br />
Relation zur Kennzeichnung von (gleichwertigen) Alternativen<br />
−−<br />
Relation zur Kennzeichnung von (konfligierenden) Alternativen<br />
−−<br />
Relation zur Kennzeichnung von Interaktionen<br />
450<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Terminologieprozess<br />
für das Requirements<br />
Engineering<br />
−−<br />
Relation zur Kennzeichnung sequentieller Abfolgen<br />
−−<br />
Relation zur Kennzeichnung von (zwingenden) Gleichzeitigkeiten<br />
−−<br />
Relationen zur Kennzeichnung von Ausnahmebedingungen<br />
Eine solcherart vernetzte Terminologie, die thematische Zusammenhänge<br />
dokumentiert und nutzbar macht, kann mit dem iglos-Terminologieverwaltungssystem<br />
modelliert werden. Weitere Relationen des<br />
iglos-Tools, die im Requirements Engineering nutzbar sein können,<br />
sind Relationen zur Angabe von Verwechslungsgefahren, Input-Output-<br />
Strukturen, Rollenzuweisungen, Zuständen, Kausalitäten, Anwendungskontexten,<br />
Realisatoren, Repräsentationen, Hauptverantwortlichen oder<br />
lediglich teilnehmenden Beteiligten. Eine flexible Relationsverwaltung<br />
kann hierbei wichtig sein, um unterschiedliche Entwicklungsprojekte<br />
unterstützen zu können, indem Anforderungsschreiber beim Dokumentieren<br />
ihrer Anforderungen mit dem notwendigen Wissen versorgt<br />
werden.<br />
Wie kann eine solcherart strukturierte Terminologie nun aber in den<br />
Anforderungsprozess integriert werden? Hierfür ist es wichtig, dass<br />
die Terminologierecherche möglichst eng an den Prozess der Anforderungsdokumentation<br />
gebunden wird. Eine Integration in ein Anforderungsmanagementtool<br />
ist deswegen zweckmäßig. Dort können hilfreiche<br />
Information aus der Terminologiestruktur dem jeweiligen Schreiber<br />
direkt während des Ausformulierens der Anforderungen bereitgestellt<br />
werden. Dadurch kann die Präzision der Anforderungen bereits während<br />
ihrer ersten Formulierung erhöht werden und nachträgliche Reviews<br />
können schneller durchgeführt werden. Auch Kunden, die ihre<br />
ersten Anforderungen selbst umschreiben, können terminologieassistiert<br />
präzisere Angaben machen als ohne Terminologieassistenz. Eine<br />
terminologische Wissensbasis kann zudem auch für die Vorbereitung<br />
von Erhebungstechniken wie Interview, Checkliste, Beobachtung oder<br />
schriftliche Befragung dienen. Zur Disambiguierung der Anforderungen<br />
muss die Möglichkeit bestehen, Terminologieinformationen mit Persistent<br />
Identifiern an Anforderungen zu koppeln, so dass die Zuordnung<br />
jederzeit und durch alle Änderungen hindurch gewahrt bleibt.<br />
Auch die Möglichkeit zur Auswahl adressatenrelevanter Informationen<br />
ist hierfür notwendig, damit die Zusatzinformation, die dem Anforderungsschreiber<br />
in einem in seine Arbeitsumgebung integrierten Tool<br />
bereitgestellt wird, überschaubar bleibt. Das Terminologiemanagementsystem<br />
iglos unterstützt flexible Auswahlverfahren durch das Anlegen<br />
sogenannter Collections, mit denen Teile des Terminologiebestandes<br />
verwaltet und flexibel zusammengestellt werden können.<br />
Um Anforderungsschreiber jedoch auch zu eigenständiger Terminologiedokumentation<br />
zu ermutigen, sollte das in seine Arbeitsumgebung<br />
integrierte Tool auch Termkandidaten vorschlagen können, die während<br />
der Terminologieprüfung leicht in eine bestehende Terminologie eingegliedert<br />
werden können. Über eine Häufigkeitsanalyse kann dem Anforderungsschreiber<br />
die Entscheidung erleichtert werden, ob es sich um<br />
eine wichtige Benennung handelt. Vor allem in großen Projekten zahlt<br />
sich die individuelle Terminologiearbeit aus: Wenn Anforderungen unterschiedlicher<br />
Autoren beim Anforderungsmanager integriert werden<br />
müssen, können durch die Kennzeichnung der Terminologie potentielle<br />
Missverständnisse vermieden werden.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
451
Terminologie / Terminology<br />
Zusammenfassung und Ausblick<br />
Zur Unterstützung des Requirements Engineerings wird am Institut<br />
für Verkehrssicherheit und Automatisierungstechnik der Technischen<br />
Universität Braunschweig zurzeit ein an die oben genannten Besonderheiten<br />
des Requirements Engineerings angepasstes Terminologietool<br />
entwickelt. Hierzu besteht eine Kooperation mit der Firma atego, mit<br />
der zusammen eine Integration des iglos-Terminologie-Plug-ins in das<br />
Anforderungssynchronisierungstool Exerpt Synchronizer angestrebt<br />
wird. Mit diesem soll der Anwendungsbereich der traditionell übersetzungsorientierten<br />
Terminologiearbeit erweitert und neuen Anwendern<br />
gewinnbringend näher gebracht werden.<br />
Ein wesentliches Problem für eine solche Terminologienutzung besteht<br />
bisher jedoch noch in der Ersterhebung der terminologischen Daten<br />
aus dem Bereich Requirements Engineering, bzw. einer Erstrelationierung<br />
bereits bestehender, übersetzungsorientierter Terminologien, mit<br />
der ein vernetztes Informationsgefüge entstehen kann. Weitere Arbeiten<br />
in dieser Richtung wären durchzuführen, um vor allem auch Aussagen<br />
über die Weiternutzbarkeit solcher Entwicklungsterminologien<br />
gewinnen zu können.<br />
Bibliographie<br />
[2330] Deutsches Institut für Normung (2011): DIN 2330:11 Begriffe<br />
und Benennungen – allgemeine Grundsätze.<br />
[CB11] Bickle, Carmen (2011): Die Spreu vom Weizen trennen –<br />
der Weg zur unternehmensweit konsistenten Terminologie.<br />
<strong>tekom</strong> <strong>Jahrestagung</strong>.<br />
[DTT10]<br />
[ES99]<br />
[EW08]<br />
[FG12]<br />
[FS10]<br />
[HL11]<br />
[KDS05]<br />
[KP07]<br />
[KW11]<br />
Deutscher Terminologie Tag e.V. (2010): Terminologiearbeit.<br />
Best Practices<br />
Schnieder, Eckehard (1999): Methoden der Automatisierung.<br />
Beschreibungsmittel, Modellkonzepte und Werkzeuge<br />
für Automatisierungssysteme.<br />
Enders, Michael; Wolff, Thomas (2008): „Sie haben Ihr<br />
Ziel erreicht“. In: technische kommunikation 30 (4), 18ff..<br />
Friedrich, Jörg; Gaebert, Claudia (<strong>2012</strong>): Innig verbunden.<br />
Requirements Engineering: Plädoyer für eine Wende. In:<br />
iX – Magazin für professionelle Informationstechnik (8),<br />
98ff.<br />
Frey, Dorina; Schmacht, Christine (2010): Aufbau eines<br />
Qualitätsmanagements für die Terminologiearbeit<br />
Liebscher, Horst (2011): Terminologie 2.0: Neue Strategien<br />
und Möglichkeiten. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />
Schmitz, Klaus-Dirk (2005): Glossar, Wörterbuch, Thesaurus,<br />
Terminologie. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />
Pohl, Klaus (2007): Requirements Engineering. Grundlagen,<br />
Prinzipien, Techniken.<br />
Warburton, Kara (2011): Managing Terminology in Commercial<br />
Environments. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />
452<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
[MB10]<br />
[PD06]<br />
[SS10]<br />
Böcker, Martin (2010): Die Investition in Terminologiemanagement:<br />
eine Wirtschaftlichkeitsbetrachtung für<br />
den Maschinenbau. <strong>tekom</strong> <strong>Jahrestagung</strong>.<br />
Drewer, Petra (2006): Terminologiemanagement im Unternehmen.<br />
<strong>tekom</strong> <strong>Jahrestagung</strong>.<br />
Schmitz, Klaus-Dirk; Straub, Daniela (2010): An Bedeutung<br />
gewonnen. In: technische kommunikation 32 (6),<br />
12ff.<br />
[SSS11] Schieder, Lars; Stein, Christian; Schielke, Arno (2011):<br />
Terminologiemanagementsysteme der nächstens Generation<br />
– Schlüssel für den Fachwortschatz. In: eDITion –<br />
Fachzeitschrift für Terminologie (1), 26–31.<br />
[TW08]<br />
Weilkiens, Tim (2008): Systems Engineering mit SysML/<br />
UML. Modellierung, Analyse, Design.<br />
für Rückfragen: arndt@iva.ing.tu-bs.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
453
Terminologie / Terminology<br />
TERM 5<br />
Fachvortrag<br />
Vom Finden und unternehmensweiten<br />
Managen von Terminologie<br />
Regina Krüger, Transline Deutschland Dr.-Ing. Sturz GmbH, Reutlingen<br />
Terminologiemanagement beschäftigt sich, anders als die Terminologiearbeit,<br />
mit der Planung, Organisation, Leitung, Koordination und<br />
Kontrolle aller Terminologiethemen. Die komplexe Vernetzung von<br />
Terminologie innerhalb der Unternehmen stellt für das Terminologiemanagement<br />
eine besonders hohe Herausforderung dar. Zur professionellen<br />
Bearbeitung werden daher Terminologietools eingesetzt, die<br />
einen optimalen Zugriff auf die Terminologiebestände erlauben und<br />
diese auch weithin nutzbar machen. Freigabeabläufe werden definiert<br />
und abgebildet. Der erwartete Nutzen ist hoch, die Bedeutung der Terminologiearbeit<br />
bekannt. Der ROI in einem überschaubaren Zeitfenster<br />
ist erkennbar und die Entscheidung für die strukturierte Terminologiearbeit<br />
wird getroffen.<br />
Trotzdem wird Terminologiemanagement immer noch als mühsam,<br />
aufwändig und langsam beschrieben – Punkte, an denen es in vielen<br />
Unternehmen in letzter Konsequenz doch noch scheitert bzw. in den<br />
Anfängen stecken bleibt. Warum fällt es so schwer, die vielen Prozessbeteiligten<br />
zum begeisterten Mitmachen zu bewegen? Wie können<br />
Zielvorgaben nachhaltig definiert und kontrolliert werden?<br />
Terminologiemanagement bedeutet Prozessmanagement<br />
Ein Beispiel: Im Übersetzungsmanagement besteht bereits sehr lange<br />
eine erfolgreiche Auseinandersetzung mit Prozessen und Schnittstellenmanagement.<br />
Oft führt dies zum Kauf eines eigenen Translation-<br />
Memory-Systems. Die Anschaffung eines TMS alleine schafft zunächst<br />
Unabhängigkeiten und ermöglicht die Hoheit über die Translation<br />
Memorys, es schafft aber noch keine Arbeitserleichterungen und Prozessbeschleunigungen.<br />
Dies wird erst dann in umfangreichem Maße<br />
erreicht, wenn Systeme erfolgreich vernetzt werden, alle Prozessbeteiligten<br />
im gleichen Systemumfeld arbeiten, Standards geschaffen und<br />
die Prozesse automatisiert werden – die passende Infrastruktur wird<br />
zum Erfolgskriterium.<br />
Die gleichen Bedingungen gelten für das Terminologiemanagement. Die<br />
Terminologiearbeit ist ein integrativer Bestandteil der Dokumentationserstellung<br />
und -übersetzung und muss als solcher innerhalb der Gesamtprozesskette<br />
jeweils an den richtigen Stellen eingebunden werden.<br />
Wichtige Stichworte hierbei sind „Workflowkopplung“ und „Prozessintegration“.<br />
Erfolgreiches und unternehmensweit optimales Terminologiemanagement<br />
findet nur statt, wenn die inhaltlich anspruchsvolle<br />
Terminologiearbeit in Kombination mit einem effizienten Prozessmanagement<br />
dargestellt wird.<br />
Der Weg hin zur richtigen Infrastruktur<br />
Nach einer Analyse der Ist-Situation und der vorhandenen Systemlandschaft<br />
muss eine genaue Zielsetzungsbeschreibung erfolgen. Ergebnis<br />
ist eine Detailbeschreibung der Einzelprozesse, mit besonderem Augenmerk<br />
auf Schnittstellen und Standardisierungsmöglichkeiten.<br />
454<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Das Ergebnis hiervon ist ein Infrastruktur-Lastenheft und eine Prozessbeschreibung.<br />
Auf dieser Basis kann die Entscheidung für tooltechnische<br />
Unterstützung dann getroffen werden.<br />
Hierbei gibt es gänzlich unterschiedliche Ansätze, wie z. B. die Entscheidung<br />
für eine eigene Systemlandschaft (oder deren Erweiterung), die<br />
Entscheidung für ein Dienstleistermodell oder eine Kombination aus<br />
beiden. Tools bieten heute bereits zahlreiche Out-of-the-box-Lösungen,<br />
die durch Zusatzprogrammierungen ergänzt werden können, eventuell<br />
kommt auch die Programmierung einer komplett individuellen Lösung<br />
in Betracht.<br />
Zu beachten ist, dass es nur ein führendes Terminologietool geben<br />
kann, um eine redundante Datenhaltung und den mehrfachen Aufwand<br />
zu vermeiden.<br />
Abb.: Infrastruktur/Automatisierungsumgebung<br />
Vom Finden neuer Terminologie<br />
Eine kontinuierliche und optimale Terminologierecherche kann nur<br />
durch einen strukturierten Prozess stattfinden. Hierzu gehört weniger<br />
das manuelle Vorschlagwesen durch viele Mitarbeiter oder die direkte<br />
Eingabe des Terminologen. Vielmehr bezieht sich der Prozess auf eine<br />
Verbindung der verwendeten Tools in der Dokumentationserstellung<br />
mit dem Teminologietool, eine Kopplung mit Terminologieextraktionen<br />
im Rahmen von Übersetzungsaufträgen oder geregelte Terminologieextraktionen<br />
bei neuen Dokumentationen. Automatisierungen erlauben<br />
hierbei eine schnelle und unkomplizierte Abwicklung.<br />
Die regelmäßige Terminologieextraktion auch aus kleineren Dokumenten<br />
ist der einmaligen großen Extraktion aus z. B. TMs vorzuziehen, da<br />
hier der unerwünschte Effekt erreicht wird, dass allein aufgrund des<br />
Umfangs bei vielen Beteiligten eine Abwehrhaltung erreicht wird und<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
455
Terminologie / Terminology<br />
die Begeisterung an der Arbeit sinkt – die Arbeit wird zu einem Mammutprojekt<br />
mit Mammutbearbeitungszeiten.<br />
Vom Termkandidaten zum Term<br />
Der Weg vom Termkandidaten zum freigegebenen und ggf. übersetzten<br />
Term kann noch weit und komplex sein. Viele Einzelschritte sind beinhaltet<br />
und zahlreiche Prozessbeteiligte müssen eingebunden werden<br />
– die Abwicklung wird sehr zeitintensiv. Die nahtlose automatisierte<br />
Kopplung der verschiedenen Einzelschritte und deren Überwachung ist<br />
daher das Ziel.<br />
Nach Festlegung aller Workflowdetails und der Rollen und Rechte der<br />
Prozessbeteiligten übernimmt die Automatisierung das Projektmanagement<br />
und steuert die jeweiligen Aufgaben. Voraussetzung ist, dass alle<br />
Prozessbeteiligten (inkl. Übersetzern und Landesgesellschaften) auf<br />
derselben Plattform arbeiten. Für die notwendige Transparenz und das<br />
Controlling sorgen Reminder, Eskalationsszenarien, eine Statusübersicht<br />
und viele Auswertungsmöglichkeiten. Die Terminologieveränderungen<br />
werden täglich an alle vernetzten Tools weitergegeben.<br />
Ein häufig vernachlässigter Gedanke ist die nachträgliche Bereinigung<br />
der Terminologien in TMs. Durch eine enge Verbindung des Terminologietools<br />
mit dem TMS kann nicht nur im Rahmen der Terminologieübersetzung<br />
das TM zur Konkordanzsuche mit verwendet werden,<br />
sondern die terminologische Bereinigung von TM-Einträgen kann auch,<br />
jeweils pro Term, als Arbeitspaket an Übersetzer oder andere Benutzer<br />
geschickt werden.<br />
Zusammenfassung<br />
Die Komplexität der Prozesse ist nur durch Automatisierungen steuerbar,<br />
die bewirken, dass eine höhere Konzentration auf die Inhalte<br />
erfolgen kann. ROI-Betrachtungen können gesamtheitlich erfolgen und<br />
somit neue Aspekte integrieren.<br />
Der Nutzen von Terminologiearbeit muss für jeden „erfahrbar“ sein.<br />
Einfache, übersichtliche Arbeitsoberflächen sind hierbei genauso wichtig<br />
wie kleine Arbeitspakete und kurzfristige Antwortzeiten.<br />
Die Kopplung von bislang getrennten Arbeitsprozessen führt zu einer<br />
erheblichen Beschleunigung in der Erstellung neuer Terminologie und<br />
deren Übersetzung und damit zu schneller verfügbaren Qualitätssteigerungen<br />
und Kosteneinsparungen.<br />
So kann Terminologiemanagement viel Freude machen und Prozessbeteiligte<br />
zum begeisterten Mitmachen motivieren.<br />
für Rückfragen: rkrueger@transline.de<br />
456<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
TERM 6<br />
Fachvortrag<br />
Terminologie zwischen normativer Referenz<br />
und deskriptiver Dokumentation<br />
Dr. Birte Lönneker-Rodman, Across Systems GmbH, Karlsbad<br />
Moderne Terminologiewerkzeuge bieten viele Möglichkeiten, Terminologie<br />
in den Arbeitsalltag einzubinden und zu leben. Je nachdem,<br />
welchen Zweck eine Organisation mit dem Aufbau und der Pflege einer<br />
Terminologiedatenbank verfolgt, können Erstellung und Inhalt einer<br />
Terminologie unterschiedliche Ausprägungen annehmen. Während<br />
Terminologie als normative Referenz inzwischen bereits etabliert ist,<br />
hat die deskriptive Sammlung noch Zukunftspotential. Der deskriptive<br />
Ansatz beschreibt reale, wenn auch nicht unbedingt normierte Verwendungen<br />
sowie Vorschläge von Benutzern. Er führt zu einem größeren<br />
Datenbestand und damit mehr Suchergebnissen. Zudem kann er zu<br />
einer weiteren Kollaboration unter den Mitarbeitern anregen.<br />
Hinter einer normativen Referenzterminologie steht oft das Ziel, den<br />
Sprachgebrauch innerhalb der Organisation zu vereinheitlichen. Missverständnissen<br />
wird vorgebeugt; Texte sind konsistenter und damit verständlicher;<br />
die erhöhten Wiederverwendungsquoten beim Schreiben<br />
und Übersetzen führen zu Einsparungen.<br />
Die Terminologiedatenbank wird idealerweise nahtlos in die Redaktions-<br />
und Übersetzungsumgebung eingebunden. Darüber hinaus kann<br />
sie zum Nachschlagen innerhalb oder außerhalb des Unternehmens<br />
zur Verfügung gestellt werden. Im Falle der Terminologie als Produkt<br />
wird schließlich der Zugriff auf die Terminologie gegen eine Gebühr<br />
weitergegeben.<br />
Normative Referenzterminologie zeichnet sich durch Vorschriften über<br />
die Benutzung von Benennungen aus. Die Vorschrift gilt hier sowohl<br />
im positiven wie auch negativen Sinne. Die Terminologiedatenbank<br />
muss nicht nur Aufschluss darüber geben, wie ein bestimmtes Objekt<br />
oder ein bestimmter Prozess benannt werden soll („bevorzugt“; z. B.<br />
Schnürband). Sie muss auch festhalten, welche anderen möglicherweise<br />
in Betracht kommenden Benennungen vom Gebrauch ausgeschlossen<br />
werden („zu vermeiden“; z. B. Schnürsenkel). Zusätzlich kann es noch<br />
Benennungen geben, die in bestimmten Kontexten erlaubt sind („erlaubt“).<br />
Um zu entscheiden, welche Benennung gegenüber anderen als<br />
empfohlen hervorzuheben ist, kann die Terminologin Informationen<br />
unterschiedlicher Art heranziehen:<br />
−−<br />
Beteiligte: Einbeziehung von Personen aus mehreren Bereichen<br />
−−<br />
Quellen: Auswertung mehrerer Quellen, die ihrerseits oft normativ<br />
sind<br />
−−<br />
Sprachgebrauch: Analyse von öffentlichen Korpora, Medienberichten<br />
oder unternehmensinternen ein- oder mehrsprachigen Textsammlungen.<br />
Die normative Terminologiearbeit ist in manchen Bereichen etabliert<br />
und für bestimmte Zwecke unabdinglich. Dennoch sind gerade ihre<br />
Vorteile auch ihre Hemmschuhe:<br />
−−<br />
Die Notwendigkeit einer eindeutigen Entscheidung führt oft zu Differenzen<br />
im Entscheidungsfindungsprozess.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
457
Terminologie / Terminology<br />
−−<br />
Alle Benennungen eines Objekts oder Prozesses sollen möglichst erschöpfend<br />
erfasst und die Entscheidung über die Verwendungsempfehlung<br />
informiert getroffen werden. Bis zur Freigabe kann daher<br />
einige Zeit vergehen.<br />
−−<br />
Die hohen Aufwände für jeden einzelnen Eintrag können dazu führen,<br />
dass die relevanten Konzepte nur zu einem geringen Grad durch<br />
den terminologisch erfassten Fachwortschatz abgedeckt sind.<br />
Um diesen Nachteilen entgegenzusteuern, unterstützen moderne Terminologiewerkzeuge<br />
auch andere Arten des Terminologieaufbaus und<br />
der Terminologiepflege.<br />
Ein erster Aspekt ist dabei sind weitere Quellen für die Erfassung neuer<br />
Terminologie:<br />
−−<br />
Vorschläge von Übersetzern<br />
−−<br />
Vorschläge von Benutzern, zum Beispiel über ein Online-Formular<br />
oder mit separater Eintragsvorlage in der Web-Version der Terminologiedatenbank<br />
−−<br />
automatische Extraktion von Eintragskandidaten mit Benennungen<br />
aus einsprachigen Dokumenten sowie aus Translation Memorys<br />
−−<br />
Auswertung von Abfragen, die Benutzer der Terminologiedatenbank<br />
eingeben (zum Beispiel Log-Dateien einer Web-Version).<br />
In diesen Fällen können größere Bestände an Terminologie in kürzerer<br />
Zeit aufgebaut werden, jedoch ohne die Qualitätssicherung einer normativen<br />
Pflege. Daher empfiehlt es sich, die Eingaben von Benutzern<br />
oder die automatisch extrahierten Benennungsvorschläge mit dem Status<br />
„nicht freigegeben“ einzuspeisen. Je nach Aufkommen und Struktur<br />
der Daten kann es auch sehr nützlich sein, diese Terminologie in einer<br />
separaten Datenbankinstanz zu halten und die „deskriptive” von der<br />
„normativen” Terminologiedatenbank dabei optisch abzuheben. Der<br />
Vortrag zeigt einige anschauliche Beispiele.<br />
Die Benutzer sollten mit den gesammelten Daten weiter interagieren<br />
können, beispielsweise:<br />
−−<br />
Kommentare schreiben;<br />
−−<br />
vorschlagen, Einträge zu verschmelzen, oder die Verschmelzung direkt<br />
selbst vornehmen;<br />
−−<br />
Informationen, wie zum Beispiel Abbildungen, auch nachträglich<br />
(und zu Benutzervorschlägen anderer Benutzer) hinzufügen;<br />
−−<br />
Einträge insgesamt bewerten.<br />
Auch im deskriptiven Ansatz sollte das Rechtemodell die Definition von<br />
Rechten für die gewünschten Benutzer-Aktionen unterstützen. Zusätzlich<br />
ist eine moderierende Rolle mit weiteren Befugnissen sehr wichtig.<br />
Die Moderatoren sollten vor allem unsinnige Einträge entfernen,<br />
Einträge zu demselben Konzept verschmelzen und Einträge, mit denen<br />
Benutzer interagiert haben, abschließen.<br />
Das Konzept der deskriptiven Datensammlung beruht insgesamt auf<br />
der Annahme, dass der Zugang zu Informationen über Terminologie<br />
bereits vor der endgültigen Verwendungsvorgabe und Freigabe nützlich<br />
sein kann. Die deskriptive Terminologiearbeit nimmt unterschiedliche<br />
Formen an, beispielsweise durch werkzeuggestützte – und daher<br />
nicht immer perfekte – Extraktion von Benennungen und/oder durch<br />
458<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Interaktion mit den Benutzern. Diese deskriptive Terminologiearbeit<br />
wird bereits hier und da von Unternehmen erprobt.<br />
Es wird spannend sein zu beobachten, welche Modelle der Benutzerinteraktion<br />
von den Benutzern angenommen werden vor dem Hintergrund,<br />
dass sich diese Zeitinvestition letztlich auszahlen muss. Betrachtet<br />
man erfolgreiche Projekte wie Wikipedia oder auch die Foren des<br />
Online-Wörterbuchs LEO (http://dict.leo.org/), ist die Herangehensweise<br />
durchaus einen Versuch wert.<br />
für Rückfragen: bloenneker@across.net<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
459
Terminologie / Terminology<br />
TERM 7<br />
Fachvortrag<br />
Von der Terminologie zum semantischen<br />
Netz: Wissensmanagement und Ontologien<br />
Christian Stein, Technische Universität Braunschweig<br />
Das Projekt iglos (www.iglos.de) ist ein groß angelegtes universitäres<br />
Forschungsprojekt zur Entwicklung von Methoden und Software für<br />
Terminologiearbeit der nächsten Generation. Eine der wichtigsten<br />
Grundüberzeugungen im Rahmen des Projektes ist dabei, dass Eindeutigkeit<br />
nur im systemischen Zusammenhang beherrscht werden kann.<br />
Das bedeutet konkret, dass es nicht reicht, Benennungen, Synonyme,<br />
Übersetzungen und Definitionen etc. zu sammeln, sondern dass man<br />
die tatsächlichen semantischen Beziehungen der Sprachzeichen zueinander<br />
modellieren muss. Nur so wird der Kontext, Bezug und Verwendungszusammenhang<br />
deutlich und nur so kann man den Schritt vom<br />
klassischen Terminologiemanagement hin zum Wissensmanagement<br />
bzw. einer Ontologie gehen. Ein solches Wissensmanagement hat wiederum<br />
ein wesentlich breiteres Anwendungsspektrum als ein einfaches<br />
elektronisches Wörterbuch: Es hilft dabei, Missverständnisse und<br />
Ambiguitäten frühzeitig und automatisiert aufzuspüren, Mitarbeiter<br />
aufgabenspezifisch zu schulen und schließlich, Wissen nicht nur in den<br />
Köpfen, sondern auch im Unternehmen zu halten.<br />
Das kann nur gelingen, wenn Terminologiemanagement nicht länger<br />
als eine mehr oder weniger isolierte Funktion der Technischen Dokumentation<br />
und Übersetzung, sondern als zentrale Wissensverwaltung<br />
und Querschnittsdisziplin aller Unternehmensbereiche gesehen wird.<br />
In allen Bereichen finden sich unterschiedliche Fachsprachen, mit<br />
denen völlig unterschiedlich über die gleichen Sachverhalte kommuniziert<br />
wird – gerade deshalb auch häufig aneinander vorbei. Verschärft<br />
wird die Situation dadurch, dass interdisziplinäre, multisprachliche und<br />
unternehmensübergreifende Szenarien heute eher die Regel als die<br />
Ausnahme sind.<br />
Eine funktionierende Wissensverwaltung berücksichtigt diesen Sachverhalt<br />
von Anfang an und bildet nicht nur verschiedene Sprachen,<br />
sondern auch verschiedene Fachsprachen sowie deren Bezug zur Gemeinsprache<br />
als semantisches Netz ab. Dabei ist es wesentlich, die<br />
verschiedenen Perspektiven und Spezialisierungsgrade gleichermaßen<br />
zu modellieren. Um diesen Zustand zu erreichen, hat das Projekt iglos<br />
den iglos tep (terminology engineering process) entwickelt, der alle<br />
notwendigen Verfahrensweisen von der Terminologiegewinnung, über<br />
die Diskussion, Abstimmung und Relationierung bis hin zur kontinuierlichen<br />
Ergänzung behandelt und beschreibt.<br />
Einen wesentlichen Punkt nimmt dabei die Relationierung ein, also<br />
die Modellierung von typisierten Beziehungen zwischen den Begriffen.<br />
Diese Modellierung geht weit über reine Abstraktionsbeziehungen im<br />
Sinne einer Ober- und Unterbegriffsstruktur hinaus: So können je nach<br />
Modellierungs- und Anwendungsfokus ganz viele verschiedene Relationstypen<br />
modelliert werden. Auf Basis von Leitfragen und entsprechenden<br />
Assistenzsystemen, wie sie in iglos verfügbar gemacht werden,<br />
können diese auch von Laien gefunden und modelliert werden. Einige<br />
solcher Leitfragen zur Relationierung und Klassifizierung können beispielsweise<br />
sein (hier in zusammenfassender Kurzform):<br />
460<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
−−<br />
Ist es eine Größe, der man konkrete Werte zuordnen kann? (Attributhierarchie)<br />
−−<br />
Beschreibt es ein physikalisch existierendes Objekt oder eine abstrakte<br />
Oberklasse? (Abstraktion)<br />
−−<br />
Wenn das Wort aus mehreren Teilwörtern besteht, wie stehen diese<br />
zueinander? (Komposition)<br />
−−<br />
Welcher Kontext klärt die Bedeutung, wenn man „im Sinne von …“<br />
ergänzt? (Kontext-Relation)<br />
−−<br />
Gibt es mehrere Ausprägungen dieses Typs? (Instanziierung)<br />
−−<br />
Handelt es sich um ein Objekt oder um eine Funktion? (Typ)<br />
−−<br />
Womit wird es häufig verwechselt? (Verwechslungsgefahr)<br />
−−<br />
Hat es ein auslösendes Ereignis bzw. löst es andere Ereignisse aus?<br />
(Input/Output)<br />
−−<br />
Wozu braucht man es? (Funktion)<br />
−−<br />
Wer hat damit zu tun? (Rolle)<br />
−−<br />
Was unterscheidet es von den leicht zu verwechselnden Elementen?<br />
(Merkmale)<br />
−−<br />
Was benötigt man, um es durchzuführen? (Ressourcen)<br />
−−<br />
Gibt es eine Substantivierung oder ein Verb davon? (Derivation)<br />
−−<br />
Gibt es noch eine völlig andere Bedeutung dieses Wortes? (Homonymie)<br />
Diese Fragen sind ein Teil eines umfangreichen Fragenkatalogs, der im<br />
Rahmen des iglos-Projektes entwickelt wurde und in die iglos-Software<br />
integriert werden soll. Sie richten sich dabei nicht an Terminologie-Experten<br />
– vielmehr ist es ein wesentliches Ziel, Terminologiearbeit auch<br />
für Laien zu vereinfachen und so direkter in den jeweiligen Anwendungskontexten<br />
zu verankern. Die beste Möglichkeit, das zu erreichen,<br />
ist die Integration von Terminologieprüf- und Ergänzungsmöglichkeiten<br />
direkt in die Anwendersoftware. Im Projekt iglos ist das geschehen,<br />
indem ein Microsoft Word-Add-in entwickelt wurde, dass parallel zu<br />
Lese- und Schreibprozessen Terminologie recherchiert, prüft und ergänzt.<br />
Weitere Add-ins sind geplant.<br />
Die Relationierungen selbst werden in der iglos-Software semantisch<br />
interpretiert und zusätzlich grafisch dargestellt, so dass der Nutzer den<br />
Verwendungskontext und somit das gesamte Themengebiet in seiner<br />
Struktur visuell erfassen und navigieren kann. So wird die Datenstruktur<br />
tatsächlich zu einer Bildstruktur.<br />
Zurzeit wird an diesen Darstellungsmöglichkeiten noch intensiv gearbeitet,<br />
um sie zu einem interaktiven Modellierungswerkzeug auszubauen,<br />
das Terminologieverwaltung und -relationierung direkt in der Visualisierung<br />
erlaubt. Zahlreiche Partner aus Wissenschaft, Wirtschaft und<br />
Normung arbeiten bereits heute mit iglos und tragen aktiv zur Optimierung<br />
und Weiterentwicklung bei. Nach Abschluss der Arbeiten wird es<br />
für alle Interessierten einen offenen Test geben, der die Beurteilung<br />
der Eignung dieses neuartigen Terminologieverwaltungssystems für die<br />
eigenen Zwecke erlaubt.<br />
für Rückfragen: stein@iva.ing.tu-bs.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
461
Terminologie / Terminology<br />
TERM 8<br />
Presentation<br />
ECQA Certified Terminology Manger – Basic<br />
Blanca Nájera Villar, TermNet – International Network for Terminology, Vienna, Austria<br />
Inspired by initiatives as the European Computer Driving Licence<br />
(ECDL) and EUROPASS, TermNet, the International Network for Terminology<br />
joined in 2007 the ECQA – European Certification and Qualification<br />
Association with the aim of defining a set of professional competences<br />
and a globally recognised certification scheme for the job role of<br />
the terminology manager.<br />
Professionals working as ICT experts, information and knowledge managers,<br />
in e-Business, Semantic Web, libraries and archives or translators,<br />
interpreters, localisers and technical writers do terminology work,<br />
manage terminology projects or have to argue about the importance of<br />
terminology management in their working environment on a daily basis.<br />
Often they do not have any formal education in this field.<br />
The ECQA Certified Terminology Manager initiative is developed to<br />
provide a vocational training for these professionals as a proof of competences<br />
for the acquired knowledge and skills.<br />
ECQA – The European Certification and Qualification Association<br />
The European Certification and Qualification Association (ECQA) is the<br />
result of several EU-supported initiatives taking place during the last<br />
ten years when different educational initiatives in the European Union<br />
Life Long Learning Program decided to follow a joint process for the<br />
certification of persons in the industry.<br />
The ECQA is supported by training organisations from European countries<br />
(currently organisations from 18 countries) with the goal of developing<br />
and maintaining a set of quality criteria and common certification<br />
rules which would then be applied across the different European regions<br />
and the IT and services, engineering, finance and manufacturing<br />
sectors.<br />
This resulted in a pool of professions in which a high level of European<br />
comparability has been achieved by an Europe-wide agreed syllabus<br />
and skills set, an European test questions pool and European exam<br />
systems (computer automated by portals), as well as a common set of<br />
certificate levels and a common process to issue certificates.<br />
Illustration 1: ECQA, bringing industry, research and education together<br />
462<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Through the ECQA, learners can attend to courses for a specific profession<br />
in their country and perform a Europe-wide agreed test at the end<br />
of the course.<br />
ECQA Certified Terminology Manager – Basic<br />
In the globalized knowledge and information societies, specialized language<br />
has become a pre-requisite for any kind of efficient and effective<br />
communication, management and interoperability of technical systems<br />
and methodologies. Terminology and terminology management build an<br />
integral, high-quality and quality-assuring part of end products, services<br />
and tools in the fields of<br />
−−<br />
information & communication,<br />
−−<br />
classification & categorization,<br />
−−<br />
translation & localization.<br />
The new job profile “Certified Terminology Manager – Basic” combines<br />
the various competences of professionals active in these areas. It also<br />
pays tribute to the fact that terminology managers in today’s companies<br />
and organizations do not necessarily have a university degree in this<br />
field. Often, their job profile is not even exclusively that of a terminologist.<br />
More often, terminology management is an additional skill and task<br />
for professionals of varied backgrounds.<br />
The first certification exam took place successfully on 28 May 2010 and<br />
as of September <strong>2012</strong> the following has been achieved by this initiative:<br />
−−<br />
More than 250 registrations on the ECQA platform;<br />
−−<br />
Almost 150 certificates issued by September <strong>2012</strong> in more than 20 European<br />
and Non-European countries;<br />
−−<br />
Active cooperation with 5 European universities (Institute for Information<br />
management at the Cologne University of Applied Science,<br />
the Centre for Translation Studies in the University of Vienna, Lessius<br />
University College in Antwerp, University of Pécs in Hungary and the<br />
“Politehnica” University of Timisoara in Romania), international organizations<br />
(e.g., China National Institute of Standardization, the European<br />
Association for Terminology and the Infoterm, International Information<br />
Centre for Terminology) and private companies and public organisations<br />
(where TermNet is supplying in-house trainings for the staff).<br />
The training concept<br />
The ECQA training concept is based on a 4-step programme: self assessment,<br />
training, blended learning through an e-learning platform<br />
and examination.<br />
Illustration 2: The ECQA training concept<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
463
Terminologie / Terminology<br />
1. Self-assessment<br />
On the ECQA platform, everyone can self-assess their competences in<br />
the different professional fields for the job role ECQA Certified Terminology<br />
Manager – Basic in a scale of “poor/fair/good/excellent” and “not<br />
applicable”. The system automatically checks the answers and scores<br />
with a standard evaluation. After the self test, a new window opens with<br />
a percentage chart showing the satisfaction per skills element.<br />
Illustration 3: The Self Test – ECQA´s self-assessment tool<br />
2. Trainings<br />
ECQA trainings are offered as seminars, workshops and in-house<br />
trainings.<br />
The training program is divided into six major units:<br />
UNIT 1: UNDERSTANDING TERMINOLOGY MANAGEMENT<br />
−−<br />
What is terminology?<br />
−−<br />
Why terminology management?<br />
−−<br />
How terminology work is embedded in my organisation and work<br />
environment<br />
UNIT 2: TERMINOLOGY MANAGEMENT SKILLS<br />
−−<br />
How to search and collect terminology<br />
−−<br />
How to store and retrieve<br />
−−<br />
How to coin terms<br />
−−<br />
How to manage monolingual and multilingual terminology<br />
−−<br />
How to manage terminology projects<br />
UNIT 3: TERMINOLOGY STRATEGIES FOR BUSINESS PROCESSES<br />
−−<br />
How to present the business case for terminology<br />
−−<br />
How to calculate and argue costs & return on investments<br />
−−<br />
How to involve relevant stakeholders<br />
−−<br />
How to collaborate with relevant organisational units<br />
UNIT 4: TEAM WORKING & COMMUNICATION SKILLS<br />
−−<br />
How to organise team communication<br />
−−<br />
How to manage distributed and diverse teams<br />
−−<br />
Why Conflict Management?<br />
−−<br />
How to train and motivate your team<br />
UNIT 5: APPLICATION SCENARIOS<br />
−−<br />
Presentation of own projects in the form of max. 10 slides<br />
464<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
3. Blended learning<br />
through an e-learning<br />
platform<br />
UNIT 6: TERMINOLOGY STANDARDS AND LEGAL ISSUES<br />
−−<br />
Which standards are relevant?<br />
−−<br />
How to deal with copyright issues in terminology management<br />
−−<br />
What about product liability?<br />
With the joint efforts of all the aforementioned partners and their networking<br />
potential, TermNet has been able to translate, localize and<br />
adapt the skill card, the online materials and examination platform into<br />
3 European languages (English, German and French), create an online<br />
e-learning/blended learning environment to support traditional trainings<br />
and start promoting the ECQA Certified Terminology Manager –<br />
Basic in foreign countries, such as China and South Africa.<br />
Illustration 4: Moodle application for the ECQA Certified Terminology<br />
training programme<br />
4. Examination<br />
The exam is taken electronically, using a random selection from a central<br />
pool of multiple choice questions with a total of 487 questions. Participants<br />
have 6 hours to complete approx. 190 questions. The examinee<br />
can check the results online, just after the exam. To become an ECQA<br />
Certified Terminology Manager – Basic, participants have to pass with<br />
at least 66%. After that, they will receive a summary certificate in paper<br />
form with their results.<br />
Future developments and cooperation<br />
The response of the international community to this new training and<br />
certification initiative has been enormous. It also reflects the lack of<br />
training in some of the fields included in the programme, as for example<br />
in strategies for business processes, terminology policies, copyright or<br />
product liability.<br />
TermNet is working in a consortium of international terminology experts<br />
and the TermNet members to continue with the development<br />
of the ECQA Certified Terminology Manager platform. The Advanced<br />
training programme and certification skill is being created in collaboration<br />
with all the companies, universities and partner institutions and it<br />
is planned to be launched by July 2013.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
465
Terminologie / Terminology<br />
It is also planned to adapt and specialise the Advance module for different<br />
working environments, for example:<br />
−−<br />
ECQA Certified Terminology Manager – Automotive<br />
−−<br />
ECQA Certified Terminology Manager – Health<br />
−−<br />
ECQA Certified Terminology Manager – Language planning<br />
New cooperation partners are welcome to join the programme and<br />
participate in the development of the new training and certification<br />
schemes.<br />
References<br />
European Computer Driving Licence Foundation: http://www.ecdl.org<br />
EUROPASS: http://europass.cedefop.europa.eu/en/home<br />
ECQA: www.ecqa.org<br />
ECQA Certified Terminology Manager – Basic:<br />
http://www.termnet.org/english/products_service/ecqa_ctm-basic/<br />
ECQA CTM – Basic online campus:<br />
http://www.ecqa.org/index.php?id=23<br />
How to register free of cost for the online campus:<br />
http://www.termnet.org/downloads/english/products/trainings/ECQA-<br />
CTM_Howtoregister.pdf<br />
bnajera@termnet.org<br />
466<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
TERM 9<br />
Fachvortrag<br />
Terminologische Informationen und<br />
Dienste für Spracharbeiter<br />
Klaus-Dirk Schmitz, Fachhochschule Köln<br />
Das TaaS-Projekt<br />
Im Juni <strong>2012</strong> ist das von der EU co-finanzierte Forschungsprojekt TaaS<br />
(Terminology as a Service) mit dem Ziel gestartet, eine Cloud-basierte<br />
Plattform für die Extraktion, Verwaltung, Pflege und den Austausch von<br />
Terminologie bereitzustellen. Damit reagiert das Projekt auf die Notwendigkeit,<br />
Sprachsachverständigen, Experten und Unternehmen allgemein<br />
den Zugriff auf aktuelle terminologische Daten zu ermöglichen<br />
und sie direkt an der Schaffung und am Austausch von Terminologie zu<br />
beteiligen. So können die Rechercheergebnisse unzähliger Spezialisten,<br />
seien es Technische Redakteure, Übersetzer und Dolmetscher, Terminologen<br />
oder Fachgebietsexperten, gebündelt und verfügbar gemacht<br />
werden.<br />
Die Dienstleistungen der zu entwickelnden TaaS-Plattform reichen von<br />
der Identifizierung von Textkorpora und der Terminologieextraktion<br />
einschließlich Äquivalenzsuche über die Erfassung, Bereinigung und<br />
Pflege von Terminologiebeständen bis hin zur Bereitstellung in unterschiedlicher,<br />
auf die moderne Arbeitsumgebung von Sprachdienstleistern<br />
und Technischen Redakteuren abgestimmter Form. Dabei werden<br />
die international anerkannten Normen der Terminologielehre ebenso<br />
beachtet wie die Bedürfnisse der Anwender und die von maschinellen<br />
Übersetzungs- und Redaktionssystemen sowie Übersetzungsspeichern<br />
verarbeitbaren Datei- und Datenformate. Zur Entwicklung der erforderlichen<br />
Algorithmen und Schnittstellen werden linguistische und statistische<br />
Verfahren zur maschinellen Textanalyse miteinander kombiniert<br />
und ausgebaut.<br />
Abb. 1: Übersicht über die TaaS-Plattform<br />
Projektpartner des TaaS-Projektes sind neben der lettischen Firma<br />
Tilde als Koordinator das Institut für Informationsmanagement (IIM)<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
467
Terminologie / Terminology<br />
der FH Köln, die University of Sheffield, die ungarische Firma Kilgray<br />
und die Translation Automation User Society (TAUS) mit Sitz in den<br />
Niederlanden.<br />
Die Spracharbeiter<br />
Einer der ersten Aufgaben des Projektes ist es, typische Nutzergruppen<br />
dieser TaaS-Plattform zu identifizieren und deren spezifische terminologische<br />
Bedürfnisse zu ermitteln. Alle Arten von Spracharbeitern,<br />
die sich mit der Produktion und Rezeption von fachlichen Texten beschäftigen,<br />
wie etwa Technische Redakteure, Terminologen, Übersetzer,<br />
Dolmetscher, Lokalisierer, Redakteure, Fachgebietsexperten, aber auch<br />
Lerner von Fachsprachen, benötigen irgendwann terminologische Informationen,<br />
aber vermutlich nicht alle die gleichen. Im Projekt wurden<br />
zunächst die Nutzergruppen definiert und dann die Nutzungsbedürfnisse<br />
von Spracharbeitern auf der Basis einer Umfrage ermittelt.<br />
Die Umfrage<br />
Die Umfrage wurde im Sommer <strong>2012</strong> bei zwei großen Verbänden (<strong>tekom</strong>,<br />
BDÜ) sowie bei weiteren potentiellen Nutzgruppen (DTT, ProZ<br />
etc.) auf Deutsch und Englisch durchgeführt. Die Ergebnisse sollen die<br />
Grundlage für die technische und konzeptionelle Implementierung der<br />
TaaS-Plattform bilden. Die Fragen konzentrierten sich auf folgende<br />
Themenkomplexe:<br />
−−<br />
Berufliches Umfeld (Tätigkeit, Arbeitsverhältnis, Fachgebiet)<br />
−−<br />
Genutzte Programme und Formate<br />
−−<br />
Terminologiearbeit (Zeit, Wichtigkeit, Art, Zweck)<br />
−−<br />
Terminologierecherche (Wo und wonach wird gesucht?)<br />
−−<br />
Probleme und Optimierungspotenzial<br />
−−<br />
Bereitschaft, Terminologie bereitzustellen und gemeinsam zu nutzen<br />
Insgesamt wurden knapp 2.800 Fragebogen ausgewertet. Die beiden<br />
größten Gruppen der Spracharbeiter waren – wie nicht anders zu erwarten<br />
– die Technischen Redakteure (38 %) und die Übersetzer (31 %);<br />
Terminologen, Dolmetscher und Fachgebietsexperten war mit je etwa<br />
5 % vertreten. Als häufig eingesetzte Programme wurden Microsoft Office<br />
(Word, Excel, Powerpoint) bzw. Open Office, FrameMaker und In-<br />
Design neben den CAT-Tools SDL-Trados und Across genannt. Bei den<br />
genutzten Formaten führten DOC(X) (28 %), XML (17 %) und TXT 15 %)<br />
die Liste an.<br />
Die Mehrzahl der Befragten (61 %) geben an, dass sie zwischen 0 und<br />
20 Prozent ihrer Arbeitzeit für Terminologiearbeit aufbringen; dies trifft<br />
vor allem auf die meisten Technischen Redakteure zu. Weitere 28 Prozent<br />
wenden 20 bis 40 Prozent ihrer Zeit für Terminologiearbeit auf.<br />
Die Einschätzung der Wichtigkeit von Terminologiearbeit ist in Abb. 2<br />
grafisch dargestellt. Bei der Frage, nach welchen terminologischen Informationen<br />
die Spracharbeiter suchen, wurden vorrangig Benennungen<br />
in der Zielsprache (18 %) und in der Ausgangssprache (16 %) sowie<br />
Definitionen in der Ausgangssprache (16 %) und in der Zielsprache<br />
(13 %) genannt.<br />
Bei den Quellen für die Terminologierecherche wurden in erster Linie<br />
die eigene Terminologiedatenbank angegeben; wenn dort keine Treffer<br />
gefunden wurden, wurde über Stichwörter in Suchmaschinen, in<br />
468<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Online-Terminologiedatenbanken und -Enzyklopädien, aber auch in<br />
mehrsprachigen Wörterbüchern gesucht.<br />
Abb. 2: Einschätzung der Wichtigkeit von Terminologiearbeit<br />
Bei den Problemen, die die Terminologiearbeit behindern, wurden sehr<br />
oft Zeitmangel oder fehlende (finanzielle) Würdigung des Aufwandes<br />
sowie veraltete, unzuverlässige oder qualitativ minderwertige terminologische<br />
Informationen genannt.<br />
Weitere Ergebnisse der Umfrage werden nach der endgültigen Auswertung<br />
veröffentlicht werden.<br />
Fazit<br />
Die Ermittlung der Nutzergruppen und ihrer terminologischen Bedürfnisse<br />
wird in die Konzeption und Implementierung der webbasierte<br />
TaaS-Plattform einfließen. Damit wird zum Projektende eine kooperative<br />
Anlaufstelle für alle Arten von Spracharbeitern zur Verfügung<br />
stehen, um terminologische Informationen und Dienstleistungen<br />
abzurufen.<br />
Anmerkung<br />
The project has received funding from the European Union Seventh<br />
Framework Programme (FP7/2007–2013), grant agreement no 296312.<br />
Projekt-Website: www.taas-project.eu<br />
klaus.schmitz@fh-koeln.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
469
Terminologie / Terminology<br />
TERM 10<br />
Partnerpräsentation<br />
Terminologie – fit für die Zukunft<br />
Christiane Jäger, Julius Blum GmbH, Höchst, Österreich<br />
Klaus Fleischmann, Kaleidoscope GmbH, Ma. Enzersdorf, Österreich<br />
Blum ist weltweit tätig und auf die Herstellung von Möbelfunktionsbeschlägen<br />
spezialisiert. Die Hauptproduktgruppen sind Klappen-, Scharnier-<br />
und Auszugsysteme für Möbel – speziell Küchen. Mit 27 internationalen<br />
Tochterunternehmen und 10 weltweiten Produktionsstandorten<br />
setzt Blum 1,3 Mrd. Euro um, 96 % davon im Ausland. Blum beschäftigt<br />
weltweit mehr als 5000 Mitarbeiter und ist in über 100 Ländern tätig.<br />
Die Verkaufsunterlagen werden in bis zu 32 Sprachen umgesetzt. Dies<br />
beweist die Bedeutung einer einheitlichen, mehrsprachigen Terminologie<br />
als Basis hochqualitativer Produkt-Information.<br />
Kaleidoscope kombiniert und erweitert als Lieferant von Sprachtechnologie<br />
marktführende Systeme wie SDL Trados mit eigenen Entwicklungen<br />
rund um die Themen Terminologie-Workflow, unternehmensweite<br />
Sprachprozesse, Übersetzerrückfragen, fachliche Prüfung etc. Diese<br />
webbasierten Workflow-Lösungen finden sich als quickTerm, Excelling<br />
MultiTerm, smartQuery oder globalReview im Markt wieder.<br />
Neue Ufer in der Terminologie<br />
In vielen Abteilungen international tätiger Unternehmen ist Terminologie<br />
mittlerweile zu einem wichtigen Bestandteil der täglichen Arbeit<br />
geworden. Häufig führen Terminologie-Projekte allerdings im Unternehmen<br />
ein Inseldasein und sind nicht kollaborativ und systematisch<br />
Teil der Unternehmensprozesse.<br />
Nach der Etablierung einer Term-Bank und deren unternehmensweiter<br />
Verwendung stellen sich oft neue Fragen für das Terminologie-Team:<br />
−−<br />
Wie können wir nicht nur die Terminologie-Nutzung, sondern auch<br />
die Terminologie-Abstimmung und ‐Pflege auf einen größeren Teilnehmerkreis<br />
ausweiten?<br />
−−<br />
Wie holen wir Kollegen zur Abstimmung und Bereicherung der Daten<br />
an Bord?<br />
−−<br />
Wie holen wir andere Abteilungen, mit anderen Anforderungen an<br />
Daten und Prozesse an Bord?<br />
−−<br />
Wie können wir Änderungen und Erweiterungen in der Term-Bank<br />
bei einem deutlich vergrößerten Teilnehmerkreis im Griff behalten?<br />
Diese Herausforderungen bedingen, neben einem klaren Committment<br />
zur Terminologie von oberster Stelle im Unternehmen, neue Überlegungen<br />
zu Prozessen, Technologie aber auch der Rolle und dem Selbst-<br />
Verständnis von Terminologen und anderen Mit-Arbeitern an der<br />
Terminologie.<br />
Die Ausgangslage bei Blum<br />
Seit vielen Jahren hat Blum als international tätiger österreichischer<br />
Leitbetrieb Terminologie-Arbeit betrieben. Die Marketingabteilung<br />
baute eine mehrsprachige Terminologie-Datenbank auf und pflegt diese<br />
laufend. Die Term-Bank enthielt neben Verwendungshinweisen auch<br />
Definitionen, Bilder und spiegelte den Status quo einer normativen<br />
Terminologie wider.<br />
470<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Als klassische Insel-Lösung war sie aber nicht Teil eines klar definierten<br />
Unternehmens-Prozesses. Die Einführung dieses Prozesses machten<br />
sich die Terminologie-Verantwortlichen der Marketingabteilung zur<br />
Aufgabe. Es wurden Prozesse erstellt und im Rahmen eines Workshops<br />
mit Hilfe des Partners Kaleidoscope in der Web-Lösung quickTerm<br />
modelliert:<br />
Die Workflows wurden in der Folge mehrmals überarbeitet, wobei vor<br />
allem die Komplexität reduziert wurde. Die derzeitige Testphase zeigt,<br />
dass der einsprachige Workflow bereits funktioniert. Für die Umsetzung<br />
des mehrsprachigen Workflows wartet man bei Blum auf die neue Version<br />
von quickTerm.<br />
Neue Herausforderungen<br />
Parallel zur Terminologie-Arbeit in der Marketingabteilung baute die<br />
Technikabteilung seit Jahren eine wesentlich pragmatischere, rein benennungsorientierte<br />
Term-Datenbank auf, die in erster Linie für die<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
471
Terminologie / Terminology<br />
Mehrsprachigkeit in Produktdatenbanken, Produktion und Software<br />
verwendet wurde.<br />
Nach zahlreichen Abstimmungsgesprächen gelang es, die Abteilung<br />
Technik von den Vorzügen einer begriffsorientierten Terminologie zu<br />
überzeugen. Ebenso konnte man sich einigen, dass eine gemeinsame<br />
Termbank für die Einheitlichkeit der Unternehmenssprache sicherlich<br />
Vorteile bietet.<br />
Die Marketingabteilung hat der Technikabteilung quickTerm präsentiert,<br />
die schnell davon überzeugt war. Die Technikabteilung hat nach<br />
einer Analyse des Marketing-Workflows einen den eigenen Bedürfnissen<br />
perfekt angepassten Workflow erarbeitet. Hier kommt einer der<br />
Vorzüge von quickTerm zum Tragen: Es sind mehrere Workflows parallel<br />
möglich, womit viele verschiedene Bedürfnisse abgedeckt werden<br />
können.<br />
So konnte der pragmatischere, weitgehend benennungs- und übersetzungsorientierte<br />
Workflow der Technikabteilung in den Gesamt-Prozess<br />
integriert werden.<br />
472<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
In der Folge wurde die Funktionalität von quickTerm erweitert: Der<br />
Übersetzer kann nun im Rahmen des „Übersetzungsauftrages“ über<br />
die Web-Plattform direkt mit dem Antragsteller in Kontakt treten und<br />
Rückfragen klären. Er kann unklare oder mehrdeutige ausgangssprachliche<br />
Benennungen vor der Übersetzung mit dem Terminologen<br />
abklären und erst dann eine Übersetzung bereitstellen. Somit können<br />
die Übersetzungsprozesse auch die Prägung der ausgangssprachlichen<br />
Benennungen beeinflussen.<br />
Aktueller Projektstand<br />
Die modellierten Prozesse der Marketingabteilung sind in quickTerm<br />
über die Web-Plattform realisiert und werden gelebt. Derzeit befindet<br />
sich Blum in der Pilotphase, in der vor allem Erfahrungen gesammelt<br />
werden, um gegebenenfalls noch Änderungen an den Workflows vorzunehmen.<br />
Im Rahmen des <strong>tekom</strong>-Vortrags werden wir die konkreten<br />
Ergebnisse bis dato vorstellen.<br />
Herausforderung Versionsmanagement<br />
Aufgrund der Arbeit verschiedener Abteilungen mit unterschiedlichen<br />
Anforderungen an Prozesse sowie inhaltlicher Natur ist eine Versionierung<br />
und Nachvollziehbarkeit der Änderungen in der Term-Bank notwendig<br />
geworden. Diese Funktion wird von der bei Blum eingesetzten<br />
Software (SDL MultiTerm Server) nicht unterstützt.<br />
Die Lösung quickTerm von Kaleidoscope ermöglicht allerdings ein<br />
regelmäßiges Ziehen von Momentaufnahmen der Term-Bank. Damit ist<br />
es möglich, den Stand der Term-Bank zwischen bestimmten Fixpunkten<br />
zu vergleichen. Änderungen können bis zum einzelnen Feld hinuntergebrochen,<br />
aber auch neue Einträge oder neue Informationen zu bestehenden<br />
Einträgen zielgenau ermittelt werden.<br />
Der Terminologe kann Änderungen dann erneut in die Freigabe oder<br />
Übersetzung schicken oder auf einen bestimmten Punkt zurücksetzen.<br />
Somit kann die abteilungsübergreifende Terminologie-Arbeit gut im<br />
Griff behalten werden.<br />
Abschlussbemerkung<br />
Zum Gelingen dieses Projekts tragen für Blum entscheidend bei:<br />
−−<br />
die genaue Analyse des Prozesses mit allen Beteiligten<br />
−−<br />
Workflows sollten nicht zu komplex sein (je einfacher der Workflow,<br />
desto größer die Akzeptanz)<br />
−−<br />
der Prozess sollte mit allen Beteiligten durchgespielt werden<br />
−−<br />
ausreichend Zeit für Testlauf/Pilotphase einplanen<br />
−−<br />
viel Überzeugungsarbeit ist notwendig<br />
für Rückfragen:<br />
klaus@kaleidoscope.at<br />
Christiane.Jaeger@blum.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
473
Terminologie / Terminology<br />
TERM 11<br />
Fachvortrag<br />
Unternehmen in der Terminologiefalle<br />
Rainer Lotz, Konica Minolta Business Solutions Europe GmbH, Hannover<br />
Ausgangslage für Terminologiefalle<br />
Es gibt eine bestehende Software mit z. B. 20.000 lines of code, übersetzt<br />
in 15 oder 20 Sprachen. Die Vorübersetzungen sind im Laufe der Jahre<br />
entstanden und terminologisch nicht konsistent.<br />
Man hat sich entschieden, Terminologie einzuführen und zukünftig<br />
anzuwenden.<br />
Man extrahiert z. B. aus dieser Software 100 Begriffe und übersetzt diese<br />
separat und trägt sie in einer Terminologie Datenbank ein und wendet<br />
diese 100 Begriffe bei einer Erweiterung der Software an.<br />
Oder man wartet auf einen Übersetzungsauftrag für die Erweiterung<br />
dieser Software, extrahiert bei diesem Auftrag z. B. 100 Begriffe, übersetzt<br />
diese separat und trägt diese Übersetzung in eine gesonderte<br />
Terminologie-Datenbank ein und verwendet sowohl bei diesem Erweiterungsauftrag<br />
als auch zukünftig nur noch diese Übersetzung.<br />
D. h., die Erweiterung der Software ist dann terminologisch konsistent.<br />
Was hat man dadurch erreicht? Nur und ausschließlich die Erweiterung<br />
ist konsistent. Wenn man jetzt die gesamte Software terminologisch<br />
konsistent machen wollte, müsste man alle bestehenden Übersetzungen<br />
an die Terminologie angleichen. Dies wird aus Kosten- und Zeitgründen<br />
häufig nicht geschehen, sondern man belässt die alten Übersetzungen,<br />
wie sie sind.<br />
Man befindet sich in der Terminologiefalle: Einerseits ist die Erweiterung<br />
konsistent, aber bestehende Übersetzungen bleiben inkonsistent,<br />
d. h., man hat trotz Terminologie Inkonsistenzen.<br />
Komplettes Angleichen<br />
Partielles Angleichen<br />
Ausgangssprache<br />
durchgehen<br />
Wege aus der Terminologiefalle<br />
Man betrachtet auch die Vorübersetzungen und gleicht diese an die Terminologie<br />
an. Dadurch hat man aber einen erheblich höheren und längeren<br />
Aufwand, denn ursprünglich war ja nur die Erweiterung von z. B.<br />
1000 neuen line of codes geplant. Außerdem sollte man bei Änderungen<br />
in den Übersetzungen auch weiterführende Prozesse (z. B. Softwareentwicklung)<br />
im Auge haben.<br />
Komplettes Angleichen wird in den seltensten Fällen aus Zeit und Kostengründen<br />
durchgeführt.<br />
Man sucht absolute key-key Begriffe, die man unbedingt angleichen will<br />
und muss. Und der Rest? Dann könnte man die Terminologie gleich nur<br />
auf diese 10 key-key Begriffe beschränken. Auch hier gilt wieder: Nachfolgende<br />
Prozesse: Wenn man innerhalb von kurzen Zeitabständen 300<br />
Altübersetzungen ändert und in 2 Monaten wieder 500, dann könnte<br />
dies zu Verwirrungen bei der Softwareentwicklung führen.<br />
Ein möglicher Weg ist auch, die Ausgangssprache zu analysieren und<br />
bei den Entwicklungsabteilungen anzufragen, ob tatsächlich jeder übersetzte<br />
String in der aktuellen Software-Version benötigt wird.<br />
474<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Ebenso dürfte ein Ergebnis der Analyse der Ausgangssprache eine große<br />
Anzahl an Homonymen und Varianten sein.<br />
Wenn die Ausgangssprache dann klar ist, dann wird man sich wohl<br />
dazu durchringen müssen, die Altübersetzungen bei einem genügend<br />
großen Datenbestand an übersetzter Terminologie komplett zu bereinigen.<br />
Ansonsten wird man das Ziel konsistente Übersetzungen niemals<br />
erreichen.<br />
Fazit: Terminologie hat sehr viel mit der Ausgangssprache zu tun – und<br />
je mehr übersetzte terminologisch nicht konsistente lines of code vorliegen,<br />
desto schwieriger und aufwendiger wird eine nachträgliche<br />
Bereinigung.<br />
Rainer.lotz@konicaminolta.eu<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
475
Terminologie / Terminology<br />
TERM 12<br />
Fachvortrag<br />
Auch Wörter sind Zeichen –<br />
auf der Suche nach der<br />
Vorzugsbenennung hilft die Semiotik<br />
Lars Schiller, ZINDEL AG, Hamburg<br />
Sprache ist ein System aus Zeichen. Die einzelnen Zeichen übermitteln<br />
Informationen. Mit den Zeichen als Mittel der Kommunikation beschäftigt<br />
sich die Semiotik.<br />
Das semiotische Dreieck – mit seinen Eckpunkten Gegenstand, Begriff<br />
und Benennung – gilt als Grundlage der Terminologielehre. Weitere<br />
Aspekte der Semiotik werden jedoch nur am Rande berücksichtigt. Zu<br />
Unrecht. Denn die Semiotik kennt die besten Vorzugsbenennungen.<br />
Während Terminologen zunächst auf den Begriff schauen und sich<br />
dann überwiegend nach formalen Kriterien für eine Vorzugsbenennung<br />
entscheiden, untersuchen Semiotiker, wie eine Benennung verwendet<br />
und vom Empfänger interpretiert wird. Eine solche Betrachtungsweise<br />
ermöglicht es, die Vorzugsbenennung anhand zusätzlicher Kriterien<br />
besser festzulegen.<br />
Die Benennung als Zeichen<br />
Wörter, Symbole und Gesichtsausdrücke – dies sind nur drei Beispiele<br />
für unterschiedliche Zeichen. Man kann verbale und nonverbale<br />
Zeichen unterscheiden, mündliche und schriftliche Zeichen, optisch,<br />
akustisch und haptisch wahrnehmbare Zeichen. Abgesehen von den<br />
ikonischen Warnzeichen werden in Technischer Dokumentation überwiegend<br />
Zeichen in Form von Benennungen verwendet.<br />
Jede Benennung, die in einer Technischen Dokumentation enthalten<br />
ist, sendet ein Signal aus. Doch wie versteht der Empfänger des Signals<br />
diese Benennung? Welche Information vermittelt sie ihm? Welche Bedeutung<br />
schreibt er der Benennung zu?<br />
Gerade in Technischer Dokumentation ist es entscheidend, unzweideutige<br />
Benennungen zu verwenden, damit der Leser (Empfänger) den<br />
Sinn der Aussage zweifelsfrei versteht und entsprechend handeln kann.<br />
Syntaktik, Semantik und Pragmatik<br />
Drei wesentliche Zeichendimensionen lassen sich unterscheiden:<br />
Die Syntaktik, die Semantik und die Pragmatik (nach Göpferich 1998,<br />
S. 31–39).<br />
Jede Benennung, die in einer Technischen Dokumentation verwendet<br />
wird, muss syntaktisch einwandfrei sein. Ein Empfänger muss jede<br />
Benennung klar erkennen können. Das beginnt mit der Lesbarkeit<br />
aufgrund des Kontrasts und der Schriftgröße. Vor allem aber wird die<br />
Erkennbarkeit durch den Bau der Benennung (Morphologie) und den<br />
Satzbau (Syntax) sichergestellt. Die Bedeutung der Benennung, ihr<br />
Sinn, spielt zunächst noch keine Rolle.<br />
Doch es genügt nicht, eine Benennung als Zeichen zu erkennen.<br />
Jede Benennung muss auch semantisch einwandfrei sein. Die Beziehung<br />
zwischen der Benennung und dem bezeichneten Begriff muss<br />
476<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
unmissverständlich sein. Nur so kann der Empfänger die Bedeutung<br />
des syntaktisch einwandfrei gestalteten Zeichens eindeutig interpretieren.<br />
Nur so hat er die richtigen Assoziationen und Konnotationen. Nur<br />
so versteht er den Sinn.<br />
Schließlich muss jede Benennung auch pragmatisch einwandfrei sein.<br />
Das syntaktisch einwandfrei wahrgenommene und semantisch richtig<br />
verstandene Zeichen löst beim Empfänger eine Handlung aus. Die<br />
Benennung muss ihn also in die Lage versetzen, die in seiner Situation<br />
richtige Entscheidung zu treffen.<br />
Wahl der Vorzugsbenennung<br />
Vornehmliches Ziel der Terminologiearbeit ist es, alle Benennungen<br />
für einen Begriff zusammenzustellen (deskriptive Terminologiearbeit)<br />
und anschließend die Vorzugsbenennung festzulegen (präskriptive<br />
Terminologiearbeit).<br />
In der Phase der deskriptiven Terminologiearbeit gehen die Terminologen<br />
vom Begriff aus; sie ordnen diesem Begriff die unterschiedlichen<br />
synonymen Benennungen zu. Diese onomasiologische Vorgehensweise<br />
(vom Begriff zur Benennung) garantiert, dass alle Benennungen für<br />
einen Begriff gefunden werden.<br />
In der anschließenden Phase der präskriptiven Terminologiearbeit geht<br />
es darum, die verschiedenen Benennungen für einen Begriff zu bewerten.<br />
Am Ende wird die Vorzugsbenennung festgelegt.<br />
Doch welche Benennung wird zur Vorzugsbenennung erklärt? Und wie<br />
wird die Festlegung begründet?<br />
Oftmals werden für die Entscheidung statistische Kriterien herangezogen.<br />
Untersucht wird, welche Benennung am häufigsten verwendet<br />
wird, welche in den zuverlässigsten Quellen verwendet wird oder aktuell<br />
überwiegend verwendet wird (vgl. Drewer u. Ziegler 2011, S. 173).<br />
Eine Benennung wird aber auch nach sprachlichen Kriterien beurteilt,<br />
z. B. nach „Genauigkeit“, „Knappheit“ und „Orientierung am anerkannten<br />
Sprachgebrauch“. Berücksichtigt werden auch „Ableitbarkeit“, „Motiviertheit“<br />
und „Eindeutigkeit“ (ebd., S. 173–175). Außerdem werden<br />
Benennungsbildungsregeln berücksichtigt, die z. B. festlegen, wie komplex<br />
eine Benennung sein darf und wo Bindestriche verwendet werden<br />
müssen (vgl. ebd., S. 175–178).<br />
All dies sind berechtigte Kriterien. Aber nicht in jedem Fall wird die<br />
beste und treffendste Benennung zur Vorzugsbenennung gekürt. Denn<br />
es steht keineswegs fest, dass die genannten Regeln auch der Pragmatik<br />
förderlich sind. Ein mahnender Rat lautet daher: „Ein Terminologe muss<br />
sich nicht nur um die Semantik kümmern, sondern auch um die Pragmatik“<br />
(Schmitt 2008, S. 47).<br />
Unterstützung durch die Semiotik<br />
Natürlich erleichtern formale Kriterien dem Terminologen die Arbeit.<br />
Doch über all den formalen Kriterien wird zuweilen der Leser vergessen.<br />
Welche Folgen hat die Festlegung einer Vorzugsbenennung? Welche<br />
Bedeutung verknüpft der Leser mit der Benennung? Und welche<br />
Handlungen sind die Folge?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
477
Terminologie / Terminology<br />
Die Semiotik mit ihrem semasiologischen Ansatz (von der Benennung<br />
zum Begriff) hilft dabei, die beste Vorzugsbenennung zu finden. Sie<br />
urteilt nicht nach rein formalen Kriterien, sondern sie fragt nach dem<br />
Verständnis. Nachdem ein Kandidat für die Vorzugsbenennung gefunden<br />
wurde, sollte die Benennung aus Sicht eines Semiotikers analysiert<br />
werden.<br />
Ein Semiotiker nähert sich einer Benennung an. Er betrachtet sie von<br />
außen und untersucht, was ein Leser ihr ansehen kann, ohne ihren Inhalt<br />
– ihre Bedeutung – zu kennen. Vor allem motivierte Benennungen<br />
sind geeignet, den Leser auf die richtige Fährte zu bringen.<br />
Doch welche konkreten Assoziationen – Vorstellungen – löst die Benennung<br />
aus? Und welche Konnotationen – zusätzlichen Vorstellungen<br />
– sind mit ihr verbunden? Unbewusst wird immer auch nach der<br />
übergeordneten Benennung (Hyperonym) und den untergeordneten<br />
Benennungen (Hyponymen) gesucht sowie nach der entgegengesetzten<br />
Benennung (Antonym). Und die Benennung wird mit ähnlichen,<br />
bekannten Benennungen verglichen oder etymologisch zerlegt. Sowohl<br />
Assoziationen als auch Konnotationen beeinflussen das Verständnis. Sie<br />
sind allerdings überwiegend vom Bildungsniveau des Lesers abhängig.<br />
Doch fest steht, dass jede Benennung Konnotationen auslöst (vgl. Eco<br />
1972, v. a. S. 108–111). Insofern lässt sich die Forderung der Terminologen<br />
nach „Konnotationsfreiheit“ (z. B. bei Drewer u. Ziegler 2011, S. 174)<br />
nicht erfüllen. Stattdessen ist es wichtig, eine Vorzugsbenennung zu<br />
wählen, die mit hoher Wahrscheinlichkeit keine irreführenden oder<br />
negativen Konnotationen weckt.<br />
Eine semiotische Bewertung kann dazu beitragen, eine Benennung zu<br />
finden, unter der sich ein Leser den richtigen Begriff bildet. Zwar folgt<br />
eine solchermaßen festgelegte Vorzugsbenennung nicht immer den formalen<br />
Kriterien der Benennungsbildung. Aber sie sorgt für die richtigen<br />
Handlungen.<br />
Literatur<br />
−−<br />
Drewer, Petra; Wolfgang Ziegler (2011): Technische Dokumentation<br />
– Übersetzungsgerechte Texterstellung und Content-Management;<br />
Vogel Buchverlag, Würzburg 2011<br />
−−<br />
Eco, Umberto (1972): Einführung in die Semiotik. 9. Auflage; Wilhelm<br />
Fink Verlag, Paderborn 2002<br />
−−<br />
Göpferich, Susanne (1998): Interkulturelles Technical Writing – Fachliches<br />
adressatengerecht vermitteln; Gunter Narr Verlag, Tübingen<br />
1998<br />
−−<br />
Schmitt, Peter A. (2008): Terminologie und Fachlexikographie; in:<br />
Jörg Hennig; Marita Tjarks-Sobhani (Hrsg.): Terminologiearbeit für<br />
Technische Dokumentation; Verlag Schmidt-Römhild, Lübeck 2008,<br />
S. 39–53<br />
für Rückfragen: lars.schiller@zindel.de<br />
478<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
TERM 14<br />
Tutorial<br />
Der Terminologiekreis: Unternehmensweite<br />
Abstimmungsprozesse planen und leiten<br />
Tamara Arndt, infolox GmbH, Dortmund<br />
Dr. Rachel Herwartz, TermSolutions, Dormagen<br />
Terminologiemanagement im Unternehmen<br />
Durch Terminologiemanagement im Unternehmen wird versucht, die in<br />
der internen und externen Kommunikation verwendete Terminologie<br />
zu vereinheitlichen und wenn möglich für einen Begriff auch nur eine<br />
Benennung als erlaubt festzulegen. So sollen u. a. Missverständnisse<br />
vermieden, Kosten bei Übersetzungen gesenkt und die Qualität der Texte<br />
in Ausgangs- und Zielsprache erhöht werden.<br />
Dass professionelles Terminologiemanagement für Unternehmen von<br />
großem Nutzen ist und zahlreiche Vorteile mit sich bringt, ist auch hinreichend<br />
bekannt und wurde in vielen Veröffentlichungen und Vorträgen<br />
dokumentiert. So verwundert es nicht, dass die Zahl der Firmen, die<br />
Terminologiearbeit unternehmensweit betreiben möchten, stetig steigt.<br />
Doch ein Terminologe oder Terminologieverantwortlicher allein kann<br />
nicht entscheiden, welche Benennungen von nun an im Unternehmen<br />
verwendet und welche verboten werden sollen. Viele verschiedene Abteilungen<br />
möchten an der Entscheidungsfindung beteiligt sein. Hierfür<br />
ist die Festlegung eines Terminologieworkflows und Abstimmungsprozesses<br />
notwendig.<br />
Firmenspezifische Abstimmungsprozesse<br />
So unterschiedlich Firmen und Branchen sein können, so firmenspezifisch<br />
sollten auch Abstimmungsprozesse und Terminologieworkflows<br />
gestaltet werden. Es wäre falsch zu glauben, dass es „den einen“ Abstimmungsprozess<br />
gibt, der von jedem Unternehmen verwendet werden<br />
kann. Dafür sind verschiedene Faktoren verantwortlich:<br />
Zum einen gibt die Zeitspanne des Produktentwicklungsprozesses dem<br />
Terminologen oder Terminologenteam mehr oder weniger Zeit, neue<br />
Benennungen terminologisch zu erarbeiten, zu vereinheitlichen und<br />
abzustimmen, bevor die ersten Dokumente über das neue Produkt oder<br />
die neue Dienstleistung in den Umlauf gehen.<br />
Zum anderen hängt der Abstimmungsprozess auch stark davon ab, wie<br />
verzahnt oder unabhängig voneinander verschiedene Unternehmensbereiche<br />
und Produktlinien angelegt sind.<br />
Ein weiterer, alles entscheidender Faktor für die Ausrichtung der Abstimmungsprozesse<br />
im Unternehmen sind die Ressourcen, die das Unternehmen<br />
für Terminologiearbeit freigibt:<br />
−−<br />
Wird den Terminologieverantwortlichen Arbeitszeit für Terminologiearbeit<br />
zugestanden oder soll dies „nebenbei“ geschehen?<br />
−−<br />
Wie viele Abteilungen sollen oder möchten am Abstimmungsprozess<br />
beteiligt sein?<br />
−−<br />
Sollen die Abteilungsleiter selbst an möglichen Terminologiekreisen<br />
teilnehmen und wenn ja, ist dies zeitlich und finanziell überhaupt<br />
realistisch?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
479
Terminologie / Terminology<br />
Dies sind nur einige Fragen und Faktoren, die Abstimmungsprozesse im<br />
Unternehmen beeinflussen.<br />
Den Terminologiekreis planen und leiten<br />
Ist nach Klärung dieser Fragen und Einbeziehung der Faktoren in der<br />
Theorie nun klar, welche Abstimmungsprozesse notwendig sind, um<br />
den firmenspezifischen Anforderungen an Terminologiearbeit gerecht<br />
zu werden, folgt natürlich die Umsetzung in die Praxis. Oft stellt sich<br />
dabei heraus, dass in der Theorie doch noch nicht alle Eventualitäten<br />
bedacht wurden.<br />
In unserem Tutorial zeigen wir Ihnen anhand von vielen Beispielen, wie<br />
Sie einen dynamischen Abstimmungsprozess entwerfen können, welche<br />
Personenkreise dabei für die Terminologiearbeit relevant sind und<br />
wie diese nutzbringend und ressourcenschonend eingesetzt werden<br />
können.<br />
Zum Weiterlesen<br />
T. Arndt: „Unternehmensweite Terminologiearbeit – Eine Kategorisierung<br />
von Abstimmungsprozessen und Terminologiekreisen“, in: Mayer, Felix;<br />
Schmitz, Klaus-Dirk (Hrsg.)(<strong>2012</strong>): Terminologieprozesse und Terminologiewerkzeuge.<br />
Akten des Symposions. Deutscher Terminologie Tag<br />
e.V., Heidelberg, 19.–21. April <strong>2012</strong>. München/Köln: SDK.<br />
für Rückfragen:<br />
tamara.arndt@infolox.de<br />
herwartz@termsolutions.de<br />
480<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
TERM 15<br />
Workshop<br />
Der Weg zum effizienten<br />
Terminologiemanagement<br />
Christine Schmacht und Ilka Kurfess, cognitas GmbH, Fellbach<br />
In der Praxis erweist es sich oft als Herausforderung, Konzepte für effizientes<br />
Terminologiemanagement umzusetzen. Mit Blick auf die Strukturen<br />
im jeweiligen Unternehmen sollten zuerst die notwendigen Prozesse<br />
für effiziente Terminologiearbeit definiert werden. Ebenso wichtig<br />
ist ein Regelwerk, das die Qualität der Terminologiearbeit sicherstellt.<br />
Wer<br />
Was<br />
Wie<br />
Einstieg ins Terminologiemanagement<br />
Bevor der Startschuss für das Terminologiemanagement fällt, müssen<br />
die Verantwortlichen die Anforderungen an festzulegende<br />
Fachsprache(n) und Prozessschritte erarbeiten. Zu stellende Fragen<br />
sind:<br />
Wer ist beteiligt?<br />
Produktbeschreibende Texte entstehen in mehr Abteilungen als nur<br />
in der kundenbezogenen Dokumentationsstelle. Sowohl in den Konstruktionsabteilungen<br />
als auch beim Marketing und bei der Reparaturbeschreibung<br />
entstehen Texte mit Fachsprache. Umfassende Terminologiearbeit<br />
sollte diese Textsorten beachten und vereinheitlichen. Eine<br />
Benennung über alle Ebenen des Produktlebenslaufs hinweg ist das<br />
anzustrebende Ziel.<br />
Ebenfalls nicht zu unterschätzen ist der technische und personelle Aufwand.<br />
Zu entscheiden ist, was intern geleistet werden kann und wobei<br />
externe Unterstützung notwendig ist. Welche Personen sind bei der Benennungsbildung<br />
beteiligt? Welche Personen legen verbindlich fest und<br />
welche sind im Abstimmungs- und Beratungsprozess involviert?<br />
Was wird in der Terminologiedatenbank angelegt?<br />
Nachdem das „Wer“ geklärt ist, muss festgelegt werden, was Fachsprache<br />
und Terminologiearbeit für das Unternehmen bedeuten. Festzulegen<br />
ist, welche Bereiche oder Abteilungen eines Unternehmens mit<br />
Terminologiearbeit starten. Wird mit einer unternehmensweiten und<br />
übergreifenden Fachsprache gestartet? Oder ist erst einmal nur eine<br />
von mehreren im Unternehmen verwendeten Fachsprachen festzuhalten?<br />
Sollen auch allgemeinsprachliche Benennungen festgelegt werden,<br />
um somit eine kontrollierte Sprache zu gewährleisten?<br />
Wie findet man den Bestand für die Begriffsdatenbank?<br />
Möglichkeiten für den Start und einen Basisbestand gibt es viele: Zum<br />
Beispiel kann mit einer Termextraktion begonnen werden, die nach Abteilungen<br />
oder Textarten vorgenommen wird. Wörterbücher des Übersetzungsdienstes<br />
oder bereits begonnene Wortlisten von Mitarbeitern<br />
können ebenso Quellen sein.<br />
Nach der ersten Sichtung eines möglichen Bestands werden Regelprozesse<br />
benötigt: Wie werden neue Begriffe in die Datenbank<br />
aufgenommen?<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
481
Terminologie / Terminology<br />
Wo<br />
Wann<br />
Bestandsanalyse<br />
Fragenkatalog<br />
Benennungsgrundsätze<br />
Definitionsleitfaden<br />
Ziele<br />
Wo anfangen?<br />
Sollen für die Terminologiearbeit einzelne Mitarbeiter aus mehreren<br />
Fachbereichen eingebunden werden? Oder startet ein Fachbereich als<br />
Pilotprojekt mit der Terminologiearbeit? Welcher Fachbereich eignet<br />
sich am besten, wo findet man die am besten geeigneten Mitarbeiter<br />
(Stichworte: Qualifikation und Motivation)?<br />
Wann (und wie) erfolgt der Regelbetrieb?<br />
Ab wann wird die Terminologie an welche Nutzer verteilt? Sowohl der<br />
Startzeitpunkt für die Verteilung der Terminologie muss geklärt sein,<br />
als auch, welche Fachbereiche zu welchem Zeitpunkt zusätzlich an der<br />
Terminologiearbeit beteiligt werden.<br />
Für die Terminologiebearbeitung muss geklärt sein, wer wann welchen<br />
Input zu liefern hat.<br />
Grundlagenarbeit<br />
Zuerst müssen die Anforderungen aller beteiligten Fachbereiche und<br />
deren unterschiedliche Dokumentationsarten analysiert werden.<br />
Ein Fragenkatalog schafft Klarheit über unternehmensspezifische Rahmenbedingungen<br />
wie z. B. Beteiligte, Ziele, Umfang (Budget/Kapazitätsplanung),<br />
Managementunterstützung, Zeitraum für Pilotphase usw.<br />
Danach folgt als Pilotphase eine Sichtung des Bestands. Anhand von<br />
Mustertexten werden Termkandidaten extrahiert und identifiziert. Um<br />
die Begriffe erkennen zu können, müssen Definitionen erstellt werden.<br />
Aus den Ergebnissen der Analysen und der Textarbeit lässt sich ableiten,<br />
welche Arten von Begriffen benötigt werden.<br />
Regelwerke<br />
Somit erhält man die Basis für die Regelwerke. Das benötigte Minimum<br />
an Inhalten lässt sich an den Zielen ableiten.<br />
Ziel 1: Nachvollziehbarkeit und Einheitlichkeit<br />
−−<br />
Benennungsauswahl und Benennungsbildung (Benennungsgrundsätze)<br />
−−<br />
Definitionsleitfaden<br />
Ziel 2: Wissensmanagement und Akzeptanz<br />
−−<br />
Grundlagen und Ziele der Terminologiearbeit<br />
−−<br />
Prozesse<br />
Die Benennungsgrundsätze enthalten Regeln zur Benennungsauswahl<br />
und Benennungsbildung. Merkmale und Granularität der Fachwörter<br />
werden dargestellt, d. h., was zählt zur Fachsprache mit Beachtung der<br />
Besonderheiten des Unternehmens und der festgelegten Zielgruppe.<br />
Die Grundsätze machen die Entscheidung für oder gegen eine Benennung<br />
nachvollziehbar.<br />
Der Definitionsleitfaden enthält Regelungen, die dafür sorgen, dass<br />
prägnante, zielgruppengerechte Definitionen entstehen und die Anforderungen<br />
der Terminologienutzer erfüllt werden.<br />
In den verschiedenen Abteilungen soll nachvollzogen werden können,<br />
warum „man so viel Aufwand um ein paar Wörter betreibt“. Dafür<br />
müssen die Grundlagen und Ziele der Terminologiearbeit für alle<br />
482<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Terminologie / Terminology<br />
Prozesse<br />
Akzeptanz<br />
Technik<br />
Fazit<br />
zugänglich festgehalten werden. Diese Ziele zeigen den konkreten<br />
Nutzen für das Unternehmen.<br />
Akzeptanz wird durch Transparenz geschaffen. Die Abläufe zur Benennungsbildung<br />
werden in Prozessbeschreibungen festgehalten. Sie bilden<br />
den äußeren Rahmen zur inhaltlichen Festlegung der Terminologie.<br />
Notwendige Prozesse sind z. B.<br />
−−<br />
Auswahl und Abstimmung der Benennung,<br />
−−<br />
Beantragung,<br />
−−<br />
Verbreitung,<br />
−−<br />
Sonderprozesse (Änderungsmanagement, Eskalation, neue<br />
Beteiligte).<br />
Kommunikation<br />
Wenn die Grundlagen geklärt sind, müssen die Beteiligten informiert<br />
werden. Kommunikation schafft Transparenz und Akzeptanz. Allen<br />
Beteiligten muss jederzeit deutlich sein, warum und wie Terminologie<br />
entsteht und eingesetzt wird.<br />
Mögliche Instrumente zur Kommunikation sind z. B.<br />
−−<br />
Schulungen,<br />
−−<br />
Newsletter,<br />
−−<br />
Onlinehilfe zur Datenbank oder Wiki,<br />
−−<br />
Hotline,<br />
−−<br />
regelmäßige Besprechungen.<br />
Nicht vergessen: Selbst wenn von Anfang an alles geregelt und nachvollziehbar<br />
festgelegt wird, ist Sprache dennoch lebendig. Deshalb ist<br />
ein wichtiger Prozess das Änderungsmanagement. Auch dieser Prozess<br />
muss von Anfang an mit geplant und kommuniziert werden.<br />
Neben den inhaltlichen Fragen stehen die technischen Fragen. Mit<br />
welchen Werkzeugen kann Terminologie verwaltet und verteilt werden?<br />
Wie wird die optimale Verwendung sichergestellt? Welche Datenbankstrukturen<br />
und Textprüftools sind notwendig? Wie könnte eine Minimallösung<br />
aussehen?<br />
Wenn alle Aspekte frühzeitig betrachtet und geklärt sind, wird Terminologie<br />
erfolgreich erstellt und genutzt. Unliebsame Änderungen und<br />
kräftezehrende Diskussionen werden auf das Notwendigste reduziert.<br />
für Rückfragen:<br />
christine.schmacht@cognitas.de<br />
ilka.kurfess@cognitas.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
483
User Assistance
User Assistance<br />
UA 1<br />
Fachvortrag<br />
Soziale Funktionen zu verträglichen Kosten<br />
Marc Achtelig, indoition engineering, Zirndorf<br />
Immer mehr Hersteller von Redaktionssystemen bieten Funktionen für<br />
die Anbindung von „User Generated Content“ an – teils zu erheblichen<br />
Aufpreisen. Eine Web-basierte Online-Hilfe mit Social-Media-Funktionen<br />
aufzuwerten, ist jedoch auch ohne aufpreispflichtige Zusatzpakete<br />
möglich. Zahlreiche frei erhältliche Lösungen bieten genau dasselbe:<br />
Bewertungsfunktionen, Kommentarfunktionen, Wikis.<br />
Zur Integration einer solchen Lösung brauchen Sie kein Spezialistenwissen.<br />
Ganze Seiten einbinden<br />
Inhalte innerhalb eines<br />
Topics einbinden<br />
Szenarien<br />
Zur Verknüpfung einer Online-Hilfe mit Social-Media-Funktionen gibt<br />
es unterschiedliche Ansatzpunkte. Je enger die Verzahnung, desto komplexer<br />
wird es sowohl organisatorisch als auch technisch.<br />
Die einfachste Form besteht darin, eine komplette Seite über das Inhaltsverzeichnis<br />
einzubinden. Statt auf ein internes Topic aus der Online-Hilfe<br />
verweist der Eintrag auf eine externe Seite, die dann jedoch<br />
innerhalb des Hilfefensters angezeigt wird.<br />
Anwendungsbeispiele:<br />
––<br />
Integration eines Forums<br />
––<br />
Integration der eigenen Präsenz in einem sozialen Netzwerk<br />
––<br />
Integration bestimmter Inhalte und Funktionen der eigenen Unternehmens-Website<br />
(z. B. Shop für Zubehör)<br />
Komplexere Verknüpfungen bestehen darin, externe Inhalte gezielt an<br />
bestimmten Stellen innerhalb eines Hilfe-Topics einzubinden.<br />
Anwendungsbeispiele:<br />
––<br />
Bewertungsfunktion<br />
––<br />
Kommentarfunktion<br />
––<br />
Notizfunktion<br />
––<br />
durch Benutzer editierbare Inhalte (Wiki-Funktion)<br />
Organisatorische Voraussetzungen<br />
Nicht alles, was technisch möglich ist, ist auch sinnvoll.<br />
Die wichtigsten Vorteile sind:<br />
––<br />
Benutzer fühlen sich ernst genommen und an der Entwicklung des<br />
Produkts beteiligt. Das fördert die Kundenbindung.<br />
––<br />
Als Hersteller erhalten Sie unmittelbares Feedback über Schwachpunkte<br />
an Produkt und Dokumentation.<br />
––<br />
Benutzer erhalten ergänzende Hilfestellungen, wo diese in der Dokumentation<br />
fehlen.<br />
––<br />
Sie sparen oder erleichtern sich redaktionelle Arbeit („User Generated<br />
Content“)<br />
Die wichtigsten Nachteile sind:<br />
––<br />
Die beigetragenen Informationen können falsch, unvollständig oder<br />
„politisch unerwünscht“ sein.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
487
User Assistance<br />
––<br />
Die beigetragenen Informationen können schlecht verständlich sein.<br />
––<br />
Wenn Sie eine Bewertungsfunktion einbinden und die Bewertungen<br />
negativ ausfallen, schwindet die Glaubwürdigkeit Ihres Dokuments.<br />
Ob Sie tatsächlich eine Kommentarfunktion integrieren sollten, muss<br />
also gut überlegt sein. Vielleicht eignen sich dafür auch nur einzelne<br />
Teile der Dokumentation oder nur besondere Topics. In jedem Falle<br />
benötigen Sie eine ausreichend große Anzahl an Benutzern, die bereit<br />
sind, aktiv Inhalte beizutragen. Nur selten sind dies mehr als 1 Prozent<br />
aller Nutzer. Am Anfang müssen Sie eventuell selbst aktiv werden, um<br />
eine Diskussion anzustoßen. Auch sollten Sie schon im Vorfeld sicherstellen,<br />
dass eine Person Ihres Unternehmens später eine konstante<br />
Kontrolle und Moderation der Inhalte übernimmt.<br />
Internetverbindung<br />
und Webserver<br />
HTML-Snippets<br />
Hosted Services<br />
(Comment Provider)<br />
Technische Voraussetzungen<br />
Die Hilfe muss auf einem Webserver liegen. Benutzer brauchen zwingend<br />
einen Internetzugang auf dem Computer, auf dem die Hilfe angezeigt<br />
wird.<br />
Um Inhalte innerhalb eines Topics einbinden zu können, brauchen Sie<br />
Zugriff auf den generierten HTML-Code. Ideal ist es, wenn Sie die Topic-Templates<br />
direkt editieren können, in den meisten Fällen reicht es<br />
jedoch, wenn Ihr Help-Authoring-Tool das Einfügen von HTML-Snippets<br />
unterstützt. Nahezu alle aktuellen Help-Authoring-Tools erfüllen<br />
diese Voraussetzung, selbst die Tools aus dem unteren Preissegment.<br />
Eine Alternative besteht darin, mit Hilfe eines leistungsfähigen<br />
Search-and-Replace-Tools den erzeugten HTML-Code nachträglich<br />
anzupassen.<br />
Lösung 1: Integration einer Kommentar- und Bewertungsfunktion<br />
Abgesehen von der direkt in das Help Authoring Tool integrierten Unterstützung<br />
ist die einfachste Möglichkeit, Community Features in eine<br />
Web-basierte Online-Hilfe zu integrieren, dafür einen (oft kostenlosen)<br />
externen Provider zu nutzen.<br />
Vorteile:<br />
––<br />
Meist JavaScript-basiert. Online-Hilfe bleibt reines HTML.<br />
––<br />
Kein eigener Server mit PHP-Unterstützung und keine eigene SQL-<br />
Datenbank erforderlich.<br />
––<br />
Minimaler Konfigurations- und Wartungsaufwand.<br />
––<br />
Großes Funktionsspektrum (teilweise kostenpflichtig)<br />
Nachteile:<br />
––<br />
Abhängigkeit von der Verfügbarkeit des jeweiligen Dienstes.<br />
––<br />
Daten liegen nicht auf dem eigenen Server.<br />
––<br />
Von manchen Benutzern evtl. als semiprofessionell empfunden, wenn<br />
externer Service genutzt wird.<br />
Bei Ihrer Anmeldung erhalten Sie vom Provider ein fertiges JavaScript,<br />
das Sie an der Stelle in Ihr Topic-Template oder Ihre Topics einfügen<br />
müssen, an der die Kommentare erscheinen sollen. Wenn Sie jetzt die<br />
Hilfe generieren, ist die Kommentar-Funktion bereits fertig integriert.<br />
Die Verwaltung der Kommentare erledigen Sie über den Online-Zugang<br />
beim Provider.<br />
488<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
Auf dem eigenen<br />
Webserver installierte<br />
Lösungen<br />
Schritt 1: Datenbank<br />
anlegen<br />
Schritt 2: Skript<br />
installieren<br />
Schritt 3: Code-<br />
Snippets integrieren<br />
Die bekanntesten und zumindest in der Basisversion kostenlosen<br />
Dienste sind:<br />
––<br />
DISQUS (http://www.disqus.com)<br />
––<br />
IntenseDebate (http://intensedebate.com)<br />
Am flexibelsten bleiben Sie, wenn Sie eine Lösung auf Ihrem eigenen<br />
Webserver installieren. Hierzu gibt es sowohl kommerzielle PHP-Skripte<br />
als auch gute Open-Source-Systeme.<br />
Im Folgenden zeigen wir Ihnen die Integration am Beispiel des Open-<br />
Source-Systems Commentics (http://www.commentics.org). Die Installation<br />
und Anbindung ist auch dann eine gut zu bewerkstelligende<br />
Aufgabe, wenn Sie bisher noch keine Erfahrung mit einer Installation<br />
auf einem Web-Server haben.<br />
Für die Installation benötigen Sie einen Web-Server mit PHP und SQL<br />
sowie einen FTP-Zugang zu diesem Server.<br />
Im ersten Schritt müssen Sie auf Ihrem Server eine SQL-Datenbank<br />
anlegen. Über die Administrationsoberfläche Ihres Providers geht das<br />
meist per Knopfdruck. Notieren Sie sich den Namen der Datenbank,<br />
den Benutzernamen, das Passwort sowie den Hostnamen.<br />
Laden Sie sich das zu nutzende Kommentar-Skript herunter (zum Beispiel<br />
„Commentics“) und entpacken Sie es in ein Verzeichnis auf Ihrer<br />
lokalen Festplatte.<br />
In einer der Skript-Dateien müssen Sie nun die zuvor notierten Details<br />
zu Ihrer Datenbank eintragen.<br />
Anschließend laden Sie das komplette Skript per FTP auf Ihren Webserver<br />
hoch und rufen ein mitgeliefertes Installationsskript auf, das<br />
Schritt für Schritt noch einige Angaben von Ihnen erfragt, zum Beispiel<br />
den gewünschten Benutzernamen und das Passwort für das Backend<br />
zur Verwaltung der Kommentare. Abschließend legt das Install-Skript<br />
alle benötigten Felder in der Datenbank an.<br />
Zur Integration in Ihre Online-Hilfe fügen Sie in Ihr Topic-Template<br />
einige vorgefertigte, mitgelieferte Snippets mit HTML- und PHP-Code<br />
ein.<br />
Abb. 1: In das Topic-Template eingefügte Code Snippets (hier: Code Snippets<br />
für Commentics, eingefügt in Help & Manual)<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
489
User Assistance<br />
Schritt 4: Online-Hilfe<br />
auf Server laden<br />
Beim Generieren Ihrer Hilfe müssen Sie ab jetzt darauf achten, dass die<br />
Topics nicht als *.htm oder *.html Dateien angelegt werden, sondern<br />
als *.php Dateien. Bei den meisten Help-Authoring-Tools gibt es hierzu<br />
eine entsprechende Vorgabe in den Exporteinstellungen.<br />
Sollte Ihr Help Authoring Tool keine PHP-Ausgabe anbieten, können<br />
Sie die HTML-Dateien auch selbst umbenennen. Verwenden Sie dazu<br />
am besten ein geeignetes Search-Replace-Tool, denn Sie müssen nicht<br />
nur die Dateinamen ändern, sondern auch innerhalb der Dateien alle<br />
Links und sonstigen Referenzen entsprechend anpassen.<br />
Da Ihre Online-Hilfe jetzt im PHP-Format vorliegt, ist sie jetzt nur noch<br />
auf einem Server mit PHP-Unterstützung aufrufbar. Kopieren Sie alle<br />
zur Hilfe gehörenden Daten per FTP auf Ihren Webserver. Wenn Sie<br />
jetzt die Hilfe aufrufen, steht in jedem Topic ein Kommentarfeld zur<br />
Verfügung.<br />
Abb. 2: Topic mit Kommentaren (hier: umgesetzt mit Commentics ohne<br />
Anpassung des mitgeliefertes Stylesheets)<br />
Wenn alles wie gewünscht funktioniert, können Sie abschließend noch<br />
das Design der Kommentare an das Design Ihrer Online-Hilfe anpassen.<br />
Dazu bearbeiten Sie die verlinkte CSS-Datei und nehmen entsprechende<br />
Einstellungen im Backend vor.<br />
Lösung 2: Kombination aus Online-Hilfe und Wiki<br />
Ein weiterer Lösungsansatz besteht darin, einen Teil jedes Topics editierbar<br />
zu machen, so dass Benutzer eigene Notizen hinzufügen und die<br />
Inhalte bearbeiten können. Zu diesem Zweck lesen Sie mit Hilfe einiger<br />
PHP-Befehle zur Laufzeit eine bestimmte Seite eines Wikis (z. B. Doku-<br />
Wiki) aus und fügen diese dynamisch in ein Hilfe-Topic ein.<br />
Hierzu benötigen Sie für das Wiki ein Template oder Theme, das dafür<br />
sorgt, dass das Wiki ausschließlich den Inhalt einer Seite anzeigt,<br />
und dies in der einfachsten Art und Weise (nur eine Textspalte variabler<br />
Breite, keine Rahmen, keine Kopfzeile, keine Fußzeile, keine<br />
490<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
Navigationselemente mit Ausnahme der Funktionen zum Bearbeiten<br />
einer Seite).<br />
In den Head-Abschnitt jedes Ihrer Hilfe-Topics müssen Sie in PHP-<br />
Script einfügen, das den Inhalt des Head-Abschnitts aus der Wiki-Seite<br />
importiert:<br />
<br />
Ein analogs PHP-Script benötigen Sie für den Body-Abschnitt der Seite:<br />
<br />
Im Vortrag sehen Sie eine konkrete Umsetzung mit DokuWiki. Eine<br />
Demo hierzu finden Sie außerdem auch unter nachfolgender URL.<br />
Wählen Sie in der Demo den Menüpunkt „Adding your own notes“:<br />
http://www.indoition.com/de/products/copy-and-paste-kit-showdemodeutsch.htm<br />
für Rückfragen: ma@indoition.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
491
User Assistance<br />
UA 2<br />
Fachvortrag<br />
Wie nutzen die Kunden unsere<br />
Dokumentation? Interviewmethoden<br />
und Anwendungsfälle<br />
Romana Oehmig und Tanja Bader, SAP AG, Walldorf<br />
Design Thinking<br />
In den vergangenen Jahren hat Design Thinking nicht nur bei der SAP<br />
an Bedeutung gewonnen. Bei Design Thinking handelt es sich um eine<br />
ganzheitliche Innovationsmethode, bei der Mensch, Technik und Wirtschaftlichkeit<br />
gleichermaßen in Betracht gezogen werden. Design Thinking<br />
setzt an den Bedürfnissen und Interessen der Anwender, unserer<br />
Kunden, an. Basierend auf diesem tiefgreifenden Verständnis für die<br />
Anwender und ihr Umfeld werden im Team Lösungs- und Produktideen<br />
entwickelt, mit den Benutzern getestet, verworfen, neu entwickelt,<br />
auf ihre technische Umsetzbarkeit und Wirtschaftlichkeit geprüft, um<br />
am Ende zu einer Lösung, zu einem Produkt oder zu einer Strategie<br />
zu gelangen, die attraktiv für den Anwender, technisch ausgereift und<br />
wirtschaftlich ist.<br />
Zu Beginn erfolgt eine ausgiebige „Feldforschung“, um die Attraktivität<br />
und die Alltagstauglichkeit einer Lösungsidee für die Anwender sicherzustellen.<br />
Nach dem Grundprinzip Fail early and often werden im Laufe<br />
des Prozesses häufig wiederkehrend Prototypen mit wenig Aufwand<br />
erstellt und mit der Zielgruppe getestet. Dies soll verhindern, dass viel<br />
Aufwand in eine Lösung investiert wird, die an den Bedürfnissen der<br />
Kunden vorbeigeht. Ein Team aus verschiedenen Experten mit Raum<br />
zum Entwickeln kreativer Lösungen spielt bei Design Thinking ebenso<br />
eine Rolle wie das Prinzip, in einer vorgegebenen Zeit jeweils eine definierte<br />
Aufgabe zu lösen (Time Boxing).<br />
Wie die Referentinnen zeigen werden, eignet sich Design Thinking<br />
nicht nur zur Produkt- und Softwareentwicklung, sondern kann auch<br />
hervorragend für die Erstellung und Publikation der Produkt- und Softwaredokumentation<br />
verwendet werden.<br />
Die Ausgangsfrage<br />
Während eines Projektes zum Thema Wissensarchitektur mit dem<br />
Schwerpunkt Dokumentation kam die Frage auf, wie die Kunden unsere<br />
Dokumentation eigentlich nutzen und welche Erwartungen sie an<br />
eine Produktdokumentation haben. Die Anwender, die wir ursprünglich<br />
für unsere Untersuchung im Blick hatten, waren Kunden oder Berater,<br />
die sich mit Hilfe der Dokumentation auf den neuesten technischen<br />
Stand bringen, die mit Hilfe der Dokumentation ihr Wissen über bestimmte<br />
technische Sachverhalte erweitern. Beide Gruppen nutzen<br />
neben der Dokumentation auch Wissensportale, in denen sie weiterführende<br />
Informationen finden, wie Anleitungen (How-To-Guides) oder<br />
Implementierungsbeispiele.<br />
Ziemlich schnell fanden wir heraus, dass Kunden und Partner sehr<br />
häufig auf unser Hilfeportal zugreifen, wir aber relativ wenig darüber<br />
wussten, wie sie es benutzen. Um die Arbeitsweise der verschiedenen<br />
Nutzergruppen genauer kennenzulernen, wendeten wir die<br />
492<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
Design-Thinking-Methode in Ausschnitten an. Wir führten Tiefeninterviews<br />
am Arbeitsplatz unserer Nutzer durch, um sie über die Nutzung<br />
der Dokumentation zu befragen und sie gleichzeitig bei deren Verwendung<br />
zu beobachten. Ein Design-Thinking-Coach führte das Team, das<br />
die Kundeninterviews durchführte, in die Methode ein und begleitete es<br />
während des gesamten Prozesses.<br />
Die Kundeninterviews<br />
Im Vorfeld der Interviews wurde genau definiert, welche Benutzerrollen<br />
Informationen wie die Dokumentation aktiv nutzen: Entwickler,<br />
Administratoren, Architekten, Entwicklungsberater, Technische Berater,<br />
Anwendungsberater und Businessberater. Vorbereitend wurde ein Interviewleitfaden<br />
erstellt und die Interviewteilnehmer wurden geschult,<br />
offene Fragen zu stellen, Beobachtungen im Arbeitsumfeld einfließen<br />
zu lassen und die Anwender ihre Geschichte erzählen zu lassen, um<br />
den Arbeitsalltag des Anwenders kennenzulernen. Ein Großteil der<br />
40 Kundeninterviews wurde bei den Kundenunternehmen vor Ort<br />
durchgeführt. Dabei befragte ein Interviewer jeweils einen Anwender<br />
direkt am Arbeitsplatz, während ein Protokollant Fragen und Antworten<br />
notierte. Die Interviewer ließen sich konkret zeigen, wie die Kunden die<br />
SAP Informationsportale nutzen, und konnten so auch Fragen aufgrund<br />
des Arbeitsumfelds stellen. Dabei stellte sich zum Beispiel heraus, dass<br />
sehr viele Kunden die Dokumentation kopieren, um diese lokal, d. h.<br />
ohne Internetverbindung, weiterzuverwenden, oder diese ausdrucken<br />
und teilweise mit Notizen verstehen.<br />
Synthesisworkshop<br />
Nach den Interviews wurde ein Synthesisworkshop durchgeführt. Dabei<br />
wurden die einzelnen Interviews ohne Wertung noch einmal wiedergegeben<br />
(Storytelling), wichtige Erkenntnisse auf Post-its notiert, an die<br />
Wand geheftet und später zu Gruppen zusammengefasst (Visualisierung).<br />
Es war sehr beeindruckend zu sehen, dass Technologieberater<br />
weltweit eine ähnliche Arbeitsweise haben. Sie nutzen das Hilfeportal<br />
auf vergleichbare Weise und benennen ähnliche Schwachstellen. Durch<br />
die Gruppierung wurden die wesentlichen Schwierigkeiten für die Anwender<br />
des Informationsangebots sofort deutlich. Das Ergebnis des<br />
Synthesisworkshops war die Erstellung von Personas, wie z. B. „Entwickler“<br />
oder „Administrator“. Diese Personas beschreiben die entsprechenden<br />
Anwendercharakteristika, Arbeitsverhalten, Ziele und Motivation<br />
sowie die zeitintensivsten Tätigkeiten und die damit verbundenen<br />
Bedingungen. Der besondere Wert dieser Personas besteht darin, dass<br />
sie seit ihrer Erstellung für mehrere dokumentationsrelevante Projekte<br />
verwendet wurden und werden.<br />
Umsetzung<br />
Durch die Personas war es möglich, das Anwenderverhalten im Hilfeportal<br />
so detailliert zu beschreiben, dass darauf basierend anwenderfreundlichere<br />
Lösungen entwickelt werden konnten, von denen zwei<br />
hier beispielhaft vorgestellt werden.<br />
Im ersten Beispiel haben wir das Hilfeportal so umgestaltet, dass sich<br />
Anwender leichter zurechtfinden können, nachdem wir durch Interviews<br />
und Beobachtung von Anwendern festgestellt hatten, dass diese<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
493
User Assistance<br />
häufig über Google zu der gesuchten Dokumentation im Hilfeportal<br />
gelangten, dort jedoch zu wenig Zusatzinformation (welches Produkt,<br />
welche Produktversion) erhielten.<br />
Im zweiten Beispiel erweiterten wir die Möglichkeit, Dokumentation<br />
direkt aus dem Hilfeportal zu drucken, nachdem wir bei vielen Anwendern<br />
ausgedruckte oder heruntergeladene Versionen der Dokumentation<br />
und auch anderer Informationsquellen sahen, die teilweise mühsam<br />
durch das Kopieren von Text erstellt und anschließend verändert und<br />
erweitert wurden.<br />
Sobald wir einen Handlungsbedarf aus Anwendersicht identifizieren<br />
konnten, erstellten wir einen sogenannten Use Case zur Beschreibung<br />
von Soll- und Istzustand. Danach wurde eine Kosten-Nutzen-Analyse<br />
durchgeführt, bevor es an die technische Umsetzung ging. Diese erfolgte<br />
in kleinen Teilschritten, um permanent das Feedback der Anwender,<br />
zum Beispiel durch Usability Tests, einzuholen und so Schwachpunkte<br />
in der Umsetzung zu erkennen und entsprechend zu reagieren.<br />
Fazit<br />
Design Thinking ist eine Herangehensweise, die sehr gut auf die Bereitstellung<br />
von Dokumentation anwendbar ist. Das durchweg positive<br />
Kundenfeedback zu den bisher umgesetzten Lösungen bestätigt<br />
dies eindrucksvoll. Neben zufriedenen Kunden erhielten wir auch von<br />
den beteiligten Autoren eine positive Rückmeldung. Als freiwillige Interviewer<br />
erlebten sie das direkte Feedback der Kunden als überaus<br />
motivierend.<br />
für Rückfragen:<br />
romana.oehmig@sap.com<br />
tanja.bader@sap.com<br />
494<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 3<br />
Partnerpräsentation<br />
Fahrzeugspezifische Serviceinformationen<br />
zur Optimierung des After-Sales<br />
Hansjörg Kögel, ServiceXpert GmbH, München<br />
Age Knossen, DAF Trucks N.V., Eindhoven<br />
Das modulare Serviceinformationssystem Rapido der Firma DAF Trucks<br />
N.V (DAF) wurde von der ServiceXpert GmbH realisiert und ist das<br />
zentrale, weltweit eingesetzte System in den DAF-Werkstätten für fahrzeugspezifische<br />
Serviceinformationen zur Durchführung von Reparatur-<br />
und Wartungsaufträgen.<br />
Ausgangssituation, Motivation und Ziele<br />
Die Komplexität von Fahrzeugen nimmt durch steigenden Elektronikanteil<br />
und zahlreiche Innovationen stetig zu. Dies und die kundengetriebene<br />
Varianten- und Versionsvielfalt – bedingt durch die Fertigung<br />
nach Kundenauftrag – untermauern darüber hinaus die Notwendigkeit,<br />
auch Reparatur- und Serviceprozesse zu optimieren.<br />
Nutzfahrzeughersteller wie DAF tragen diesen Rahmenbedingungen<br />
durch effiziente After-Sales-Systeme Rechnung. Schnelle, zuverlässige<br />
Reparatur- und Serviceprozesse – unterstützt durch innovative After-<br />
Sales-Informationsportale – verkürzen die Standzeiten der Fahrzeuge,<br />
führen zu einer hohen Verfügbarkeit der Fahrzeuge und tragen somit<br />
maßgeblich zur Zufriedenheit der Kunden bei.<br />
Um den Servicetechniker optimal bei seinen Arbeiten in der Werkstatt<br />
oder beim Service vor Ort zu unterstützen, stellen webbasierte After-<br />
Sales-Informationsportale neben umfassenden Informationen zu Arbeitswerten,<br />
Teilen und Werkzeugen auch Diagnosesysteme, technische<br />
Dokumentation und zunehmend auch Schaltplaninformationen zur<br />
Verfügung.<br />
Mit dem neuesten Release wurde ServiceRapido um eine innovative<br />
Funktion erweitert: der Diagram Viewer ermöglicht es, dem für Service<br />
verantwortlichen Personal elektrische Schaltpläne interaktiv und fahrzeugspezifisch<br />
anzuzeigen. Die Integration des Diagram Viewer in die<br />
dem Servicetechniker bekannten Rapido-Oberflächen unterstützt eine<br />
intuitive Anwendung.<br />
Lösung Technische Redaktion<br />
Für die Entwicklung des Diagram Viewer wurde eine Publikationsdatenbank<br />
aufgesetzt, die eine fahrzeugspezifische Datenselektion ermöglicht.<br />
Diese Datenbank greift direkt auf CAD-Entwicklungsdaten<br />
in Form von skalierbaren Vektor-Grafiken (SVG) zu. Diese SVG-Daten<br />
werden mit entsprechenden Metadaten gekoppelt. Des Weiteren fließen<br />
in diese Publikationsdatenbank fahrzeugspezifische Schaltplanrelevante<br />
Informationen, sogenannte Component & Wire Files, ein. Der<br />
Zugriff auf die gesamten Daten gewährleistet damit eine konsistente,<br />
strukturierte und tagesaktuelle Datenbasis. Die Nutzung der CAD-Daten<br />
ohne Medienbruch, d. h. ohne aufwendige Formatänderungen und<br />
Neuerstellung bis in den Service ist das Ergebnis eines abgestimmten<br />
Prozesses zwischen der Elektrik-/Elektronik-Serienentwicklung und<br />
dem After-Sales, den DAF gemeinsam mit ServiceXpert realisieren und<br />
optimieren konnte.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
495
User Assistance<br />
Systemfunktionen<br />
Eine weitere Verbesserung wurde in der Optimierung der Suchoptionen<br />
innerhalb der Schaltpläne erreicht. Eine Möglichkeit ist die<br />
fahrzeugspezifische Suche, bei der dem Servicepersonal unmittelbar<br />
die fahrzeugrelevanten elektrischen Schaltpläne anzeigt werden, das<br />
heißt nur diese, die in dem zu wartenden oder reparierenden Fahrzeug<br />
verbaut sind. Des Weiteren kann der Servicetechniker nun innerhalb<br />
der Suchanfrage im Diagram Viewer beispielsweise gezielt nach einer<br />
Komponente, einer Kabelnummer, einer Komponentenbeschreibung,<br />
einem System oder einer Steckerverbindung und vielen weiteren Details<br />
suchen.<br />
Das Suchergebnis wird direkt im angezeigten elektrischen Schaltplan<br />
farblich hervorgehoben, so dass der Techniker die korrespondierenden<br />
Kabel und Schaltungen auf einen Blick sehen kann. Nach Anzeige des<br />
Suchergebnisses stehen dem Nutzer verschiedene Zusatzfunktionalitäten<br />
zur Verfügung:<br />
Zoom, Navigationsfenster und Vollbild:<br />
Der Anwender kann über eine interaktive Zoom In-/Out-Funktion die<br />
Ansicht des elektrischen Schaltplans verändern. So können zum einen<br />
Details, zum anderen große Zusammenhänge im elektrischen Verbauungsplan<br />
angezeigt werden. Über ein zuschaltbares Navigationsfenster<br />
kann der Servicetechniker ebenfalls die Ansicht innerhalb der Zoomfunktion<br />
über den gesamten Schaltplan bewegen. Über die Vollbildanzeige<br />
wird jegliche Zusatzinformation ausgeblendet und der Fokus auf<br />
die Schaltplananzeige gelegt.<br />
Fahrzeugspezifische Anzeige:<br />
Eine innovative Funktionalität ist das Ausblenden der nicht fahrzeugspezifischen<br />
Schaltplaninformationen. Zeitaufwendige Orientierung<br />
in detailüberladenen Schaltplänen gehören für DAF Serviceteams<br />
nun der Vergangenheit an. Der Techniker wird tagesaktuell mit den<br />
Schaltplaninformationen versorgt, die zu seinem aktuellen Reparaturund<br />
Wartungsauftrag benötigt werden. Seine Arbeit wird damit erheblich<br />
erleichtert und die Standzeit des Fahrzeugs verkürzt.<br />
Detail- und Zusatzinformation:<br />
Mit den angezeigten Schaltplänen werden darüber hinaus hilfreiche<br />
technische Zusatzinformationen geliefert, die für Diagnose- und Reparaturarbeiten<br />
nützlich sind. Dies können Informationen zum Verbauungsort<br />
oder technische Details und Beschreibungen des Bauteils, das<br />
ausgewählt wurde, sein.<br />
Resümee<br />
Rapido ist in der DAF Kundendienst-Organisation nicht nur der Name<br />
für ein integriertes Serviceinformationssystem, sondern steht für die<br />
Etablierung eines koordinierten und effizienten Prozesses zur Erstellung<br />
und Publikation von fahrzeugspezifischen Serviceinformationen. Mit der<br />
Realisierung des Diagram Viewer hat DAF einen großen Schritt bei der<br />
kontinuierlichen Optimierung des After-Sales-Systems Rapido gemacht.<br />
für Rückfragen: hansjoerg.koegel@servicexpert.de<br />
496<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 4<br />
Presentation<br />
Addicted to Meaning: How Good Technical<br />
Communication is Like Bad Magic Tricks<br />
Kai Weber, SimCorp GmbH, Frankfurt<br />
Being meaningful is an essential, but elusive feature of good technical<br />
communication. This paper draws on the theories of semiotics and mental<br />
models to examine how meaning works in technical communication,<br />
why it sometimes fails and how you can improve its chance for success.<br />
Being meaningful in technical communication is just as essential as being<br />
correct and clear, concise or consistent: Understanding how and why<br />
communication is meaningful can help you to make your documentation<br />
more effective and to make your product more useful.<br />
What is meaning?<br />
Information theory posits a hierarchy of information which proceeds<br />
from data at the bottom via information and knowledge to wisdom at the<br />
top (Weinberger 1–5). For example, data is the sheer fact that the Microsoft<br />
Office 2007 software has an “Office button” icon in the upper left<br />
corner. The information that this icon gives you access to functions such<br />
as opening, saving, and printing a file helps you with generic functions.<br />
The knowledge that this functionality has replaced the habitually used<br />
File menu adds meaning and supports your active experience.<br />
So meaning occurs at the knowledge stage in this hierarchy when you<br />
make sense of data and information, when you “connect the dots” into<br />
something that you can apply purposefully. Meaning gives answers to<br />
questions such as “So what?”, “What does this mean for me, in my situation?”<br />
and “Why should I care?” (Cortada 4).<br />
Why should technical communicators care?<br />
Technical communicators should care about meaning, because we are<br />
in the business of creating meaning and transmitting it to users. We can<br />
provide all the data and information we want, if it is not meaningful<br />
to customers, it is wasted and dead. Any time documentation fails, it is<br />
either because meaning has not been created or not been transmitted<br />
successfully. Documentation that merely informs the user “To print a<br />
file, click the Print button” does not support the user in any active experience.<br />
It does not create any meaning if it omits the context, such as<br />
the task the user may be engaged in, the prerequisites and the expected<br />
results of the user’s action.<br />
How does meaning get transmitted in communication?<br />
The Mathematical Theory of Communications by Shannon and Weaver<br />
of 1949 explains communication as the transmission of messages that<br />
are broken up into small signals (see Fiske, ch. 1). A sender (a technical<br />
communicator) uses media (HTML files) via channels (the internet) to<br />
transmit messages to receivers (users). This model aims to show what<br />
keeps communication efficient and accurate.<br />
This technical model is clear, linear, and easy to understand. However,<br />
communication doesn’t really work this way beyond the very technical<br />
levels of a telephone cable, a radio wave, or a TCP/IP network. It’s only<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
497
User Assistance<br />
in the brain where “information is born – it’s not in the beeps” (Heinz<br />
von Foerster, qtd. in Gleick 417). In fact, as Shannon admitted, the question<br />
of meaning is “irrelevant to the engineering problem” of communication<br />
that his theory explains (Gleick 416).<br />
Semiotics is a second theory of communication (see Fiske, ch. 4). It explains<br />
communication as the production of meaning between people<br />
who exchange messages in cultural contexts. The aim of this theory is<br />
to ensure that communication is meaningful for the reader. Note that<br />
the reader is not a passive recipient of the message, as in Shannon and<br />
Weaver’s model, but a participant who is equally active as the author of<br />
the message.<br />
When creating messages, we use different types of signs, such as words<br />
and images, which have different ways to represent and refer to objects<br />
in the world around us. Words in semiotic terms are symbols. They<br />
refer to things by sheer convention, but the word “chair” neither looks<br />
nor sounds like a chair. Images, such as photographs and maps, in semiotic<br />
terms are icons. They represent things by similarity. Photos are<br />
usually pretty close two-dimensional representations, while maps are<br />
more abstract and often use abstractions and words to refer to things. To<br />
combine such signs into messages, we apply codes, such as dialect and<br />
jargon. Codes are systems of rules which most participants share, more<br />
or less. So codes form a social practice of communication conventions<br />
that apply in specific cultural context.<br />
In this semiotic model, readers (not writers!) construct the meaning of<br />
a message. That is not to say that the meaning is whatever the reader<br />
wants. Rather, the meaning is how the reader interprets the signs according<br />
to the code convention. For example, a user will – more or less<br />
– assume that a user manual contains photos or schematic images that<br />
represent the layout of the product, not an ideological statement, and try<br />
to create meaning accordingly.<br />
The advantage of semiotics over the earlier model for my purpose is<br />
that semiotics focuses on exchanging meaning between people. Because<br />
communicating meaning is more ambiguous than ensuring the<br />
technical accuracy of communication, semiotics is more complex than<br />
Shannon and Weaver’s theory, due to all the moving parts: Signs, such as<br />
words or even images, can lend themselves to creating different meanings<br />
at different times or for different groups of readers. (Think of ideologically,<br />
religiously, or politically charged words or images.) Codes can<br />
make you feel a member of the group, like your own regional dialect, or<br />
they can exclude you, like academic jargon. Whether you feel included<br />
or excluded colors your understanding of the message and the meaning<br />
you take from it.<br />
However, technical communication suffers less from these shifts and<br />
ambiguities, because a lot of our signs and codes are restricted and<br />
well-defined. Or are they?<br />
Why meaning in technical communication is easy and still fails<br />
Technical communication can avoid many of the semiotic pitfalls because<br />
it applies a “narrowcast code” (Fiske 76–77). A narrowcast code<br />
addresses a limited, more or less homogenous audience that shares<br />
cultural background and experiences and has a general willingness to<br />
498<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
learn the applied code of descriptions and instructions such as a user<br />
manual contains it. (Compare this with the opposite, the broadcast<br />
code, which addresses a wide and diverse audience, sometimes called<br />
the “masses”, with messages of the lowest common denominator that<br />
seek to affirm knowledge and prejudices rather than instruct and teach<br />
something new.)<br />
All the restrictions of a narrowcast code benefit technical communication:<br />
The audience of a software manual shares a common background<br />
of computer savvy. The manual can presuppose a certain vocabulary or<br />
define it in its glossary. The context is confined to the intended tasks of<br />
the software, and the expected outcomes of the tasks are clear.<br />
With all these major restrictions on communication in place, the user’s<br />
path is confined to a tunnel, and all that is left for the manual to do is to<br />
put in some lights and a railing to safely guide the readers through.<br />
If it was that easy, we wouldn’t find meaning in technical communication<br />
so elusive – and we wouldn’t despair to get users to read the fine<br />
manual.<br />
So even semiotics falls short by underestimating the most dynamic part<br />
of the equation: The reader.<br />
My next witness is Heinz von Foerster, who above preferred the brain to<br />
the beeps as the seat of information. His theory of radical constructivism<br />
holds that there is no meaning but the one created by the reader;<br />
meaning derives from the reader’s ability to deduce something useful<br />
from a text (von Foerster 21, 69). This extreme position becomes more<br />
plausible when we consider context as a powerful influence on meaning:<br />
While we build on past experiences and what we have learned from<br />
them, it is ultimately our specific, current situation that drives our understanding<br />
and shapes the meaning we create. In this sense, each situation<br />
is a new beginning (von Foerster 27).<br />
Different experiences with technical communication can illustrate this<br />
point: An advanced topic in a manual about customizing a complex<br />
setup will be incomprehensible and meaningless to a novice user – but<br />
still can be useful to the same user after initial training and some experience.<br />
The primacy of the individual situation also explains why FAQs<br />
(Frequently Asked Questions) frequently do not work: Because they are<br />
not frequently asked by actual users, unless they concern actual, real<br />
situations.<br />
To paraphrase Heinz von Foerster and Fred Dretske, both philosophers<br />
who think about the nature of knowledge: “Beauty is in the eye of the<br />
beholder, and meaning is in the head of the receiver.” (Gleick 417).<br />
How do readers create meaning?<br />
So how do our readers create meaning in their heads? In short: By<br />
bouncing off their “mental models” against the world. A mental model is<br />
a mental representation of the world, of our place in it, and of how stuff<br />
works. To make it efficient and maintainable in our minds, mental models<br />
are semi-consciously selected and incomplete. (Else the information<br />
overload would paralyze us.) Our mental models are limited to what we<br />
think we understand and what we think we can or want to do.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
499
User Assistance<br />
Most of us have a mental model of a restaurant: We understand it’s a<br />
place where we get fed in exchange for money. We can go there, be seated,<br />
be served, eat, pay, and leave. But our mental model is defeated at a<br />
self-service buffet restaurant where we are neither seated nor served.<br />
To prevent this defeat, such restaurants put up signs not required at<br />
more conventional places: “Take tray here” and “Pay here”. These signs<br />
help us to adjust our mental model, along with our range of options to<br />
act and behave. For further adjustment of our mental model, the restaurant<br />
informs us on a leaflet that they can also cater our wedding. Alas,<br />
because each situation is new and adaptations of mental models is often<br />
fleeting, we forget this information soon, because it is not meaningful<br />
for us – and someone else caters our wedding.<br />
Mental models have several strengths: They are flexible and teachable<br />
(as many functions of the brain are). As a result, we can add self-service<br />
buffets to our model of restaurants after we’ve visited one – or even<br />
heard about one from a friend. They are a springboard to meaningful<br />
knowledge by helping us learn. In mental models, we “connect the dots”<br />
and remember successful experiences. What worked yesterday, in a<br />
self-service buffet or with a new product you operate, shapes how you<br />
approach questions and tasks tomorrow. Mental models help us decide<br />
what we try to solve a problem – and also where and how we look for<br />
help.<br />
Mental models are also a major foundation in the fields of humancomputer<br />
interaction and user experience design. Hence we technical<br />
communicators can learn from usability expert Jakob Nielsen’s explanation:<br />
“A mental model is what the user believes about the system at hand”<br />
which “impacts how they use it” (Nielsen, his emphasis).<br />
Note that mental models, and the actions we base upon them, rely on<br />
our belief rather than our knowledge! David Weinberger puts belief and<br />
knowledge into perspective: “Knowledge is a subset of belief. We believe<br />
many things, but only some of them are knowledge.” (Weinberger 43).<br />
Nielsen gives several examples of mixed-up mental models concerning<br />
software which illustrate how our beliefs or mistaken knowledge lead us<br />
to deduce that a software product or website is not working: Some users<br />
confuse operating system windows, such as Microsoft’s File Explorer,<br />
with browser windows in Microsoft’s Internet Explorer and expect both<br />
to copy, move, or delete files identically. Other users confuse icons and<br />
applications – hence the warning that deleting an application icon from<br />
the desktop does not actually remove the application itself. (Of course,<br />
many of these confusions can and should be solved in better user experience<br />
design, but that is not the focus of this paper.)<br />
From Nielsen’s work, technical communicators can learn two relevant<br />
limits of mental models: They are inert, despite all flexibility. “Stuff that<br />
people know well tends to stick, even when it’s not helpful” (Nielsen).<br />
Hence, the Save function still uses a diskette icon which fewer and fewer<br />
people have seen or used. And hence, many technical communicators<br />
are still forced to create deliverables in PDF or CHM, even though superior,<br />
more efficient formats and tools have been available for a long time.<br />
The inertia points to a more fundamental limit and to the real reason<br />
why technical communication so often fails: Mental models are ultimately<br />
uncontrollable!<br />
500<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
With technical communication, we can at best hope to guide users towards<br />
appropriate behavior. This may or may not extend their mental<br />
models, it may or may not anchor a meaningful experience to which<br />
they resort later when they face a similar problem.<br />
This has been a rather bleak turn of events. Given the inertia of uncontrollable<br />
mental models, how do we manage to communicate anything?<br />
Addicted to meaning<br />
The answer lies in a second aspect of meaning itself: Yes, meaning depends<br />
on shifting signs, on contextual codes, and on our erstwhile experiences.<br />
But we are also addicted to meaning in the sense that we desire<br />
and hope for a generally meaningful life. This is the motivational force<br />
behind our questions for meaning: “What does it mean for me?” and<br />
“Why should I care?”<br />
This aspect is easy to recognize in “big” questions for the meaning of<br />
life, but it also permeates small everyday tasks – the kind we address in<br />
technical communication. We want to connect the dots, we want to make<br />
sense, even of the software we use, and it frustrates us to the point of<br />
personal insult when we cannot, because the stupid thing simply won’t<br />
work!<br />
Even in less consequential matters than the correct use of appliances<br />
and software, we go to great lengths to discover meaning in the world<br />
– or to create it as what we believe we know. Misheard lyrics of pop<br />
songs are a harmless, fun example. Jimi Hendrix didn’t seem to make a<br />
lot of sense singing in “Purple Haze”: “Excuse me while I kiss the sky.”<br />
Instead, many people heard: “Excuse me while I kiss this guy.” (Look up<br />
“Mondegreen” on Wikipedia for more fun examples.)<br />
Or consider the first well-known version of the Apple logo, the apple<br />
with a bite in it in horizontal colored stripes (see Konnikova). What<br />
does it mean? It’s Adam and Eve in paradise and their quest for knowledge<br />
manifest! Or no: It’s a reference to Isaac Newton sitting beneath<br />
an apple tree and discovering the law of gravity! Or no: It’s a tribute to<br />
Alan Turing, computer science pioneer, who committed suicide by biting<br />
into a cyanide-laced apple! (Turing was gay, hence the rainbow-colored<br />
stripes).<br />
The point is that one explanation after another is as meaningful as any<br />
urban legend can hope to be – but they are all not the meaning that was<br />
originally intended. The truth is a lot more mundane: The apple is the<br />
company’s namesake. The rainbow denotes color in general, because the<br />
Apple II was the first home computer to display color images. And the<br />
bite was added to indicate scale, so people didn’t confuse the fruit with a<br />
cherry. Or so says Rob Janoff, the logo’s designer (see Creativebits.org).<br />
So we are addicted to meaning. We seek to connect the dots in any plausible<br />
way to come up with a meaning and a solution. But when things<br />
get weird, technical communication often fail to deliver a satisfying answer.<br />
Our formulation of the problem doesn’t match any of the answers<br />
which the manual provides.<br />
Then we turn away from the manual – but our quest for meaning is<br />
not finished yet. We tap other resources: We ask a friend who may not<br />
have the answer, either. But compared to the documentation, a friend is<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
501
User Assistance<br />
much more likely to provide a meaningful experience. One friend may<br />
remember having had a similar problem and who was able to help him.<br />
Another may have discovered a workaround. Someone may ask in return<br />
what we’re working on, anyway – and know that this task has become<br />
obsolete this morning.<br />
The point is that there are many more meaningful scenarios to resolve<br />
a task or conflict than most common documentation offers. And while<br />
we cannot address every possible outcome, we can do better and meet<br />
the users and their mental models halfway by creating more meaningful<br />
documentation.<br />
How can we create more meaningful documentation?<br />
To apply a designer’s tenet by Jakob Nielsen to technical communication,<br />
it is a a key objective for technical communicators to make the<br />
documentation “communicate the system’s basic nature well enough<br />
that users form reasonably accurate (and thus useful) mental models”.<br />
This goal leaves us basically two strategies. We can try to adjust the<br />
users’ mental models which seems the natural choice: Users may or<br />
may not know similar products, but to really learn about this particular<br />
version, they need our specific manual. They should use our manual to<br />
adapt their existing mental models to accommodate our product and its<br />
correct use. But that would leave us back at the reasons why technical<br />
communication still fails…<br />
The better alternative is to adjust the documentation as much as possible<br />
to the users’ existing mental models – which is basically saying:<br />
“Know your audience”, but by now I’ve shown why we need to know<br />
them and how they create meaning.<br />
What does that mean specifically? Applying lessons from user experience<br />
design, we can:<br />
––<br />
Serve the inertia of mental models: Be consistent and conservative in<br />
your writing. Don’t invent new terminology unless absolutely necessary.<br />
Stick to the conventions and habits of your users.<br />
––<br />
Anticipate the users’ roles and tasks in mental models: Frame documentation<br />
in terms of personas and tasks which users can identify<br />
with. In an accounting system, offer navigational paths for personas<br />
such as accountants and auditors and for tasks such as daily accounting<br />
and end-of-year accounting, but menu by menu.<br />
Another area that takes users’ mental models seriously is minimalism:<br />
Minimalist technical communication, as described by Hans van der Meij<br />
and John M. Carroll, means much more than just presenting the bare<br />
necessities. It takes “the need for meaningful activity and sense meaning”<br />
seriously by providing users with “an immediate opportunity to act”<br />
(van der Meij 19) and by relating descriptions and instructions to the<br />
users’ actual tasks. Van der Meij and Carroll offer the following principles<br />
and guidelines, among others, to ensure that documentation meets<br />
users on their turf (see van der Meij 21):<br />
––<br />
Choose an action-oriented approach.<br />
––<br />
Provide an immediate opportunity to act.<br />
––<br />
Respect the integrity of the user’s activity.<br />
502<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
––<br />
Anchor the tool (i.e., the product and its description) in the (user’s)<br />
task domain.<br />
Taking these leads from user experience design and minimalism, we<br />
can offer users dots which are easy and natural to connect and derive<br />
meaning from. And this is how good documentation is like bad magic<br />
tricks: By exposing the potential connections between the dots to users<br />
to demystify products and instructions and to showing them how to get<br />
from A to B – or C, if they want.<br />
Bibliography<br />
Cortada, James W. Information and the Modern Corporation. Cambridge,<br />
MA: MIT Press, 2011.<br />
Creativebits.org. “Interview with Rob Janoff, designer of the Apple logo”.<br />
3 Aug. 2009. Web. 3 Sept. <strong>2012</strong>. <br />
Fiske, John. Introduction to Communication Studies, 2nd ed. New York:<br />
Routledge, 1990.<br />
Gleick, James. The Information: A History, a Theory, a Flood. London:<br />
Fourth Estate, 2011.<br />
Johnson-Laird, Philip N. “Mental Models, Deductive Reasoning, and the<br />
Brain.” The Cognitive Neurosciences. Ed. Michael S. Gazzaniga. Cambridge,<br />
MA: MIT Press, 1995. 999–1008.<br />
Johnson-Laird, Philip N. “The history of mental models.” Psychology of<br />
Reasoning: Theoretical and Historical Perspectives. Ed. K. Manktelow and<br />
M.C. Chung. New York: Psychology Press, 2005. 179–212.<br />
Konnikova, Maria. “Hunters of Myths: Why Our Brains<br />
Love Origins.” 7 Apr. <strong>2012</strong>. Web. 3 Sept. <strong>2012</strong>. < http://blogs.<br />
scientificamerican.com/literally-psyched/<strong>2012</strong>/04/07/<br />
hunters-of-myths-why-our-brains-love-origins/><br />
Nielsen, Jakob. “Mental models”. http://www.useit.com/alertbox/mentalmodels.html<br />
18 October 2010. Accessed 3 September <strong>2012</strong>.<br />
van der Meij, Hans and John M. Carroll. “Principles and Heuristics for<br />
Designing Minimalist Instruction.” Minimalism Beyond the Nurnberg<br />
Funnel. Ed. John M. Carroll. Cambridge, MA: MIT Press, 1998. 19–53.<br />
von Foerster, Heinz. Der Anfang von Himmel und Erde hat keinen Namen.<br />
Berlin: Kadmos, 2008.<br />
Weinberger, David. Too Big to Know. New York: Basic Books, 2011<br />
Winograd, Terry and Fernando Flores. Understanding Computers and<br />
Cognition: A New Foundation for Design. Reading, MA: Addison-Wesley,<br />
1989.<br />
Contact: amelio@web.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
503
User Assistance<br />
UA 5<br />
Presentation<br />
Chaotic Wiki versus Structured Authoring<br />
Ulrike Parson, parson communication, Hamburg<br />
Problems in Company Wikis<br />
Many company wikis are set up with noble intentions, but many of them<br />
get chaotic over time. There are several reasons for this:<br />
––<br />
The content is unstructured.<br />
The core function of a wiki is collaborative authoring. In the best<br />
case, many people contribute to the company wiki. But these people<br />
have different backgrounds and different fields of expertise. That is<br />
why they write in different ways. In the end, every author structures<br />
and formats the information as s/he thinks best instead of keeping<br />
to a common layout. Task-oriented information is not separated from<br />
reference or conceptual information making it hard for the reader to<br />
understand the purpose of an article at first glance.<br />
––<br />
Navigation and access to content is insufficient.<br />
All wiki software products provide features such as categories, tags,<br />
and linking. But defining tags and setting links is solely up to the authors.<br />
What happens? When wikis grow larger over time, it is getting<br />
increasingly difficult to find the right article. Duplicate articles are<br />
created because authors cannot find existing articles.<br />
––<br />
The workflow functions are insufficient.<br />
Writing in a team requires defined workflows. In an unregulated wiki,<br />
every article is visible at once. Workflows are often a matter of negotiation<br />
rather than being enforced by controlled software processes.<br />
This results in wiki pages of highly deviating quality, making it hard<br />
for the users to rely on the content.<br />
Why Should We Use a Wiki and Not DITA?<br />
Technical writing in XML-based information structures, such as DITA,<br />
has solved many of these issues. Structured authoring solutions provide<br />
topic types (e.g. task, concept, reference), mechanisms for organizing<br />
information products in maps, relations between topics, as well as metadata<br />
for workflow status, target audience, product variant, etc. Content<br />
management systems or transformations (as available in the DITA Open<br />
ToolKit) generate well-navigable and searchable output formats. Many<br />
of these functions are not available in standard wiki software.<br />
Function comparison between CMS and wiki<br />
504<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
How can we transport the concepts of structured authoring to a wiki?<br />
Why should we do so? Are wikis made for structured authoring?<br />
Adopting some concepts of structured authoring for collaborative writing<br />
in a wiki may be well suited for companies who wish to organize<br />
their writing processes more strictly and to improve user experience for<br />
wiki readers. A wiki is a good documentation tool especially for those<br />
companies who:<br />
––<br />
Need to document internal software or processes<br />
––<br />
Want to involve subject matter experts and software engineers in<br />
the writing process while keeping documentation structure and style<br />
consistent<br />
––<br />
Want to provide an online documentation and use the commenting or<br />
collaboration functions of a wiki in order to get feedback from their<br />
users<br />
––<br />
Do not want to establish an XML writing environment<br />
Metadata is the key<br />
Using Forms and<br />
Templates<br />
Adding CMS Functionality to a Wiki<br />
There are different approaches for realizing CMS functionality in a<br />
wiki. The approach that you use depends on your requirements and<br />
on your wiki software. This session shows examples from a showcase<br />
implemented in Semantic MediaWiki, an open-source extension to<br />
MediaWiki (http://semantic-mediawiki.org/). For other wiki software,<br />
such as Confluence, you have to use appropriate plugins or extensions,<br />
such as Scroll Versions from k15t (http://www.k15t.com/display/en/<br />
Scroll-Versions).<br />
In a Semantic MediaWiki, you can use metadata to add structure to your<br />
wiki. This metadata provides, for example:<br />
––<br />
Index keywords<br />
––<br />
Information on the target group<br />
––<br />
Workflow information: status, responsible person, priority<br />
––<br />
Region and language of the article<br />
––<br />
Information about the position of the topic in the topic hierarchy<br />
––<br />
Relations to other topics, e.g. from a task topic to the associated reference<br />
information<br />
How to motivate users to keep to a defined topic structure, create DITAsimilar<br />
topic types and assign the correct metadata? The answer is: Use<br />
forms! You may, for example, provide different forms for typical DITA<br />
topic types, such as task, reference, and concept.<br />
Forms ensure that users cannot enter text outside the predefined fields.<br />
The layout is rendered automatically as forms are linked with templates.<br />
Default text within the fields guides the users and tells them which content<br />
to enter in specific fields.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
505
User Assistance<br />
Wiki form for a topic of type “reference”<br />
Extended functions for<br />
evaluating metadata<br />
The forms also assign fixed metadata (such as the topic type) and provide<br />
fields for configurable metadata, such as the target group or the<br />
index keywords. Using a list of predefined index keywords controls<br />
tagging/categorization of wiki articles and provides a controlled way of<br />
finding articles to the users.<br />
Based on the metadata, you can enhance access functions and navigation<br />
in the wiki:<br />
––<br />
Scripts can evaluate the metadata on the position of topics in the<br />
topic hierarchy. They build tables of contents, breadcrumb navigation,<br />
and browse elements. Wiki readers can use these elements to navigate<br />
through the articles belonging to a specific manual, for example.<br />
––<br />
Users can use the index terms to filter the topics. The corresponding<br />
filter pages can be generated by means of the Semantic drilldown<br />
extension, for example.<br />
Filter pages with index terms<br />
506<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
––<br />
Scripts evaluate the metadata information about relations between<br />
topics to automatically generate and update lists of related topics.<br />
––<br />
Scripts evaluate the workflow metadata and generate overviews – todo<br />
lists – for wiki authors and reviewers.<br />
The main point about metadata in a Semantic MediaWiki is that this is<br />
an architectural framework. You can define any metadata that you want<br />
and then you can query for values, filter by properties, use metadata for<br />
searching, for automatically generating contents, etc. What you do with<br />
the metadata in the end, depends on your content and on the user experience<br />
that you want to create.<br />
Is a Structured Wiki a Useful Wiki?<br />
No, not necessarily! There are additional keys for the success of a company<br />
wiki:<br />
––<br />
You need to define the purpose of your wiki – is it for documentation<br />
purposes, for collecting project information, for organizing the work<br />
between teams, for sharing knowledge? If you have a wiki and a second<br />
system that serves the same purpose, you need to close down the<br />
second system. The information for the defined purpose needs to be<br />
stored in one place only.<br />
––<br />
Structure and functions of the wiki need to be customized to the purpose.<br />
Navigation functions, for example, are very useful in documentation<br />
wikis, but not that well suited for organizational wikis.<br />
––<br />
You need people for the different roles that are required to maintain<br />
the wiki – not just to set it up, because this is only a relatively small<br />
portion of a wiki’s life time. The maintenance period is usually much<br />
longer. You need editors, programmers for extensions/plugins, administrators<br />
for backups and installations, and a wiki gardener. A wiki<br />
gardener sows ideas, weeds by correcting typos, merging duplicate<br />
articles, etc. and supports users in harvesting the knowledge from<br />
your wiki.<br />
––<br />
And of course you need good content. Content that is customized for<br />
your target group and the purpose of the wiki.<br />
––<br />
The company culture needs to support collaborative working.<br />
Structured, well organized and appreciated in the company – these are<br />
successful wikis.<br />
If you have any questions please contact: upa@parson-com.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
507
User Assistance<br />
UA 6<br />
Fachvortrag<br />
ARIA in der Dokumentation<br />
Dr. Stefan Schnabel, SAP AG, Walldorf<br />
Dr. Matthias Kammerer, SAP AG, Walldorf<br />
ARIA ist die Abkürzung für Accessible Rich Internet Applications und<br />
wird von der Web Accessibility Initiative (WAI) entwickelt und spezifiziert.<br />
ARIA steht als W3C Candidate Recommendation vom 18.<br />
Januar 2011 unter dem Titel „Accessible Rich Internet Applications<br />
(WAI-ARIA) 1.0“ unter http://www.w3.org/TR/wai-aria/ zur Verfügung.<br />
Erklärtes Ziel ist es, einen Accessibility-Standard für Rich Internet<br />
Applications, die z. B. DHTML oder Ajax verwenden, zu etablieren und<br />
darüber hinaus ganz allgemein die Benutzerfreundlichkeit von Web-<br />
Seiten zu erhöhen. Ein typisches Problem bei dynamischen Web-Seiten<br />
ist z. B., dass blinde Benutzer Änderungen auf der Web-Seite, während<br />
sie damit agieren, in der Regel nicht bemerken.<br />
Aber nicht nur für Applikationen ist ARIA ein interessanter Accessibility-Standard,<br />
sondern auch für (größtenteils) statische Texte, wie Dokumentation.<br />
Auch hier hilft ARIA, dass sich Menschen mit Behinderungen<br />
auf der Web-Seite zurechtfinden.<br />
Um die Barrierefreiheit auch von dynamischen Web-Seiten zu gewährleisten,<br />
setzt ARIA auf die folgenden Konzepte:<br />
––<br />
Technisch gesehen, führt ARIA weitere Attribute mit teilweise vordefinierten<br />
Werten ein, die bei den meisten HTML-Elementen verwendet<br />
werden können. (Das hat gegenwärtig zur Folge, dass derart<br />
angereichertes HTML weder HTML4- noch HTML5-konform ist und<br />
HTML-Validatoren entsprechende Fehlermeldungen ausgeben. In<br />
der Praxis ist dies allerdings irrelevant, da die Browser nicht validieren<br />
und unbekannte Attribute einfach ignorieren. Außerdem werden<br />
HTML-Validatoren in Zukunft ARIA richtig erkennen können.)<br />
––<br />
Mittels Rollen werden Elemente hinsichtlich ihrer Funktion klassifiziert.<br />
Dazu unterscheidet ARIA u. a. zwischen:<br />
––<br />
Abstract Roles (wie z. B. role="section")<br />
––<br />
Widget Roles (wie z. B. role="button")<br />
––<br />
Document Structure Roles (wie z. B. role="article") und<br />
––<br />
Landmark Roles (wie z. B. role="navigation").<br />
––<br />
Mittels – eher statischen – Eigenschaften (wie z. B. den Attributen<br />
aria-labelledby oder aria-describedby) und – eher dynamischen<br />
– Zuständen (wie z. B. dem Attribut aria-checked) können<br />
Elemente näher bestimmt und miteinander in Bezug gesetzt werden.<br />
ARIA kann dabei auf allen Ebenen einer Applikation relevant werden:<br />
––<br />
auf der Strukturebene, z. B. im HTML:<br />
Sort<br />
by Last Modified<br />
––<br />
auf der Präsentationsebene, z. B. im Cascading Stylesheet (CSS):<br />
[aria-checked="true"]<br />
{font-weight: bold;}<br />
[aria-checked="true"]:before<br />
{background-image: url(checked.gif);}<br />
––<br />
auf der Interaktionsebene, z. B. im JavaScript:<br />
function checkbox_select(el) {<br />
if (el.getAttribute(“aria-checked”) == "false")<br />
508<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
}<br />
{el.setAttribute("aria-checked", true);}<br />
else<br />
{el.setAttribute("aria-checked", "false");}<br />
Grundsätzlich stellt sich die Frage, warum ARIA überhaupt eingesetzt<br />
werden soll, da es doch HTML5 gibt. Schaut man genauer hin, gibt es<br />
tatsächlich viele HTML5-Konzepte, die sich in ARIA wiederfinden – allerdings<br />
gibt es auch zahlreiche Konzepte, die ausschließlich von ARIA<br />
unterstützt werden. So ist beispielsweise ARIA besonders stark bei Rich<br />
Internet Applications, wo HTML5 noch zahlreiche (!) Lücken in Bezug<br />
auf Accessibility aufweist. Insofern ergänzt ARIA nicht nur HTML4,<br />
sondern auch HTML5 und kann dort sogar kombiniert mit HTML5 verwendet<br />
werden, wie z. B. in:<br />
<br />
In der Dokumentation selbst hilft der Einsatz von ARIA, so dass z. B.<br />
Blinde die Struktur eines Dokuments noch besser verstehen können als<br />
bisher. Dies wird insbesondere durch die folgenden Techniken erreicht:<br />
––<br />
Festlegung von Landmark Roles (wie z. B. role="banner",<br />
role="main" oder role="navigation" und noch genauere Beschreibung<br />
des Bereichs durch aria-label oder eine mit dem entsprechenden<br />
Element verbundenen Bereichsüberschrift)<br />
––<br />
Explizite Informationen über die aktuelle Hierarchieebene (wie z. B.<br />
aria-level="2")<br />
––<br />
Beschreibung von interaktiven Navigationsbäumen (wie z. B. mittels<br />
role="treeitem" und aria-expanded="false")<br />
Teilweise interpretieren derzeit Screenreader ARIA sogar besser als<br />
die entsprechenden neuen HTML5-Elemente und Attribute. Für einige<br />
langjährige Probleme in HTML bringt ARIA auch endlich eine standardisierte<br />
Lösung, wie z. B.:<br />
––<br />
korrekte Auszeichnung von Layouttabellen oder dekorativen, nichtsemantischen<br />
Bildern (z. B. mittels role="presentation")<br />
––<br />
explizite Kennzeichnung, wenn der Browser gerade beschäftigt ist<br />
(z. B. mittels aria-busy="true")<br />
––<br />
Dialogankündigung für nicht-browserbasierte Dialogfenster (z. B.<br />
mittels role="dialog")<br />
––<br />
explizite Kennzeichnung von Regionen mit Systemmeldungen<br />
mittels Live Regions (z. B. durch Hinzufügen des Attributes arialive="assertive"<br />
zu einem HTML-Element, damit Screenreader<br />
DOM-Änderungen dieses Bereichs direkt ankündigen)<br />
Zusammenfassend kann man feststellen, dass ARIA nicht nur komplexe<br />
Applikationen unterstützt, sondern ARIA sollte auch in der Dokumentation<br />
eingesetzt werden, um Text- und Interaktionsstrukturen besser für<br />
Menschen mit Behinderungen erfahrbar zu machen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
509
User Assistance<br />
Weiterführende Informationen<br />
Accessible Rich Internet Applications (WAI-ARIA) 1.0. W3C Candidate<br />
Recommendation 18 January 2011 (neueste Version: http://www.w3.org/<br />
TR/wai-aria/; diese Version: http://www.w3.org/TR/2011/CR-waiaria-20110118/<br />
– vidi: <strong>2012</strong>-09-05)<br />
Kliem, Martin: Accessible Web 2.0 Applications with WAI-ARIA. In: A<br />
list apart, 235, 9. April 2007. (http://www.alistapart.com/articles/waiaria/<br />
– vidi: <strong>2012</strong>-09-05)<br />
Roadmap for Accessible Rich Internet Applications (WAI-ARIA Roadmap).<br />
W3C Working Draft 4 February 2008 (neueste Version: http://www.<br />
w3.org/TR/wai-aria-implementation/; diese Version: http://www.w3.org/<br />
TR/2008/WD-wai-aria-roadmap-20080204/ – vidi: <strong>2012</strong>-09-05)<br />
Section 508 (https://www.section508.gov/ – vidi: <strong>2012</strong>-09-05)<br />
WAI-ARIA FAQ (http://www.w3.org/WAI/aria/faq.html – vidi:<br />
<strong>2012</strong>-09-05)<br />
WAI-ARIA Overview (http://www.w3.org/WAI/intro/aria.php – vidi:<br />
<strong>2012</strong>-09-05)<br />
WAI-ARIA 1.0 Authoring Practices. An author’s guide to understanding<br />
and implementing Accessible Rich Internet Applications. W3C Working<br />
Draft 16 September 2010 (neueste Version: http://www.w3.org/TR/waiaria-practices/;<br />
diese Version: http://www.w3.org/TR/2010/WD-waiaria-practices-20100916/<br />
– vidi: <strong>2012</strong>-09-05)<br />
WAI-ARIA 1.0 Primer. An introduction to rich Internet application accessibility<br />
challenges and solutions. W3C Working Draft 16 September<br />
2010 (neueste Version: http://www.w3.org/TR/wai-aria-primer/; diese<br />
Version: http://www.w3.org/TR/2010/WD-wai-aria-primer-20100916/ –<br />
vidi: <strong>2012</strong>-09-05)<br />
WAI-ARIA 1.0 User Agent Implementation Guide. A user agent<br />
developer‘s guide to understanding and implementing Accessible Rich<br />
Internet Applications. W3C Working Draft 16 August <strong>2012</strong> (neueste Version:<br />
http://www.w3.org/TR/wai-aria-implementation/; diese Version:<br />
http://www.w3.org/TR/<strong>2012</strong>/WD-wai-aria-implementation-<strong>2012</strong>0816/ –<br />
vidi: <strong>2012</strong>-09-05)<br />
Web Content Accessibility Guidelines 1.0. W3C Recommendation<br />
5-May-1999 (neueste Version: http://www.w3.org/TR/WAI-WEBCON-<br />
TENT/; diese Version: http://www.w3.org/TR/1999/WAI-WEBCON-<br />
TENT-19990505 – vidi: <strong>2012</strong>-09-05)<br />
stefan.schnabel@sap.com<br />
matthias.kammerer@sap.com<br />
510<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 7<br />
Fachvortrag<br />
Ein Open-Source-Hilfe-Viewer zeigt es allen<br />
Harald Hermann, Advantest Europe GmbH, Böblingen<br />
Mit dem Trend weg vom gedruckten Handbuch hin zum Online-Hilfesystem<br />
entstand der Wunsch nach dynamischen Inhalten. Zumindest<br />
eine gute Volltextsuche ist heutzutage Standard. Hilfe im Web und innerhalb<br />
einer Anwendung mit der gleichen Funktionalität anzubieten<br />
ist nicht ganz einfach. Zunehmend wird daher auf das Mitliefern der<br />
Hilfe verzichtet, stattdessen öffnet ein Klick auf den Hilfeknopf eine<br />
Webseite. In Fällen, in denen Unternehmen aber aufgrund von Sicherheitsüberlegungen<br />
den Zugriff aufs Web kappen, oder wenn der Zugriff<br />
durch eine langsame Internetverbindung ausgebremst wird, muss eine<br />
andere Lösung her. Der Eclipse Help Viewer ist eine solche Lösung. Es<br />
gibt ihn für Windows, Linux, Mac OS und weitere Betriebssysteme. Sein<br />
Aussehen und Verhalten kann mittels Konfigurationsdateien weitreichend<br />
angepasst werden.<br />
Ziel des Vortrags<br />
Der Vortrag stellt die Funktionalität und Einsatzmöglichkeiten des Eclipse<br />
Help Viewers vor. Ziel ist es, die Teilnehmer in die Lage zu versetzen,<br />
eigene Inhalte zu erstellen oder aufzubereiten, so dass diese mit dem<br />
Eclipse Hilfe Viewer angezeigt werden können. Darüber hinaus vermittelt<br />
der Vortrag Informationen, um fundiert entscheiden zu können, wann<br />
eine Verwendung sinnvoll und lohnenswert ist.<br />
Einsatzmöglichkeiten<br />
Der Eclipse Help Viewer kann nicht nur als eigenständige Online-Hilfe<br />
lokal und als Web-Anwendung verwendet werden, sondern auch als<br />
Hilfesystem innerhalb von Java- und Nicht-Java-Anwendungen.<br />
Abb. 1: Eclipse Help Viewer als Web-Anwendung, Hilfesystem in einer<br />
Java-Anwendung und als lokale Online-Hilfe<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
511
User Assistance<br />
Einsatz als<br />
Web-Anwendung<br />
Einsatz als lokale<br />
Online-Hilfe<br />
Einsatz als Hilfesystem<br />
innerhalb von Javaund<br />
Nicht-Java-<br />
Anwendungen<br />
Der Einsatz des Eclipse Help Viewers als Web-Anwendung ermöglicht<br />
die zentrale Verwaltung der Online-Hilfe auf einem Server um damit<br />
viele Clients im Internet oder Intranet zu erreichen. Dabei ist weder ein<br />
bestimmter Browser noch eine bestimmtes Betriebssystem notwendig.<br />
Auch das Endgerät stellt keine Einschränkung für die Verwendung der<br />
Hilfe dar. Der Aufruf der Hilfe erfolgt mit einem Browser vom Desktop-PC<br />
oder einem mobilen Endgerät wie Laptop, Smartphone oder<br />
Tablet-PC.<br />
Falls jedoch keine Internet-Verbindung vorliegt, kann der Eclipse Help<br />
Viewer auch lokal auf dem Desktop-PC oder Laptop installiert werden.<br />
Auch als Viewer für die kontextsensitive Hilfe kann er innerhalb einer<br />
Java-Anwendung, die z. B. auf Eclipse basiert, über F1 oder auch von<br />
anderen Nicht-Java-Anwendungen aufgerufen werden.<br />
Installation<br />
Der Eclipse Help Viewer muss nicht installiert werden. Zunächst wird<br />
die Datei help-[version].zip von helpaddons.sf.net [1] heruntergeladen<br />
und lokal entpackt. Danach kann der Eclipse Help Viewer als<br />
lokale Online-Hilfe unter Windows direkt durch das Ausführen der<br />
Datei Help.exe gestartet werden. Als Web-Anwendung startet ein Java-<br />
Befehl (z. B. java -classpath C:\help\eclipse\plugins\org.<br />
eclipse.help.base_[version].jar org.eclipse.help.standalone.Infocenter<br />
-command start -eclipsehome C:\help\eclipse<br />
-port 8081) den Eclipse Help Viewer. Der Aufruf der URL http://<br />
localhost:8081/help/index.jsp zeigt dann den Eclipse Help Viewer<br />
als Web-Anwendung [2].<br />
Suchen<br />
Der Eclipse Help Viewer verfügt über eine Volltextsuche, die sich auf<br />
Bereiche im Inhaltsverzeichnis oder vordefinierte Kategorien eingrenzen<br />
lässt. Somit kann sowohl über den kompletten Hilfeinhalt, über<br />
einzelne Bereiche in der Struktur der Hilfe,als auch nach vordefinierten<br />
Kategorien, wie zum Beispiel nur in Büchern oder Abschnitten für ein<br />
bestimmtes Produkt, gesucht werden.<br />
Abb. 2: Suche im selektierten Topic oder in der Inhaltsverzeichnis-Struktur<br />
Inhalte erstellen<br />
Der Inhalt, also die Dokumentation für den Eclipse Help Viewer, wird<br />
im Online-Hilfe Format „Eclipse Help“ erstellt [3]. Wie auch bei anderen<br />
512<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
Online-Hilfen, z. B. Microsoft Help, besteht die Hilfe aus Strukturelementen<br />
(wie dem Inhaltsverzeichnis, Index, Suchindex und der Seitennavigation),<br />
und dem Inhalt (HTML- und Bild-Dateien) selbst. Die<br />
Strukturelemente werden im XML-Format spezifiziert. Die Datei toc.<br />
xml zum Beispiel spezifiziert das Inhaltsverzeichnis, das einzelne Inhaltsseiten<br />
referenziert.<br />
Abb. 3: Inhaltsverzeichnis-Beispiel im Eclipse Help Format<br />
Der Inhalt (HTML- und Bild-Dateien) kann in einem eigenen Verzeichnis<br />
(wie im Beispiel in Abbildung 2) oder in der Datei doc.zip zusammengefasst<br />
abgelegt werden. Struktur-XML-Dateien und Inhaltsdateien<br />
müssen, um im Eclipse Help Viewer angezeigt zu werden, noch durch<br />
die Dateien plugin.xml und MF/manifest ergänzt werden. Alle Dateien<br />
zusammen ergeben dann ein Eclipse Hilfe Plugin [4].<br />
Inhalt einbinden<br />
Das fertige Eclipse Hilfe Plugin muss nur noch in das Verzeichnis „help/<br />
plugins“ kopiert werden und wird nach einem Neustart des Eclipse<br />
Help Viewers auch im Inhaltsverzeichnis gelistet.<br />
Fazit<br />
Der Eclipse Help Viewer ist mit seinen vielseitigen Einsatzmöglichkeiten<br />
als Open-Source-Projekt plattformübergreifend der ideale Begleiter,<br />
um Kunden ein zuverlässiges und dennoch flexibles Hilfesystem<br />
anzubieten.<br />
Weiterführende Informationen<br />
[1] Eclipse Help Viewer (http://helpaddons.sf.net/)<br />
[2] Information Center (http://help.eclipse.org/helios/index.jsp?topic=/<br />
org.eclipse.platform.doc.isv/guide/ua_help_setup_infocenter.htm)<br />
[3] Writing Documentation and Help for Eclipse Projects and Plug-ins<br />
(http://www.keycontent.org/tiki-index.php?page=Eclipse Help System)<br />
[4] Building a help plug-in (http://help.eclipse.org)<br />
Rückfragen gerne an: harald.hermann@advantest.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
513
User Assistance<br />
UA 8<br />
Partner presentation<br />
The Cosmopolitan Information Topic<br />
Waltraud Winter, Siemens Healthcare, Forchheim<br />
Uwe Reißenweber, DOCUFY, Bamberg<br />
It’s time to stop thinking of customer documentation in terms of monolithic<br />
files, in all required languages, covering all legal requirements.<br />
Our customers are more than mere recipients of what we provide, lost<br />
in a world of words. Each customer needs appropriate content at the<br />
right time and in the right format, that is, topic-based information.<br />
For this reason, Siemens Healthcare has developed a new way of customer<br />
documentation, the Knowledge Gateway. This modern approach<br />
not only provides our customers with most suitable information, but<br />
also turns them into cherished collaborators. We therefore develop,<br />
maintain, and deliver topics of information as well as collaboration tools.<br />
The customers decide what to read, when to read it, and in which format<br />
to read it. And we stay in touch with the customers and learn from their<br />
experiences during the whole lifecycle of a product. In this way, a cosmopolitan<br />
information topic is the connecting link between the user and<br />
the information developers.<br />
Contact:<br />
waltraud.winter@siemens.com<br />
uwe.reissenweber@docufy.de<br />
514<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 9<br />
Presentation<br />
Adding Useful Interactivity to Online Help<br />
Nicoletta A. Bleiel, ComponentOne, a division of GrapeCity, inc., Pittsburgh, USA<br />
Introduction<br />
Content is King, but adding a measured dose interactivity to your online<br />
Help will increase readability and usability, as well as make it more<br />
compelling. This paper discusses a number of simple ways to improve<br />
your Help, even while single sourcing.<br />
Online Help systems for software user assistance can be improved<br />
with interactivity, and adding social media options can also serve other<br />
company goals. There are more options for interactivity when creating<br />
browser-based Help systems, but it is possible to incorporate some<br />
features into HTML Help systems as well.<br />
Help systems are learning modules that share all the characteristics of<br />
websites — they have content, a table of contents, search, and navigation.<br />
It should be noted that the research on both ELearning and the<br />
web encourages interactivity.<br />
Considering Interactivity<br />
When deciding what interactivity would be most useful in your Help<br />
system, keep in mind the following:<br />
––<br />
Will the user understand and expect the relevant action that occurs?<br />
––<br />
If content is hidden, will the user know how to access it?<br />
––<br />
Does the additional user input actually improve the overall experience?<br />
(From: “Bringing Interactivity To Your Website With Web Standards”<br />
http://coding.smashingmagazine.com/2011/02/03/<br />
bringing-interactivity-to-your-website-with-web-standards/)<br />
Also consider other goals, such as improving the SEO of your Help system,<br />
increasing your company’s Twitter followers, collecting feedback<br />
and building a community, and incorporating useful social media elements<br />
into your Help.<br />
Interactivity Options<br />
There are many options for adding interactivity, including the ones below.<br />
The ease of implementation will depend upon the Help Authoring<br />
Tool or authoring environment you are using.<br />
––<br />
Expanding/Collapsing Text can be used to layer information by category.<br />
In print outputs, the content remains in list form; no additional<br />
adjustment is necessary.<br />
––<br />
Image Maps are interactive graphics that link to additional information.<br />
Using conditions, they can be easily modified for print output.<br />
––<br />
Glossary Popups are popup links that display definitions. They are a<br />
great option for documentation that contains a great deal of company<br />
or industry-specific terminology and/or acronyms.<br />
––<br />
Google Maps with custom locations can easily be created and embedded,<br />
and can provide useful content that is interactive.<br />
––<br />
Twitter has several types of buttons that can be used to increase the<br />
visibility of your Help, or encourage customers to follow your compa-<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
515
User Assistance<br />
ny on Twitter. “Share” buttons make it easy for customers to tweet the<br />
URL of the Help page; “Follow” buttons provide interactivity that ties<br />
social media to the Help system.<br />
––<br />
Twitter Search Widgets can be used to display what is being said<br />
about your company (and/or selected subjects) within your Help system.<br />
––<br />
Videos appeal to visual learners and require users to interact with<br />
the system if not set to autoplay (since users generally prefer to click<br />
“play” themselves, it is best to avoid that setting).<br />
––<br />
Adding DISQUS commenting/ratings features to your web-based<br />
Help systems. Live example: http://www.componentone.com/newimages/disqus/<br />
––<br />
Including email buttons in your Help to contact technical support<br />
or the documentation team add interactivity and (more importantly)<br />
make it easier for customers to contact your company. Consider including<br />
the URL of the Help topic in the body of the email to speed<br />
accuracy and response time.<br />
A few options for interactivity<br />
Outcomes and Considerations<br />
Well-implemented interactivity makes information more readable, exposes<br />
information layers, encourages discovery, and provides feedback<br />
mechanisms. Social media options can provide additional useful information,<br />
build a customer community, and increase Twitter followers.<br />
Adding interactivity should be balanced with good usability practices.<br />
Don’t overdo the click count, add unnecessary (or too much) interactivity,<br />
or alter established standards.<br />
Before implementing interactivity, consider the following: accessibility,<br />
translation, localization, and your customer’s access to the internet.<br />
516<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
References<br />
Bushell, David, “Bringing Interactivity To Your Website<br />
With Web Standards” Smashing Magazine (February<br />
3, 2011) http://coding.smashingmagazine.com/2011/02/03/<br />
bringing-interactivity-to-your-website-with-web-standards/<br />
Copeland, Dave, “Best Practices For Writing For Online Readers” Read-<br />
WriteWeb (March 16, <strong>2012</strong>) http://www.readwriteweb.com/archives/<br />
best_practices_for_writing_for_online_readers.php<br />
“Formulas for Readability”, Wikipedia, April 29, <strong>2012</strong> http://<br />
en.wikipedia.org/wiki/Readability<br />
Hughes, Michael, “Progressive User Adoption” UX matters blog http://<br />
www.uxmatters.com/mt/archives/2009/03/progressive-user-adoption.<br />
php<br />
Keeler, Mitch, “Add Interactivity With Google Web Elements” Lunarpages<br />
Newsletter http://www.web-hosting-newsletter.com/2009/05/29/<br />
add-interactivity-with-google-web-elements/<br />
Martin, Michael, “30 Ways to Improve Readability”<br />
Pro Design Blog http://www.problogdesign.com/<br />
blog-usability/30-ways-to-improve-readability/<br />
Phillips, Jon, “5 Tips For Improving Readability<br />
On Your Website” spyrestudios.com http://spyrestudios.<br />
com/5-tips-for-improving-readability-on-your-website/<br />
Sims, Roderick, “Interactivity: A Forgotten Art?” Instructional Technology<br />
Research Online (January 27, 1997) http://www2.gsu.edu/~wwwitr/<br />
docs/interact/<br />
Van Geel, Jeroen, “The Psychologist’s View of UX Design” Johnny Holland<br />
Magazine (February 21, <strong>2012</strong>) http://johnnyholland.org/<strong>2012</strong>/02/<br />
the-psychologists-view-of-ux-design/<br />
Additional Resources<br />
Google Maps: http://maps.google.com/<br />
Twitter Search Widgets: http://twitter.com/about/resources/widgets/<br />
widget_search<br />
Twitter Buttons: https://twitter.com/about/resources/buttons<br />
DISQUS: http://www.disqus.com/<br />
Contact Information<br />
Please send any questions or comments to Nicky Bleiel, Lead Information<br />
Developer, Doc-To-Help: nickyb@componentone.com. Follow me on Twitter<br />
at @nickybleiel and @DocToHelp.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
517
User Assistance<br />
UA 10<br />
Workshop<br />
Nutzer- und autorenfreundliche<br />
Wikis – wie geht das?<br />
Jonas Wäckerle und Mark Schubert, parson communication, Hamburg<br />
Viele Unternehmen setzen Wikis ein, um Informationen zu sammeln<br />
und zu verbreiten. Während die grundlegenden Funktionen von Wiki-<br />
Software das Erstellen von Inhalten sehr einfach machen, ist das Ergebnis<br />
nicht immer leicht zu nutzen. Dieser Workshop zeigt Möglichkeiten<br />
auf, Wikis für Nutzer und Autoren anwenderfreundlicher zu gestalten.<br />
Dabei kommt die Open-Source-Lösung Semantic MediaWiki zum Einsatz.<br />
Die grundlegenden Funktionen des Semantic MediaWiki werden<br />
unter dem Blickwinkel der Nutzerfreundlichkeit vorgestellt.<br />
Kategorien<br />
Seitenstruktur<br />
Datenqualität<br />
Wikis und ihre Probleme<br />
Abhängig von der eingesetzten Wiki-Software haben Benutzer von Wikis<br />
mit unterschiedlichen Problemen zu kämpfen.<br />
Häufig sind Informationen lediglich in Kategorien sortiert. Dem Nutzer<br />
präsentiert sich eine unsortierte Anhäufung an Wiki-Artikeln innerhalb<br />
der Kategorie. Das ist ausreichend für Inhalte, die wie Lexikoneinträge<br />
unabhängig voneinander stehen. Informationsprodukte in der Technischen<br />
Dokumentation lassen sich jedoch häufig nicht in dieser Form<br />
aufbereiten. Oft müssen Handlungsanweisungen in einer bestimmten<br />
Reihenfolge durchlaufen werden. Hierfür müssen Wiki-Artikel untereinander<br />
in Beziehung gesetzt werden. Eine reine Verknüpfung greift<br />
zu kurz.<br />
Hat der Nutzer eine Seite gefunden, geht die Suche nach der gewünschten<br />
Information weiter. Ohne Formatvorlagen ist das Erscheinungsbild<br />
von Wiki-Seiten oft uneinheitlich. Entwürfe unterscheiden sich nicht<br />
von Veröffentlichungen und gleiche Informationsklassen sind uneinheitlich<br />
strukturiert. Ursache ist die fehlende Trennung von Information<br />
und Layout. Autoren erstellen im Wiki die Inhalte und formatieren<br />
direkt im Seitentext. Zwar bieten Wikis Templates, aber zwingend ist<br />
deren Nutzung nicht. Konventionelle Wikis erschweren damit nicht nur<br />
das Lesen, sie verlangen auch unnötige Formatierungsarbeit vom Autor.<br />
Ein weiteres Problem konventioneller Wikis ist die Qualität der Information.<br />
Gleiche Daten sind häufig an verschiedenen Stellen verfügbar.<br />
Werden sie an einer Stelle geändert, sind sie an anderer Stelle nicht<br />
mehr aktuell. Auch gibt es meist keine Möglichkeit, zusätzliche Informationen<br />
zu einer Seite zu speichern, ohne die Seite zu überfrachten.<br />
So können Seiten in der Regel nicht markiert werden, um zum Beispiel<br />
Arbeitsabläufe abzubilden. Lediglich ein Vermerk im Text ist möglich.<br />
Dieser ist dann aber für alle Nutzer sichtbar.<br />
Semantic MediaWiki<br />
Abhängig von der eingesetzten Wiki-Software gibt es für die aufgeführten<br />
Probleme konventioneller Wikis unterschiedliche Lösungsansätze.<br />
Dieser Workshop befasst sich mit einer für das MediaWiki konzipierten<br />
Lösung, dem Semantic MediaWiki. Diese Erweiterung ergänzt das MediaWiki<br />
um semantische Eigenschaften. Wiki-Seiten können entsprechend<br />
ihren Inhalten ausgezeichnet werden. Das Ergebnis sind Seiten<br />
518<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
mit semantischen Eigenschaften, denen wiederum beliebige Werte<br />
zugewiesen werden. Diese semantischen Eigenschaften können wie Informationen<br />
einer Datenbank abgefragt werden. Die Ergebnisse lassen<br />
sich beliebig verwenden.<br />
Semantic MediaWiki bietet darüber hinaus weitere Funktionen, die als<br />
Semantic Bundle in einem Schritt installiert werden können. Zu diesen<br />
Funktionen gehören Formulare, verschiedene Ausgabeformate und<br />
Parser-Funktionen, die Skripte in Wiki-Seiten einsetzbar machen. Im<br />
Folgenden werden einige Funktionen vorgestellt.<br />
Semantische<br />
Eigenschaften<br />
Semantische Abfragen<br />
Semantische Formulare<br />
Möglichkeiten des SMW Bundle – Beispiele<br />
Die Grundlage des Semantic MediaWiki sind semantische Eigenschaften<br />
von Seiten. Sowohl der Name als auch die erlaubten Werte einer<br />
Eigenschaft können im Semantic MediaWiki frei gewählt und festgelegt<br />
werden.<br />
Autoren einer Seite können semantischen Eigenschaften direkt im<br />
Wiki-Editor im Fließtext setzen. Die Syntax für solche Eigenschaften<br />
ähnelt der Syntax von Verknüpfungen im MediaWiki. In folgendem Beispiel<br />
wird der Seite „Coffee Master 2000“ die Eigenschaft „waterTank-<br />
Volume“ zugewiesen und der Wert im Text angezeigt.<br />
Der Coffeee Master 2000 verfügt über eine Tankvolumen von [[water-<br />
TankVolume::1910]]mm.<br />
Doch nicht immer sollen semantische Informationen auf der Wiki-Seite<br />
sichtbar sein. Eine leicht veränderte Syntax ermöglicht es, semantische<br />
Eigenschaften zu setzen, ohne dass diese im Fließtext angezeigt werden.<br />
Im folgenden Beispiel wird der Seite „Coffee Master 2000“ die semantische<br />
Eigenschaft „workstatus“ zugewiesen und der Wert „draft“ gesetzt.<br />
{{#set: workstatus=draft }}<br />
Semantische Eigenschaften einer Seite können im Fließtext einer anderen<br />
Seite abgefragt werden. In folgendem Beispiel wird auf der Seite<br />
„Coffee Master 2000“ die Bestellnummer eines Entkalkers abgefragt.<br />
Die Abfrage zeigt den Wert der Eigenschaft „bestellNummer“ an, wie er<br />
auf der Seite „Entkalker 2000“ gesetzt ist. Ändert sich die Bestellnummer<br />
auf der Ausgangsseite, wird der Text aktualisiert.<br />
Reinigen Sie den Coffeee Master 2000 nur mit dem Entkalker Nr.<br />
{{#show: Entkalker CM2000 | ?bestellNummer}}.<br />
Neben der Anzeige von Eigenschaftswerten einer speziellen Seite<br />
können auch Listen mit Seiten angezeigt werden, die bestimmte Bedingungen<br />
erfüllen. Im folgenden Beispiel wird auf der Seite „Offene<br />
Aufgaben“ eine Tabelle mit Seiten angezeigt, für die die Eigenschaft<br />
„workstatus“ auf den Wert „draft“ gesetzt ist. Die Tabelle zeigt in der linken<br />
Spalte Verknüpfungen auf die Seiten und in der rechten Spalte die<br />
Werte der Eigenschaft „workstatus“ an.<br />
{{#ask: [[workstatus::draft]] | ? workstatus }}<br />
Die im Semantic Bundle enthaltene Erweiterung Semantic Forms erlaubt<br />
es, Formulare für Autoren anzulegen. Diese Formulare sind verbindlich<br />
und mit Templates verknüpft. Dadurch wird eine einheitliche<br />
Struktur und Gestaltung von Seiten derselben Informationsklasse garantiert.<br />
Formulare können wiederum den inhaltlichen Kategorien des<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
519
User Assistance<br />
Wikis zugewiesen werden. So werden auch beim späteren Bearbeiten<br />
der Seite immer die vorgesehenen Formulare verwendet.<br />
Das folgende Beispiel erstellt in dem Formular „CoffeeMaker“ ein Feld,<br />
in dem der Bearbeitungsstatus der Wiki-Seite erfasst wird. Als Standardwert<br />
wird „draft“ vorgegeben.<br />
{{{for template|Metadata}}}<br />
{{{field|workstatus|default=draft}}}<br />
{{{end template}}}<br />
Ausblick<br />
Semantische Eigenschaften ergänzen Wiki-Seiten um zusätzliche Informationen.<br />
Diese Informationen sind Grundlage der Funktionalität des<br />
Semantic MediaWiki.<br />
––<br />
Semantische Eigenschaften können frei nach Anforderungen definiert<br />
werden.<br />
––<br />
Seiten können markiert werden.<br />
––<br />
Seiten können gefiltert aufgelistet werden.<br />
––<br />
Informationen auf Seiten können wiederum innerhalb anderer Seiten<br />
abgefragt werden.<br />
Dadurch ergeben sich vielfältige Möglichkeiten, Informationen zielgruppenspezifisch<br />
zu präsentieren. Abfragen generieren Portalseiten<br />
für Nutzer und Administratoren einer Software. Semantische Eigenschaften<br />
bilden Relationen zwischen Seiten ab, um inhaltliche Beziehungen<br />
für den Leser darzustellen. Auch Arbeitsabläufe lassen sich<br />
abbilden und unterstützen. Nicht zuletzt helfen Formulare bei der einheitlichen<br />
Strukturierung und Formatierung von Informationen und<br />
verhelfen dem Wiki zu einem einheitlichen Erscheinungsbild.<br />
Die aufgeführten Möglichkeiten sind dabei nur ein kleiner Ausschnitt<br />
der Einsatzmöglichkeiten des Semantic MediaWiki. Zahlreiche andere<br />
Erweiterungen bauen die Grundfunktionalität weiter aus.<br />
Für Rückfragen: mark.schubert@parson-com.com<br />
520<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 11<br />
Workshop<br />
Kurze und knackige<br />
Anforderungen<br />
Scrum, Sprints und<br />
Inkremente<br />
Karteikarten und Bierdeckel: User Stories<br />
für Dokumentation und Entwicklung<br />
Anne Hoffmann & Ann-Cathrin Mackenthun, parson communication, Hamburg<br />
In der agilen Software-Entwicklung werden Anforderungen nicht mehr<br />
in Pflichten- und Lastenheften geschrieben, sondern in Form von handlichen<br />
User-Stories festgehalten, die auf einer Karteikarte oder einem<br />
Bierdeckel Platz haben. Doch wie schreiben Sie kurze und knackige<br />
Anforderungen, die nützlich für die Entwickler sind und eine gute Basis<br />
für aufgabenorientierte Dokumentation darstellen?<br />
Die Verwendung von User Stories als Anforderungsbeschreibungen<br />
für die Software-Entwicklung geht auf agile Entwicklungsverfahren<br />
wie Scrum zurück. Ein nach Scrum geführtes Projekt wird nicht von<br />
Anfang an durchgeplant. Stattdessen arbeiten die Entwickler in kurzen<br />
Entwicklungszyklen, Sprints genannt. Zudem werden nur kleine und in<br />
sich geschlossene Funktionen (Inkremente) entwickelt, z. B. eine neue<br />
Schaltfläche mit einer Druckfunktion. Diese Inkremente bestehen aus<br />
allen notwendigen Einzelbestandteilen, wie z. B. Datenbankanbindung,<br />
funktionalem Code und Oberfläche. Theoretisch kann die Software am<br />
Ende jedes Sprints mit den neuen Funktionen ausgeliefert werden.<br />
Abb. 1: Inkrement in der Software-Entwicklung<br />
User Stories<br />
Kryptische Notizen<br />
Die Definition von Anforderungen in Scrum unterscheidet sich deutlich<br />
von anderen, herkömmlichen Entwicklungsmethoden. Bei der Definition<br />
der Anforderungen wird der Nutzer in den Mittelpunkt gerückt. Die<br />
User Stories beantworten dem Entwickler kurz und knapp die wichtigsten<br />
Fragen: Wer braucht warum welche Funktion? Für das Beispiel mit<br />
der Druckfunktion könnte die User Story folgendermaßen lauten: „Als<br />
Labor-Mitarbeiter möchte ich die grafische Darstellung des Ergebnisses<br />
der Untersuchung 3aXX direkt aus dem Grafik-Dialog heraus drucken<br />
können.“<br />
Was sich so einfach liest, ist im Alltag der Software-Entwicklung nicht<br />
immer so einfach umzusetzen. Oft wird ein Teil der Informationen weggelassen,<br />
weil „das macht eh Kollege Meier, der weiß schon, was gemeint<br />
ist“. Oder das Team schreibt direkt die technische Umsetzung auf,<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
521
User Assistance<br />
Gute User Stories<br />
schreiben<br />
etwa „auf Graf_008erg noch print_graf3 einbinden“. Doch nicht immer<br />
werden solche Anforderungen sofort umgesetzt, die Software entwickelt<br />
sich mit jedem Sprint weiter und nach ein paar Wochen weiß keiner<br />
mehr, was mit solch einer kryptischen Notiz gemeint war.<br />
Um dem vorzubeugen, helfen einfache Eselsbrücken. Im ersten Schritt<br />
wendet man das Formulierungsmuster [MC] an: Als [wer] möchte ich<br />
[welche Funktion] damit ich [warum]? Die drei „Ws“ sind einfach zu<br />
ersetzen. Die genaue Form ist dabei nicht entscheidend, wichtig ist, dass<br />
die Informationen enthalten sind. Etwas detaillierter sind die INVEST-<br />
Kriterien für Anforderungen [BW]:<br />
––<br />
I – Independent: Ist es eine in sich geschlossene und von anderen<br />
Anforderungen unabhängige Anforderung?<br />
––<br />
N – Negotiable: Weiß ich als Entwickler, was der Nutzer braucht, und<br />
kann somit verschiedene Lösungen für die technische Umsetzung<br />
verhandeln?<br />
––<br />
V – Valuable: Ist diese Funktion wirklich wichtig? Hat sie einen Geschäftswert?<br />
––<br />
E – Estimatable: Kann ich für diese Anforderung abschätzen, wie lange<br />
ich brauche? Liegt die Zeitschätzung unter 2 Tagen?<br />
––<br />
S – Small: Ist es wirklich das kleinstmögliche Inkrement oder kann<br />
ich die Anforderung in mehrere Inkremente aufbrechen?<br />
––<br />
T – Testable: Kann ich die Umsetzung der Anforderung testen? Welche<br />
Angaben fehlen mir, damit ich weiß, was ich testen muss?<br />
Abb. 2: INVEST-Kriterien auf User Story anwenden<br />
Vom Bierdeckel<br />
zum Handbuch<br />
Doch warum sind die User Stories, die die Entwickler nutzen, nun für<br />
Technische Redakteure interessant? Vor allem, weil sich die User Stories<br />
fast allein zu einem aufgabenbasierten Handbuch zusammenfügen.<br />
Es ist sofort klar, in welches Handbuch die neu programmierte Funktion<br />
gehört, in unserem Beispiel ins Handbuch für Labor-Mitarbeiter. Auch<br />
die Tätigkeit, das Ausdrucken, steht schon direkt in der User Story und<br />
522<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
Vorteile für<br />
Dokumentation<br />
und Entwicklung<br />
Quellen<br />
kann im entsprechenden Kapitel eingefügt werden. Und wenn an anderer<br />
Stelle die Durchführung der Untersuchung 3aXX beschrieben ist,<br />
kann dort einen Querverweis auf das neue Kapitel mit der Druckfunktion<br />
angelegt werden. So einfach war das Handbuchschreiben noch nie.<br />
Es lohnt sich sowohl für die Entwicklung als auch für die Dokumentation,<br />
wenn die User Stories gut formuliert sind. Die Entwickler können<br />
die Funktionen programmieren, die die Benutzer wirklich brauchen,<br />
und nicht die, die sie sich aus den Informationen zusammenreimen.<br />
Und Technische Redakteure profitieren von der aufgabenbasierten Beschreibung<br />
der User Story. Wenn Sie als Technischer Redakteur die Abläufe<br />
in einem agilen Software-Projekt kennen, können Sie sich gezielt<br />
die benötigten Informationen holen. Und wer weiß, vielleicht haben Sie<br />
in Zukunft sogar Interesse, bei der Formulierung der User Stories zu<br />
helfen? Immerhin sind eindeutiges Formulieren sowie das Vertreten der<br />
Nutzersicht genau unsere Stärken.<br />
[MC] Mike Cohn, http://www.mountaingoatsoftware.com/uploads/presentations/User-Stories-Norwegian-Developers-Conference-<strong>2012</strong>.pdf,<br />
12.09.<strong>2012</strong><br />
[BW] Bill Wake, http://xp123.com/articles/invest-in-good-stories-andsmart-tasks/,<br />
12.09.<strong>2012</strong><br />
für Rückfragen: anne.hoffmann@parson-com.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
523
User Assistance<br />
UA 12<br />
Workshop<br />
Best Practices for Mobile Outputs<br />
Nicoletta A. Bleiel, ComponentOne, a division of GrapeCity, inc., Pittsburgh, USA<br />
Introduction<br />
Developing Mobile outputs is the latest challenge for technical communicators,<br />
but more traditional outputs – such as desktop Help — are often<br />
developed simultaneously. In this workshop, we‘ll discuss how to create<br />
and structure Mobile Outputs in a single sourcing environment. We will<br />
also discuss the other uses for Mobile output, such as Field Service Team<br />
and Tourism Resources.<br />
Graphics and Tables<br />
Table of Contents<br />
Terminology<br />
Tips and Best Practices<br />
You should avoid large graphics and tables, because users will have to<br />
“swipe” to view/read them. To solve this issue, you can use conditions to<br />
designate one version of a graphic for desktop Help; another (smaller, or<br />
more targeted) version for Mobile. You may even want to consider eliminating<br />
some graphics in your Mobile outputs altogether because they<br />
take longer to load than text. Reduce the file size of those images you<br />
need to keep.<br />
It is best to keep the Table of Contents to no more than two levels, so customers<br />
can find information in two taps. Since they can’t view all the TOC<br />
levels at one time (as they can in desktop Help), this makes information<br />
more findable. Of course, they can use the “back” button to navigate, but<br />
that can get frustrating, and customers will most likely be using one hand.<br />
Keep topic names in the Table of Contents short, so the entire topic name<br />
has a better chance of appearing on the screen. (This will vary by device,<br />
so there is no standard length limit.) You can create a specialized Table of<br />
Contents for Mobile outputs if you wish.<br />
Standard software terminology – “click” for example – does not apply<br />
in Mobile. You may want to use “tap” instead. This is easy to accomplish<br />
when single-sourcing by creating and using variables (reusable chunks of<br />
text). You may find this “touch gestures reference guide” useful for learning<br />
terminology: http://www.lukew.com/ff/entry.asp?1071<br />
Mobile Output and its browser-based counterpart<br />
524<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
Writing Style<br />
Formatting<br />
Video<br />
Indexes<br />
Testing<br />
Since the screen is smaller, and users on mobile devices may be more<br />
distracted, you want to write more minimalist, easy-to-scan topics. Keep<br />
information short and to the point. You can manage different versions of<br />
the same topic easily in a single-sourcing environment using conditions.<br />
Collapsible navigation (which also adds to the usability of desktop Help)<br />
is a great way to make information more readable in Mobile outputs.<br />
Bulleted and numbered lists may take up valuable real estate in Mobile<br />
outputs; experiment with using conditions to create lists without bullets<br />
and numbering and see if they are more readable in Mobile outputs.<br />
When creating links within topics, make sure none are placed too close<br />
together, because users could touch more than one link at a time. You<br />
may need to increase the size of buttons in Mobile outputs to accommodate<br />
the fact that most people use their thumbs to navigate.<br />
Approximately one billion YouTube videos are streamed on cell phones<br />
every day, so you may want to consider adding additional videos for<br />
Mobile outputs. Using more video and less text may be the optimum mix<br />
for your Mobile outputs, and videos are also valuable in desktop Help.<br />
Indexes are not necessarily needed in Mobile outputs; if you’ve created<br />
one for desktop Help, you may choose to hide it in Mobile outputs.<br />
Make sure to test your Mobile outputs on as many devices as possible<br />
(you can also use emulators for testing). A handy utility to check mobile<br />
friendliness is the W3C mobileOK Checker at http://validator.w3.org/<br />
mobile/<br />
Further Reading and References<br />
Ten Best Practices for Your Mobile Website: http://socialmedia.<br />
biz/<strong>2012</strong>/05/31/10-best-practices-for-your-mobile-website/<br />
Ten Mobile Site Best Practices: http://googlemobileads.blogspot.<br />
com/2011/11/gomo-ten-mobile-site-best-practices.html<br />
Mobile Web Design Best Practices: http://www.noupe.com/how-tos/<br />
mobile-web-design-tips-and-best-practices.html<br />
Mobile in the Enterprise Infographic from gigaom.com: http://gigaom.<br />
com/collaboration/infographic-the-enterprise-mobile-explosion/<br />
Touch Gesture Reference Guide by Craig Villamor, Dan Willis, and Luke<br />
Wroblewski http://www.lukew.com/ff/entry.asp?1071<br />
Mobile Help Best Practices: http://our.componentone.com/<strong>2012</strong>/01/25/<br />
mobile-help-best-practices-part-2/<br />
Hans van der Meij on Minimalism: http://users.edte.utwente.nl/meij/<br />
minimalism.htm<br />
Carroll, John M. The Nurnberg Funnel: Designing Minimalist Instruction<br />
for Practical Computer Skill, MIT Press, 1990<br />
Carroll, John M. (Editor) Minimalism Beyond the Nurnberg Funnel, MIT<br />
Press, 1998<br />
Welinske, Joe. Developing User Assistance for Mobile Apps, WritersUA,<br />
2011<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
525
User Assistance<br />
STC Intercom Magazine, November 2011 issue “Tech Comm on the<br />
Move: Mobile Communication Technologies and Strategies” http://intercom.stc.org/magazine/november-2011/<br />
Please send any questions or comments to Nicky Bleiel, Lead Information<br />
Developer, Doc-To-Help: nickyb@componentone.com. Follow me on Twitter<br />
at @nickybleiel and @DocToHelp.<br />
526<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 13<br />
Workshop<br />
Business Case: Wir gestalten eine User<br />
Assistance nach strategischer Ausrichtung<br />
Alexander Hendrix, CAPE design GmbH, Palma de Mallorca und Erlangen<br />
So tun als ob: so lernten wir als Kinder. Wie sollte es anders funktionieren<br />
innerhalb von nur zwei wertvollen Stunden?<br />
Sie sind ein Sucher und Umdenker. Ihre Worte folgen nicht dem üblichen<br />
Business Bullshit und einer oberflächlichen Branchenterminologie.<br />
Sie sind fest entschlossen, mit „User Assistance“ Geschäftserfolge<br />
zu erzielen und Ihren höchst spezifischen Beitrag dazu zu leisten. Willkommen<br />
im Team.<br />
Lassen Sie uns beginnen.<br />
Stellen Sie sich vor, die Marketing-Abteilung einer großen Organisation<br />
richtet eine Initiative an die Führung, für eine neue Produktgeneration<br />
die bestehende User Dokumentation weltweit zu überdenken. Die Geschäftsleitung<br />
stimmt zu, ein Budget bereitzustellen und eine Taskforce<br />
zu bilden, mit der Auflage, ein überzeugendes Konzept einzureichen.<br />
Sehen Sie Ihre Chance?<br />
Hier sind meine Alternativen für das Produkt:<br />
––<br />
A) ein umfassendes cockpitseitiges Informationssystem für Piloten<br />
einer bedeutenden deutschen Fluggesellschaft,<br />
––<br />
B) ein diagnostisches Bildgebungssystem für die klinische Routine<br />
und Forschung (z. B. MR) für den nordamerikanischen, europäischen<br />
und chinesischen Markt,<br />
––<br />
C) eine Auswertungs- und Darstellungssoftware für die kosmologische<br />
Forschung, die die NASA als didaktische Applikation auch<br />
webbasiert einer interessierten Öffentlichkeit zur Verfügung stellen<br />
will.<br />
Wählen Sie, und wir fangen an.<br />
Wie gehen wir vor?<br />
Dies wird eine höchst interaktive Angelegenheit. Natürlich lege ich<br />
Ihnen passende Szenarien, Use Cases, Persona-Modelle und Brand<br />
Identities vor, um Ihrem weiteren Vorgehen Richtung zu geben. Doch<br />
was ich Ihnen bieten will, ist nicht Information, sondern Transformation.<br />
Es wird Ihnen buchstäblich Hören und Sehen vergehen. Sie werden<br />
in kürzester Zeit in unterschiedliche Rollen schlüpfen und Perspektiven<br />
erfahren, die Ihnen bisher entgangen sind. Sie werden kommunizieren<br />
wie ein Verrückter, Sie werden stehen, sitzen, liegen. Schreien und lachen.<br />
Das Ergebnis werden Sie dennoch rational begründen können.<br />
Meine Aufgabe für Sie: Bereiten Sie eine strategische Entscheidungsvorlage<br />
für den Vorstand vor. Strategisches Denken ist Denken in Optionen<br />
und „was wäre, wenn ...“ – und ich weiß, dass Sie das können, sobald<br />
Sie dazu ermuntert werden und nicht von Ihrer Unternehmenskultur<br />
und den üblichen Abteilungsbarrieren davon abgehalten werden (der<br />
Normalzustand in den meisten Unternehmen). Helfen Sie mit, ein ultimatives<br />
Ziel zu definieren, das alle begeistert, und die erwarteten Erfolgskriterien<br />
für das Projekt, darunter natürlich Eckpunkte einer User<br />
Experience mit „Wow-Effekt“.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
527
User Assistance<br />
Priorität haben werden für Sie weder sogenannte „Kundenanforderungen“<br />
noch die Verlockungen der Berater, die Ihnen nahelegen, mobile<br />
Dokumentation zu machen, Tablets zu nutzen oder Social Media. Das<br />
sind nur Taktiken. Wir wollen die Strategie ändern.<br />
Für den Erfolg entscheidend ist, dass Sie die „einschränkenden Bedingungen“<br />
definieren und sich nicht den Einschränkungen anderer beugen,<br />
einschließlich Ihrer Kunden oder Chefs. Aber auf eine Weise, die<br />
jene anderen überzeugt.<br />
Sie lernen hier nicht das, was Sie bisher sowieso nicht konnten. Sie lernen<br />
Resistenz gegenüber den Einflüsterungen der Mittelmäßigkeit. Sie<br />
lernen, Ihre bisherigen Fähigkeiten in einem Rahmen anzuwenden, der<br />
alles ändert.<br />
Wie helfe ich Ihnen?<br />
In meiner Rolle als Moderator werde ich Ihnen Paradigmen und Praxen<br />
vorlegen, die zum Umdenken und neuen Handeln anregen sollen<br />
(z. B. worin menschliche Kognition tatsächlich besteht, wie man Blue<br />
Sky Konzepte in eine internationale Marktforschung einschmuggelt<br />
usw.).<br />
In meiner Rolle als Coach werde ich Ihnen bei Ihrer Arbeit Mut machen<br />
und zudem laufend Rückmeldungen aus dem Teilnehmerkreis<br />
abfragen.<br />
In meiner Rolle als Chefdesigner werde ich zu den gemachten Vorschlägen<br />
begründet sagen: „ja“ oder „nein“, und diese Entscheidung ist<br />
maßgebend.<br />
Welches Ergebnis können wir erwarten?<br />
Wir wollen die Welt nicht mit einer weiteren pathologischen Online-<br />
Hilfe beglücken, die sich irgendeinem sogenannten „Content Management<br />
System“ unterwerfen muss.<br />
Sie haben das Design und Modell eines strategischen Konzepts in<br />
der Hand und vielleicht sogar einen kleinen Papierprototypen, den<br />
man nicht nur usability-testen, sondern zum Patent anmelden könnte.<br />
Wichtige Erfahrung wird sein, dass es nicht auf Tools & Co. ankommt,<br />
sondern auf den richtigen „Mindset“, auf Menschenkenntnis und<br />
Überzeugungskraft.<br />
für Rückfragen: hendrix@cape.de<br />
528<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
UA 14<br />
Tutorial<br />
Designing for the searching user:<br />
Are you still designing manuals<br />
nobody finds any answers in?<br />
Jonatan Lundin, Excosoft AB, Sweden<br />
Introduction<br />
Today, professional knowledge workers spend up to 30% of their time<br />
on searching for information. Many times a search is not successful,<br />
meaning that a lot of productive time is wasted. But, new possibilities<br />
such as efficient search engines and social media collaboration means<br />
that knowledge workers are being more efficient in finding information.<br />
Knowledge workers prefer information sources that provide reliable<br />
information at a low cost.<br />
Knowledge workers are sometimes users of technical products. Your<br />
business may be at stake if your company product documentation is difficult<br />
to find information in. When your competitors provide user manuals<br />
that are easy to search, your company might face the consequence of<br />
losing its business. This risk is increasing as the Google generation will<br />
soon be in charge as decision makers. Technical communicators have<br />
an opportunity to design documentation that becomes a business asset.<br />
But to do so you must understand the information seeking behaviors of<br />
users to know how to design manuals with high findability. To provide<br />
user manuals designed on the book paradigm, meaning that the search<br />
user interface is an arbitrary static hierarchy of titles – table of content<br />
– like in a PDF or on-line help, is a dead end. This presentation will<br />
introduce you to information seeking behaviors among users and how<br />
to design for findability using a design methodology and architecture<br />
called SeSAM.<br />
Users are focused on solving a problem, need or requirement<br />
Human beings are goal driven. There is an intention behind each human<br />
act. Users of technical products are also goal driven; they want<br />
to get things done. That is why humans are using technical products,<br />
for example office software or industrial hardware. Because they have<br />
found out that a product is the best way to solve a need, problem or<br />
requirement. They recognize a need, decide to do something about it<br />
when the pain of not solving the need is greater than the pain of finding<br />
and implementing a solution. The primary goal of any user when interacting<br />
with a product is to solve the need as fast, efficiently, reliable and<br />
securely as possible, not do tasks with the product because they are fun<br />
to do.<br />
Users construct a mental model of the product they interact with<br />
Humans store semantic knowledge about the world as for example<br />
schemas. A schema is representation of something, like a technical<br />
product. A technical product schema says that technical products are<br />
means used to solve a need, something I denote the primary goal of a<br />
user. The schema also tells us that a human often must interact with<br />
the product to make it solve the primary goal, that is, a user has to do<br />
various tasks throughout the product lifecycle. These tasks are done to<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
529
User Assistance<br />
reach, something I denote, the secondary goals. A number of secondary<br />
goals, for example install, configure and use, must be reached to solve a<br />
primary goal.<br />
Now, when users see or interact with the user interface of a particular<br />
product, the product schema is invoked and “filled in” as the user constructs<br />
a mental model about the current product. The mental model<br />
tells the user a lot of things, for example what specific primary goals the<br />
current product can solve and what specific tasks must be done to solve<br />
specific secondary goals. Users try to employ a strategy from the mental<br />
model on how to interact with the product to reach both the primary<br />
and secondary goals.<br />
Users are active and goal oriented when trying to solve a need<br />
Users are focused on doing real tasks to reach real goals. The product<br />
interaction starts out from wanting to reach a secondary goal.<br />
How confident the user is about the mental model probably affects the<br />
behavior since users are “energy calculative” and try to find the path of<br />
least effort. If a user is uncertain about the mental model and how to<br />
do a task, the user would probably not start to try the product since the<br />
consequence could be a waste of a lot of energy before the goal is finally<br />
reached. Then it is better to first get a confirmation on the strategy,<br />
by finding additional knowledge about how to do. If the user is certain<br />
about the mental model and strategy, then the most energy saving behavior<br />
is to start to follow it since putting effort on doing something else,<br />
like reading about a task, is a waste of energy.<br />
When do users experience a problem and what do they do?<br />
Users end up in a problem situation for a number of reasons. A user<br />
can perceive the mental model to be clear or vague and the user can be<br />
certain or uncertain about the mental model. But the perceived model<br />
can also be more or less in accordance with the product design. A user<br />
can for example be certain and perceive to have a correct mental model,<br />
were it is incorrect. When such a user is trying to do a task the outcome<br />
is probably a failure because the user is not following any of the possible<br />
paths required to use the product successfully. The user gives up<br />
when all possible problem solving solutions are tried and decides to find<br />
external help.<br />
The user senses a gap in knowledge which leads to an information<br />
need. Users start to search for information to bridge the gap. The user is<br />
located in a search situation. Users formulate a third goal strategy which<br />
is to find information to resolve the problematic situation. Users form a<br />
“mental question” that is related to the secondary goal and in turn the<br />
primary goal. Users display an information seeking behavior.<br />
How does a user find help? Who can answer?<br />
There are in practice two parties that can answer user questions: other<br />
users and the community of individuals that represents the manufacturer.<br />
Users often turn to other users, like colleagues, friends etc. Another<br />
user is anyone who is perceived to have the answer. Social media has a<br />
huge impact since now the whole world of users is reachable.<br />
530<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
A manufacturer of a technical product has a responsibility to provide<br />
answers to all questions directed to him. A manufacturer can take on<br />
a predictive or reactive approach to answer questions. In a reactive<br />
approach, questions are answered as they arise, which the support<br />
department is responsible for. In a predictive approach, technical communicators<br />
are predicting user questions (or that is what technical<br />
communicators should be doing) and preparing the answers before the<br />
question is stated. This approach is possible since technical communicators<br />
often work in a pre-release mode.<br />
What is SeSAM all about?<br />
SeSAM is a design methodology and architecture for technical communicators<br />
to design technical documentation. SeSAM is a methodology<br />
to predict user questions and design effective search user interfaces to<br />
make answers findable, built on a faceted browsing principle. SeSAM<br />
is based on a taxonomical approach to design, which means that user<br />
questions are predicted and classified using multiple facet taxonomies<br />
that are derived from the primary, secondary and third user goals.<br />
jonatan.lundin@excosoft.se<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
531
User Assistance<br />
UA 15<br />
Workshop<br />
Hands-On HTML5<br />
Alan Houser, Group Wellesley, Inc., Pittsburgh, USA<br />
The current popular version of the language of the World Wide Web,<br />
HTML 4, is more than 10 years old. In the time since HTML 4 was originally<br />
designed, Web text and graphics have been supplemented by multimedia,<br />
Web applications, and rich interactivity.<br />
HTML5 more fully supports the Web‘s current and future capabilities,<br />
and maintains the vision of a standards-based Web. Although today’s<br />
World Wide Web provides rich capabilities, HTML5 was designed with<br />
simplicity in mind. In this workshop, we will explore HTML5 support for<br />
structure and semantics, by developing HTML5 web pages.<br />
The Basics of an HTML5 Web Page<br />
––<br />
Doctype Declaration<br />
––<br />
Document Metadata<br />
––<br />
Document Sections<br />
––<br />
Content Groups<br />
––<br />
Inline Semantics<br />
Doctype Declaration<br />
HTML5 documents begin with the following DOCTYPE declaration:<br />
.<br />
Contrast this with a common form of the HTML 4 DOCTYPE<br />
declaration:<br />
<br />
The HTML5 doctype declaration is evidence of several goals in HTML5<br />
design:<br />
––<br />
Simplicity: The HTML5 DOCTYPE is terse and easy to remember.<br />
––<br />
HTML5 is envisioned as a living specification. The specification is<br />
expected to evolve over time, as new features are proposed by the<br />
community and are supported by browser vendors. HTML documents<br />
should not require a particular version number to be appropriately<br />
displayed.<br />
Document Metadata<br />
HTML5 document-level metadata elements provide containers for information<br />
about the document. These include items such as the document<br />
title, styling information, and other document-level information.<br />
Elements in this category include , , and .<br />
These elements are largely unchanged from previous versions of<br />
HTML.<br />
Document Sections<br />
HTML5 provides improved markup for labeling and grouping document<br />
sections. This greatly facilitates display of HTML5 content on different<br />
devices with different display characteristics. It can also substantially<br />
532<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
User Assistance<br />
improve handling of web content by screen readers and other alternate<br />
means for accessing content.<br />
HTML5 defines a new element for grouping related content.<br />
The element contains navigation elements. , ,<br />
and also have special meaning in HTML5.<br />
This workshop will pay particular attention to these elements, as they<br />
form the structure of an HTML5 web page.<br />
Content Groups<br />
These elements wrap paragraph-level contents. Examples include <br />
(paragraph), (ordered list), (unordered list).<br />
These elements are largely unchanged from previous versions of<br />
HTML.<br />
HTML5 supports the element, used in previous versions of HTML<br />
for identifying content groups. HTML5 strongly encourages authors to<br />
avoid the element, and use the appropriate HTML5 elements for<br />
grouping content.<br />
Inline Elements<br />
These elements wrap words and phrases within paragraph-level content.<br />
Examples include , , .<br />
These elements are largely unchanged from previous versions of<br />
HTML.<br />
Like previous versions of HTML, HTML5 supports the element<br />
for labeling words and phrases with arbitrary semantics.<br />
Resources<br />
W3C HTML5: Edition for Web Authors:<br />
http://dev.w3.org/html5/spec-author-view/<br />
W3C HTML5 working group: http://www.w3.org/html/wg/<br />
W3C HTML5 Working Draft: http://www.w3.org/TR/html5/<br />
WHATWG: http://www.whatwg.org/<br />
WHATWG HTML5 spec:<br />
http://www.whatwg.org/specs/web-apps/current-work/multipage/<br />
Dive Into HTML5 by Mark Pilgrim http://diveintohtml5.info/<br />
HTM5 for Web Designers by Jeremy Keith<br />
Pro HTML5 Programming by Peter Lubbers<br />
If you have any questions please contact: arh@groupwellesley.com<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
533
Visuelle Kommunikation
Visuelle Kommunikation<br />
VISU 1<br />
Fachvortrag<br />
Adobe Captivate & HTML5:<br />
E- und M-Learning aus einem Guss!?<br />
Martin Uhrig, tecwriter.de – Training & Consulting, Ettlingen<br />
„Mobile Learning“ – in aller Munde, in der Praxis jedoch meist noch Zukunftsmusik<br />
– nicht zuletzt weil die Technologien noch reifen, die Zeit<br />
knapp und geeignete Werkzeuge Mangelware sind. Dieser Vortrag soll<br />
zeigen, wie ein ganzheitliches Konzept von E- und M-Learning anhand<br />
eines Praxisbeispiels mit Adobe Captivate aussehen kann.<br />
Veranlassung<br />
M-Learning ermöglicht es dem Nutzer, an jedem beliebigen Ort, zu<br />
jeder beliebigen Zeit, (interaktive) Lerneinheiten zu bearbeiten. Eine<br />
ideale Möglichkeit, um Leer- und Wartezeiten auszufüllen. Dabei hat<br />
M-Learning große Chancen, eine bedeutende Größe auf dem Gebiet der<br />
Wissensvermittlung zu werden. In der Theorie sollte eine mobile Lerneinheit<br />
im Idealfall eigenen didaktischen Rahmenbedingungen folgen.<br />
In der Praxis wird allerdings der Ruf nach Lerneinheiten immer lauter,<br />
die zentral erstellt und per Knopfdruck sowohl als E- als auch als M-<br />
Learning-Version publiziert werden.<br />
HTML5<br />
Workflow<br />
Einschränkungen<br />
Lernplattformen<br />
E- und M-Learning mit Adobe Captivate<br />
Die Entwicklung von HTML5 schreitet voran und auch Captivate publiziert<br />
in der sechsten Version direkt in dieses Format. Damit ist der Weg<br />
frei für Lerneinheiten, die gleichzeitig für Desktop-Systeme sowie mobile<br />
Endgeräte erstellt und bereitgestellt werden können. Das reduziert<br />
den Entwicklungsaufwand, spart Zeit und Geld.<br />
Sie können Captivate-Projekte zugleich im SWF- wie auch im HTML5-<br />
Format veröffentlichen und auf diesem Wege sicherstellen, dass Ihre<br />
Ergebnisse für nahezu 100 % aller Zielgeräte zur Verfügung stehen.<br />
Aktuell werden in Captivate bei der HTML5-Veröffentlichung folgende<br />
Objekte nicht unterstützt:<br />
−−<br />
Externe Flash-Animationen (Widgets) und Flash-Funktionen<br />
−−<br />
Text-, Mausklick- und Folienübergangsanimationen<br />
−−<br />
Rollover-Beschriftungen, -Bilder, -Minifolien, -Smartformen<br />
−−<br />
Kurzantwort-, Zuordnungs-, Lückentext- sowie Likert-Fragenfolien<br />
−−<br />
Fragenpools und Zufallsfragenfolien<br />
Auch wenn diese aktuellen Einschränkungen auf den ersten Blick umfassend<br />
wirken mögen, stellen sie doch nur eine Minderheit der Möglichkeiten<br />
von Captivate dar. Eine ordentliche Planung vorausgesetzt,<br />
können deshalb auch heute schon unkompliziert hochwertige M-Learning-Einheiten<br />
entstehen.<br />
Sie können Inhalte aus Captivate sowohl im SWF- als auch im HTML5-<br />
Format über eine Lernplattform bereitstellen. Dadurch können sehr<br />
interessante Lernwelten entstehen: Lernumgebungen, in denen Sie es<br />
Ihren Teilnehmern ermöglichen, einen Kurs sowohl auf einem Desktop-<br />
System als auch auf einem mobilen Endgerät zu beginnen, zu unterbrechen<br />
und auf demselben oder einem anderen Gerät genau an der<br />
zuletzt bearbeiteten Stelle fortzusetzen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
537
Visuelle Kommunikation<br />
Ablauf des Vortrages<br />
Im Rahmen dieses Vortrages lernen Sie das Autorenwerkzeug Adobe<br />
Captivate 6 kennen. Dabei liegt der Fokus insbesondere auf der Konzeption,<br />
Veröffentlichung und Bereitstellung von E- und M-Learning-<br />
Einheiten. Das Vorgehen wird Ihnen anhand eines Praxisbeispiels<br />
vorgestellt.<br />
Literatur- und Linkempfehlungen<br />
Der Blog von tecwriter.de mit wöchentlich erscheinenden Artikeln zu<br />
Captivate: www.tecwriter.de/wordpress<br />
Uhrig, Martin (<strong>2012</strong>): Adobe Captivate 6: Erfolgreiche Screencasts und<br />
E-Learning-Anwendungen erstellen. Berlin: ePubli GmbH (ISBN:<br />
978-3-8442-2846-5)<br />
Uhrig, Martin (2010): Adobe Captivate 5: Erfolgreiche Screencasts und<br />
E-Learning-Anwendungen erstellen. Berlin: ePubli GmbH (ISBN:<br />
978-3-86931-736-6)<br />
Kontakt für Rückfragen: uhrig@tecwriter.de<br />
538<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
VISU 2<br />
Fachvortrag<br />
Ohne Worte – visuelle Vermittlung<br />
von Informationen<br />
Prof. Anja Grunwald, Hochschule Karlsruhe – Technik und Wirtschaft<br />
Bilder verwenden – warum?<br />
Die Aufgaben der Technischen Redakteure werden umfangreicher:<br />
Immer komplexere technische Produkte verlangen ebenso komplexe<br />
Dokumentationen. Hinzu kommen stetig kürzer werdende Produktlebenszyklen<br />
und Fragen des Übersetzungsmanagements, etwa in Form<br />
der z. B. von der Maschinenrichtlinie geforderten Übersetzung und Lokalisierung<br />
der Dokumentation für sämtliche Zielländer des Produktes.<br />
Das Ersetzen der Texte in sprachneutrale (Achtung: nicht gleich kulturneutrale!)<br />
Bilder ist sowohl aus Kostenperspektive als auch im<br />
Sinne der Attraktivität der Dokumentationen sinnvoll: Während große<br />
Textmengen den Nutzer eher abschrecken, sind Bilder zumeist motivierender<br />
und verschaffen den Lesern einen schnellen Überblick.<br />
Unterschiede zwischen Text und Bild<br />
Nur selten kann eine Dokumentation vollständig durch Bilder ersetzt<br />
werden. Für welchen Zweck aber wird welches Medium sinnvoll eingesetzt?<br />
Worin besteht überhaupt der Unterschied zwischen Text und<br />
Bild?<br />
−−<br />
Bilder haben den Vorteil gegenüber Texten, dass sie ganzheitlich und<br />
simultan wahrgenommen werden. Texte hingegen müssen linear<br />
Wort für Wort gelesen werden.<br />
−−<br />
Können Bilder vor allem Räumliches oder Objekthaftes sowie Farben<br />
oder Materialität gut darstellen, erfassen Texte besser Abstraktes sowie<br />
kausale Zusammenhänge – aber auch komplexe temporale Strukturen,<br />
die über eine reine Abfolge hinausgehen.<br />
Die unterschiedlichen Möglichkeiten der beiden Medien stehen dabei<br />
nicht in Konkurrenz zueinander, sondern machen sie zu Partnern, die<br />
sich gut ergänzen.<br />
Bilder rezipieren – wie?<br />
Während Sprache an einem komplexen – mehr oder weniger eindeutigen<br />
– Regelwerk orientiert ist, das wir zunächst intuitiv und später in<br />
der Schule auch analytisch erlernen, sind wir bei der Rezeption von Bildern<br />
auf uns selbst gestellt. Die Visual literacy, also die Fähigkeit, Informationen,<br />
die in Form von Bildern dargestellt werden, zu deuten, ist nur<br />
an wenigen Stellen Bestandteil der schulischen Ausbildung. Trotzdem<br />
oder gerade deshalb sollte ein Technischer Redakteur genau wissen,<br />
wie Bilder vom Betrachter rezipiert werden, um Bildmaterial sinnvoll zu<br />
erstellen.<br />
Für die Informationsvermittlung durch Bilder sind hierbei drei Kategorien<br />
hilfreich: Wirkung, Ikonizität und Konvention.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
539
Visuelle Kommunikation<br />
Wirkung<br />
Wenn wir eine Sprache nicht sprechen, können wir einen Text nicht<br />
verstehen. Der Text kann seine Botschaft nicht entfalten. Der Wirkung<br />
eines Bildes aber kann sich der Betrachter nicht entziehen – auch wenn<br />
er die Botschaft, die übermittelt werden soll, nicht versteht.<br />
Die unmittelbare Wirkung eines Bildes knüpft direkt an verschiedene<br />
Erfahrungen an, die Menschen im Laufe ihres Lebens gemacht haben.<br />
Hierzu gehören Körper- und Umwelterfahrungen ebenso wie Erfahrungen<br />
aus dem soziokulturellen Umfeld. So reagieren wir auf Farben (z. B.<br />
kalt/warm), Formen (z. B. hart/weich) und Proportionen (z. B. ausgewogen,<br />
spannungsvoll), organisieren und strukturieren Gesehenes automatisch<br />
ohne unser bewusstes Dazutun (Gestaltgesetze, Trennung von<br />
Figur und Grund, räumliches Sehen).<br />
Die reine Wirkung eines Bildes ist für Technische Dokumentationen<br />
natürlich nicht ausreichend, spielt aber für deren werbenden Charakter<br />
eine wesentliche Rolle: Bilder können positiv oder negativ auf<br />
den Rezipienten wirken, können abschrecken oder Interesse wecken,<br />
können und sollen den Charakter eines Produktes oder einer Marke<br />
widerspiegeln.<br />
Ikonizität<br />
In Technischen Dokumentationen steht meist das Abbilden von Produkten<br />
im Vordergrund – und damit die Ikonizität, also die Ähnlichkeit<br />
zwischen Abbild und Original. Anhand von Farben, Formen oder anderen<br />
spezifischen Merkmalen, die dem Original gleichen, können wir als<br />
Betrachter Objekte identifizieren.<br />
Dabei ist es nicht zwingend von Vorteil, die größtmögliche Ähnlichkeit<br />
zu erzeugen. Oftmals sind auch verschiedene Grade von Abstraktionen<br />
mittels unterschiedlicher Darstellungstechniken (Fotografie, Illustration,<br />
Strichzeichnung – farbig oder schwarz-weiß) von Vorteil, um auf<br />
Wesentliches zu verweisen.<br />
In Bildern wird die dreidimensionale Welt auf zwei Dimensionen reduziert.<br />
Damit eröffnet auch die gezielte Auswahl verschiedener Projektionsformen<br />
(Parallelprojektionen – 2D und 3D, Perspektiven) unterschiedliche<br />
Möglichkeiten zwischen Maß- und Wahrnehmungstreue.<br />
Konventionen<br />
Wenn Wissen und Informationen über die Ähnlichkeit hinaus visuell<br />
explizit und präzise vermittelt werden sollen, steht der Technische Redakteur<br />
vor der Herausforderung, stringente Konventionen einzuführen<br />
bzw. umzusetzen.<br />
Konventionen beruhen auf Festlegungen und Regelungen. Diese<br />
können<br />
−−<br />
in Form von (inter-)nationalen Normen vorliegen (z. B. Farben und<br />
Formen der Sicherheitszeichen oder die Bedeutung bestimmter Piktogramme);<br />
−−<br />
individuell für einzelne Dokumente festgelegt werden (z. B. das Einfärben<br />
von Bauteilen, die in einer Handlungsanweisung bewegt werden<br />
sollen, oder die Zuweisung von Farben einzelner Kapitel eines<br />
Produktkataloges).<br />
540<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
Hinzu kommen Mittel der Aufmerksamkeitssteuerung, wie Pfeile, Umrandungen,<br />
Ausschnittvergrößerungen, farbige Hervorhebungen und<br />
Texturen.<br />
Fazit<br />
Bilder stehen im Spannungsfeld der drei Bereiche Wirkung, Ikonizität<br />
und Konvention.<br />
Visuelle Vermittlung von Informationen im Spannungsfeld von Wirkung,<br />
Ikonizität und Konvention<br />
Der Wirkung eines Bildes kann sich der Betrachter nicht entziehen. Sie<br />
ist direkt und unmittelbar, allerdings auch diffus – jedes Bild kann auf<br />
verschiedene Menschen unterschiedlich wirken. Konventionen innerhalb<br />
einer Darstellung sind hingegen nicht selbstverständlich, sondern<br />
müssen erlernt werden. Dafür sind diese Konventionen jedoch präzise,<br />
da man sich auf die konkrete Bedeutung der Zeichen (Farben, Formen<br />
etc.) geeinigt hat. Je nachdem, was mit einer Darstellung erreicht werden<br />
soll, kann der Schwerpunkt innerhalb dieses Spannungsfeldes verschoben<br />
werden. In der Kunst oder auch in der Werbung wird oftmals<br />
nur auf Wirkung abgezielt, die Bedeutung darf offen bleiben. In Katalogen<br />
reicht meist das Wiedererkennen von Objekten durch Ähnlichkeit<br />
zum Original. Bei Warnhinweisen hingegen muss schon aus sicherheitstechnischer<br />
Perspektive und aufgrund der Produkthaftung aus der<br />
Abbildung deren präzise Bedeutung hervorgehen.<br />
Die Bedeutung von Konventionen kann besonders dann gut erfasst und<br />
erlernt werden, wenn sich die Darstellung auf die Ikonizität (z. B. ikonisches<br />
Piktogramm) und die Wirkung (Rot fordert mehr Aufmerksamkeit<br />
als Grün) bezieht.<br />
Die Aufgabe des Technischen Redakteurs besteht somit darin, sich in<br />
diesem Spannungsfeld zurechtzufinden und für den jeweiligen Kommunikationszweck<br />
das jeweils geeignete Mittel für die Erstellung von<br />
Bildern zu wählen – als reine Bildanleitung oder auch im Kontext begleitender<br />
Texte.<br />
für Rückfragen: anja.grunwald@hs-karlsruhe.de<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
541
Visuelle Kommunikation<br />
VISU 3<br />
Fachvortrag<br />
Parallelisierung der Konstruktion<br />
und Produktkommunikation mit<br />
SolidWorks und 3DVIA Composer<br />
Ralf Otto, SolidWorks, Haar<br />
Produktkommunikation – eine Herausforderung für Unternehmen,<br />
die Kunden, Zulieferern und Entscheidungsträgern umfassende Informationen<br />
bezüglich Produktspezifikationen und -funktionalitäten<br />
bereitstellen.<br />
Zusätzliches Gewicht erhält die Produktkommunikation, wenn betrachtet<br />
wird, welche Bedeutung die Technische Dokumentation und die<br />
multimediale Veröffentlichung für die Entwicklungszeiten bis zur finalen<br />
Freigabe und somit den Return on Investment des Unternehmens<br />
hat.<br />
Im besten Fall werden bestehende CAD-Produktdaten in der Technischen<br />
Kommunikation zeitnah zur Konstruktion aufgewertet und für<br />
die effiziente und effektive Verteilung von Produktinformationen an<br />
technische und nicht-technische Empfänger genutzt.<br />
Herkömmliche Ansätze der Technischen Dokumentation bieten leider<br />
nur wenige Ausgabe-Möglichkeiten und sind unflexibel in Bezug auf<br />
Änderungen in der Entwurfsphase des Produkts. Auch der Nutzen und<br />
die Qualität von starren 2D-Ausgaben müssen sich im Wertewandel der<br />
mobilen Arbeitswelt rechtfertigen.<br />
Die Integration der Software für Technische Kommunikation – 3DVIA<br />
Composer – in den Entwicklungsprozess zeigt innovative Perspektiven<br />
auf, die digitale Produktdokumentation als Wettbewerbsvorteil zu<br />
nutzen.<br />
für Rückfragen: ralf-dieter.otto@3ds.com<br />
542<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
VISU 4<br />
Fachvortrag<br />
Abbildungen in<br />
Betriebsanleitungen<br />
helfen den Anwendern<br />
durch schnellere<br />
Erfassbarkeit, dem<br />
Auftraggeber durch<br />
ein reduziertes<br />
Textvolumen.<br />
Mit Fotos, Illustrationen,<br />
3D-Animationen<br />
und Videos stehen<br />
grundsätzlich<br />
verschiedene Medien<br />
zur Auswahl<br />
Effizienter Einsatz von Grafik und Bild<br />
in der Technischen Dokumentation<br />
Dirk Meißner, Kothes! Technische Kommunikation GmbH & Co. KG, Kempen<br />
Klaus Vossen, Corel GmbH, Unterschleißheim<br />
Der Weg zum „einfach und gut erstellten Bild“ in der Technischen Dokumentation<br />
scheint oft lang und steinig. So kommt es, dass viele Leser<br />
von Betriebsanleitungen durch Textwüsten und bildarme Landschaften<br />
stolpern und das notwendige Verständnis auf der Strecke bleibt.<br />
Der redaktionelle Alltag wird von Zeit- und Termindruck beherrscht.<br />
Nicht nur die Recherche und die Erstellung des Dokuments, auch die<br />
Übersetzung und die Publikation benötigen Zeit. Die Bildbearbeitung<br />
und ein damit verbundener gelungener Einsatz von Fotos, Vektor- und<br />
Pixelgrafiken kommt da oft zu kurz, da im Allgemeinen eine ausgeglichene<br />
visuelle Darstellung in Betriebsanleitungen oft als zu aufwändig<br />
und somit als Zeitfresser gilt.<br />
Dabei wirken Abbildungen in Betriebsanleitungen nicht nur unterstützend<br />
für den Redakteur, sondern helfen in ganz besonderem Maße den<br />
Lesern und Anwendern der Dokumentation!<br />
Vorteile durch den Einsatz von Abbildungen:<br />
−−<br />
Schnellere Erfassbarkeit von (räumlichen) Zusammenhängen<br />
−−<br />
Leichte Übertragbarkeit vom Bild auf die Realität, eine sprachenund<br />
kulturübergreifende Verständlichkeit<br />
−−<br />
Abbau des Textvolumens<br />
−−<br />
Allgemein: Qualitätssteigerung der Technischen Dokumentation<br />
−−<br />
Imagegewinn und Konkurrenzvorteil<br />
−−<br />
Kostenersparnis bei Übersetzungen durch reduzierten Textumfang<br />
Im Vortrag werden Bedenken und Vorurteile ausgeräumt, die häufig<br />
geäußert werden als Argumente gegen den Einsatz von visuellen Elementen<br />
in der Technischen Dokumentation:<br />
−−<br />
Aufwändige Erstellung<br />
−−<br />
Quelldaten (z. B. endgültige Konstruktionszeichnungen, Fotos der<br />
fertigen Anlage) sind zu spät erhältlich für die Erstellung der Dokumentation<br />
−−<br />
Verwaltungsaufwand: Dokumentation wird für viele unterschiedliche<br />
Publikationswege benötigt (Formate, Größen etc.)<br />
Methoden, Tipps und Beispiele zur einfachen und effizienten Erstellung<br />
von Übersichten, handlungsorientierten oder schematischen Abbildungen<br />
sind die Grundsäulen des Vortrags.<br />
Welches Bild macht wo Sinn?<br />
Die Auswahl der Darstellungstypen steht an erster Stelle. Abhängig vom<br />
Vorwissen der jeweiligen Zielgruppe und den gegebenen Möglichkeiten<br />
muss festgelegt werden, welche Bildquelle für die jeweilige Darstellung<br />
sinnvoll ist.<br />
Fotos schaffen Nähe. Fotos bilden die Realität ab und schaffen dadurch<br />
bei einer breiten Zielgruppe ein Höchstmaß an Verständnis. Handgriffe,<br />
bestimmte Bewegungen mit Werkzeugen oder Bauteilen inklusive der<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
543
Visuelle Kommunikation<br />
geforderten persönlichen Schutzausrüstung sind auf Fotos gut, einfach<br />
und in wenigen Bearbeitungsschritten darstellbar.<br />
Mit Vektorgrafiken (Illustrationen) lassen sich komplexe Abbildungen<br />
wie Übersichtsdarstellungen von großen Maschinen oder Anlagen deutlich<br />
besser darstellen als mit Fotos. Weiter dienen Vektorgrafiken der<br />
Darstellung von Schnitten, Explosionsansichten, aber auch handlungsorientierten<br />
Abbildungen.<br />
Welche Quellen sollten genutzt werden?<br />
Die Frage nach den Bildquellen stellt sich als Nächstes:<br />
−−<br />
Welche Bildquellen stehen zur Verfügung?<br />
−−<br />
Kann ich die Maschine/Anlage in einer Fotorecherche komplett ablichten?<br />
−−<br />
Können Montage oder Demontagearbeiten und durchzuführende<br />
Wartungstätigkeiten fotografiert werden?<br />
−−<br />
Passt die Recherche zeitlich in den Projektrahmen?<br />
Besteht die Möglichkeit einer Fotorecherche nicht, stehen als eine sichere<br />
und mittlerweile vielfach vorhandene Quelle 3D-CAD-Daten aus<br />
der Konstruktion zur Verfügung. Diese 3D-Daten/Modelle liegen normalerweise<br />
bereits in einer frühen Projektphase vor. 3D-CAD-Daten<br />
können mit dem passenden Werkzeug direkt im Format der Konstruktionsanwendung<br />
geöffnet und mit wenigen Handgriffen zu einer Illustration<br />
umgewandelt und abgeändert werden.<br />
544<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
Vorteile bei der Verwendung von 3D-Modellen:<br />
−−<br />
Erstellung von (animierten) Explosionsansichten<br />
−−<br />
Export zu Strichzeichnungen oder Pixelgrafiken<br />
−−<br />
Vordefinierte Ansichten<br />
−−<br />
Minimaler Aktualisierungsaufwand durch (teil-)automatisierte Nachführung<br />
von Design-Änderungen<br />
Weitere „Bildquellen“ sind zum Beispiel CAD-Zeichnungen, Prozess-<br />
und Instrumentendiagramme, als 3D-Aufstellungsplan oder als<br />
Schnittstellenzeichnungen.<br />
Mit einem Werkzeug, das diese verschiedenen Quellen allesamt nutzen<br />
(also verarbeiten) kann, ist bereits ein großer Schritt in Richtung effizienter<br />
Nutzung von visuellen Elementen für die Technische Dokumentation<br />
getan.<br />
Mit den passenden<br />
Hilfsmitteln für<br />
Erstellung und<br />
Verwaltung von<br />
Abbildungen werden<br />
visuelle Elemente in<br />
der Dokumentation<br />
leicht einsetzbar.<br />
„Aufwändige Erstellung“? ... Es geht auch einfach<br />
Schaffen Sie sich kleine Helfer bei der Grafikbearbeitung und nutzen<br />
Sie clevere Werkzeuge:<br />
−−<br />
Eigene Makros zur automatischen Bildgrößen- und Auflösungseinstellung<br />
−−<br />
Arbeitsvorlagen<br />
−−<br />
Softwareinterne oder eigens erstellte Symbole wie Pfeile, Werkzeuge<br />
oder Handbewegungen<br />
−−<br />
Positionsnummern oder -buchstaben<br />
Einige der oben genannten Hilfsmittel erfordern anfänglich einen höheren<br />
Aufwand, machen sich aber über die Verwendungsdauer mehr als<br />
bezahlt.<br />
Entscheidend ist auch die Nachhaltigkeit eines zu erstellenden Bildes.<br />
Es ist stets sinnvoll, sich beim Erstellen einer Abbildung Gedanken zu<br />
machen, ob und wie eine Abbildung in der Dokumentation wiederverwendet<br />
werden kann.<br />
Beispiele für wiederverwendbare Darstellungen:<br />
Schematische Transportdarstellungen<br />
(dokumentenübergreifend<br />
wiederverwendbar)<br />
Montage und Demontage eines Bauteils<br />
in einer Abbildung (kapitelübergreifend<br />
wiederverwendbar)<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
545
Visuelle Kommunikation<br />
Abbildungen können<br />
wie Textelemente<br />
als Bausteine in<br />
einer strukturierten<br />
Dokumentation<br />
verwendet werden.<br />
Ein Redaktionssystem<br />
hilft beim Aufbau und<br />
der Einhaltung der<br />
Dokumentationsstruktur<br />
– in Text und Bild.<br />
Wie kommt das Bild in die Dokumentation?<br />
Wie kommt das Bild in die Dokumentation? Bearbeiten, zwischenspeichern,<br />
exportieren, in das Dokument laden … und und und ... – es gibt<br />
einfachere Wege!<br />
Grafik-Tools können in ein Redaktionssystem eingebunden werden, so<br />
dass grafische Elemente (Bilder, Illustrationen) genau so wie Textabsätze<br />
als Bausteine behandelt werden und in Dokumentationen (auch<br />
dokumentenübergreifend!) an passender Stelle eingesetzt, abgeändert<br />
und mit der kompletten Dokumentation publiziert werden.<br />
Der Vortrag zeigt am Beispiel des Redaktionssystems „COSIMA go!“<br />
und des Grafiktools „Corel DESIGNER®“ Beispiele zum Erstellen, Bearbeiten<br />
und Publizieren von Abbildungen aus dem Redaktionssystem<br />
heraus.<br />
Das Ziel: Anwender<br />
und Auftraggeber<br />
überzeugen – mit<br />
hoher Qualität durch<br />
gute Lesbarkeit und<br />
kostengünstiger<br />
Dokumentation<br />
durch effiziente<br />
Erstellung einer<br />
visuellen Technischen<br />
Dokumentation.<br />
Fazit:<br />
Visuelle Darstellungen bereichern die Technische Dokumentation und<br />
vereinfachen die Lesbarkeit.<br />
Mit geeigneten Werkzeugen und einem Redaktionssystem ist die Erstellung<br />
nicht nur weniger aufwändig, die grafischen Darstellungen helfen<br />
bei der kosten- und zeitsparenden Erstellung und Aktualisierung der<br />
Technischen Dokumentation.<br />
Fotos, Vektorillustrationen und 3D-Animationen können je nach den<br />
eigenen Möglichkeiten und dem Einsatzzweck der Dokumentation als<br />
geeignetes Mittel gewählt werden.<br />
Die Beispiele zeigen es, der Einsatz von grafischen Darstellungen erfolgt<br />
mit einem klaren Ziel vor Augen: Zufriedene Kunden und Auftraggeber<br />
dank qualitativ hochwertiger und kostengünstig erstellter<br />
Dokumentation.<br />
für Rückfragen:<br />
klaus.vossen@corel.com<br />
d.meissner@kothes.de<br />
546<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
VISU 5<br />
Fachvortrag<br />
Und … Action! Wie Filme die<br />
Wissenslandschaft bereichern<br />
Melanie Denner, Pädagogische Hochschule, Heidelberg<br />
Diana Fuchs, SEW-EURODRIVE GmbH & Co KG, Bruchsal<br />
Filme sprechen als audiovisuelle Medien die zwei wichtigsten Sinnesorgane<br />
des Menschen an, Auge und Ohr. Mit dieser Kombination ist es<br />
möglich, beim Lernen eine bessere Gedächtnisleistung zu erbringen.<br />
Auditive Informationen werden besser behalten, wenn eine bildhafte<br />
Vorstellung vorhanden ist. Dieser Mehrwert kann natürlich gezielt im<br />
Trainingsbereich genutzt werden. Lernen wird durch den Einsatz von<br />
audiovisuellen Medien anschaulicher, interessanter und effektiver und<br />
weckt beim Trainingsteilnehmer eine positive Grundhaltung dem Lernen<br />
gegenüber. Durch Bewegung und Interaktion im Film können zusätzliche<br />
Informationen übertragen werden. Diese sind auch noch für<br />
den Lerner einfach zu lesen, denn für das Lesen von Filmen sind keine<br />
besonderen Fertigkeiten notwendig.<br />
Vermittelte Informationen werden schneller verstanden und verbreiten<br />
sich rascher.<br />
Legetrickfilm<br />
Die Herausforderung liegt darin, Wissen einfach, unterhaltsam und in<br />
kurzer Zeit zu vermitteln. Der Legetrickfilm erfüllt genau diese Ansprüche,<br />
er ist ein kurzes Video-Erklärformat. Es ist einfach aufgebaut: Gezeichnete<br />
Illustrationen werden von zwei Händen auf einer weißen Fläche<br />
bewegt. Parallel zu den Illustrationen ist ein Sprechertext zu hören.<br />
Der Sprechertext ist der akustische Begleiter der optischen Information,<br />
der Fluss der gezeigten Bilder wird durch den Sprechertext nicht unterbrochen.<br />
Illustrationen, Bewegung und Text ergänzen sich gegenseitig,<br />
um Sachverhalte oder Prozesse zu erläutern. Legetrickfilme können<br />
somit komplexe Sachverhalte einfach und verständlich erklären.<br />
Als Unterstützung der charmanten Darstellung dient das Sounddesign.<br />
Bewegungen und Zeichnungen werden bei Bedarf mit Sounds hervorgehoben<br />
und mit Sprechertext ergänzt. Der Sprechertext wird von<br />
einer realen Person gesprochen, das erweckt mehr Sympathie, als eine<br />
computergenerierte Stimme es kann. Das gesprochene Wort wird dann<br />
nicht nur durch den Text bestimmt, sondern zusätzlich durch Klang und<br />
Betonung.<br />
Durch den hohen Abstraktionsgrad und die natürliche Darstellung<br />
funktioniert der Legetrickfilm über alle Zielgruppen hinweg.<br />
Filmproduktion<br />
Für die Produktion eines Legetrickfilms ist eine überschaubare Menge<br />
an Materialien und Ausrüstung erforderlich. Im ersten Schritt in<br />
der Pre-Produktion wird ein Drehbuch erarbeitet. Darin werden die<br />
Szenen kurz skizziert, Sprechertext ausformuliert und alle benötigten<br />
Illustrationen aufgeführt. Die Illustrationen erstellen wir mit einem<br />
vektorbasierten Grafik- und Zeichenprogramm, in diesem Fall Adobe<br />
Illustrator. Im Verlauf der Produktion wird als Erstes der Drehort eingerichtet.<br />
Um die Legetrickfilme in guter „weißer“ Qualität aufnehmen<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
547
Visuelle Kommunikation<br />
zu können, haben wir eine Trickfilmbox gebaut. Diese Box bietet einen<br />
rein weißen Untergrund und optimale Lichtverhältnisse zum Drehen.<br />
Beleuchtet wird die Box mit 10 Leuchtmitteln, die Kamera wird an einer<br />
Aussparung an der Decke festgesteckt. Sie steht dann rechtwinklig zur<br />
Aufnahmefläche. Als Aufnahmegerät verwenden wir einen Digital HD<br />
Video Camera Recorder.<br />
Trickfilmbox mit Beleuchtung, Aussparung in der Decke für die Kamera<br />
Alle Szenen werden in der Box in chronologischer Reihenfolge gedreht.<br />
Das Handmodel bewegt die Illustrationen und am Ende jeder Szene<br />
wird die Fläche leergewischt. Wird ein Detail falsch bewegt, muss die<br />
ganze Szene wiederholt werden. Legetrickfilme werden in einer Einstellung<br />
gefilmt, das heißt, es sind keine Schwenks oder Zooms erforderlich.<br />
Dies erleichtert den Produktionsprozess, da die Kamera einmal<br />
aufgebaut, ausgerichtet und eingerichtet wird. Der zweite Schritt der<br />
Produktion ist die Aufnahme des Sprechertextes. Für die Tonaufnahmen<br />
verwenden wir einen portablen WAV/MP3 Recorder. Bei der Aufnahme<br />
ist darauf zu achten, dass der Aufnahmeort absolut ruhig und<br />
schallarm ist.<br />
Die Post-Produktion besteht aus dem Schnitt der Rohaufnahmen. Beim<br />
Schnitt werden die einzelnen Einstellungen in die vorgegebene Reihenfolge<br />
montiert. Darauf abgestimmt werden die Sprechertexte und die<br />
Soundeffekte. In unserem Fall verwenden wir für die Post-Produktion<br />
das Film-Videoschnittprogramm Adobe Premiere.<br />
für Rückfragen:<br />
melanie.denner.w@sew-eurodrive.de<br />
diana.fuchs.da-pt@sew-eurodrive.de<br />
548<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
VISU 6<br />
Tutorial<br />
Erstellung, Aufbereitung und Integration<br />
von 2D-Grafiken und 3D-PDF-Modellen<br />
in technische Dokumente<br />
Mirko Schön, STIEBEL ELTRON GmbH & Co. KG, Holzminden<br />
Ulrich Isermeyer, Adobe Systems GmbH, München<br />
In der Regel werden hauptsächlich Bilder oder 2D-Grafiken wie isometrische<br />
Darstellungen oder Explosionszeichnungen in technische<br />
Dokumente eingebunden. Die 3D-PDF-Technologie gibt es zwar schon<br />
länger, aber viele scheuten in der Vergangenheit den Aufwand oder<br />
hatten Bedenken wegen der Datensicherheit. Dieses Tutorial behandelt<br />
anhand von Praxisbeispielen der Firma Stiebel Eltron die Aufbereitungsmöglichkeiten<br />
von 2D-Grafiken mit Adobe Illustrator CS6. Die<br />
Erstellung und Aufbereitung von 3D-CAD-Modellen über Adobe Acrobat<br />
mit dem 3D-PDF-Converter und die anschließende Integration in<br />
Adobe Framemaker ist Bestandteil des Tutorials.<br />
Einsatz von Adobe Illustrator für 2D-Illustrationen bei STIEBEL ELTRON<br />
Der Einsatz von Adobe Illustrator in der technischen Illustration bei<br />
STIEBEL ELTRON beschränkt sich hauptsächlich auf das Aufarbeiten<br />
der über die 3D-Konstruktionsmodelle gewonnenen 2D-Zeichnungen.<br />
Über ProEngineer/CREO werden die abgeleiteten Zeichnungen als<br />
DXF an Illustrator übergeben. Diese enthalten bereits alle für die Illustrationen<br />
notwendigen Isometrien, Explosionen und/oder Maße.<br />
Warum ProEngineer/CREO mit Adobe Illustrator und<br />
nicht eines der 3D-Illustrationsprogramme?<br />
Wir haben uns aus verschiedenen Gründen für den Weg entschieden,<br />
die 3D-Bearbeitung in ProEngineer/Creo vorzunehmen und die Aufbereitung<br />
der 2D-Daten mit Illustrator zu gestalten. Die Hauptgründe<br />
waren die nicht zufriedenstellenden Performance-Leistungen der 3D-<br />
Illustrationsprogramme bei den immer größer werdenden 3D-Modellen<br />
und die Tatsache, dass unsere Konstruktion mit ProEngineer/Creo<br />
arbeitet.<br />
Um aus diesen Zeichnungen anschauliche und leicht verständliche<br />
Illustrationen zu erzeugen, bedienen wir uns hauptsächlich folgender<br />
Werkzeuge bzw. Techniken von Adobe Illustrator CS6:<br />
Aufbereitung der Zeichnungen in mehreren Schritten<br />
Zu Anfang müssen die Linienstärken und Farben auf ein abgestimmtes<br />
Format gebracht werden. Hierzu bedienen wir uns der Möglichkeit, mit<br />
Illustrator gleichartige Konturfarben und Konturstärken zu erkennen<br />
und über die komplette Zeichnung zu markieren. Mit dieser Funktionalität<br />
sind die Konturen/Linien mit ein paar Klicks auf unseren Standard<br />
eingestellt.<br />
Hervorheben von Bauteilen oder Bedienelemente<br />
Um einzelne Bauteile oder Bedienelemente in den Fokus zu setzen,<br />
können einzelne Flächen durch direktes Einfärben oder bei nicht<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
549
Visuelle Kommunikation<br />
vollständig geschlossenen Pfaden mit dem „Interaktiv-malen-Werkzeug“<br />
hervorgehoben werden. Es kommt auch vor, dass komplexere<br />
Bauteile hervorgehoben werden müssen. Mit der Nutzung des „Zeichenstift-Werkzeuges“<br />
sind diese einfach und schnell umrandet und<br />
können, da ein geschlossener Pfad entsteht, auch gleich eingefärbt<br />
werden.<br />
Bauteile hervorheben<br />
Lupen erstellen<br />
Bei komplexen Bauteilen ist es in Printmedien oft nur mit einer Lupe<br />
möglich, Details in ausreichender Größe darzustellen, ohne die Information<br />
der Position/Lage zu verlieren.<br />
Um diese herzustellen, verwenden wir die „Schnittmaskenfunktion“<br />
oder das „Radiergummi-Werkzeug“. Im Grunde ist so eine Lupe recht<br />
schnell erzeugt. Zuerst muss der Bereich, der gezeigt werden soll, kopiert<br />
werden. Je nachdem welche Form als Lupe dienen soll, wird z. B.<br />
eine Ellipse über das zu zeigende Detail des kopierten Zeichnungsbereiches<br />
gelegt. Im nächsten Schritt wird entweder die „Schnittmaskenfunktion“<br />
ausgeführt oder mit dem „Radiergummi-Werkzeug“<br />
freigestellt.<br />
Lupe<br />
550<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
Bibliotheken<br />
Eine große Arbeitserleichterung stellen die Bibliotheken dar, die wir mit<br />
Werkzeugen, Händen, Lupenvorlagen, Schraffuren u. v. m. gefüllt haben.<br />
Vom 3D-CAD-Modell zum 3D-PDF<br />
In Acrobat 9 Pro Extended war ein 3D-CAD-Konverter mit über 40 verschiedenen<br />
Formaten enthalten, der 3D-PDFs umwandeln konnte. Mit<br />
dem mitgelieferten 3D-Reviewer konnte man diese 3D-Modelle anpassen,<br />
mit anderen 3D-Modellen zusammenführen, Animationen erstellen<br />
und auch 2D-Illustrationen als EPS oder PDF erstellen, die dann mit<br />
Adobe Illustrator weiterbearbeitet werden konnten. Seit Acrobat X Pro<br />
ist dieser 3D-CAD-Konverter und der 3D-Reviewer als Tetra4D 3D PDF<br />
Converter Plug-in erhältlich.<br />
Das Tutorial zeigt den Workflow vom 3D-CAD-Modell zum animierten<br />
3D-PDF-Dokument. Dabei werden die verschiedenen Möglichkeiten<br />
anhand unterschiedlicher Beispiele aufgezeigt.<br />
Framemaker mit 3D Stückliste, Animation oder Bauteil-Verknüpfung<br />
Durch den Import eines U3D-Modells kann Framemaker schon seit<br />
Version 8 diese 3D-Daten direkt in das Dokument einlesen und als 3D-<br />
PDF ausgeben.<br />
Seit der Version Framemaker 11 ist es zudem möglich, direkt die einzelnen<br />
3D-Ansichten, Bauteile oder Animationen als Textverknüpfung<br />
einzufügen. Auch eine Stückliste aus dem 3D-Modell kann von Framemaker<br />
automatisch generiert werden. Nach dem Export als 3D-PDF-<br />
Dokument reagiert das Dokument entsprechend interaktiv, spielt Animationen<br />
ab oder lässt Bauteile auswählen und anzeigen.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
551
Visuelle Kommunikation<br />
Textverknüpfung von 3D-Bauteilen in Framemaker 11<br />
für Rückfragen:<br />
mirko.schoen@stiebel-eltron.de<br />
ulrich.isermeyer@adobe.com<br />
552<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
VISU 7<br />
Tutorial<br />
Illustrationen aus 3D-Daten erstellen<br />
Thomas Schwarzer, commatec GbR, Gießen<br />
Sven Sonntag, Sonntagsfilm, Kronau<br />
Nahezu alle Produkte werden heutzutage in 3D-CAD-Programmen<br />
konstruiert. Diese 3D-CAD-Daten eignen sich hervorragend als Ausgangsbasis<br />
für die Technische Dokumentation. Im Umfeld der TD ist<br />
bislang vor allem 3D-PDF als Anwendung in den Fokus getreten, gepusht<br />
durch Adobe und andere Anbieter. Das Format 3D-PDF hat viele<br />
Vorzüge und Anwendungsbereiche, jedoch erscheint es für klassische,<br />
umfangreiche Betriebsanleitungen ungeeignet.<br />
Wie kann man jedoch hochwertige Illustrationen für klassische Betriebsanleitungen<br />
aus den 3D-CAD-Daten erstellen? Wie sehen die<br />
Prozesse auf Seiten des Redakteurs und des Illustrators aus? Was ist bei<br />
den einzelnen Prozessschritten zu beachten? Welche Optimierungspotenziale<br />
gibt es?<br />
Dieses Tutorial soll Ihnen dabei helfen, Antworten auf diese Fragen<br />
zu finden. An Beispielen aus verschiedenen Projekten zeigen wir<br />
Ihnen die Vorgehensweise zur Erstellung und die Möglichkeiten von<br />
3D-Illustrationen.<br />
Prozessworkflow<br />
In diesem Tutorial beleuchten wir die Prozesse sowohl aus Sicht des<br />
Redakteurs (R) als auch aus Sicht des Illustrators (I). Die beiden Berufsfelder,<br />
in denen wir als Referenten tätig sind, unterscheiden sich so<br />
stark, dass uns dies angemessen erscheint.<br />
Konzept (R+I)<br />
Konzeptionelle Überlegungen sind vor dem Einsatz von 3D-Illustrationen<br />
unerlässlich. Neben den klassischen Festlegungen für Abbildungen<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
553
Visuelle Kommunikation<br />
müssen weitere Entscheidungen in einem Team getroffen werden: Wie<br />
hoch soll der Grad an Fotorealismus sein? Dies betrifft die Oberflächen,<br />
Reflexe, Schatten und Transparenz. Wie sollen Objekte hervorgehoben<br />
werden? Welche Bewegungspfeile sollen verwendet werden oder sollen<br />
Tätigkeiten z. B. durch eine Hand visualisiert werden?<br />
Bilder definieren (R)<br />
Die Bildvorgabe ist ein entscheidender Schritt: Der Redakteur muss<br />
dem Illustrator verständlich machen, welche Illustrationen benötigt<br />
werden. Mit Worten lassen sich Bilder prinzipiell schlecht beschreiben.<br />
Besser sind Fotos und alte Grafiken, die mit zusätzlichen Informationen<br />
angereichert werden müssen: Perspektive, Ausschnitt, geöffnete oder<br />
demontierte Teile, Dateiname etc. Trotzdem kann es hier zu Missverständnissen<br />
kommen, die dann leider zu Nacharbeit führen.<br />
Pre-Production (I)<br />
Die Pre-Production ist die Planungsphase für die Produktion der<br />
eigent lichen Bilder/Illustrationen. Es muss unter anderem eine Prioritätsliste<br />
erstellt werden, die festlegt, wann welche Illustration erstellt<br />
wird, um einen optimalen Arbeitsprozess im Erstellen und Rendern zu<br />
haben.<br />
Production (I)<br />
In der Production werden die eigentlichen Illustrationen erstellt. Verwendet<br />
werden dabei vorhandene Konstruktionsdaten oder auch neu<br />
erstellte 3D-Daten. Daraus werden dann Previews für den Illustrator<br />
erstellt. Sind die Previews geprüft und ohne Beanstandung, werden die<br />
Illustrationen final gerendert. Unter Rendering versteht man das Erzeugen<br />
von Bildmaterial aus 3D-Daten.<br />
Prüfen der Previews und Finals (R)<br />
Bei den ersten gelieferten Illustrationen ist eine gründliche Prüfung<br />
nötig: Ist die Beschaffenheit der Oberflächen korrekt wiedergegeben?<br />
Sind alle Teile der Baugruppe in den Daten enthalten, auch die, die sich<br />
hinter Abdeckungen verbergen, die jedoch für bestimmte Wartungsarbeiten<br />
benötigt werden?<br />
Anschließend wird jede einzelne Illustration geprüft, am besten im<br />
Kontext des Textes. Änderungswünsche werden anschließend an den<br />
Illustrator zurückgegeben. Hierbei haben sich Webmeetings bewährt,<br />
damit Redakteur und Illustrator auch bei entfernten Standorten die<br />
Illustrationen besprechen können.<br />
Post-Production (I)<br />
Das gerenderte Bildmaterial wird zu den finalen Illustrationen zusammengebaut.<br />
Die Post-Production bestimmt den finalen „Look“ der Illustration.<br />
Die Illustrationen werden für den Druck vorbereitet.<br />
Verwenden der Illustrationen (R)<br />
Auch die gelieferten Previews können schon im Layoutprogramm<br />
verwendet werden, etwa für Prüfumläufe. Wenn für Preview und Final<br />
das gleiche Dateiformat verwendet wird und auch der Dateiname<br />
554<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
beibehalten wird, kann die Preview später problemlos durch das Final<br />
ersetzt werden.<br />
Optimieren des Konzepts (R+I)<br />
In der ersten Projektphase haben wir noch versucht, mit Excel-Listen<br />
einen Überblick über den Status der Illustrationen zu behalten: Welche<br />
sind als Preview verfügbar, welche müssen noch mal überarbeitet<br />
werden, welche fehlen noch? Diese Pflege in Excel ist mühsam und<br />
fehleranfällig zugleich. Relativ bald sind wir dann dazu übergegangen,<br />
die Statusinformation als XMP-Metadaten mithilfe von Adobe Bridge zu<br />
speichern.<br />
Durch einen eigenständigen Illustrationsleitfaden haben wir eine weitere<br />
Professionalisierung erreicht. Der Leitfaden definiert den Stil der<br />
Illustration, die Farbverwendung, Hervorhebungen etc. Außerdem sind<br />
darin auch die Tools und Prozesse zur Illustrationserstellung festgelegt<br />
(z. B. Farbmanagement-Workflow, PDF/X1a).<br />
Fazit<br />
3D-Illustrationen können so gestaltet werden, dass sie wie ein Foto wirken.<br />
Sie eignen sich daher optimal für Produktdarstellungen. Durch die<br />
natürliche Perspektive und optisch ansprechende Gestaltung werden<br />
Verständlichkeit erhöht und Leseanreize gesetzt.<br />
Gegenüber der Strichillustration (Isometrie) bietet die 3D-Illustration<br />
durch die natürliche Perspektive eine bessere Orientierung. Auch bei<br />
Bildausschnitten ist die aktuelle Position von Bauteilen in Bezug zum<br />
Gesamtprodukt eindeutig. Zudem kann die Perspektive einfach angepasst<br />
werden, während bei Strichillustrationen neu gezeichnet werden<br />
muss.<br />
Im Vergleich zu professionellen Fotos liegt der Hauptvorteil der 3D-<br />
Illustration darin, dass schon Bilder erstellt werden können, obwohl<br />
das Produkt noch gar nicht im Serienstand zur Verfügung steht (Time<br />
to Market). Ein anderes Problem beim Einsatz von Fotos ist, dass dem<br />
Redakteur die Bedien- und Wartungsschritte zum Zeitpunkt des Photoshootings<br />
oft noch nicht genau genug bekannt sind. Während bei der<br />
Fotografie schlimmstenfalls ein neues Photoshooting nötig wird, lassen<br />
sich Perspektive und Bildausschnitt bei 3D-Illustrationen nachträglich<br />
ändern oder auch Bauteile demontieren.<br />
Ein anderer Aspekt ist die bessere und breitere Nutzbarkeit: Zum einen<br />
lassen sich 3D-Illustrationen (ähnlich wie Fotos, jedoch im Gegensatz<br />
zur Strichillustration) auch für andere Zwecke nutzen, wie z. B. für<br />
Präsentationen oder Produktkataloge. Zum anderen lassen sich die<br />
bereinigten 3D-Daten auch als Ausgangsbasis für Animationsfilme<br />
verwenden.<br />
Empfehlungen<br />
Sammeln Sie eigene Erfahrungen mit einem Start-Projekt! Suchen Sie<br />
sich ein Produkt, das nur eine überschaubare Anzahl an Illustrationen<br />
benötigt. Oder wählen Sie vorhandene Bilder zu verschiedenartigen<br />
Produkten, die Sie als 3D-Illustrationen erstellen lassen. Achten Sie<br />
in jedem Fall darauf, dass Bilder aus jedem Hauptteil der Anleitung<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
555
Visuelle Kommunikation<br />
enthalten sind (Produkterklärung, Bedienung, Wartung). So stellen Sie<br />
sicher, dass Ihr Konzept alle Aspekte umfasst.<br />
Vor allem: Planen Sie ausreichend Zeit ein, in der das neue Illustrationskonzept<br />
entwickelt und durch die entsprechenden Abteilungen<br />
freigegeben werden kann.<br />
Für Rückfragen:<br />
thomas.schwarzer@commatec.de (R)<br />
sven.sonntag@sonntagsfilm.net (I)<br />
556<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
VISU 8<br />
Workshop<br />
Piktogramme selbst entwickeln<br />
Thomas Emrich, itl Institut für technische Literatur AG, München<br />
Nie ist der Wunsch nach einer Universalsprache über kulturelle und<br />
Landesgrenzen hinweg so ausgeprägt und dringlich gewesen wie zur<br />
heutigen Zeit.<br />
Im Zeitalter der globalisierten Märkte, d. h. der zunehmenden weltweiten<br />
Verflechtung in allen Bereichen (Wirtschaft, Politik, Kultur, Umwelt,<br />
Kommunikation etc.) müssen Menschen unterschiedlichster Nationen<br />
und Sprachen miteinander kommunizieren.<br />
Industrieunternehmen entwickeln und produzieren ihre Produkte<br />
längst nicht mehr nur für lokale Märkte, sondern möglichst für einen<br />
weltumspannenden Markt. Dementsprechend muss auch die produktbegleitende<br />
Dokumentation jeden Kunden in der Welt erreichen, egal<br />
welche Sprache er spricht.<br />
Die Erstellung und Übersetzung der Dokumentation in alle erforderliche<br />
Sprachen stellt heute große Herausforderungen an logistische,<br />
zeitliche und kostenseitige Aspekte.<br />
Warum also nicht ein Kommunikationsmittel nutzen, das keine Übersetzung<br />
benötigt, also nonverbal informiert? Bilder und Piktogramme<br />
begegnen uns schon seit geraumer Zeit überall dort, wo Verkehrsknoten<br />
und Treffpunkte Menschen der ganzen Welt zusammen bringen: Flughäfen,<br />
Bahnhöfe, Messen, Hotels usw.<br />
Bildliche Darstellungen und Piktogramme können zumindest teilweise<br />
schriftliche Informationen ersetzen. Ob dies Informationen auf Messetafeln,<br />
in Anleitungen, Schulungsunterlagen, menügeführte Benutzeroberflächen,<br />
Websites oder auf dem Produkt selbst sind, sie können<br />
Sprachbarrieren überwinden. Dies gelingt allerdings nur, wenn auch<br />
interkulturelle Gegebenheiten berücksichtigt werden.<br />
Definition<br />
Die Stärken von Piktogrammen und ihre Einsatzfelder<br />
Ein Piktogramm ist laut Wikipedia „ein Bildsymbol, das eine Information<br />
durch vereinfachte grafische Darstellung vermittelt“. Man unterscheidet<br />
zwischen ikonischen, symbolischen Piktogrammen und einer<br />
Mischung von beiden.<br />
Ikonische Piktogramme haben Ähnlichkeit mit dem Referenzobjekt<br />
oder Referenz-Sachverhalt, z. B. abgeschnittene Finger auf einem<br />
Sicher heitspiktogramm. Dagegen sind symbolische Piktogramme<br />
willkürlich, sie haben keine Ähnlichkeit mit dem Referenzobjekt/<br />
-sachverhalt.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
557
Visuelle Kommunikation<br />
Was Piktogramme<br />
leisten können<br />
Ein Beispiel hierfür ist das Dreieck mit dem Ausrufezeichen. Die Bedeutung<br />
„Achtung“ oder „Warnung“ müssen die Adressaten erst lernen.<br />
Bei der Mischform ist die Einordnung oft schwierig. Der Schnee- oder<br />
Eiskristall ist zwar ein ikonisches Symbol, er soll aber vor Kälte warnen.<br />
Piktogramme sind „Eyecatcher“, sie ziehen unweigerlich den Blick auf<br />
sich und dominieren den Text.<br />
Sie wirken motivierend und auflockernd durch ihre Formen, Farben,<br />
und durch den Weißraum, der sie umgibt.<br />
Bilder werden schneller wahrgenommen und i. d. R. besser verstanden<br />
als Text. Textliche Darstellung von Dingen oder Handlungsabläufen<br />
sind letztlich codierte Bilder. Sie sind klein und haben wenig Elemente,<br />
so dass keine Durchmusterung mit den Augen notwendig ist.<br />
Piktogramme sollen sprachliche und interkulturelle Grenzen überwinden<br />
und Übersetzungskosten einsparen.<br />
Sie stellen Informationen komprimiert dar und benötigen daher wenig<br />
Platz.<br />
Wo die Grenzen liegen<br />
Beim Anleiten mit Bildern dürfen Konventionen (Gewohnheiten) der<br />
Zielgruppe(n) keinesfalls außer Acht gelassen werden. Dabei gilt es, das<br />
Vorwissen der Zielgruppe zu berücksichtigen, denn „man sieht nur, was<br />
man kennt“. Der Kulturkreis, aus dem die Zielgruppe kommt, hat häufig<br />
Auswirkungen auf das Aufnehmen von Informationen. Als Beispiel<br />
dient die Leserichtung im arabischen Sprachraum im Vergleich zum<br />
Romanischen.<br />
Der Symbolwert von Farben ist nicht kulturübergreifend. Ein und dieselbe<br />
Farbe kann in der einen Kultur mit positiven Werten belegt sein<br />
und in einer anderen mit negativen. In östlichen Kulturen wie z. B.<br />
Japan ist Weiß die Farbe der Trauer und des Todes, bei uns hingegen<br />
symbolisiert Weiß das Licht oder Reinheit und Unschuld.<br />
Komplexe Bilder zu verstehen, erfordert eine höhere Konzentration als<br />
das Lesen von Text.<br />
Grund: Bilder werden intuitiv wahrgenommen, d. h. die Bildwahrnehmung<br />
ist individuell nach Interessen und Gewohnheiten, somit nicht<br />
vorherseh- und steuerbar.<br />
Grenzen zeigen Bilder/Piktogramme z. B. bei der Darstellung von abstrakten<br />
Inhalten, verknüpften und komplexen Aussagen, zeitlichen<br />
Folgen usw.<br />
558<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
Typische Einsatzfelder in der Technischen Dokumentation<br />
−−<br />
Kennzeichnung von Sicherheits- und Warnhinweisen<br />
−−<br />
Unterstützen der Orientierung und Navigation in produktbegleitenden<br />
Kommunikationsmitteln, wie Broschüren, Datenblättern, Katalogen,<br />
Anleitungen, Serviceinformationen, Schulungsunterlagen,<br />
Websites, Onlineshops, usw.<br />
−−<br />
Erklären von Bedienelementen auf dem Produkt, z. B. in Fahrzeugen,<br />
auf Mobiltelefonen oder auf Medizingeräten<br />
−−<br />
Innerhalb von menügeführten Benutzeroberflächen als „Bedienknopf“<br />
selbst zum Anklicken oder Drücken auf Touchpanels<br />
Schemata<br />
Wie Piktogramme verstanden werden<br />
Damit Piktogramme schnell und leicht verstanden werden, müssen bei<br />
der Entwicklung einige Grundlagen des Bildverstehens wie auch verschiedene<br />
Gestaltungsregeln berücksichtigt werden.<br />
Jeder Mensch verfügt über entsprechende Schemata, d. h. Vorstellungen<br />
über das Aussehen von Objekten, die öfter in seinem Erfahrungsbereich<br />
auftreten.<br />
Figur-Grund-Gliederung<br />
Markante Objekte<br />
Einfache und<br />
prägnante Objekt<br />
Geschlossene Objekte<br />
Nehmen wir das Beispiel „Auto“: Es besteht aus Elementen wie Räder,<br />
Karosserie, Lenkrad, Scheinwerfer usw. Es genügt die Darstellung von<br />
nur wenigen markanten Elementen, um das Objekt zu erkennen.<br />
Ein abgebildetes Objekt wird beim Betrachten mit einem im Gedächtnis<br />
vorhandenen Schema abgeglichen. Wenn sich eine Übereinstimmung<br />
ergibt, ist das Objekt identifiziert.<br />
Ein Grundprinzip ist, dass Objekte von dem sie umgebenden Hintergrund<br />
getrennt werden. Dies wird durch die Gestaltprinzipien der „Figur-Grund-Gliederung“<br />
unterstützt:<br />
−−<br />
Nähe/Ähnlichkeit: Benachbarte bzw. ähnliche Elemente werden zu<br />
einer Gruppe zusammengefasst.<br />
−−<br />
Abgeschlossener Umriss: Linien oder Elemente werden zu einer geschlossenen<br />
Gestalt zusammengefasst.<br />
−−<br />
Stetige Fortsetzung: Eine Linie wird gemäß ihrem einfachsten Verlauf<br />
fortgesetzt.<br />
−−<br />
Gemeinsamer Bereich oder Umschließung: Elemente innerhalb einer<br />
Umrahmung werden als Gruppe zusammengefasst.<br />
−−<br />
Zusammenhang: Miteinander verbundene Elemente bilden eine Einheit.<br />
Objekte können mit Strichen oder gefüllten Flächen (Rasterung, vollflächiges<br />
Schwarz oder Farbe) dargestellt werden. Striche müssen markant<br />
und dick genug sein, damit das Objekt gut erkennbar ist.<br />
Objekte so einfach wie möglich gestalten, ohne dass die Erkennbarkeit<br />
leidet. Details verzögern das Erkennen und lenken eher ab. Der Betrachter<br />
hält sich zu lange mit der Identifizierung auf.<br />
Sowohl das gesamte Piktogramm als auch einzelne Objekte sollen in<br />
sich geschlossen wirken. Dies kann durch eine Umrahmung oder durch<br />
einen vollflächigen Hintergrund erzielt werden.<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
559
Visuelle Kommunikation<br />
Mehrere Objekte<br />
Größe<br />
Farbe<br />
Piktogrammreihe<br />
1. Zentrale Bildaussage<br />
definieren:<br />
2. Zielgruppe(n)<br />
eingrenzen:<br />
Wenn mehrere Objekte in einem Piktogramm eingesetzt werden, müssen<br />
sie „zusammenarbeiten“ und als Einheit wirken. Einzelne Objekte<br />
dürfen nicht um die Aufmerksamkeit des Betrachters wetteifern.<br />
Das Piktogramm soll ohne Blickbewegung sofort erkannt werden. Dazu<br />
muss sich die Größe nach der Leseentfernung richten. Bei normaler<br />
Leseentfernung entspricht der Bereich des scharfen Sehens etwa der<br />
Größe eines 10-Cent-Stücks. Piktogramme, die zu einer Piktogramm-<br />
Reihe gehören, sollten immer gleich groß sein.<br />
Farbe hilft Bildelemente hervorzuheben, sie sollte jedoch sparsam und<br />
nicht einfach als Schmuckelement eingesetzt werden. Bunte Bilder<br />
helfen wenig, gezielt eingesetzte Farbe kann aber bei konsequentem<br />
Einsatz die Aufmerksamkeit steuern und den Anwender leiten. Farbverläufe<br />
möglichst vermeiden.<br />
Bei einer Piktogrammreihe muss jedes Bild auf den ersten Blick erkennbar<br />
und von anderen unterscheidbar sein.<br />
Wichtig ist ein einheitlicher Stil, wenn eine Reihe von Piktogrammen<br />
entwickelt werden soll. Dabei möglichst den gleichen Blickwinkel und<br />
die gleichen Farben, Pfeile, Linien, Schatten usw. wählen.<br />
Sieben Schritte zur Entwicklung eines Piktogramms<br />
Was soll das Piktogramm aussagen oder bewirken? Was ist die Botschaft?<br />
Hilfreich ist es, die Zielaussage mit wenigen Sätzen oder Stichworten<br />
zu beschreiben.<br />
Je genauer die Zielgruppe eingegrenzt werden kann, desto präziser<br />
kann die Symbolik gewählt werden und umso größer ist die Wahrscheinlichkeit,<br />
dass die Inhalte verstanden werden. Je weniger definiert<br />
die Zielgruppe ist, desto universeller muss die Symbolik sein. Auch<br />
kulturelle Unterschiede spielen mitunter eine Rolle. Ein Hinweis auf ein<br />
Restaurant würde z. B. in Asien anders aussehen als in Europa.<br />
3. Grenzen der<br />
Darstellung erkennen:<br />
Das Symbol für „Geld“ wird sich in verschiedenen Ländern durch unterschiedliche<br />
Währungszeichen unterscheiden. Bilder sollen möglichst<br />
aus dem Erfahrungsbereich der Zielgruppe stammen (Schemata<br />
berücksichtigen).<br />
Wenn die Botschaft bildlich schwer zu vermitteln ist, bietet es sich an,<br />
eine Bild-/Text-Kombination einzusetzen. In einer Anleitung kann man<br />
ein Piktogramm am Beginn einmal erläutern, es muss dann nicht mehr<br />
bei jedem Auftreten erklärt werden. Grenzen wie z. B. abstrakte Inhalte,<br />
verknüpfte und komplexe Aussagen bewusst machen und bei Bedarf<br />
erläutern.<br />
560<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong>
Visuelle Kommunikation<br />
4. Piktogramme<br />
entwerfen und<br />
skizzieren:<br />
5. Reduktion und<br />
Generalisierung<br />
des Inhalts:<br />
6. Grafische Umsetzung<br />
vorbereiten:<br />
7. Umsetzung prüfen<br />
und überarbeiten:<br />
Handskizzen sind am besten geeignet, um Inhalte und Formen zu entwickeln.<br />
Der Einsatz des Computers ist hierbei eher hinderlich. Zu sehr<br />
ist man mit den Möglichkeiten der Software beschäftigt, anstatt sich<br />
auf den Entwicklungsprozess zu konzentrieren. Der Computer verlangt<br />
zwangsläufig eine exakte Arbeitsweise, was die Kreativität eher<br />
behindert.<br />
Den typischen Vertreter (Prototyp) einer Gruppe von Objekten herausarbeiten.<br />
Das beste Ergebnis wird erreicht, indem Probanden aus einem<br />
Satz vorgegebener Piktogramme (bzw. Skizzen) das repräsentativste<br />
auswählen. Mit dem Prototyp ist kein konkretes Objekt, z. B. ein ganz<br />
bestimmter Flugzeugtyp gemeint, sondern sozusagen der Oberbegriff<br />
aller Flugzeugtypen. Dies kann nur durch Reduktion auf die wenigen<br />
Objektelemente erreicht werden, die allen Typen der Kategorie Flugzeug<br />
entsprechen. Dazu sollte man einen Blickwinkel auswählen, der<br />
die prägnanten Elemente deutlich zeigt. Auch berücksichtigen, dass<br />
später evtl. skaliert werden muss.<br />
Für die Umsetzung am Computer sollte man auf die Hilfe von Profis<br />
zurückgreifen. Nur ein ausgebildeter Grafiker besitzt die nötige Erfahrung<br />
und beherrscht die entsprechenden Techniken und Tools, um ein<br />
professionelles Ergebnis zu erzeugen. Der Grafiker sollte möglichst früh<br />
in den Entwicklungsprozess eingebunden werden.<br />
Nur durch Tests mit Probanden kann die Wirkung der Piktogramme<br />
überprüft werden. Professionelles Usability Testing ist natürlich die<br />
sicherste Methode. Aber auch durch Beobachtung und Befragung eines<br />
selbst ausgesuchten kleinen Kreises von möglichen Anwendern lassen<br />
sich Schwachstellen aufdecken und die Ergebnisse verbessern. Die<br />
gewonnenen Erkenntnisse werden dann umgesetzt und erneut getestet,<br />
bis das Ergebnis dem gestellten Anspruch gerecht wird.<br />
Um die interkulturellen Aspekte zu berücksichtigen, können z. B. Ländervertretungen<br />
des Unternehmens in die Tests einbezogen werden.<br />
für Rückfragen: thomas.emrich@itl.eu<br />
<strong>tekom</strong>-<strong>Jahrestagung</strong> <strong>2012</strong><br />
561