19.12.2023 Aufrufe

OCG Journal 4/23 Zukunftsmusik - Der Einfluss der Künstlichen Intelligenz in der Musik

Wie verändert KI die Musikindustrie? Wie viel Gewicht geben wir künstlicher Kreativität? Welche Möglichkeiten entstehen durch KI in der Kunst und mit welchen technischen Anwendungen beschäftigen sich österreichische Musikwissenschaftler*innen? Die Mitgliederzeitschrift der Österreichischen Computer Gesellschaft (OCG) widmet sich stets einem Schwerpunktthema, diesmal: KI und Musik.

Wie verändert KI die Musikindustrie? Wie viel Gewicht geben wir künstlicher Kreativität? Welche Möglichkeiten entstehen durch KI in der Kunst und mit welchen technischen Anwendungen beschäftigen sich österreichische Musikwissenschaftler*innen? Die Mitgliederzeitschrift der Österreichischen Computer Gesellschaft (OCG) widmet sich stets einem Schwerpunktthema, diesmal: KI und Musik.

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

P.b.b. Verlagspostamt 1010 Wien I 02Z031460M<br />

Ausgabe 04 • 20<strong>23</strong> | Jg. 48 | EUR 5,00<br />

DAS IT-MAGAZIN DER ÖSTERREICHISCHEN COMPUTER GESELLSCHAFT<br />

<strong>Zukunftsmusik</strong><br />

<strong>Der</strong> <strong>E<strong>in</strong>fluss</strong> <strong>der</strong> <strong>Künstlichen</strong><br />

<strong>Intelligenz</strong> <strong>in</strong> <strong>der</strong> <strong>Musik</strong><br />

<strong>OCG</strong> <strong>Journal</strong> Ausgabe 04 • 20<strong>23</strong>: | Coverbild: istock/Devrimb


Wissenschaftliche Wettbewerbe<br />

ocg.at/wissenschaftliche-wettbewerbe<br />

<strong>OCG</strong> För<strong>der</strong>preis 2024<br />

<strong>OCG</strong> För<strong>der</strong>preis FH 2024<br />

E<strong>in</strong>reichungen müssen im Zeitraum Oktober<br />

2022 bis Dezember 20<strong>23</strong> an e<strong>in</strong>er österreichischen<br />

Universität bzw. Fachhochschule approbiert<br />

und mit e<strong>in</strong>em sehr gut beurteilt worden<br />

se<strong>in</strong>. Die beste Arbeit wird von e<strong>in</strong>er Jury ermittelt.<br />

<strong>Der</strong> Preis ist mit 2.000 Euro dotiert.<br />

E<strong>in</strong>reichfrist: 14. März 2024<br />

He<strong>in</strong>z Zemanek Preis 2024<br />

Dissertationen müssen im Zeitraum 1.1. 2022<br />

bis 31.12.20<strong>23</strong> an e<strong>in</strong>er österreichischen Universität<br />

abgeschlossen und von <strong>der</strong> Universität<br />

nom<strong>in</strong>iert worden se<strong>in</strong>. Die beste Arbeit wird<br />

von e<strong>in</strong>er Jury ermittelt. <strong>Der</strong> Preis ist mit 5.000<br />

Euro dotiert.<br />

Nom<strong>in</strong>ierungsfrist: 14. März 2024


Inhalt<br />

4 Vorwort des <strong>OCG</strong> Präsidenten<br />

Schwerpunktthema KI und <strong>Musik</strong><br />

5 KI <strong>in</strong> <strong>der</strong> <strong>Musik</strong><strong>in</strong>dustrie<br />

Wirtschaftliche und rechtliche Herausfor<strong>der</strong>ungen<br />

9 Masch<strong>in</strong>elles Lernen und die Welt <strong>der</strong> <strong>Musik</strong><br />

Wieviel Gewicht geben wir künstlicher Kreativität?<br />

12 KI ist wie e<strong>in</strong> Instrument<br />

KI br<strong>in</strong>gt völlig neue Möglichkeiten <strong>Musik</strong>, Bild und Text<br />

zu verb<strong>in</strong>den - Interview mit Ali Nikrang<br />

16 E<strong>in</strong> Roboterarm spielt Cello<br />

KI und Technik - <strong>der</strong> komplexe Prozess des Musizierens<br />

20 Moves & Grooves<br />

Analyse von Audiosignalen, Track<strong>in</strong>g von Körper, Hand<br />

und Gesicht/Ausdruck<br />

24 Grenzenlose Freiheit?<br />

KI und gute wissenschaftliche Praxis im<br />

Hochschulbereich<br />

27 <strong>Musik</strong> und KI - Erfahrungen und Überlegungen<br />

ChatGPT4 komponiert noch sehr klischeehaft - e<strong>in</strong><br />

Experiment<br />

<strong>OCG</strong> Intern<br />

30 Von Menschen für Menschen<br />

Wie Christiane Floyd die Software-Entwicklung<br />

verän<strong>der</strong>te<br />

32 Houskapreis für außeruniversitäre Forschung<br />

Connected Boot - <strong>der</strong> vernetzte Schischuh - Interview<br />

mit Elisabeth Häusler<br />

34 Künstliche <strong>Intelligenz</strong> muss noch viel lernen<br />

Informatiker Georg Gottlieb hielt Zemanek Lecture <strong>in</strong><br />

Wien über Künstliche Ignoranz<br />

35 Veranstaltungen<br />

35 Impressum<br />

ICDL Künstliche <strong>Intelligenz</strong><br />

Das neue ICDL Modul Künstliche <strong>Intelligenz</strong> (KI)<br />

lehrt die Grundkonzepte <strong>der</strong> daten- und symbolbasierten<br />

KI:<br />

• Chancen und Risiken von KI<br />

• Anwendungsbeispiele im Alltag<br />

• Grenzen von KI<br />

• Ethische Überlegungen<br />

• Praktische Beispiele<br />

Jetzt digital fit werden und Skills zertifizieren!<br />

icdl.at


Editorial<br />

Sehr geehrtes <strong>OCG</strong>-Mitglied,<br />

liebe Leser<strong>in</strong>, lieber Leser!<br />

Für <strong>Musik</strong>schaffende am Schnittpunkt<br />

Technik und <strong>Musik</strong> br<strong>in</strong>gt die KI und Masch<strong>in</strong>elles<br />

Lernen viele neue, kreative Möglichkeiten.<br />

Im Ars Electronica Center <strong>in</strong> L<strong>in</strong>z<br />

kann man das mit allen S<strong>in</strong>nen im Bereich<br />

AI meets Music erleben. „KI ist so etwas wie<br />

e<strong>in</strong> Instrument. Das eröffnet ganz neue Formate<br />

für die künstlerischen Prozesse“, sagt<br />

<strong>der</strong> Informatiker, Forscher und <strong>Musik</strong>er Ali<br />

Nikrang im Interview mit <strong>der</strong> <strong>OCG</strong>.<br />

Lesen Sie auch über die wirtschaftlichen<br />

und rechtlichen Herausfor<strong>der</strong>ungen, denen<br />

sich die <strong>Musik</strong><strong>in</strong>dustrie durch die KI zu stellen<br />

hat. Urheberreicht ist nur e<strong>in</strong> Bereich,<br />

<strong>in</strong> dem gerade viele Neuerungen auf den<br />

Rechtsbereich zukommen. Auch im universitären<br />

Bereich stellt sich die Frage, wie<br />

es mit guter wissenschaftlicher Praxis angesichts<br />

<strong>der</strong> Entwicklungen <strong>in</strong> <strong>der</strong> KI aussieht?<br />

Wie <strong>in</strong> allen an<strong>der</strong>en Anwendungsbereichen<br />

gilt auch hier: Nur wenn wir den<br />

nahezu unbegrenzten Möglichkeiten <strong>der</strong> KI<br />

offen und konstruktiv, aber - wo notwendig<br />

- auch kritisch gegenübertreten, werden<br />

wir geme<strong>in</strong>sam gute Lösungen f<strong>in</strong>den.<br />

Tauchen Sie also mit diesem <strong>OCG</strong> <strong>Journal</strong><br />

e<strong>in</strong> <strong>in</strong> die Welt <strong>der</strong> KI und <strong>Musik</strong> mit ihren<br />

vielen Facetten – mit Begeisterung und <strong>der</strong><br />

nötigen Portion Vorsicht, denn es ist nicht<br />

alles so, wie es auf den ersten Blick ersche<strong>in</strong>t.<br />

Herzlichst, Ihr<br />

Thomas Mück, Präsident <strong>OCG</strong>


Schwerpunktthema<br />

Wirtschaftliche und rechtliche Herausfor<strong>der</strong>ungen<br />

von Peter Tschmuck<br />

KI <strong>in</strong> <strong>der</strong> <strong>Musik</strong><strong>in</strong>dustrie<br />

(c)Vladimir Vladimirov<br />

„FAKE DRAKE“<br />

Mitte April 20<strong>23</strong> war die Aufregung groß,<br />

als <strong>der</strong> Song „Heart on My Sleeve“ im<br />

Internet auftauchte und viral g<strong>in</strong>g. Zu<br />

hören ist <strong>der</strong> kanadische Rap-Superstar<br />

Drake im Duett mit se<strong>in</strong>em nicht weniger<br />

berühmten Landsmann The Weeknd.<br />

Fans waren schon <strong>der</strong> Me<strong>in</strong>ung,<br />

dass Drake e<strong>in</strong>en neuen Song mit e<strong>in</strong>er<br />

abgefahrenen neuen Promotionskampagne<br />

veröffentlich hatte, als sich herausstellte,<br />

dass se<strong>in</strong>e Stimme mittels<br />

Künstlicher <strong>Intelligenz</strong> von e<strong>in</strong>em mit<br />

Le<strong>in</strong>tuch und Sonnenbrille Getarnten,<br />

<strong>der</strong> sich selbst ghostwriter977 nannte,<br />

nachgeahmt und dann <strong>der</strong> Song auf Tik-<br />

Tok veröffentlicht worden war 1 .<br />

<strong>Der</strong> Song war schon ab dem 4. April bei<br />

Spotify 2 verfügbar und tauchte dann<br />

auch <strong>in</strong> an<strong>der</strong>en Stream<strong>in</strong>g Portalen und<br />

bei YouTube 3 auf.<br />

<strong>Der</strong> „Fake Drake“, wie das KI-generierte<br />

<strong>Musik</strong>stück bald genannt wurde, löste<br />

nicht nur e<strong>in</strong>en weltweiten medialen<br />

Hype aus, son<strong>der</strong>n brachte auch die<br />

Rechte<strong>in</strong>haber, vor allem aber die Labels<br />

auf die Barrikaden. Die Universal Music<br />

Group, bei <strong>der</strong> sowohl Drake als auch The<br />

Weeknd beim Sublabel Republic unter<br />

Vertrag s<strong>in</strong>d, brachte sogleich ihre ablehnende<br />

Haltung klar zum Ausdruck: „[T]he<br />

tra<strong>in</strong><strong>in</strong>g of generative AI us<strong>in</strong>g our artists‘<br />

music (which represents both a breach of<br />

our agreements and a violation of copyright<br />

law) as well as the availability of <strong>in</strong>fr<strong>in</strong>g<strong>in</strong>g<br />

content created with generative<br />

AI on DSPs, begs the question as to which<br />

side of history all stakehol<strong>der</strong>s <strong>in</strong> the music<br />

ecosystem want to be on: the side of<br />

artists, fans and human creative expression,<br />

or on the side of deep fakes, fraud and<br />

deny<strong>in</strong>g artists their due compensation.“ 4<br />

Die Beschwerde zeigte Wirkung. Nachdem<br />

„Heart on My Sleeve“ 9 Millionen Mal<br />

auf TikTok geteilt worden war, auf Spotify<br />

<strong>in</strong>nerhalb von zwei Wochen 250.000<br />

Streams generierte und das YouTube-Video<br />

<strong>in</strong> zwei Tagen fast 200.000 Mal angeklickt<br />

worden war, nahmen die Stream<strong>in</strong>g<br />

Portale den Track am Abend des<br />

17. April aus ihrem Angebot und YouTube<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

5


sperrte vorübergehend den Account von<br />

ghostwriter977. 5<br />

Rechtlich betrachtet ist die Faktenlage<br />

allerd<strong>in</strong>gs nicht so e<strong>in</strong>deutig. E<strong>in</strong>e Stimme<br />

ist urheberrechtlich nicht geschützt,<br />

aber Stimmen-Klone könnten <strong>in</strong> die<br />

Persönlichkeitsrechte <strong>der</strong> Künstler*<strong>in</strong>nen<br />

e<strong>in</strong>greifen. In <strong>der</strong> <strong>in</strong>ternationalen<br />

Urheberrechtsgesetzgebung<br />

wurden<br />

die Persönlichkeitsrechte <strong>der</strong> Künstler*<strong>in</strong>nen<br />

nicht harmonisiert. So s<strong>in</strong>d <strong>in</strong><br />

den USA nur <strong>in</strong> 19 von 50 Bundesstaaten<br />

– darunter Kalifornien, New York und<br />

Florida – Persönlichkeitsrechte gesetzlich<br />

verankert 6 . Vor allem geht es um das<br />

Publicity Right, das vor <strong>der</strong> wi<strong>der</strong>rechtlichen<br />

Aneignung des Namens, des Bildes<br />

o<strong>der</strong> an<strong>der</strong>er Identitätsmerkmale e<strong>in</strong>er<br />

Person, beispielsweise <strong>der</strong> Stimme, zu<br />

kommerziellen Zwecken schützt. E<strong>in</strong>e<br />

Judikatur 7 zu KI-generierten Stimmen<br />

liegt aber noch nicht vor und es werden<br />

wohl die Gerichte darüber entscheiden<br />

müssen, ob Rechte verletzt wurden<br />

o<strong>der</strong> nicht. Wie immer die Verfahren<br />

ausgehen, Stimmen-Klone bilden nur<br />

die Spitze e<strong>in</strong>es Eisbergs weitreichen<strong>der</strong><br />

rechtlicher Probleme, welche die KI <strong>in</strong> <strong>der</strong><br />

<strong>Musik</strong><strong>in</strong>dustrie aufwirft.<br />

KI UND DAS URHEBERRECHT<br />

Betrachten wir e<strong>in</strong>mal, wie <strong>Musik</strong>-KI<br />

funktioniert. Sie benötigt als Input riesige<br />

Mengen an Tra<strong>in</strong><strong>in</strong>gsdaten, die zu e<strong>in</strong>em<br />

KI-Modell verarbeitet werden. Dieser<br />

Prozess ist so komplex, dass es auch für<br />

die Bediener*<strong>in</strong>nen e<strong>in</strong>er KI nicht mehr<br />

möglich ist nachzuvollziehen, wie das geschieht.<br />

Schließlich werden Daten <strong>in</strong> Form<br />

von Kompositionen, Songtexten und <strong>Musik</strong>aufnahmen<br />

ausgegeben. Wir können<br />

den KI-Prozess daher e<strong>in</strong>fachheitshalber<br />

<strong>in</strong> Inputphase, Verarbeitungsphase und<br />

Outputphase glie<strong>der</strong>n. All diese Phasen<br />

können rechtliche Tatbestände berühren<br />

und Probleme aufwerfen.<br />

Beg<strong>in</strong>nen wir mit <strong>der</strong> Inputphase und<br />

<strong>der</strong> Problematik, dass <strong>Musik</strong>werke und<br />

Aufnahmen zuerst gesammelt werden<br />

müssen, um dann die KI damit zu tra<strong>in</strong>ieren.<br />

Die Datensammlung erfor<strong>der</strong>t e<strong>in</strong>e<br />

Datenbank, <strong>in</strong> <strong>der</strong> die Werke bzw. Sounddateien<br />

gespeichert werden. E<strong>in</strong>e rechtliche<br />

Problematik ergibt sich jedenfalls<br />

dann, wenn urheberrechtlich geschützte<br />

Daten gesammelt werden, weil jedes<br />

Urheberrechtsgesetz die Urheber*<strong>in</strong>nen<br />

vor unbefugten Nutzungen schützen. 8<br />

<strong>Der</strong>zeit erfolgt die Datensammlung für<br />

das KI-Tra<strong>in</strong><strong>in</strong>g ohne Zustimmung <strong>der</strong><br />

Rechte<strong>in</strong>haber*<strong>in</strong>nen, was zu rechtlichen<br />

Problemen führen könnte. Es ist daher<br />

wenig verwun<strong>der</strong>lich, dass bereits die<br />

erste Klage gerichtsanhängig ist. Am 18.<br />

Oktober 20<strong>23</strong> reichte die Universal Music<br />

Publish<strong>in</strong>g (UMP) geme<strong>in</strong>sam mit an<strong>der</strong>en<br />

<strong>Musik</strong>verlagen gegen das KI-Unternehmen<br />

Anthropic Klage wegen Urheberrechtsverletzung<br />

e<strong>in</strong>. Anthropic 9 ist<br />

<strong>der</strong> Anbieter des Claude-Chatbots, e<strong>in</strong>em<br />

Konkurrenzprodukt zu ChatGPT, das von<br />

ehemaligen Open AI-Mitarbeiter*<strong>in</strong>nen<br />

2021 gegründet worden war. Das KI-Unternehmen<br />

erhielt Ende September 20<strong>23</strong><br />

von Amazon im Rahmen e<strong>in</strong>er weitreichenden<br />

Zusammenarbeit e<strong>in</strong>e f<strong>in</strong>anzielle<br />

Unterstützung von US $4 Milliarden<br />

und <strong>der</strong> Onl<strong>in</strong>ehändler kaufte sich bei<br />

Anthropic mit e<strong>in</strong>em M<strong>in</strong><strong>der</strong>heitsanteil<br />

e<strong>in</strong>. 10<br />

Wie je<strong>der</strong> Chatbot sammelt auch <strong>der</strong><br />

Anthropic Chatbot Claude Daten im Internet,<br />

um damit se<strong>in</strong> KI-Sprachmodell<br />

zu tra<strong>in</strong>ieren. An diesem Punkt setzt die<br />

Klage <strong>der</strong> Universal Music Publish<strong>in</strong>g und<br />

se<strong>in</strong>er Mitstreiter an. Sie werfen Anthropic<br />

vor, e<strong>in</strong> KI-Modell auf <strong>der</strong> Basis von<br />

riesigen Textmengen, die im Internet gesammelt<br />

wurden, erstellt zu haben. Die<br />

Kläger weisen darauf h<strong>in</strong>, dass Anthropic<br />

we<strong>der</strong> um die Nutzung <strong>der</strong> urheberrechtlich<br />

geschützten Werke angefragt<br />

noch e<strong>in</strong>e Nutzungsbewilligung durch<br />

die Rechte<strong>in</strong>haber*<strong>in</strong>nen erteilt bekommen<br />

hat. Insgesamt werden <strong>in</strong> <strong>der</strong> Klage<br />

500 <strong>Musik</strong>werke aufgelistet, für welche<br />

die klagenden Parteien Urheberrechte<br />

<strong>in</strong>nehaben, wie z. B. „What a Won<strong>der</strong>ful<br />

World“ von Louis Armstrong, „You Can‘t<br />

Always Get What You Want“ von den<br />

Roll<strong>in</strong>g Stones o<strong>der</strong> „I Will Survive“ von<br />

Gloria Gaynor. 11 <strong>Der</strong> Vorwurf gegen Anthropic<br />

lautet, dass bei e<strong>in</strong>er Anfrage an<br />

Claude, wie die Lyrics e<strong>in</strong>es dieser Songs<br />

lauten, die KI den fast identischen Text<br />

des angefragten Songs auswirft, was e<strong>in</strong>em<br />

Urheberrechtsverstoß gleichkäme.<br />

<strong>Der</strong> nach dem US-Copyright Act anzunehmende<br />

Schaden läge pro Verstoß bei<br />

US $150.000, was bei 500 <strong>in</strong>krim<strong>in</strong>ierten<br />

Werken e<strong>in</strong>em Schadenersatz von <strong>in</strong>sgesamt<br />

US $75 Millionen entspräche. 12<br />

Anthropic hat zwar noch nicht auf die Klage<br />

reagiert, ließ aber dem US Copyright<br />

Office auf Anfrage e<strong>in</strong>e Stellungnahme<br />

zukommen 13 , aus <strong>der</strong> hervorgeht, dass<br />

im Tra<strong>in</strong><strong>in</strong>gsprozess die Daten zwar kopiert<br />

werden würden, aber e<strong>in</strong>zig und<br />

alle<strong>in</strong> zum Zweck <strong>der</strong> statistischen Datenanalyse.<br />

<strong>Der</strong> Vervielfältigungsprozess<br />

ist lediglich e<strong>in</strong> Zwischenschritt, um nicht<br />

geschützte Elemente aus <strong>der</strong> Datenmenge<br />

zu generieren, aus <strong>der</strong> dann die neuen<br />

Outputs gewonnen werden. Das sei<br />

durch die Fair-Use-Bestimmungen im<br />

US-Copyright Act gedeckt und entspräche,<br />

so Anthropic, auch den rechtlichen<br />

Safe Habour-Bestimmungen <strong>in</strong> S<strong>in</strong>gapur,<br />

Japan, Israel und <strong>in</strong> <strong>der</strong> Europäischen<br />

Union.<br />

LIZENZVEREINBARUNGEN – EIN<br />

LÖSUNGSANSATZ?<br />

Welcher Rechtsstandpunkt sich durchsetzt,<br />

werden die Gerichte entscheiden,<br />

aber man kann schon jetzt vermuten,<br />

dass die Klage gegen Anthropic dazu<br />

dient, das Unternehmen und auch an<strong>der</strong>e<br />

KI-Anbieter wie OpenAI an den<br />

Verhandlungstisch zu zw<strong>in</strong>gen, um<br />

über Lizenzvere<strong>in</strong>barungen mit den<br />

Rechte<strong>in</strong>haber*<strong>in</strong>nen zu verhandeln. Es<br />

stellt sich aber die Frage <strong>der</strong> konkreten<br />

Umsetzung. Vorab muss geklärt werden,<br />

welches Lizenzierungs- und Inkasso-Modell<br />

zum E<strong>in</strong>satz kommen sollte,<br />

um nachträgliche Diskussionen über<br />

die Verteilung dieser „KI-Tantiemen“ zu<br />

vermeiden. Denn im Fall e<strong>in</strong>er privatwirtschaftlichen<br />

Regelung nach dem Vorbild<br />

<strong>der</strong> Masterrechte-Nutzung durch <strong>Musik</strong><br />

Stream<strong>in</strong>g Dienste würden beträchtliche<br />

Lizenzerträge an die phonografischen<br />

Unternehmen fließen, die schwerlich an<br />

die Künstler*<strong>in</strong>nen weiterverteilt werden<br />

können, weil Nutzungs<strong>in</strong>formationen<br />

kaum zu generieren s<strong>in</strong>d. Das liegt daran,<br />

dass e<strong>in</strong>e KI pro Sekunde tausende<br />

E<strong>in</strong>zeldaten verarbeitet. So nutzt das<br />

WaveNet von Google-DeepM<strong>in</strong>d 16.000<br />

Samples pro Sekunde für e<strong>in</strong>e unbearbeitete<br />

Audiodatei 14 E<strong>in</strong>e nutzungsbezogene<br />

Abrechnung ist unter solchen Umständen<br />

nicht mehr möglich. Die Lösung<br />

wäre daher, e<strong>in</strong>e Pauschalvergütung für<br />

die Nutzung <strong>der</strong> <strong>Musik</strong>aufnahmen und<br />

<strong>Musik</strong>werke auszuverhandeln, wie das<br />

6 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

bereits zwischen Social Media-Plattformen<br />

und <strong>Musik</strong>rechteverwertern geschehen<br />

ist. Das Ergebnis s<strong>in</strong>d Töpfe voll<br />

von Geld, über <strong>der</strong>en Verteilung trefflich<br />

gestritten werden kann.<br />

E<strong>in</strong>e an<strong>der</strong>e Möglichkeit bestünde dar<strong>in</strong>,<br />

e<strong>in</strong>e Schranken- bzw. Ausnahmeregelung<br />

für die Nutzung von KI-Tra<strong>in</strong><strong>in</strong>gsdaten<br />

im Urheberrechtsgesetz festzuschreiben,<br />

wie das jetzt schon <strong>in</strong> vielen<br />

Rechtsordnungen für die private Nutzung<br />

urheberrechtlich geschützter Werke<br />

gilt. Damit ist ebenfalls e<strong>in</strong>e Entgeltpflicht<br />

verbunden, die am Umfang <strong>der</strong><br />

benötigen Datenmenge für das KI-Tra<strong>in</strong><strong>in</strong>g<br />

bemessen werden könnte. Auch <strong>in</strong><br />

diesem Fall würde e<strong>in</strong> nicht-zuordenbarer<br />

Topf an Lizenzerträgen entstehen, <strong>der</strong><br />

aber nach transparenten und nachvollziehbaren<br />

Regeln von den Verwertungsgesellschaften<br />

verteilt werden könnte.<br />

KI-MODELLE ALS NEUE<br />

NUTZUNGSFORM?<br />

Kommen wir nun zur Tra<strong>in</strong><strong>in</strong>gsphase <strong>der</strong><br />

KI. Wir haben gesehen, dass vor allem die<br />

neuen KI-Systeme, die Re<strong>in</strong>forced Neural<br />

Networks (RNN) und Convolutional Neural<br />

Networks (CNN) beim Tra<strong>in</strong><strong>in</strong>g nicht<br />

mehr auf die ursprüngliche Datenbank<br />

zugreifen, son<strong>der</strong>n die Daten parametrisieren,<br />

um sie <strong>in</strong> e<strong>in</strong>er hoch abstrakten<br />

Form <strong>in</strong> e<strong>in</strong>em KI-Modell abzubilden. Es<br />

wird also ke<strong>in</strong>e neue Datenbank geschaffen<br />

und es f<strong>in</strong>det auch ke<strong>in</strong> Vervielfältigungsvorgang<br />

mehr statt, wodurch das<br />

bestehende Urheberrecht nicht mehr<br />

greift. Es werden daher auch ke<strong>in</strong>e Kopien<br />

<strong>der</strong> ursprünglichen Daten für die Verarbeitungsphase<br />

erstellt, son<strong>der</strong>n die KI<br />

greift auf die von ihr selbst erstellten Parameter<br />

zurück. Dabei kann es sich um Millionen<br />

o<strong>der</strong> sogar Milliarden Parameter<br />

handelt, die <strong>in</strong> den verborgenen Schichten<br />

(hidden layers) weiterverarbeitet werden.<br />

Dennoch argumentiert die deutsche<br />

Initiative Urheberrecht (IU) <strong>in</strong> ihrem<br />

Positionspapier vom September 20<strong>23</strong>,<br />

dass Vieles dafürspräche, „dass auch das<br />

tra<strong>in</strong>ierte KI-Modell (auf <strong>der</strong> 2. Stufe) noch<br />

Vervielfältigungen im urheberrechtlichen<br />

S<strong>in</strong>n enthält. Denn unzweifelhaft ist<br />

es Systemen wie ChatGPT möglich, Gedichte<br />

o<strong>der</strong> an<strong>der</strong>e urheberrechtlich geschützte<br />

Texte zu reproduzieren.“ 15 Das<br />

Argument deckt sich mit <strong>der</strong> Klage <strong>der</strong><br />

Universal Music Publish<strong>in</strong>g und an<strong>der</strong>er<br />

<strong>Musik</strong>verlage gegen Anthropic, <strong>in</strong> <strong>der</strong><br />

ebenfalls auf die Fähigkeit <strong>der</strong> KI verwiesen<br />

wird, fast identische Songtexte von<br />

Hits auf Anfrage wie<strong>der</strong>zugeben. An dieser<br />

Stelle muss aber auch gesagt werden,<br />

dass die KI ke<strong>in</strong>e Kopie des urheberrechtlich<br />

geschützten Materials wie<strong>der</strong>gibt,<br />

son<strong>der</strong>n auf Basis von Wahrsche<strong>in</strong>lichkeiten<br />

e<strong>in</strong> bestimmtes Ergebnis berechnet.<br />

Dieses kann sich durch zusätzliche<br />

Tra<strong>in</strong><strong>in</strong>gsdaten o<strong>der</strong> Lernprozesse, die <strong>in</strong>nerhalb<br />

<strong>der</strong> KI ablaufen, verän<strong>der</strong>n. Es ist<br />

daher nicht e<strong>in</strong>deutig, ob die tra<strong>in</strong>ierten<br />

KI-Modelle tatsächlich Kopien anfertigen.<br />

Wahrsche<strong>in</strong>lich braucht es diesbezüglich<br />

e<strong>in</strong>e neue urheberrechtliche Kategorie<br />

bzw. e<strong>in</strong>e neue Nutzungsart, um den Vorgängen<br />

<strong>in</strong> <strong>der</strong> Verarbeitungsphase <strong>der</strong> KI<br />

gerecht zu werden.<br />

DIE KI ALS URHEBER?<br />

Im März 2017 erkannte die luxemburgische<br />

Zweigstelle <strong>der</strong> ältesten <strong>Musik</strong>verwertungsgesellschaft<br />

<strong>der</strong> Welt, die<br />

Société des auteurs, compositeurs et<br />

éditeurs de musique (SACEM), erstmals<br />

e<strong>in</strong>e KI als Urheber an und die von ihr<br />

hervorgebrachten <strong>Musik</strong>werke wurden<br />

zur Nutzung registriert. Das ist e<strong>in</strong> beispielloser<br />

und ungeheurer Vorgang, weil<br />

(c)Vladimir Vladimirov<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

7


es bis dah<strong>in</strong> rechtlich unbestritten war,<br />

dass nur natürliche Personen, d. h. Menschen,<br />

geistige Schöpfungen im S<strong>in</strong>ne<br />

des Urheberrechts hervorbr<strong>in</strong>gen können.<br />

Die Künstliche <strong>Intelligenz</strong>, <strong>der</strong> dieses<br />

menschliche Privileg e<strong>in</strong>geräumt wurde,<br />

heißt AIVA, was für „Artificial Intelligence<br />

Virtual Artist“ steht und von <strong>der</strong> <strong>in</strong> Luxemburg<br />

ansässigen KI-Unternehmung AIVA<br />

Technologies mit För<strong>der</strong>ungen <strong>der</strong> EU<br />

und dem luxemburgischen Staat erstellt<br />

worden war. 16 Bislang wurden bei <strong>der</strong><br />

SACEM Luxemburg 37 <strong>Musik</strong>werke für<br />

AIVA als Urheber registriert, wie e<strong>in</strong>e Datenbanksuche<br />

(Stand: 16.11.20<strong>23</strong>) ergeben<br />

hat, darunter die „Fantasie Symponique<br />

‚Le Reveil‘ op. 7“, <strong>der</strong> „Celtic Dance op. 14<br />

<strong>in</strong> a-Moll“ o<strong>der</strong> die Ouvertüre „AIVA – ‚Letz<br />

make it happen‘ op. <strong>23</strong>“, die zum luxemburgischen<br />

Nationalfeiertag <strong>in</strong> <strong>der</strong> dortigen<br />

Philharmonie uraufgeführt wurde. 17<br />

Zwar hat die Anerkennung <strong>der</strong> Urheberschaft<br />

durch e<strong>in</strong>e KI noch nicht Schule gemacht,<br />

aber es könnte zum Präzedenzfall<br />

für an<strong>der</strong>e musikschaffende KIs werden.<br />

Vollständig weitergedacht würde das bedeuten,<br />

dass e<strong>in</strong>e KI für ihre Leistungen<br />

ebenso remuneriert werden müsste wie<br />

menschliche Urheber*<strong>in</strong>nen. Das könnte<br />

die gesamte Wertschöpfung <strong>der</strong> <strong>Musik</strong><strong>in</strong>dustrie,<br />

die vor allem auf dem Urheberrecht<br />

aufbaut, <strong>in</strong>frage stellen. Die aktuelle<br />

Diskussion über den Ausschluss von<br />

KI-generierter <strong>Musik</strong> durch sogenannte<br />

künstlerbezogene Auszahlungsmodelle<br />

<strong>der</strong> <strong>Musik</strong> Stream<strong>in</strong>g Dienste wäre obsolet.<br />

Insgesamt würde menschliches und<br />

KI-<strong>Musik</strong>schaffen auf die gleiche Stufe<br />

gestellt. KI wäre dann mehr als nur e<strong>in</strong><br />

Tool für Kreative zum <strong>Musik</strong>schaffen. Es<br />

ist daher e<strong>in</strong> umfassen<strong>der</strong> gesellschaftspolitischer<br />

Diskurs nötig, welche Rechte<br />

<strong>der</strong> KI e<strong>in</strong>geräumt werden dürfen und<br />

welche besser nicht. Die <strong>Musik</strong><strong>in</strong>dustrie<br />

ist dabei wie<strong>der</strong> e<strong>in</strong>mal das Testfeld dafür,<br />

wie alle diese wirtschaftlichen und rechtlichen<br />

Herausfor<strong>der</strong>ungen auch jenseits<br />

<strong>der</strong> <strong>Musik</strong> gemeistert werden können.<br />

Peter Tschmuck<br />

Professor für<br />

Kulturbetriebslehre<br />

am Institut für<br />

Popularmusik <strong>der</strong><br />

Universität für <strong>Musik</strong><br />

und darstellende Kunst Wien. Se<strong>in</strong>e<br />

Forschungsschwerpunkte s<strong>in</strong>d die<br />

<strong>Musik</strong>wirtschaft und die Ökonomie<br />

des Urheberrechts.<br />

Quellen:<br />

1 Siehe TikTok/@ghostwriter977, https://www.tiktok.com/@ghostwriter977/video/7222027667132960046, Zugriff am 16.11.20<strong>23</strong>.<br />

2 Roll<strong>in</strong>g Stone, „Viral Drake and The Weeknd AI Collaboration Pulled From Apple, Spotify“, 17. April 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

3 YouTube, „ghostwriter - heart on my sleeve (Drake x The Weeknd AI) Official Audio“, 31. Mai 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

4 Zitiert <strong>in</strong>: Music Bus<strong>in</strong>ess Worldwide, „Universal Music Group responds to ‚fake Drake‘ AI track: Stream<strong>in</strong>g platforms have ‚a fundamental<br />

responsibility to prevent the use of their services <strong>in</strong> ways that harm artists‘“, 17. April 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

5 Music Bus<strong>in</strong>ess Worldwide, „This AI Drake rip-off already has 250,000 plays on Spotify. How will the music <strong>in</strong>dustry respond?“, 17. April 20<strong>23</strong>,<br />

Zugriff am 16.11.20<strong>23</strong>.<br />

6 Music Bus<strong>in</strong>ess Worldwide, „Major record companies hate AI voice-clon<strong>in</strong>g platforms that don‘t pay. The one they hate most was created<br />

by a 20-year-old UK student“, 12. Oktober 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

7 International Trademark Association, „Right to Publicity“, o.D., Zugriff am 16.11.20<strong>23</strong>.<br />

8 <strong>Der</strong> § 15 des deutschen Urheberrechtsgesetzes räumt dem Urheber das ausschließliche Recht e<strong>in</strong>, se<strong>in</strong> Werk <strong>in</strong> körperlicher Form zu vervielfältigen<br />

(§ 16), zu verbreiten (§ 17) und auszustellen (§ 18). Gesetz über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz)<br />

vom 9. September 1965 (BGBl. I S. 1273).<br />

9 Music Bus<strong>in</strong>ess Worldwide, „AI company Anthropic recently secured up to $4bn <strong>in</strong> <strong>in</strong>vestment from Amazon. Now it’s be<strong>in</strong>g sued for<br />

copyright <strong>in</strong>fr<strong>in</strong>gement by Universal Music Group“, 18. Oktober 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

10 Anthropic Pressemitteilung, „Expand<strong>in</strong>g access to safer AI with Amazon“, 25. September 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

11 Concord Music Group, Inc. v. Anthropic PBC, Case 3:<strong>23</strong>-cv-01092, Compla<strong>in</strong>t and Demand for Jury Trial <strong>in</strong> the United States District Court<br />

for the Middle District of Tennessee, Nashville Division, October 18, 20<strong>23</strong>, Appendix, Zugriff am 16.11.20<strong>23</strong>.<br />

12 Ibid., S. 58.<br />

13 The Verge, „AI companies have all k<strong>in</strong>ds of arguments aga<strong>in</strong>st pay<strong>in</strong>g for copyrighted content“, 4. November 20<strong>23</strong>, Zugriff am 16.11.20<strong>23</strong>.<br />

14 Aaron van den Oord et al., 2016, „WaveNet: A generative model for raw audio“, arXiv:1609.03499 [Cs], S. 1.<br />

15 Die Initiative Urheberrecht (IU) ist e<strong>in</strong> Zusammenschluss von 44 Berufsverbänden und Gewerkschaften, die <strong>in</strong>sgesamt 140.000 UrheberInnen<br />

und KünstlerInnen vertreten. Am 19. September 20<strong>23</strong> hat die IU, das Positionspapier „Generative KI: Urheberrechtlicher Status quo &<br />

Handlungsempfehlungen“ veröffentlicht, aus dem das Zitat (S. 2) stammt.<br />

16 Siehe EU-Projektdatenbank CORDIS, „AI that composes complex <strong>in</strong>strumental music for movies, games, advertis<strong>in</strong>g and other types of<br />

digital media“, 17. August 2022, Zugriff am 16.11.20<strong>23</strong>.<br />

17 Siehe YouTube, „AIVA – ‚Letz make it happen‘ op. <strong>23</strong>“, 29. Juni 2017, Zugriff am 16.11.20<strong>23</strong>.<br />

8 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunkthema<br />

Wieviel Gewicht geben wir künstlicher Kreativität?<br />

von Anna Breger<br />

Masch<strong>in</strong>elles Lernen und die<br />

Welt <strong>der</strong> <strong>Musik</strong><br />

In den letzten Jahrzehnten g<strong>in</strong>gen die<br />

technischen Entwicklungen rasant voran,<br />

unter an<strong>der</strong>em wurden stärkere<br />

Prozessoren und immense digitale Speicherkapazitäten<br />

verfügbar. Dadurch<br />

konnten plötzlich theoretisch bereits<br />

bekannte Modelle des masch<strong>in</strong>ellen<br />

Lernens erstmals praktisch umgesetzt<br />

und erweitert werden.<br />

Viele Modelle haben sich durch experimentelle<br />

Erfolge weiterentwickelt und<br />

durchgesetzt, ohne dass die Grundlagentheorie<br />

Schritt halten kann. Mittlerweile<br />

gibt es auch stark vere<strong>in</strong>fachte Frameworks,<br />

welche die Implementierungsund<br />

Ausführungskomplexität so erleichtert<br />

haben, dass Personen ohne Expertise<br />

e<strong>in</strong>fache Lernmodelle erstellen und <strong>in</strong><br />

<strong>der</strong> Praxis anwenden können. Insbeson<strong>der</strong>e<br />

haben Methoden basierend auf sogenannten<br />

neuronalen Netzen <strong>in</strong> sehr<br />

vielen Anwendungsbereichen erfolgreich<br />

E<strong>in</strong>zug gehalten. <strong>Der</strong> Begriff des masch<strong>in</strong>ellen<br />

Lernens an sich umfasst auch traditionelle<br />

Lernmethoden. Da es für diesen<br />

Text nicht relevant ist, welche Lernmethode<br />

im Speziellen angewandt wird, werde<br />

ich allgeme<strong>in</strong> von masch<strong>in</strong>ellem Lernen<br />

(kurz: ML) sprechen, auch wenn e<strong>in</strong>ige Ergebnisse<br />

erst durch die Verwendung von<br />

speziellen neuronalen Netzen ermöglicht<br />

wird. Den Begriff künstliche <strong>Intelligenz</strong><br />

(KI), <strong>der</strong> <strong>in</strong> <strong>der</strong> Praxis oft synonym zu ML<br />

verwendet wird, werde ich hier nicht verwenden,<br />

da dieser an sich sehr breitgefächert<br />

ist.<br />

Kaum e<strong>in</strong> technischer Bereich blieb unberührt<br />

von den Entwicklungen im Bereich<br />

des ML, und auch <strong>in</strong> e<strong>in</strong>igen bisher<br />

technisch unerschlossenen Gebieten<br />

wurde Verwendung für die neuartigen<br />

Modelle gefunden. Insbeson<strong>der</strong>e das<br />

sogenannte Deep Learn<strong>in</strong>g – das s<strong>in</strong>d<br />

vere<strong>in</strong>facht gesagt neuronale Netze mit<br />

beson<strong>der</strong>s vielen lernbaren Parametern –<br />

hat sich erfolgreich durchgesetzt und es<br />

wurden Lernprobleme gelöst, die bisher<br />

praktisch nicht gelöst werden konnten.<br />

Diese Modelle s<strong>in</strong>d e<strong>in</strong>e Erweiterung von<br />

traditionellen statistischen Methoden, die<br />

allerd<strong>in</strong>gs nun e<strong>in</strong> so flexibles Framework<br />

bieten, dass sehr verschiedenartige Probleme<br />

damit gelöst werden können. Dabei<br />

können primär spezielle, aber oft nicht<br />

weitläufige Probleme auf neuen Daten<br />

gut gelöst werden. Dies wird als Generalisierungsproblem<br />

bezeichnet und liefert<br />

e<strong>in</strong>e <strong>der</strong> Haupte<strong>in</strong>schränkungen des<br />

TECHNIK IN MUSIK IST NICHT<br />

NEU<br />

Auch die Welt <strong>der</strong> <strong>Musik</strong> blieb nicht unberührt<br />

von ML. Was dies bedeuten kann,<br />

ist allerd<strong>in</strong>gs sehr vielschichtig. Seit langem<br />

gibt es Bereiche <strong>in</strong> <strong>der</strong> <strong>Musik</strong>, wo<br />

Technik verwendet wird und es für uns<br />

heutzutage selbstverständlich wirkt. So<br />

wird zum Beispiel bei <strong>der</strong> Digitalisierung<br />

aus e<strong>in</strong>em analogen Signal e<strong>in</strong> digitales<br />

gewonnen und bietet uns so die<br />

Grundlage, mit welcher wir heute <strong>Musik</strong><br />

laufend wie<strong>der</strong>geben können, zum Beispiel<br />

am Handy o<strong>der</strong> am Computer. Bei<br />

<strong>der</strong> Umwandlung <strong>in</strong> e<strong>in</strong> digitales Signal<br />

und <strong>der</strong>en Nachbearbeitung werden<br />

verschiedene komplexe technische Methoden<br />

e<strong>in</strong>gesetzt, die etwa durch ML<br />

noch weiter verbessert werden könnten.<br />

Dies kann sich dann zum Beispiel <strong>in</strong> e<strong>in</strong>er<br />

besserer Klangqualität bei gleicher Komprimierungsrate<br />

o<strong>der</strong> technisch, <strong>in</strong> weniger<br />

nötigen Speicherplatz, ausdrücken.<br />

Doch wenn von ML und <strong>Musik</strong> gesprochen<br />

wird, wird oft an die Kreation neuer<br />

<strong>Musik</strong> von e<strong>in</strong>er „künstlichen“ <strong>Intelligenz</strong><br />

gedacht.<br />

Um auf ML zurückzukommen, wollen<br />

wir kurz besprechen, was dies <strong>in</strong> Bezug<br />

auf <strong>Musik</strong> bedeuten könnte. Es ist möglich<br />

mit e<strong>in</strong>em generativen ML-Modell<br />

unendlich lange <strong>Musik</strong> zu produzieren,<br />

die zum Beispiel <strong>der</strong> <strong>Musik</strong> von Mozart<br />

ähnlich ist o<strong>der</strong> auch Phrasen von Mozart<br />

<strong>in</strong> Drum‘n‘Bass <strong>Musik</strong> umwandelt. Dazu<br />

können wir dem Modell <strong>Musik</strong> mit Phrasen<br />

und Gesetzmäßigkeiten zeigen, von<br />

denen es „lernen“ kann – also was bedeutet<br />

es wie „Mozart“ o<strong>der</strong> „Drum’n‘Bass“ zu<br />

komponieren?<br />

MUSIK DURCH ZUFALL<br />

Es ist ke<strong>in</strong>eswegs neu, <strong>Musik</strong> durch Zufall<br />

nach Gesetzmäßigkeiten zu kreieren<br />

(Anm.: Zufallsmethoden s<strong>in</strong>d grundlegend<br />

für die Generation neuer Daten <strong>in</strong><br />

generativen Modellen). Es gab schon im<br />

18. Jahrhun<strong>der</strong>t musikalische Zufallsspiele,<br />

<strong>in</strong> welchen damals mit Hilfe von Würfeln<br />

komponiert wurde. Dabei geht e<strong>in</strong><br />

bekanntes Würfelspiel bereits auf W.A.<br />

Mozart zurück, betitelt mit „Anleitung so<br />

viel Walzer o<strong>der</strong> Schleifer mit zwei Würfeln<br />

zu componiren so viel man will ohne<br />

musikalisch zu seyn noch etwas von <strong>der</strong><br />

Composition zu verstehen“. Durch die klare<br />

Form und Rhythmik, sowie meist e<strong>in</strong>fachen<br />

Melodien war es möglich selbst<br />

mit nur 2 Würfeln e<strong>in</strong>en Walzer zu kom-<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

9


Komponieren mit Würfelspiel<br />

ponieren. Dies ist also e<strong>in</strong> direkter Vorfahre<br />

von künstlicher <strong>Musik</strong>erzeugung, wo<br />

durch Zufallsvektoren <strong>Musik</strong> <strong>in</strong> e<strong>in</strong>er bestimmten<br />

Art „komponiert“ werden kann<br />

(Anm.: Das late<strong>in</strong>ische Wort komponieren<br />

bedeutet übersetzt zusammensetzen).<br />

Doch warum hat sich so e<strong>in</strong>e Art des<br />

Komponierens nicht durchgesetzt?<br />

„Es gab schon im 18. Jahrhun<strong>der</strong>t<br />

musikalische Zufallsspiele“<br />

So wie <strong>in</strong> den Würfelspielen ist es auch<br />

für ML-Modelle e<strong>in</strong>fach möglich aus gegebenen<br />

Vorgaben etwas zu „kreieren“.<br />

Weitaus schwieriger ist es allerd<strong>in</strong>gs, die<br />

Weiterentwicklung und Anwendung auf<br />

e<strong>in</strong> neuartiges Problem o<strong>der</strong> auch etwas<br />

S<strong>in</strong>nvolles, komplett Neues zu kreieren.<br />

Die Weiterentwicklung vom Menuett<br />

zum Walzer hätte wohl nicht stattgefunden,<br />

wenn immer nur die „Menuettwürfel“<br />

geworfen worden wären. Für solche<br />

Weiterentwicklungen spielt auch <strong>der</strong><br />

gesamtgesellschaftliche Kontext e<strong>in</strong>e<br />

große Bedeutung bzw. können auch<br />

Weiterentwicklungen <strong>in</strong> an<strong>der</strong>en Bereichen,<br />

wie zum Beispiel Tanz, ausschlaggebend<br />

se<strong>in</strong>. ML liefert uns dah<strong>in</strong>gehend<br />

mehr Möglichkeiten als Würfelpaare,<br />

jedoch s<strong>in</strong>d - zum<strong>in</strong>dest im Moment -<br />

diese auch noch sehr beschränkt. Im<br />

nächsten Absatz werde ich die S<strong>in</strong>nfrage<br />

menschlicher Kompositionen reflektieren<br />

und argumentiere, warum ich abseits<br />

von technischen E<strong>in</strong>schränkungen<br />

nicht denke, dass computergenerierte<br />

<strong>Musik</strong> die Notwendigkeit und Nachfrage<br />

von <strong>Musik</strong>, welche von Menschen<br />

komponiert wurde, ersetzen wird. Hierbei<br />

möchte ich aber nochmals betonen,<br />

dass ML <strong>in</strong> <strong>der</strong> Welt <strong>der</strong> <strong>Musik</strong> aber auch<br />

an sehr verschiedenen Stellen s<strong>in</strong>nvollen<br />

E<strong>in</strong>zug halten kann, wie zum Beispiel bei<br />

Digitalisierungsschritten,<br />

Verbesserung<br />

von Notenscanqualität o<strong>der</strong> auch e<strong>in</strong>er<br />

Soundwie<strong>der</strong>gabe für Übungszwecke.<br />

Ich denke, dass wir enorm davon profitieren<br />

können, wenn wir Modelle des ML<br />

so e<strong>in</strong>setzen, dass sie uns als Menschen<br />

bereichern und entlasten. Viele spannende<br />

Bereiche werden hier auch noch erforscht<br />

werden können.<br />

VERLANGEN NACH VERBUN-<br />

DENHEIT – MUSIK BERÜHRT UNS<br />

<strong>Musik</strong> kann viele verschiedene Funktionen<br />

haben. Schon immer gab es<br />

zweckorientierte <strong>Musik</strong>, wie zum Beispiel<br />

Tanzmusik, Kirchenmusik o<strong>der</strong> auch Ritualmusik,<br />

sowie <strong>in</strong> <strong>der</strong> heutigen Zeit<br />

Filmmusik. <strong>Der</strong> Zweck kann dabei etwa<br />

Unterhaltung, Tanzbarkeit, atmosphärische<br />

Gestaltung o<strong>der</strong> auch e<strong>in</strong>e polarisierende<br />

Äußerung se<strong>in</strong> - o<strong>der</strong> auch<br />

Intellektualität, wie es zum Beispiel im<br />

20. Jahrhun<strong>der</strong>t <strong>in</strong> <strong>der</strong> Avantgarde im<br />

Vor<strong>der</strong>grund stand. E<strong>in</strong> Stück <strong>in</strong> e<strong>in</strong>em<br />

gewissen Stil zu komponieren, gehört<br />

zum Handwerk, das jede komponierende<br />

Person <strong>in</strong> e<strong>in</strong>em vertiefenden Studium<br />

lernen wird. Solche Arbeiten würde mit<br />

angepasstem ML sicherlich schneller und<br />

effektiver erledigt werden können. Doch<br />

ist Effizienz auch nicht <strong>der</strong> ausschlaggebende<br />

Wert von <strong>Musik</strong>. <strong>Musik</strong> entspricht<br />

e<strong>in</strong>em tiefen menschlichen Urverlangen:<br />

Dem Verlangen nach Verbundenheit<br />

und Nähe, und zwar zu an<strong>der</strong>en Lebewesen,<br />

nicht zu Masch<strong>in</strong>en. <strong>Musik</strong> vermag<br />

es, Empf<strong>in</strong>dungen und Erlebtes auf e<strong>in</strong>er<br />

zusätzlichen Ebene auszudrücken, wo<br />

unsere verbale Sprache an ihre Grenzen<br />

stößt. Melodien und <strong>der</strong>en Interpretationen<br />

können uns im Zusammenspiel auf<br />

e<strong>in</strong>er an<strong>der</strong>en Ebene sehr tief berühren.<br />

Es ist bekannt, dass Frequenzschw<strong>in</strong>gungen<br />

auch e<strong>in</strong>en <strong>E<strong>in</strong>fluss</strong> auf den menschlichen<br />

Körper haben und sich positiv auf<br />

die Gesundheit auswirken können. Doch<br />

auch abgesehen davon darf nicht vergessen<br />

werden, welch hohen Stellenwert das<br />

Gefühl menschlicher Verbundenheit hat.<br />

Nicht umsonst wirkt sich das geme<strong>in</strong>same<br />

Musizieren, wie etwa Chors<strong>in</strong>gen,<br />

auch <strong>in</strong> Laienensembles sehr positiv auf<br />

die menschliche Psyche aus. E<strong>in</strong>e gute<br />

Komposition vermag es an<strong>der</strong>e Menschen<br />

tief <strong>in</strong> ihrem Inneren anzusprechen<br />

und dies hat für uns e<strong>in</strong>en speziellen<br />

Wert, wenn sie von e<strong>in</strong>em Menschen<br />

kommt. Humanistische Pr<strong>in</strong>zipien <strong>in</strong>tegrieren<br />

Würde, Respekt, persönliche Autonomie<br />

und menschliches Wohlergehen.<br />

10 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

All dies kann durch e<strong>in</strong> neues <strong>Musik</strong>stück<br />

erreicht werden.<br />

Auch <strong>Musik</strong> als Transporteur von gesellschaftskritischem<br />

Denken darf nicht unterschätzt<br />

werden. Hierfür benötigt es<br />

gesellschaftspolitischen und historischen<br />

Kontext. Es können durch sie Zustände<br />

reflektiert und transportiert werden, die<br />

an<strong>der</strong>s nicht zum Ausdruck gebracht<br />

werden konnten. Aber auch hierzu steht<br />

ML nicht im Wi<strong>der</strong>spruch. ML kann, ist<br />

und wird e<strong>in</strong> Teil unserer Gesellschaft se<strong>in</strong>.<br />

Wir müssen uns nur entscheiden und<br />

rechtlich festlegen, wo wir möchten, dass<br />

sie E<strong>in</strong>zug und Platz gew<strong>in</strong>nt, und wo wir<br />

sie e<strong>in</strong>schränken müssen. Zum Beispiel<br />

kann ML als Teil e<strong>in</strong>er Kunst<strong>in</strong>stallation<br />

im Zusammenspiel mit <strong>der</strong> kunstschaffenden<br />

Person e<strong>in</strong>e gesellschaftliche Reflexion<br />

und Ausschöpfung <strong>der</strong> mo<strong>der</strong>nen<br />

Möglichkeiten ermöglichen. Neben dem<br />

<strong>in</strong>novativen Kunstwerk kann es uns auch<br />

helfen zu reflektieren und diskutieren<br />

wieviel Gewicht wir künstlicher „Kreativität“<br />

geben wollen.<br />

Zusammenfassend ist zu sagen, dass sich<br />

durch ML viele wertvolle neue Möglichkeiten<br />

<strong>in</strong> <strong>der</strong> Welt <strong>der</strong> <strong>Musik</strong> erschließen,<br />

wie etwa die Verbesserung von digitalem<br />

<strong>Musik</strong>material (Sound und Noten).<br />

<strong>Der</strong> zwischenmenschliche Wert neuer<br />

<strong>Musik</strong> und Interpretationen ist aber so<br />

ausschlaggebend, dass das komplette<br />

Ersetzen von <strong>Musik</strong>schaffenden durch<br />

Masch<strong>in</strong>en e<strong>in</strong>e Themenverfehlung darstellen<br />

würde und den Ansprüchen <strong>der</strong><br />

menschlichen Weiterentwicklung wi<strong>der</strong>spräche.<br />

Und schlussendlich dürfen wir<br />

nicht vergessen, dass h<strong>in</strong>ter je<strong>der</strong> automatisierten<br />

<strong>Musik</strong>schaffung zuerst e<strong>in</strong><br />

Mensch steht und wir uns als Gesellschaft<br />

genaue Regulierungen überlegen und<br />

gesetzlich verankern müssen.<br />

Anna Breger mit e<strong>in</strong>er Nyckelharpa (c) Privatbesitz<br />

Anna Breger<br />

ist sowohl Expert<strong>in</strong><br />

im Bereich des Data<br />

Science als auch <strong>in</strong><br />

<strong>der</strong> <strong>Musik</strong>. Im Ersteren<br />

spezialisiert sie<br />

sich auf Anwendungen mit Bilddaten,<br />

<strong>der</strong>zeit als Senior PostDoc Forscher<strong>in</strong><br />

an <strong>der</strong> Universität Cambridge sowie<br />

als Leiter<strong>in</strong> e<strong>in</strong>es FWF-Forschungsprojektes<br />

an <strong>der</strong> Mediz<strong>in</strong>ischen<br />

Universität Wien. <strong>Musik</strong>alisch tritt<br />

sie <strong>in</strong>ternational mit verschiedenen<br />

Ensemble-Formationen auf, <strong>in</strong>sbeson<strong>der</strong>e<br />

mit Barockgeige und traditioneller<br />

<strong>Musik</strong> auf dem schwedischen<br />

Instrument Nyckelharpa.<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

11


Man-Mach<strong>in</strong>e Music / Ali Nikrang, Cori 0´Lan, F.X. frenzel Quartett (c) Florian Voggene<strong>der</strong><br />

KI br<strong>in</strong>g völlig neue Möglichkeiten <strong>Musik</strong>, Bild und Text zu verb<strong>in</strong>den<br />

Interview mit Ali Nikrang geführt von Ir<strong>in</strong>a Scheitz<br />

KI ist wie e<strong>in</strong> Instrument<br />

Ali Nikrang ist Key Researcher & Artist<br />

im Ars Electronica Futurelab. Se<strong>in</strong>e Forschungstätigkeit<br />

umfasst die Interaktion<br />

Mensch – KI sowie KI und <strong>Musik</strong>. Als<br />

Experte auf dem Gebiet <strong>der</strong> Creative Intelligence<br />

wurde se<strong>in</strong>e Arbeit weltweit<br />

bei Konferenzen und Ausstellungen<br />

vorgestellt.<br />

Ir<strong>in</strong>a Scheitz, <strong>OCG</strong>: Sie haben e<strong>in</strong>e sehr<br />

bee<strong>in</strong>druckende Karriere als Forscher,<br />

Informatiker, <strong>Musik</strong>er und Komponist.<br />

Wie ist es dazu gekommen und wie verb<strong>in</strong>den<br />

Sie diese Diszipl<strong>in</strong>en?<br />

Ali Nikrang: Ich habe mit <strong>der</strong> <strong>Musik</strong> angefangen.<br />

Es hat mich allerd<strong>in</strong>gs immer<br />

<strong>in</strong>teressiert, wie man <strong>Musik</strong> mit formalen<br />

Wissenschaften verb<strong>in</strong>den kann. Wir<br />

haben ja nicht so viele Noten <strong>in</strong> e<strong>in</strong>er tonalen<br />

Skala, dennoch br<strong>in</strong>gen die Komb<strong>in</strong>ationen<br />

dieser Noten ganz unterschiedliche<br />

Gefühle <strong>in</strong> uns hervor. Da denkt<br />

man sich, es muss doch irgende<strong>in</strong>e formale<br />

Theorie dah<strong>in</strong>ter se<strong>in</strong>.<br />

Wir wissen sehr wenig darüber,<br />

was <strong>Musik</strong> ausmacht und<br />

<strong>in</strong>wieweit sie formalisierbar ist.<br />

Mit Hilfe von KI kann man nicht nur <strong>Musik</strong><br />

komponieren, son<strong>der</strong>n vielleicht auch<br />

etwas darüber erfahren, was <strong>Musik</strong> ausmacht.<br />

Wenn e<strong>in</strong>e Masch<strong>in</strong>e im Stande<br />

ist, selbständig von <strong>der</strong> <strong>Musik</strong> die Eigenschaften<br />

herauszufiltern, die sie befähigt,<br />

<strong>Musik</strong> zu komponieren, müsste sie<br />

ja etwas Essentielles über die <strong>Musik</strong> verstanden<br />

haben. Das könnte auch für die<br />

Menschen <strong>in</strong>teressant se<strong>in</strong>. Dazu ist es<br />

aber lei<strong>der</strong> bis heute nicht gekommen,<br />

wir wissen sehr wenig darüber, was <strong>Musik</strong><br />

ausmacht und <strong>in</strong>wieweit sie formalisierbar<br />

ist. Aber dafür ist <strong>der</strong> Stand <strong>der</strong><br />

Technik mittlerweile so, dass sie menschliche<br />

Qualitäten wie Kreativität und Sprache<br />

simulieren kann. Es gibt Systeme, die<br />

sogar zwischen den Zeilen lesen können<br />

und auch übergreifendes Verständnis haben.<br />

Obwohl wir als Menschen ke<strong>in</strong>e Theorie<br />

bzw. ke<strong>in</strong>e Vorstellung haben, wie die<br />

<strong>Musik</strong> funktioniert und warum die <strong>Musik</strong><br />

funktioniert, können Masch<strong>in</strong>en nun <strong>Musik</strong><br />

komponieren. Daher hat die KI offenbar<br />

verstanden, was sie tun muss, damit<br />

wir ihre Kompositionen als <strong>Musik</strong> wahrnehmen.<br />

KI lernt und mich <strong>in</strong>teressiert,<br />

was sie gelernt hat, damit sie diese Fähig-<br />

12 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

keit erwerben konnte.<br />

Was genau ist Ihr Forschungsbereich?<br />

Ich komme e<strong>in</strong>erseits aus dem Bereich<br />

Computer Science und an<strong>der</strong>erseits aus<br />

<strong>der</strong> klassischen <strong>Musik</strong>. In me<strong>in</strong>er Tätigkeit<br />

geht es hauptsächlich um zwei Bereiche:<br />

Es geht e<strong>in</strong>mal um die technische Entwicklung<br />

e<strong>in</strong>er KI, die so gut wie möglich<br />

<strong>Musik</strong> komponieren kann, d. h., dass sie<br />

<strong>Musik</strong> <strong>in</strong> dem S<strong>in</strong>ne verstehen kann, dass<br />

sie menschliche <strong>Musik</strong> imitieren kann.<br />

Und dann geht es auch um die Frage:<br />

Wie können wir das Potential dieser Technologie<br />

künstlerisch e<strong>in</strong>setzen?<br />

Das spannende ist, dass dieser Forschungsbereich<br />

zwei verschiedene<br />

Communities <strong>in</strong>volviert, die sonst eher<br />

nicht zusammenkommen: Die Techniker*<strong>in</strong>nen<br />

und die Künstler*<strong>in</strong>nen. Die<br />

Techniker*<strong>in</strong>nen <strong>in</strong>teressiert, wie die<br />

Technologie h<strong>in</strong>ter <strong>der</strong> KI verbessert<br />

werden kann und <strong>in</strong> den künstlerischen<br />

Projekten versuchen wir herauszuf<strong>in</strong>den,<br />

was die Anfor<strong>der</strong>ungen s<strong>in</strong>d, die von <strong>der</strong><br />

Kunst-Community kommen. Wie kann<br />

sich die KI entwickeln, dass sie e<strong>in</strong>en<br />

Mehrwert für diese Community hat?<br />

Welche Rolle kommt den Künstler*<strong>in</strong>nen<br />

zu, wenn die Technik sozusagen ihre Arbeit<br />

übernimmt?<br />

E<strong>in</strong>e Technik, die ohne menschliches<br />

Zutun e<strong>in</strong> <strong>Musik</strong>stück komponiert, ist<br />

vollkommen un<strong>in</strong>teressant für die Kunst<br />

Community und auch für die Gesellschaft<br />

würde ich sagen, weil Kunst e<strong>in</strong> soziales<br />

Phänomen ist.<br />

Es geht also um die künstlerische Rolle<br />

des Menschen. Technisch gesehen, ist<br />

es vielleicht <strong>in</strong>teressant, wenn die KI mit<br />

e<strong>in</strong>em Knopfdruck autonom etwas komponiert,<br />

aber künstlerisch ist das nicht<br />

zielführend. Künstlerisch brauchen wir<br />

Wege, wie man mit so e<strong>in</strong>em System<br />

kommuniziert und kollaboriert. In <strong>der</strong><br />

Kunst geht es um die <strong>in</strong>dividuellen Konzepte,<br />

die <strong>der</strong> Mensch mit <strong>der</strong> Masch<strong>in</strong>e<br />

realisiert.<br />

Wird KI von Künstler*<strong>in</strong>nen als Bedrohung<br />

o<strong>der</strong> als Bereicherung wahrgenommen?<br />

Es gibt beides: Leute, die das sehr positiv<br />

sehen und solche, die das sehr skeptisch<br />

sehen. Den Skeptischen möchte ich mit<br />

me<strong>in</strong>er Arbeit vor Augen führen, dass<br />

technologische Erneuerungen noch nie<br />

<strong>der</strong> Kunst geschadet haben, im Gegenteil,<br />

technologische Neuerungen, wie<br />

z. B. neue Instrumente, haben immer zu<br />

e<strong>in</strong>em Push <strong>in</strong> <strong>der</strong> Kunst geführt, auch zu<br />

neuen künstlerischen Möglichkeiten und<br />

Jobs. In <strong>der</strong> jüngeren Geschichte haben<br />

wir zum Beispiel die elektronische und<br />

die digitale <strong>Musik</strong>, da kamen gänzlich<br />

neue Formate, neue Berufsfel<strong>der</strong>, neue<br />

Verbreitungsmöglichkeiten h<strong>in</strong>zu.<br />

Mit KI haben wir neue Möglichkeiten<br />

Bild, Text und <strong>Musik</strong> mite<strong>in</strong>an<strong>der</strong><br />

zu verb<strong>in</strong>den.<br />

KI hat dieses Potenzial auch. Auf den ersten<br />

Blick könnte man me<strong>in</strong>en, dass KI<br />

Jobs ersetzen wird – das mag auch für<br />

manche Bereiche stimmen – aber gleichzeitig<br />

wird sie völlig neue künstlerische<br />

Formate ermöglichen, die zu neuen Tätigkeiten<br />

und Jobs führen werden. Die KI<br />

<strong>der</strong> Zukunft ist <strong>in</strong> diesem Bereich multimodal.<br />

Mit KI haben wir beispielsweise<br />

neue Möglichkeiten Bild, Text und <strong>Musik</strong><br />

mite<strong>in</strong>an<strong>der</strong> zu verb<strong>in</strong>den. Es können<br />

völlig neue immersive Welten entstehen,<br />

wie man <strong>Musik</strong> wahrnimmt.<br />

Glauben Sie, dass KI <strong>in</strong> <strong>der</strong> Lage ist, Emotionen<br />

zu kreieren?<br />

Ja, auf jeden Fall, weil die KI ja mit sehr<br />

vielen Daten tra<strong>in</strong>iert wird und mittelweile<br />

im Stande ist diese Daten <strong>in</strong> e<strong>in</strong>er<br />

guten Qualität zu imitieren. Die Frage ist<br />

eher, wie steuert <strong>der</strong>*die Künstler*<strong>in</strong> die<br />

KI, und kommuniziert se<strong>in</strong>e*ihre künstlerischen<br />

Absichten mit <strong>der</strong> KI.<br />

Im Bereich von Text- o<strong>der</strong> Bild-Generierung<br />

gibt es bereits ausgereifte KI-Modelle,<br />

wo man mit Hilfe <strong>der</strong> natürlichen<br />

Sprache mit dem System kommunizieren<br />

kann. Ich kann sagen „Male mir e<strong>in</strong><br />

Bild, das diese Atmosphäre be<strong>in</strong>haltet“<br />

und ich kann das System dorth<strong>in</strong> führen,<br />

wo me<strong>in</strong>e künstlerischen Absichten s<strong>in</strong>d.<br />

In <strong>der</strong> <strong>Musik</strong> s<strong>in</strong>d wir noch nicht ganz so<br />

weit.<br />

Woran liegt das?<br />

Das hat damit zu tun, dass man über <strong>Musik</strong><br />

verbal nicht so gut kommunizieren<br />

kann. Wir glauben, wir empf<strong>in</strong>den dasselbe,<br />

aber es ist höchst <strong>in</strong>dividuell, wie<br />

wir <strong>Musik</strong> wahrnehmen. Im Gegensatz zu<br />

Text- und Bild-Generierung können wir<br />

hier nicht die natürliche Sprache benutzen,<br />

da müssen an<strong>der</strong>e genauere Wege<br />

gefunden werden. Ich glaube, die Entwicklung<br />

muss dah<strong>in</strong>führen, dass die KI<br />

entsprechend flexibel auf die <strong>in</strong>dividuellen<br />

Konzepte reagiert, damit jede Person<br />

<strong>in</strong> <strong>der</strong> Arbeit mit <strong>der</strong> KI jene Ergebnisse<br />

bekommt, die ihren künstlerischen Absichten<br />

entspricht. Das mag e<strong>in</strong>fach kl<strong>in</strong>gen,<br />

aber das s<strong>in</strong>d Probleme, die noch<br />

nicht gelöst s<strong>in</strong>d.<br />

Es gibt auch Sorgen bezüglich Urheberrechts.<br />

Gibt es technische Möglichkeiten,<br />

um zu erkennen, ob etwas von <strong>der</strong> KI<br />

gemacht wurde o<strong>der</strong> vom Menschen?<br />

O<strong>der</strong> wird so etwas <strong>in</strong> <strong>der</strong> Zukunft möglich<br />

se<strong>in</strong>?<br />

Bei den alten Systemen g<strong>in</strong>g das noch<br />

eher, weil KI generierte Ergebnisse öfter<br />

e<strong>in</strong>e gewisse Charakteristik hatten. Aber<br />

pr<strong>in</strong>zipiell, ne<strong>in</strong>, das ist langfristig nicht<br />

möglich, denn die KI entwickelt sich ja<br />

weiter und auch wenn da technische<br />

Möglichkeiten gefunden werden sollten,<br />

um zu erkennen, ob etwas mit <strong>der</strong> KI gemacht<br />

ist, so kann e<strong>in</strong>e an<strong>der</strong>e KI lernen,<br />

das Ergebnis so gestalten, dass das nicht<br />

erkannt werden kann.<br />

Ist es überhaupt wichtig, dass man den<br />

Unterschied erkennt?<br />

Ob das notwendig ist, ist e<strong>in</strong>e an<strong>der</strong>e<br />

Frage. Da gibt es gerade e<strong>in</strong>e sehr große<br />

Diskussion darüber. Welcher <strong>E<strong>in</strong>fluss</strong> des<br />

Menschen reicht aus, damit <strong>der</strong> Mensch<br />

als Urheber gilt und das Werk urheberrechtlich<br />

geschützt werden kann. Es gibt<br />

beispielsweise Künstler*<strong>in</strong>nen, die ihre<br />

Bil<strong>der</strong> sehr aufwändig mit KI erstellen<br />

und lange an ihren Prompts (KI-E<strong>in</strong>gaben)<br />

feilen, damit das gewünschte künstlerische<br />

Ergebnis herauskommt. Da stellt<br />

sich aber die Frage, was e<strong>in</strong> Kunstwerk<br />

ausmacht. Wie kann man den Input des<br />

Menschen bestimmten.<br />

S<strong>in</strong>d Sie <strong>in</strong> Ihrer Arbeit mit rechtlichen<br />

Problemen konfrontiert?<br />

Nachdem ich mich mit Grundlagenforschung<br />

beschäftige – und bei mir geht‘s<br />

nur um die klassischen <strong>Musik</strong>werke, die<br />

eben nicht mehr geschützt s<strong>in</strong>d – habe<br />

ich dieses Problem nicht im selben Ausmaß<br />

wie <strong>in</strong> an<strong>der</strong>en Bereichen <strong>der</strong> kreativen<br />

KI. Aber natürlich beschäftigt diese<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

13


Frage die Community. Vor allem geht<br />

es auch um die rechtliche Frage, <strong>in</strong>wieweit<br />

KI-generierte Ergebnisse selbst geschützt<br />

werden können. Ich glaube es<br />

ist wichtig zu erklären, wie die KI funktioniert<br />

und woher die Kreativität am Ende<br />

des Tages kommt, um hier Antworten zu<br />

f<strong>in</strong>den.<br />

Wie kann <strong>der</strong> Beitrag <strong>der</strong> Künstler*<strong>in</strong>nen<br />

gemessen werden?<br />

Es geht hauptsächlich um den Beitrag<br />

des Menschen. Ich kenne Künstler*<strong>in</strong>nen,<br />

die genauso lange brauchen mit<br />

<strong>der</strong> KI e<strong>in</strong> Werk zu erschaffen wie ohne<br />

die KI. Es geht also nicht immer darum,<br />

mit KI schneller und produktiver zu se<strong>in</strong>.<br />

Sie müssen mit <strong>der</strong> KI fast „verhandeln“,<br />

um sie Schritt für Schritt anzuleiten, damit<br />

am Ende das künstlerische Ergebnis<br />

herauskommt, das sie sich vorgestellt<br />

haben. Es stimmt also auch nicht unbed<strong>in</strong>gt,<br />

dass die künstlerische Arbeit mit KI<br />

e<strong>in</strong>facher wäre. Es hängt davon ab, was<br />

man vorhat. Natürlich ist es für mich e<strong>in</strong><br />

unvorstellbarer Gedanke, dass diese Werke,<br />

wo Künstler*<strong>in</strong>nen so <strong>in</strong>tensiv mit <strong>der</strong><br />

KI kooperiert und gearbeitet haben, nicht<br />

vollständig geschützt werden sollen, weil<br />

die Daten, die das Werk repräsentieren,<br />

teilweise von e<strong>in</strong>er KI generiert s<strong>in</strong>d.<br />

Im rechtlichen Bereich s<strong>in</strong>d also noch<br />

viele Fragen offen.<br />

Ja, deshalb möchte ich auch betonen, ich<br />

b<strong>in</strong> we<strong>der</strong> pro noch kontra. Ich versuche<br />

nur, e<strong>in</strong>ige Fragen, die beantwortet werden<br />

müssen, zu beschreiben.<br />

Welche konkreten Anwendungen von<br />

Künstlicher <strong>Intelligenz</strong> sehen Sie <strong>in</strong> <strong>der</strong><br />

<strong>Musik</strong><strong>in</strong>dustrie?<br />

KI ist so etwas wie e<strong>in</strong> Instrument, ähnlich<br />

wie das Klavier. Man kann damit sehr<br />

schnell e<strong>in</strong>en ersten Zugang zu etwas wie<br />

<strong>Musik</strong> haben und die ersten Melodien damit<br />

spielen. Es gibt aber auch Leute, die<br />

sich e<strong>in</strong> Leben lang damit beschäftigen.<br />

Die Komposition ist nur e<strong>in</strong>e Möglichkeit,<br />

wie man KI e<strong>in</strong>setzen kann. Was ich persönlich<br />

<strong>in</strong>teressant f<strong>in</strong>de, ist die die Tatsache,<br />

dass die KI-Systeme nicht nur mit<br />

den Menschen, son<strong>der</strong>n auch untere<strong>in</strong>an<strong>der</strong><br />

kommunizieren können. Das eröffnet<br />

ganz neue Formate für die künstlerischen<br />

Prozesse, wo man beispielsweise<br />

verschiedene Systeme aus verschiedenen<br />

Datenbereichen wie Bild, <strong>Musik</strong>, Text,<br />

virtuelle Welten, Gesten, <strong>in</strong> e<strong>in</strong>er künstlerischen<br />

Umgebung <strong>in</strong>teragieren lässt.<br />

KI ist so etwas wie e<strong>in</strong> Instrument.<br />

Das eröffnet ganz neue<br />

Formate für die künstlerischen<br />

Prozesse.<br />

Wie wird das die <strong>Musik</strong>, die wir hören,<br />

verän<strong>der</strong>n?<br />

Heute denken wir beispielsweise an e<strong>in</strong>e<br />

Komposition als e<strong>in</strong> <strong>in</strong> sich abgeschlossenes<br />

Stück, das e<strong>in</strong>en festgesetzten Verlauf<br />

hat. Mit <strong>der</strong> KI könnten diese Grenzen<br />

aufbrechen. Man wird verschiedene Elemente<br />

e<strong>in</strong>er Komposition, also z. B. den<br />

Inside Futurelab: Ali Nikrang beleuchtet das kreative Potenzial von Algorithmen auf. „ What A Ghost Dreams Of“ ist e<strong>in</strong>e KI, die aus Bil<strong>der</strong>n von Museumsbesuchern<br />

tiefe Fälschungen erzeugt, die von echten Porträts nicht zu unterscheiden s<strong>in</strong>d. (c) Denise Hirtenfel<strong>der</strong><br />

14 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

musikalischen Verlauf, die Gesangsstimme<br />

o<strong>der</strong> die Instrumente austauschen<br />

können und auch die Stimmung <strong>der</strong><br />

Komposition wird man variieren können.<br />

E<strong>in</strong>e Komposition kann <strong>in</strong> unendlich vielen<br />

Varianten personalisiert und konsumiert<br />

werden. Aufgrund unserer jeweiligen<br />

Vorlieben wird dieselbe Komposition<br />

für Sie an<strong>der</strong>s kl<strong>in</strong>gen als für mich.<br />

Die Aufgabe von Komponist*<strong>in</strong>nen <strong>der</strong><br />

Zukunft wird wahrsche<strong>in</strong>lich nicht nur<br />

se<strong>in</strong>, e<strong>in</strong> Stück als solches zu veröffentlichen.<br />

Es wird eher so se<strong>in</strong>, dass man<br />

e<strong>in</strong>en dynamischen Raum von Charakteristika<br />

kreiert und das kann dann <strong>in</strong>dividualisiert<br />

konsumiert werden.<br />

Mit welchen Programmen arbeiten Sie,<br />

s<strong>in</strong>d das öffentliche Programme?<br />

Ich arbeite an e<strong>in</strong>em eigenen Programm<br />

namens Ricercar. Hier geht es e<strong>in</strong>mal<br />

um die technische Entwicklung, aber<br />

auch um die verschiedenen <strong>in</strong>dividuellen<br />

künstlerischen Ansatzmöglichkeiten,<br />

die ich geme<strong>in</strong>sam mit Künstler*<strong>in</strong>nen<br />

anhand verschiedener Projekte zu evaluieren<br />

versuche. Man kann sich e<strong>in</strong>e Version<br />

dieser Software aktuell <strong>in</strong> L<strong>in</strong>z im Ars<br />

Electronica Center anschauen.<br />

Gibt es e<strong>in</strong>en beson<strong>der</strong>en Rat o<strong>der</strong> haben<br />

Sie e<strong>in</strong> Anliegen, das Sie uns <strong>in</strong> Bezug<br />

zu KI und <strong>Musik</strong> noch mitgeben<br />

möchten?<br />

Wir leben <strong>in</strong> e<strong>in</strong>er sehr <strong>in</strong>teressanten Zeit,<br />

denn es ist wirklich das erste Mal, dass<br />

Masch<strong>in</strong>en o<strong>der</strong> Technologien im Stande<br />

s<strong>in</strong>d, zutiefst menschliche Eigenschaften<br />

zu imitieren, wie eben Sprache und <strong>Musik</strong>.<br />

Das br<strong>in</strong>gt verschiedene Communities<br />

zusammen. Gerade solche, wo es früher<br />

e<strong>in</strong>e große Kluft gab. Wenn man sich z. B.<br />

als Künstler*<strong>in</strong> mit KI beschäftigt, braucht<br />

man e<strong>in</strong> Grundverständnis davon, wie sie<br />

funktioniert. Genauso wenn man sich als<br />

KI-Entwickler*<strong>in</strong> mit kreativen Anwendungen<br />

<strong>der</strong> KI beschäftigt, braucht man<br />

e<strong>in</strong>en Grundverständnis wie die künstlerischen<br />

Prozesse verlaufen und wo die<br />

Anfor<strong>der</strong>ungen liegen. Ich möchte Menschen<br />

aus verschiedenen Communities<br />

ermutigen, zusammenzukommen und<br />

geme<strong>in</strong>sam diese Entwicklung mitzugestalten.<br />

Vielen Dank für das Gespräch!<br />

Inside Futurelab: Mit se<strong>in</strong>em KI-basierten <strong>Musik</strong>kompositionssystem Ricercar, <strong>der</strong> MuseNet-Komposition Mahler Unf<strong>in</strong>ished und Sound<strong>in</strong>g<br />

Letters, zeigt Ali Nikrang, dass es immer noch die menschliche Kreativität ist, die analoge von digital erzeugten Werken unterscheidet.<br />

(c) Denise Hirtenfel<strong>der</strong><br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

15


KI und Technik - <strong>der</strong> komplexe Prozess des Musizierens<br />

von Alexan<strong>der</strong> Mayer, Montserrat Pámies-Vilá, und Vasileios Chatziioannou<br />

E<strong>in</strong> Roboterarm spielt Cello<br />

Im Zuge zweier Projekte, die wir am Institut<br />

für musikalische Akustik – Wiener<br />

Klangstil (IWK) durchführen, wird die<br />

Tonerzeugung beim Cellospielen erforscht.<br />

Dabei werden Bewegungsabläufe<br />

von professionellen Cellist*<strong>in</strong>nen<br />

beim Musizieren mittels Motion-Capture<br />

aufgezeichnet und analysiert. E<strong>in</strong><br />

Industrieroboterarm übernimmt dann<br />

die Aufgabe, diese Aufnahmen wie<strong>der</strong>zugeben<br />

– im Gegensatz zum Menschen<br />

jedoch höchst reproduzierbar und ohne<br />

e<strong>in</strong>e subjektive Me<strong>in</strong>ung zu dem Instrument<br />

o<strong>der</strong> Bogen. In diesem Artikel<br />

wollen wir das vorhandene System kurz<br />

vorstellen und die logischen nächsten<br />

Schritte ausführlich behandeln, denn,<br />

mithilfe <strong>der</strong> vorhandenen Technik und<br />

Künstliche <strong>Intelligenz</strong>, könnte die Aufgabe<br />

des künstlichen Musizierens am<br />

Cello auch auf hohem Niveau gel<strong>in</strong>gen.<br />

Gleichzeitig erhoffen wir aber auch dadurch<br />

die Kunst <strong>der</strong> Bogenführung besser<br />

zu verstehen.<br />

Trotz <strong>in</strong>tensiver Forschung auf dem Gebiet<br />

<strong>der</strong> Akustik von <strong>Musik</strong><strong>in</strong>strumenten<br />

ist es bis heute äußerst schwierig, allgeme<strong>in</strong>gültige<br />

qualitative o<strong>der</strong> objektive<br />

Bewertungen <strong>der</strong> Klangeigenschaften<br />

von <strong>Musik</strong><strong>in</strong>strumenten und <strong>der</strong> wahrgenommenen<br />

Qualität von <strong>Musik</strong><strong>in</strong>strumenten<br />

vorzunehmen. Unser <strong>in</strong>dividuelles<br />

Klangempf<strong>in</strong>den ist oft nicht nur<br />

personenabhängig, son<strong>der</strong>n kann auch<br />

von äußeren E<strong>in</strong>flüssen abhängen. Auch<br />

bei <strong>der</strong> Spieltechnik zeigen sich deutliche<br />

Unterschiede <strong>in</strong> Abhängigkeit von <strong>der</strong><br />

Person und den äußeren Umständen.<br />

Zusätzlich kann das <strong>Musik</strong><strong>in</strong>strument<br />

aufgrund se<strong>in</strong>er nichtklanglichen Eigenschaften<br />

auch <strong>E<strong>in</strong>fluss</strong> auf den/die <strong>Musik</strong>er*<strong>in</strong><br />

und damit <strong>in</strong>direkt auf den Klang<br />

ausüben. Mit e<strong>in</strong>er künstlichen Anregung<br />

kann jedoch nicht nur e<strong>in</strong>e objektive,<br />

son<strong>der</strong>n auch e<strong>in</strong>e reproduzierbare Anregung<br />

erreicht werden.<br />

In den „Doksari“-Projekten (griechisch<br />

für „Bogen“) am Institut für musikalische<br />

Akustik – Wiener Klangstil (IWK) geht<br />

es unter an<strong>der</strong>em darum, spieltechnische<br />

Aspekte durch Messungen besser<br />

zu verstehen, aber auch mathematisch<br />

beschreiben zu können. Dadurch sollen<br />

Computermodelle erweitert und die Zusammenhänge<br />

zwischen Spieltechnik<br />

und Klangerzeugung beim Cellospiel<br />

besser verstanden werden. Das Zusammenspiel<br />

von Bogen und Saite ist seit<br />

Jahren Gegenstand <strong>der</strong> Forschung und<br />

wird auch <strong>in</strong> Zukunft viele Fragen aufwerfen.<br />

DAS DOKSARI- SYSTEM<br />

Seit langem werden verschiedenste Apparate<br />

zur künstlichen Anregung von<br />

Streich<strong>in</strong>strumenten verwendet. Zum<br />

e<strong>in</strong>en gab es z. B. den Piano-Geige-Automaten<br />

<strong>der</strong> Firma Hupfeld, <strong>der</strong> bereits um<br />

1907 mit Hilfe von perforierten Papierrollen<br />

<strong>Musik</strong> abspielte, o<strong>der</strong> Masch<strong>in</strong>en, die<br />

zu re<strong>in</strong>en Forschungszwecken gebaut<br />

wurden [1,2]. Bei vielen Masch<strong>in</strong>en erfolgt<br />

die Anregung jedoch <strong>in</strong> <strong>der</strong> Regel über<br />

e<strong>in</strong>en speziell konstruierten Bogen <strong>in</strong><br />

Form e<strong>in</strong>es R<strong>in</strong>gs o<strong>der</strong> über Rä<strong>der</strong>, ähnlich<br />

wie bei e<strong>in</strong>er Drehleier. Die meisten<br />

Geräte, die mit e<strong>in</strong>em Standardbogen<br />

ausgestattet s<strong>in</strong>d, führen <strong>in</strong> <strong>der</strong> Regel<br />

re<strong>in</strong> geradl<strong>in</strong>ige Bewegungen aus. Zwar<br />

kann die Bogengeschw<strong>in</strong>digkeit und<br />

<strong>der</strong> Anpressdruck variiert werden, jedoch<br />

ist es nicht möglich, die Fe<strong>in</strong>heiten <strong>der</strong><br />

menschlichen Spielgestik zu imitieren.<br />

E<strong>in</strong>e Idee h<strong>in</strong>ter unseren Projekten war<br />

jedoch, auch die menschliche Bogenführung<br />

genauer zu untersuchen und zu sehen,<br />

wie und ob sie die Klangerzeugung<br />

bee<strong>in</strong>flusst (siehe Abbildung 1).<br />

Abbildung 1: Menschliche Bogenführungen<br />

für die vier offenen Saiten, aufgenommen mit<br />

e<strong>in</strong>em Motion-Capture System, rot markiert<br />

stellt das Vektormodell des Cellos dar, <strong>der</strong><br />

Punkt S gibt die Position des Steges an. C2, G2,<br />

D3 und A3 s<strong>in</strong>d die Töne <strong>der</strong> jeweils angeregten<br />

(offenen) Saiten<br />

Um das Cello möglichst realistisch anzuregen,<br />

muss <strong>der</strong> Bogen daher frei <strong>in</strong><br />

drei Raumdimensionen bewegt werden<br />

können. Die Bogenführung <strong>der</strong><br />

menschlichen Spieler*<strong>in</strong>nen wird mit<br />

e<strong>in</strong>em Motion-Capture-System (MoCap)<br />

aufgenommen. 12 Kameras senden 240<br />

Mal pro Sekunde dreidimensionale Koord<strong>in</strong>atendaten<br />

von Mensch, Bogen und<br />

Instrument an den Computer. In e<strong>in</strong>em<br />

weiteren Schritt werden diese Daten <strong>in</strong><br />

Roboterbefehle umgesetzt und <strong>in</strong> weiterer<br />

Folge an e<strong>in</strong>en Roboterarm mit 6 Freiheitsgraden<br />

(6 Gelenken) gesendet. <strong>Der</strong>zeit<br />

werden alle Untersuchungen ohne<br />

Greifhand - also „offen gespielt“ - durchgeführt.<br />

Da sich das Instrument während<br />

<strong>der</strong> Anregung durch den Roboter nicht<br />

bewegen darf, wird es <strong>in</strong> e<strong>in</strong>er Halterung<br />

16 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

Abildung 2: Von <strong>der</strong> menschlichen Bewegung (A) über Motion-Capture (B) zur Roboterarm-Bewegung (C)<br />

fixiert (siehe Abbildung 2).<br />

Unser <strong>der</strong>zeitiges System ist <strong>in</strong> <strong>der</strong> Lage,<br />

den „echten“ Bewegungsablauf des Cellobogens<br />

mit hoher Genauigkeit abzubilden.<br />

Die hohe Reproduzierbarkeit <strong>der</strong><br />

Bogenbewegung konnte durch e<strong>in</strong>e<br />

erneute MoCap-Aufnahme nachgewiesen<br />

werden. Die erzeugten Töne haben<br />

zwar das gleiche Tim<strong>in</strong>g und die gleiche<br />

Tonhöhe, aber <strong>der</strong> Klang ist nicht identisch<br />

mit dem von Menschen erzeugten<br />

Orig<strong>in</strong>al. Kle<strong>in</strong>ste Än<strong>der</strong>ungen <strong>der</strong> Bogenspannung<br />

(z. B. durch Luftfeuchtigkeitsän<strong>der</strong>ungen)<br />

o<strong>der</strong> <strong>der</strong> Saitenlage,<br />

aber auch die Genauigkeitsgrenzen des<br />

Systems können zu e<strong>in</strong>er leicht verän<strong>der</strong>ten<br />

Bogenführung führen. Um dies<br />

auszugleichen, wäre e<strong>in</strong>e automatische<br />

Regelung erfor<strong>der</strong>lich. Hier stellt sich die<br />

Frage, auf welche Parameter geachtet<br />

werden muss und wie <strong>der</strong> Mensch das<br />

eigentlich macht.<br />

DER MUSIZIERENDE MENSCH -<br />

EIN GROSSARTIGER REGELKREIS<br />

Versucht man den Prozess des Musizierens<br />

zu analysieren, wird schnell deutlich,<br />

wie komplex das System ist (z. B. [3]). <strong>Der</strong><br />

E<strong>in</strong>fachheit halber - und auch im H<strong>in</strong>blick<br />

auf unsere Projekte - soll hier nur auf die<br />

Interaktion Mensch-Bogen-Instrument<br />

(Cello) e<strong>in</strong>gegangen werden (siehe Abbildung<br />

3). Äußere <strong>E<strong>in</strong>fluss</strong>faktoren wie<br />

Raum, Orchester, Dirigent, Zuhörer etc.<br />

werden nicht berücksichtigt.<br />

Alle die selbst e<strong>in</strong> <strong>Musik</strong><strong>in</strong>strument erlernt<br />

o<strong>der</strong> versucht hat, e<strong>in</strong> solches zu<br />

spielen, kann bestätigen, dass <strong>der</strong> Vorgang<br />

nicht ganz so e<strong>in</strong>fach ist. Das automatische<br />

und richtige Nachregeln erfor<strong>der</strong>t<br />

Übung und beansprucht unser<br />

Gehirn beim Lernen sehr stark. Damit unser<br />

künstliches System aber lernen kann,<br />

müssen wir es zunächst mit geeigneten<br />

Sensoren ausstatten.<br />

1. Die geschriebenen Noten werden vom Menschen gelesen<br />

2. und <strong>in</strong>terpretiert – e<strong>in</strong>e Klangvorstellung entsteht.<br />

3. Die Hand streicht mit dem Bogen über die Saite.<br />

4. Die E<strong>in</strong>schw<strong>in</strong>gphase<br />

• a) Das Ohr nimmt den vom Instrument<br />

erzeugten Klang wahr,<br />

• b) <strong>der</strong> Körper fühlt die Vibration des<br />

Instruments,<br />

• c) die Reibung des Bogens auf <strong>der</strong> Saite<br />

wird gespürt.<br />

5. Regulierung/Anpassung <strong>der</strong> Kraft und Geschw<strong>in</strong>digkeit des<br />

Bogens<br />

6. <strong>Der</strong> gewünschte o<strong>der</strong> geplante Ton entwickelt sich.<br />

Abbildung 3: Ve<strong>in</strong>fachter Regelkreis Mensch - Instrument (ohne Feedback <strong>der</strong> „Greifhand“)<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

17


Abbildung 4: <strong>Der</strong> erste Prototype e<strong>in</strong>es 3D-gedruckten Steges, <strong>der</strong> mit <strong>in</strong>sgesamt 16 Sensoren ausgestattet ist, um die<br />

verschiedenen Kräfte währen des Spielvorgangs zu messen.<br />

SENSORIK<br />

E<strong>in</strong> Mikrofon kann natürlich als künstliches<br />

Ohr dienen und e<strong>in</strong>e ständige Analyse<br />

des Schalls kann uns e<strong>in</strong>e Rückmeldung<br />

über die Qualität des Klangs geben.<br />

Etwas komplizierter ist es, die Sensorik<br />

<strong>der</strong> menschlichen Hand nachzubilden.<br />

Aus den Forschungsergebnissen zur Bogen-Saiten-Interaktion<br />

(z. B. [4]) ist bereits<br />

klar, dass die Bogengeschw<strong>in</strong>digkeit und<br />

die Anpresskraft sowie die Streichregion<br />

die wichtigsten Parameter darstellen.<br />

Beispielsweise lässt sich durch Variation<br />

<strong>der</strong> Bogengeschw<strong>in</strong>digkeit die Lautstärke<br />

des angeregten Tons kontrollieren.<br />

Die Klangfarbe kann durch den Abstand<br />

des Bogens zum Steg, aber auch durch<br />

die Anpresskraft bee<strong>in</strong>flusst werden. Die<br />

Bogengeschw<strong>in</strong>digkeit und e<strong>in</strong>e relativ<br />

genaue Information über den Abstand<br />

Bogen - Steg können wir aus den MoCap<br />

Daten entnehmen – vorerst unbekannt<br />

bleibt also die Kraft. Im Gegensatz zu Robotern<br />

lassen sich bei <strong>der</strong> Hand des Menschen<br />

die ausgeübten Kräfte nicht so e<strong>in</strong>fach<br />

messen. Deshalb rüsten wir e<strong>in</strong> Cello<br />

mit e<strong>in</strong>em speziell entwickelten Sensorsteg<br />

aus (siehe Abbildung 4). Dies hat<br />

den Vorteil, dass wir die beiden Streichvorgänge<br />

von Mensch und Masch<strong>in</strong>e direkt<br />

mite<strong>in</strong>an<strong>der</strong> vergleichen können.<br />

WARUM WIR KÜNSTLICHE<br />

INTELLIGENZ EINSET-<br />

ZEN WOLLEN<br />

In <strong>der</strong> klassischen Regelungstechnik wird<br />

e<strong>in</strong>e Regelstrecke analysiert, die sogenannten<br />

Systemeigenschaften ermittelt.<br />

Auf Basis e<strong>in</strong>es mathematischen Modells<br />

wird e<strong>in</strong> geeigneter Regler entworfen.<br />

Dieser Regelkreis muss <strong>in</strong> <strong>der</strong> Lage se<strong>in</strong>,<br />

z. B. auf e<strong>in</strong>e Än<strong>der</strong>ung des Ist-Zustandes<br />

ausreichend schnell und stabil zu reagieren.<br />

Beim Streichen des Cellos mit dem<br />

Bogen ist lei<strong>der</strong> ke<strong>in</strong>e e<strong>in</strong>deutige Systemantwort<br />

zu erwarten, die Regelstrecke<br />

selbst ist sehr komplex und nichtl<strong>in</strong>ear.<br />

Auch ohne dass, wie beim Spielen üblich,<br />

die gespielte Saite ständig <strong>in</strong> ihrer Länge<br />

verän<strong>der</strong>t wird, än<strong>der</strong>n sich ständig<br />

die Regelzustände und Parameter. E<strong>in</strong><br />

E<strong>in</strong>greifen <strong>der</strong> klassischen Regelungstechnik<br />

wäre nur <strong>in</strong> begrenztem Umfang<br />

und mit hohem technischem Aufwand<br />

möglich. Selbstlernende o<strong>der</strong> <strong>in</strong>telligente<br />

Systeme könnten hier, so hoffen wir, e<strong>in</strong>e<br />

vielversprechende Perspektive bieten,<br />

um das Problem zu lösen.<br />

DATEN SAMMELN UND KI<br />

LERNEN LASSEN<br />

Um den E<strong>in</strong>satz von Künstlicher <strong>Intelligenz</strong><br />

zu ermöglichen, müssen wir zunächst<br />

Daten sammeln bzw. generieren.<br />

Dazu werden professionelle <strong>Musik</strong>er*<strong>in</strong>nen<br />

e<strong>in</strong>geladen, bestimmte Klänge nach<br />

unseren Vorgaben zu spielen. Mit Hilfe<br />

des neu entwickelten Sensor-Stegs und<br />

den Daten aus dem MoCap sowie zusätzlichen<br />

Tonaufnahmen werden dann<br />

so genannte Tra<strong>in</strong><strong>in</strong>g Sets gebildet. Wir<br />

erwarten, dass bereits bei <strong>der</strong> Zusammenstellung<br />

dieser Sets Zusammenhänge<br />

zwischen Klang und Spielparametern<br />

erkannt werden können. Nach dem Lernprozess<br />

soll die KI den Roboterarm so<br />

steuern, dass <strong>der</strong> Fehler bei e<strong>in</strong>er erneuten<br />

Aufnahme auf e<strong>in</strong> M<strong>in</strong>imum reduziert<br />

wird. Da das System <strong>in</strong> Zukunft auch<br />

<strong>in</strong> <strong>der</strong> Lage se<strong>in</strong> soll, normale Celli ohne<br />

e<strong>in</strong>gebaute Sensorik zu spielen, werden<br />

auch die im Roboterarm selbst e<strong>in</strong>gebauten<br />

Kraftsensoren erfasst. E<strong>in</strong> zweiter<br />

Lernprozess zielt darauf ab, die notwendigen<br />

Spielparameter dann auch ohne das<br />

spezielle Sensor-Cello reproduzieren zu<br />

können. Hier kann die KI den Fortschritt<br />

überwachen.<br />

Noch weiter <strong>in</strong> die Zukunft gedacht,<br />

könnte e<strong>in</strong>e Software bzw. KI die Noten<br />

vom Blatt <strong>in</strong>terpretieren und dann entsprechende<br />

Bewegungen über den Roboter<br />

ausführen. Mit e<strong>in</strong>er künstlichen<br />

Greifhand o<strong>der</strong> e<strong>in</strong>em zweiten Roboterarm<br />

würden sich die musikalischen Möglichkeiten<br />

jedoch noch um e<strong>in</strong> Vielfaches<br />

erweitern.<br />

IST DIE JOB-ANGST VON<br />

MUSIKER*INNEN BERECHTIGT?<br />

Insbeson<strong>der</strong>e die Doksari-Projekte zielen<br />

<strong>in</strong> erster L<strong>in</strong>ie auf e<strong>in</strong> besseres Verständnis<br />

des <strong>Musik</strong>machens ab. Wir glauben,<br />

dass <strong>Musik</strong>er*<strong>in</strong>nen nicht befürchten<br />

müssen, durch Masch<strong>in</strong>en ersetzt zu werden,<br />

wenn mo<strong>der</strong>ne Technologien, wie<br />

18 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

die hier vorgestellten, zum E<strong>in</strong>satz kommen.<br />

E<strong>in</strong> selbstlernendes System kann<br />

<strong>in</strong> Zukunft vielleicht Teilbereiche des Musizierens<br />

abdecken - aber alle Interaktionen,<br />

wie z. B. zwischen <strong>Musik</strong>er*<strong>in</strong>nen<br />

untere<strong>in</strong>an<strong>der</strong>, mit dem Publikum o<strong>der</strong><br />

mit dem Raum <strong>in</strong> e<strong>in</strong> System zu packen,<br />

sche<strong>in</strong>t aus heutiger Sicht nahezu unmöglich<br />

und ist auch nicht Ziel unserer<br />

Forschung. Im Pr<strong>in</strong>zip ist die vorgestellte<br />

Technologie nicht viel mehr als e<strong>in</strong>e Erweiterung<br />

<strong>der</strong> <strong>Musik</strong>automaten des letzten<br />

Jahrhun<strong>der</strong>ts. E<strong>in</strong>e <strong>Musik</strong>, die re<strong>in</strong> auf<br />

<strong>der</strong> elektronischen Ebene mit Hilfe von<br />

KI erzeugt wird, könnte hier viel eher zu<br />

brauchbaren Ergebnissen führen, würde<br />

aber das Wissen und das Verständnis<br />

über die Klangerzeugung <strong>in</strong> e<strong>in</strong>em realen<br />

Instrument nicht erweitern.<br />

Alexan<strong>der</strong> Mayer<br />

ist wissenschaftlicher<br />

Mitarbeiter und Lehrbeauftragter<br />

am Institut<br />

für <strong>Musik</strong>alische<br />

Akustik - Wiener<br />

Klangstil an <strong>der</strong> mdw - Universität für<br />

<strong>Musik</strong> und darstellende Kunst Wien.<br />

Montserrat<br />

Pàmies-Vilà<br />

ist Postdoc Forscher<strong>in</strong><br />

am Institut für<br />

<strong>Musik</strong>alische<br />

Akustik - Wiener<br />

Klangstil an <strong>der</strong><br />

mdw - Universität für <strong>Musik</strong> und darstellende<br />

Kunst Wien.<br />

Vasileios<br />

Chatziioannou<br />

ist Senior Scientist<br />

am Institut für <strong>Musik</strong>alische<br />

Akustik - Wiener<br />

Klangstil an <strong>der</strong> mdw - Universität für<br />

<strong>Musik</strong> und darstellende Kunst Wien.<br />

Quellen:<br />

[1] Galluzzo, P. M., & Woodhouse, J. (2014). High-performance bow<strong>in</strong>g mach<strong>in</strong>e tests of<br />

bowed-str<strong>in</strong>g transients. Acta Acustica united with Acustica, 100(1), 139-153.<br />

[2] Mores, R. (2015). Precise cello bow<strong>in</strong>g pendulum. Proceed<strong>in</strong>gs of the Third Vienna Talk<br />

on Music Acoustics, Vienna.<br />

[3] Schoon<strong>der</strong>waldt, E., & Demoucron, M. (2009). Extraction of bow<strong>in</strong>g parameters from<br />

viol<strong>in</strong> performance comb<strong>in</strong><strong>in</strong>g motion capture and sensors. The <strong>Journal</strong> of the Acoustical<br />

Society of America, 126(5), 2695-2708.<br />

[4] Askenfelt, A. (1986). Measurement of bow motion and bow force <strong>in</strong> viol<strong>in</strong> play<strong>in</strong>g. The<br />

<strong>Journal</strong> of the Acoustical Society of America, 80(4), 1007-1015.<br />

Die vorgestellte Forschung wurde ganz o<strong>der</strong> teilweise durch den Österreichischen Wissenschaftsfonds (FWF)<br />

f<strong>in</strong>anziert.<br />

Projektpartner: Doksari - comprehend bow<strong>in</strong>g art, Institut für musikalische Akustik-Wiener Klangstil, mdw -<br />

Universität für <strong>Musik</strong> und darstellende Kunst Wien.<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

19


Analyse von Audiosignalen, Track<strong>in</strong>g von Körper, Hand und Gesicht/Ausdruck<br />

von Christoph Reuter, Isabella Czedik-Eysenberg und Anja-Xiaox<strong>in</strong>g Cui<br />

Moves & Grooves<br />

Die <strong>in</strong> den letzten Jahren entwickelten<br />

JavaScript-Libraries wie P5, ML5, Plotly<br />

sowie verschiedene Bibliotheken zur<br />

Audiomerkmalsextraktion ermöglichen<br />

die Erstellung völlig neuartiger, robuster<br />

und nützlicher Onl<strong>in</strong>e-Tools zur Datenerhebung.<br />

Darüber h<strong>in</strong>aus s<strong>in</strong>d <strong>in</strong>sbeson<strong>der</strong>e<br />

P5/ML5 und Plotly sehr e<strong>in</strong>fach<br />

zu erlernen und eignen sich daher vor<br />

allem beson<strong>der</strong>s für Studierende, die<br />

e<strong>in</strong>en schnellen E<strong>in</strong>stieg <strong>in</strong> die Welt<br />

<strong>der</strong> Programmierung suchen. Für den<br />

Bereich <strong>der</strong> musikalischen Akustik s<strong>in</strong>d<br />

die Komb<strong>in</strong>ationsmöglichkeiten von<br />

synchroner Audiosignalanalyse, Körper-,<br />

Hand- und Gesichts-/Ausdruckstrack<strong>in</strong>g,<br />

sowie von (neuro-)physiologischen<br />

Daten beson<strong>der</strong>s wertvoll.<br />

JavaScript als e<strong>in</strong> bewährtes, nicht-proprietäres<br />

und universell im Browser lauffähiges<br />

Format bietet dazu e<strong>in</strong>e beson<strong>der</strong>e<br />

Nachhaltigkeit, Erweiterbarkeit und<br />

Zukunftssicherheit, <strong>in</strong>sbeson<strong>der</strong>e auch<br />

durch die Schnittstelle zu Mach<strong>in</strong>e-Learn<strong>in</strong>g-Modellen<br />

(ML5) sowie durch starke<br />

und schon langjährig bestehende Communities<br />

für P5 und Plotly..<br />

MODERNE JAVASCRIPT-<br />

BIBLIOTHEKEN<br />

P5 ist e<strong>in</strong>e JavaScript-Bibliothek, mit <strong>der</strong><br />

sich komplexe Programmieraufgaben<br />

schnell und e<strong>in</strong>fach lösen lassen. 1 Die<br />

Zusatzbibliothek 2 P5.sound ermöglicht<br />

die schnelle und unkomplizierte<br />

Berechnung von Zeit-Frequenz-Transformationen,<br />

Filterungen, Faltungen,<br />

Klangsynthese, MIDI und vielen an<strong>der</strong>en<br />

audiobezogenen<br />

Verarbeitungsmethoden.<br />

Dadurch wird sie für den Bereich<br />

<strong>der</strong> musikalischen Akustik beson<strong>der</strong>s <strong>in</strong>teressant.<br />

Mit <strong>der</strong> 2018 e<strong>in</strong>geführten Bibliothek<br />

ML5 lassen sich <strong>in</strong>nerhalb von P5<br />

vortra<strong>in</strong>ierte Modelle zur Erkennung/Tracken<br />

von Personen, Bewegungen, Objekten,<br />

Gesichtern, Händen, Tonhöhen und<br />

vielem mehr e<strong>in</strong>setzen.<br />

Nahezu zeitgleich wurde Plotly.js entwickelt<br />

3 . Plotly.js ist e<strong>in</strong>e JavaScript-Bibliothek<br />

zur <strong>in</strong>teraktiven Datenvisualisierung,<br />

mit <strong>der</strong> Daten <strong>in</strong> über 40 verschiedenen<br />

Darstellungsarten <strong>in</strong> 2D und 3D visualisiert<br />

werden können. Für die musikalische<br />

Akustik ist diese Bibliothek beson<strong>der</strong>s<br />

<strong>in</strong>teressant, da <strong>in</strong> ihr die aus<br />

Audiodaten ermittelten Graphen direkt<br />

mit den zugehörigen Audiodaten synchronisiert<br />

werden können, so dass sich<br />

die Ergebnisse nicht nur visuell darstellen<br />

lassen, son<strong>der</strong>n auf <strong>in</strong>teraktive Weise<br />

auch hörbar werden.<br />

Mit Meyda 4 und später auch Essentia.<br />

js 5 , Aubio.js 6 und Formantanalyzer.js 7<br />

waren spätestens seit 2015 auch umfangreiche<br />

Möglichkeiten im Bereich <strong>der</strong> Audiosignalanalyse<br />

<strong>in</strong> JavaScript verfügbar.<br />

So ermöglichen diese Bibliotheken etwa<br />

die rechnerische Extraktion e<strong>in</strong>er Vielzahl<br />

von Audio-Features wie klanglicher Helligkeit,<br />

Rauigkeit, Spectral Centroid, Tonhöhen,<br />

Formanten, Lautheit, Vibrato etc.<br />

sowie die Transformation des Signals <strong>in</strong><br />

Chroma- und MFCC-Darstellungen und<br />

vieles mehr.<br />

TOOLS UND ANWENDUNGEN<br />

Sowohl für die Datenvisualisierung als<br />

auch für <strong>der</strong>en Erfassung ermöglichen<br />

diese Bibliotheken <strong>in</strong> ihrer Komb<strong>in</strong>ation<br />

völlig <strong>in</strong>novative und vor allem pragmatische,<br />

robuste und nachhaltige Lösungen,<br />

die im Folgenden beschrieben werden:<br />

• Signalanalyse-Tools<br />

Die Komb<strong>in</strong>ation <strong>der</strong> Bibliotheken P5<br />

und Plotly mit Meyda, Essentia, Aubio<br />

o<strong>der</strong> Formantanalyzer ermöglicht e<strong>in</strong>e<br />

schnelle und unkomplizierte Datenerfassung.<br />

So wurden mit diesen Bibliotheken<br />

<strong>in</strong>teraktive Onl<strong>in</strong>e-Signalanalyse-Tools erstellt,<br />

die aus beliebigen hochgeladenen<br />

wav- o<strong>der</strong> mp3-Dateien verschiedenste<br />

Audio-Features als <strong>in</strong>teraktive Kurven<br />

o<strong>der</strong> ‒ zur weiteren Verwendung ‒ als<br />

JavaScript-Arrays extrahieren können.<br />

Die extrahierten Werte lassen sich sowohl<br />

als Mittelwerte <strong>in</strong>kl. Standardabweichung<br />

anzeigen als auch als Absolutwerte sowie<br />

z-transformiert im CSV-Format zur weiteren<br />

Verarbeitung <strong>in</strong> Excel, JASP, Matlab<br />

o. ä. abspeichern. Die Abtastgenauigkeit<br />

liegt abhängig von <strong>der</strong> jeweils verwendeten<br />

Signalanalyse-Library zwischen 3 und<br />

50 ±1 ms pro erfassten Wert bzw. von 20<br />

bis 333 Hz.<br />

• Interaktives<br />

Valenz-Arousal Modell<br />

Basierend auf <strong>der</strong> Idee, während des Hörens<br />

e<strong>in</strong>er beliebigen hochgeladenen<br />

Audiodatei den jeweiligen emotionalen<br />

Zustand direkt per Mausbewegung <strong>in</strong><br />

e<strong>in</strong>em Valenz-Arousal-Feld zu erfassen<br />

(„EmuJoy“ 8 ,), wurde e<strong>in</strong> <strong>in</strong>teraktives Valenz-Arousal-Modell<br />

entwickelt, das neben<br />

den erhobenen Emotionen auch die<br />

Audio-Features <strong>der</strong> gehörten <strong>Musik</strong>stücke<br />

und Klänge o<strong>der</strong> Geräusche erfasst.<br />

Darüber h<strong>in</strong>aus kann über die Mikrofonbuchse<br />

des Computers e<strong>in</strong> M<strong>in</strong>dfield®<br />

eSense Hautleitwert-Sensor angeschlossen<br />

werden, sodass synchron zu den<br />

Audio-Features und <strong>der</strong> emotionalen<br />

Selbste<strong>in</strong>schätzung auch jeweils e<strong>in</strong> entsprechen<strong>der</strong><br />

physiologischer Messwert<br />

erfasst werden kann. Optional lassen sich<br />

auch Videos anstelle <strong>der</strong> Audiobeispiele<br />

abspielen 9 o<strong>der</strong> die Achsenbezeichnungen<br />

für die Erfassung beliebiger an<strong>der</strong>er<br />

Eigenschaften/E<strong>in</strong>schätzungen<br />

än<strong>der</strong>n.<br />

Auch hier können die statistisch vorverarbeiteten<br />

Werte (Orig<strong>in</strong>al, Mittelwerte,<br />

SD, z-transformiert) mit e<strong>in</strong>er zeitlichen<br />

Auflösung von 50 ±1 ms als CSV-File exportiert<br />

werden (s. Abb. 1).<br />

20 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

Abbbildung 1: Interaktives Valenz-Arousal Feld<br />

Abbbildung 2: Motion Analysis Tool (Videobeispiel aus https://youtu.be/<br />

watch?v=JPM3QoPyNRM Free HD Video, No Copyright)<br />

Abbildung 3: Ausdrucks- bzw. Emotionsanalyse (Videobeispiel aus https://<br />

youtu.be/watch?v=QbWStbEv4LU, Free HD Video, No Copyright)<br />

Abbildung 4: Hand Track<strong>in</strong>g ((Videobeispiel aus https://youtu.be/watch?v=-<br />

JPu2XQ7X5wI, Free HD Video, No Copyright))<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

21


• Motion Track<strong>in</strong>g<br />

Über die Mach<strong>in</strong>e-Learn<strong>in</strong>g-Schnittstelle<br />

ML5 lässt sich die Analyse von Audiomerkmalen<br />

mit <strong>der</strong> Erkennung von Bewegungen<br />

und Posen von Personen und<br />

ihren Körperteilen <strong>in</strong> Videos komb<strong>in</strong>ieren.<br />

Dies eröffnet e<strong>in</strong>e Reihe von Möglichkeiten<br />

für die Analyse <strong>der</strong> Bewegungen<br />

von z. B. Tänzer*<strong>in</strong>nen, <strong>Musik</strong>er*<strong>in</strong>nen<br />

und Dirigent*<strong>in</strong>nen außerhalb des Labors<br />

(s. Abb. 2). Die X- und Y-Koord<strong>in</strong>aten<br />

aller erfassten Körperteile werden dabei<br />

synchron zu den Audio-Features <strong>in</strong> Zeitabständen<br />

von 100 ±2 ms sowohl als Pixelpositionen<br />

als auch z-transformiert<br />

erfasst und s<strong>in</strong>d als CSV-Export beliebig<br />

weiterverwendbar.<br />

• Facial Expression/Emotion<br />

Analysis<br />

Da mit <strong>der</strong> ML5-Library auch Gesichtsausdrücke<br />

erkannt werden können, lässt<br />

sich die Audio-Feature-Analyse auch mit<br />

e<strong>in</strong>er automatisierten Analyse <strong>der</strong> Mimik<br />

verb<strong>in</strong>den. Die hierbei erkannten Emotionen<br />

bzw. Gesichtsausdrücke werden synchron<br />

zur Audioanalyse mit e<strong>in</strong>er Genauigkeit<br />

von 100 ±2 ms aufgezeichnet und<br />

können sowohl als Kurven dargestellt als<br />

auch im CSV-Format exportiert werden<br />

(s. Abb. 3).<br />

• Hand Track<strong>in</strong>g<br />

Neben den Bewegungen von Personen<br />

und <strong>der</strong> Mimik von Gesichtern können<br />

über ML5 auch die Hände von Personen<br />

erfasst werden (z. B. von <strong>Musik</strong>er*<strong>in</strong>nen<br />

beim Spiel ihrer Instrumente). Wie bei<br />

den an<strong>der</strong>en Tools können auch hier<br />

die Werte <strong>der</strong> e<strong>in</strong>zelnen F<strong>in</strong>gerpositionen<br />

synchron zu den entsprechenden<br />

Audio-Features als Kurven und/o<strong>der</strong> im<br />

CSV-Format ausgegeben werden (s. Abb.<br />

4).<br />

• Datenlogger für Muse S EEG<br />

Headband®-Daten<br />

Mit Hilfe <strong>der</strong> Web Bluetooth API (https://<br />

developer.mozilla.org/en-US/docs/Web/<br />

API/Web_Bluetooth _API) kann <strong>der</strong> Input<br />

e<strong>in</strong>es 4-Kanal-EEG-Stirnbandes von<br />

Muse® aufgezeichnet werden, um <strong>in</strong> 4<br />

ms-Intervallen die Bewusstse<strong>in</strong>szustände<br />

von Proband*<strong>in</strong>nen <strong>in</strong> ihren Delta-,<br />

Theta-, Alpha- und Beta-Bereichen zu<br />

bestimmen, während sie <strong>Musik</strong> o<strong>der</strong><br />

beliebige an<strong>der</strong>e Audiodateien hören.<br />

Zusätzlich werden die Kopfbewegungen<br />

aufgezeichnet und die Herzfrequenz<br />

gemessen. Aus den gemessenen<br />

Daten lassen sich direkt die jeweiligen<br />

Oszillationsstärken berechnen und alle<br />

Werte können zusammen mit den Audio-Amplituden<br />

ihrer klanglichen Umgebung<br />

im CSV-Format gespeichert werden.<br />

Die vier EEG-Kanäle und <strong>der</strong> Herzschlag<br />

lassen sich auch sonifizieren, d. h. über<br />

e<strong>in</strong>en Synthesizer o<strong>der</strong> Sampler <strong>in</strong> Klänge<br />

und Geräusche wandeln, so dass man<br />

mit Hilfe von diesem Tool und e<strong>in</strong>em<br />

Muse S-Stirnband auch mehrstimmig<br />

musizieren kann (s. Abb. 5).<br />

Neue Techniken wie Motion Amplification<br />

(z. B. zur Blutfluss- und Pulserkennung<br />

via WebCam o<strong>der</strong> zur Erfassung<br />

von Korpus-Schw<strong>in</strong>gungen bei <strong>Musik</strong><strong>in</strong>strumenten<br />

<strong>in</strong> Hochgeschw<strong>in</strong>digkeits-<br />

Abbildung 5: EEG-Kurven im Alpha-Zustand, gemessen mit EEG-Datenlogger und Muse S EEG-Stirnband<br />

22 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

aufnahmen) sowie die Integration zusätzlicher<br />

KI-Modelle (z. B. für genauere<br />

Tonhöhen- o<strong>der</strong> BPM-E<strong>in</strong>schätzungen<br />

o<strong>der</strong> universelles Pixel-Track<strong>in</strong>g 10 ) werden<br />

die Sammlung <strong>der</strong> hier vorgestellten<br />

Werkzeuge <strong>in</strong> naher Zukunft um weitere<br />

vielfältige und leistungsfähige Anwendungen<br />

erweitern.<br />

Alle hier vorgestellten Anwendungen<br />

und noch e<strong>in</strong>ige weitere Tools f<strong>in</strong>den<br />

Sie auf unserer Webseite unter https://<br />

s<strong>in</strong>estool.univie.ac.at. Für die Erstellung<br />

des Bluetooth-JavaScript-Handshakes<br />

für den EEG-Datenlogger gilt unser beson<strong>der</strong>er<br />

Dank Mart<strong>in</strong> Wittmann.<br />

Christoph Reuter<br />

ist Professor für<br />

Systematische <strong>Musik</strong>wissenschaft<br />

am<br />

<strong>Musik</strong>wissenschafltichen<br />

Institut <strong>der</strong><br />

Universität Wien. Se<strong>in</strong>e Forschungs<strong>in</strong>teressen<br />

liegen <strong>in</strong> <strong>der</strong> <strong>Musik</strong>alischen<br />

Akustik, <strong>Musik</strong>psychologie und<br />

<strong>Musik</strong><strong>in</strong>formatik.<br />

Isabella<br />

Czedik-Eysenberg<br />

ist PostDoc-Assistent<strong>in</strong><br />

am Fachbereich<br />

Systematische <strong>Musik</strong>wissenschaft<br />

am<br />

<strong>Musik</strong>wissenschaftlichen Institut <strong>der</strong><br />

Universität Wien. Ihre Forschungs<strong>in</strong>teressen<br />

liegen <strong>in</strong> <strong>der</strong> <strong>Musik</strong>psychologie,<br />

<strong>Musik</strong><strong>in</strong>formatik und Audiosignalanalyse.<br />

Anja-Xiaox<strong>in</strong>g Cui<br />

ist Tenure<br />

Track-Professor<strong>in</strong><br />

für Neuromedialität<br />

am Fachbereich<br />

Systematische<br />

<strong>Musik</strong>wissenschaft am <strong>Musik</strong>wissenschaftlichen<br />

Institut <strong>der</strong> Universität<br />

Wien. Ihre Forschungs<strong>in</strong>teressen<br />

liegen <strong>in</strong> <strong>der</strong> <strong>Musik</strong>psychologie<br />

und -(neuro-)physiologie und <strong>der</strong><br />

Wechselwirkung zwischen <strong>Musik</strong><br />

und Sprache.<br />

Quellen:<br />

1. Reas, C., Fry, B. 2007. Process<strong>in</strong>g: A Programm<strong>in</strong>g Handbook for Visual Designers and Artists. Cambridge, Massachusetts: The MIT Press.<br />

2. McCarthy, L., Reas, C., Fry, B. 2015. Gett<strong>in</strong>g started with p5.js. Santa Rosa, CA: Make Community, LLC. https://p5js.org/ <br />

3.. Czikk, J. 2013. Ex-Silicon Valley kids to launch web startup <strong>in</strong> Montreal. Montreal Gazette July 29, 2013.. https://plotly.com/javascript/ .<br />

4. Rawl<strong>in</strong>son, H., Segal, N., Fiala, J. 2015. Meyda: an audio feature extraction library for the Web Audio API. Proceed<strong>in</strong>gs of the first Web Audio<br />

Conference (WAC), January 2015, Paris, France. https://meyda.js.org/ .<br />

5. Correya, A., Marcos-Fernandez, J., Joglar-Ongay, L., Alonso-Jimenez, P., Serra, X. & Bogdanov, D. 2021. Audio and Music Analysis on the Web<br />

us<strong>in</strong>g Essentia.js. Transactions of the International Society for Music Information Retrieval 4(1), pp. 167–181.<br />

6. Qiuxiang, 2021. Aubios.js, https://github.com/qiuxiang/aubiojs .<br />

7. Rehman, A., Liu, Z.T. & Xu, J.-M. 2021. Syllable Level Speech Emotion Recognition Based on Formant Attention. L. Fang et al. (Eds.). Proceed<strong>in</strong>gs<br />

of the CICAI 2021, pp. 261–272. https://github.com/tabahi/formantanalyzer.js .<br />

8. Nagel, F., Kopiez, R., Grewe, O., Altenmüller, E. 2007. EMuJoy: Software for cont<strong>in</strong>uous measurement of perceived emotions <strong>in</strong> music. Behavior<br />

Research Methods 39(2), p. 283-290.<br />

9. Stickler, A., Greil, E., Domnanich, S., Yamada, Y. & Reuter, C. 20<strong>23</strong>. Entspannend o<strong>der</strong> verstörend? – Die Wirkung von ASMR mit und ohne Bildmaterial.<br />

Fortschritte <strong>der</strong> Akustik - DAGA20<strong>23</strong>. 49. Jahrestagung für Akustik 6.-9.3.20<strong>23</strong>, Hamburg, S. 1220-1222.<br />

10. Wang, Q., Chang, Y.-Y., Cai, R., Li, Z., Hariharan, B., Holynski, A., Snavely, N. 20<strong>23</strong>. Track<strong>in</strong>g Everyth<strong>in</strong>g Everywhere All at Once. arXiv:<strong>23</strong>06.05422<br />

Copyright für die Bil<strong>der</strong> - alles Screen Copies <strong>der</strong> beschriebenen Programme - liegt bei Christoph Reuter, Isabella Czedik-Eysenberg und Anja-Xiaox<strong>in</strong>g<br />

Cui; die <strong>in</strong> den Motion/Gesichts/Handtrack<strong>in</strong>g-Tools abgebildeten Bil<strong>der</strong> von Personen stammen aus Youtube Videos, die extra zur<br />

freien Verwendung und ohne Copyright gekennzeichnet s<strong>in</strong>d; die L<strong>in</strong>ks s<strong>in</strong>d direkt unter den Bil<strong>der</strong>n.<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

<strong>23</strong>


KI und gute wissenschaftliche Praxis im Hochschulbereich<br />

von Mart<strong>in</strong>a Baravalle und Gerhard Straßl<br />

Grenzenlose Freiheit?<br />

Obwohl an und mit Künstlicher <strong>Intelligenz</strong><br />

(KI) seit Jahrzehnten geforscht<br />

wird, ist <strong>der</strong> Stand <strong>der</strong> enormen Möglichkeiten<br />

erst Ende letzten Jahres <strong>in</strong> <strong>der</strong><br />

breiten Öffentlichkeit angekommen.<br />

Das Auftreten von ChatGPT Ende 2022<br />

katapultierte diese Thematik regelrecht<br />

<strong>in</strong> neue Sphären. Plötzlich wurden textliche<br />

Leistungen <strong>der</strong> KI bekannt, die Bewun<strong>der</strong>ung<br />

und Bestürzung zugleich<br />

hervorriefen. Unausgesprochen regierte<br />

die Angst, dass e<strong>in</strong>e Masch<strong>in</strong>e den<br />

menschlichen Geist bei <strong>der</strong> Textgenerierung<br />

überflügelt hätte.<br />

KI-Tools waren nun für alle greifbar, wurden<br />

ausprobiert und analysiert, sodass<br />

die weitreichenden Auswirkungen seither<br />

segmentbezogen diskutiert werden.<br />

Die uns bekannten Medienformen – Text,<br />

<strong>Musik</strong>, Bild, Zahl und Code – werden<br />

durch KI-Tools <strong>in</strong> neuer Weise produziert<br />

und signifikant bee<strong>in</strong>flusst. Rasch zunehmende<br />

Zahlen an Nutzer*<strong>in</strong>nen und die<br />

rasante Integration von KI-Tools <strong>in</strong> unsere<br />

tägliche Praxis erfor<strong>der</strong>n zunehmend<br />

die e<strong>in</strong>gehende Ause<strong>in</strong>an<strong>der</strong>setzung mit<br />

den Chancen und Risken.<br />

FASZINATION MIT GRENZEN<br />

Im Bildungswesen wird die Ause<strong>in</strong>an<strong>der</strong>setzung<br />

nachvollziehbarerweise<br />

beson<strong>der</strong>s <strong>in</strong>tensiv geführt, da hier die<br />

Entwicklung <strong>der</strong> akademischen Schreibkompetenz<br />

und somit e<strong>in</strong>e wesentliche<br />

Grundlage für die Wissenschaft verortet<br />

ist. Nach ersten nachvollziehbaren Auswirkungen<br />

auf etwa die Translationswissenschaften<br />

wird nun zurecht gesehen,<br />

dass alle Formen von Wissensproduktion<br />

(<strong>in</strong>sbeson<strong>der</strong>e bei <strong>der</strong> Textproduktion)<br />

<strong>in</strong> den <strong>E<strong>in</strong>fluss</strong>bereich <strong>der</strong> KI-Tools geraten<br />

s<strong>in</strong>d. Da dadurch die etablierten Regeln<br />

<strong>der</strong> guten wissenschaftlichen Praxis<br />

(gwP) durch KI bedroht s<strong>in</strong>d, besteht Anlass<br />

zur Sorge <strong>der</strong> Def<strong>in</strong>ition von eigener<br />

Leistung beim Schreibprozess. Dabei ist<br />

die Frage nach <strong>der</strong> Verantwortung für<br />

den E<strong>in</strong>satz von KI-Tools, für die Ergebnisse<br />

von KI-Tools und <strong>der</strong> <strong>in</strong>tegren Nutzung<br />

dieser Ergebnisse zentral.<br />

Die textgenerierende KI kann äußerst<br />

hilfreich se<strong>in</strong> etwa als Inspirationsquelle,<br />

zum E<strong>in</strong>stieg <strong>in</strong> den Forschungsstand<br />

e<strong>in</strong>er bestimmten Materie, zur Überprüfung<br />

<strong>der</strong> eigenen Argumentation o<strong>der</strong><br />

zur sprachlichen Verb<strong>in</strong>dung verschiedener<br />

Aspekte. Aber so groß die Verlockung<br />

<strong>der</strong> KI als fasz<strong>in</strong>ierende Formulierungshilfe<br />

ist, so kritisch sollte ihr begegnet<br />

werden. Aufgrund <strong>der</strong> mathematisch<br />

berechneten Zusammensetzung von gespeicherten<br />

Wortteilen können fundierte<br />

Aussagen von <strong>der</strong> KI produziert werden<br />

– genauso wie <strong>in</strong>haltlich falsche Formulierungen.<br />

Zudem be<strong>in</strong>haltet <strong>der</strong> Wortspeicher<br />

<strong>der</strong> KI auch Vore<strong>in</strong>genommenheiten<br />

(sog. Biases), sodass die von <strong>der</strong> KI<br />

<strong>in</strong> Sekundenschnelle produzierten Formulierungen<br />

ethisch problematisch se<strong>in</strong><br />

können. Sicher ist nur, wie Erich Prem,<br />

Philosoph und Informationswissenschaftler,<br />

treffend formulierte: „Die Systeme<br />

verstehen nicht, sie ‚wissen‘ nicht, sie<br />

wissen auch nicht, was sie wissen.“ 1<br />

DIE GEISTER, DIE ICH RIEF…<br />

Das Dilemma, <strong>in</strong> dem sich die Bildungslandschaft<br />

nun bef<strong>in</strong>det, ist e<strong>in</strong>deutig<br />

sichtbar. E<strong>in</strong>erseits ist die Fertigkeit des<br />

Schreibens, ganz beson<strong>der</strong>s des wissenschaftlichen<br />

Schreibens, e<strong>in</strong>e Tradition,<br />

welche die Universitäten jahrhun<strong>der</strong>tlang<br />

entwickelt, gepflegt und gelebt<br />

haben, um damit am Fachdiskurs teilzunehmen.<br />

Jedoch ist es aber mit e<strong>in</strong>em<br />

Mal möglich, den Weg dah<strong>in</strong> abzukürzen<br />

und sich, zum<strong>in</strong>dest <strong>in</strong> Teilbereichen,<br />

ganz passable Textteile schreiben zu lassen,<br />

die ebenso Bestand haben können<br />

und sich die Berechtigung durchaus<br />

verdienen, gelesen und diskutiert zu werden.<br />

Darüber h<strong>in</strong>aus harren noch weitere<br />

Fragen <strong>der</strong> Beantwortung: Wie s<strong>in</strong>d diese<br />

Texte rechtlich e<strong>in</strong>zuordnen? Wie sieht es<br />

mit <strong>der</strong> Verantwortlichkeit für diese Texte<br />

aus? Wie s<strong>in</strong>d sie aus gwP-Sicht zu beurteilen?<br />

DIE VERLOCKUNGEN DER KI<br />

Klar ist, dass KI nicht Urheber des mit <strong>der</strong><br />

Software generierten Textes ist, da e<strong>in</strong><br />

Werk e<strong>in</strong>e eigentümliche geistige Schöpfung<br />

ist. Dazu ist nur e<strong>in</strong> Mensch <strong>in</strong> <strong>der</strong><br />

Lage. Dass dieser automatisch die Urheberschaft<br />

an e<strong>in</strong>em von KI geschriebenen<br />

Text hat, kann aber pe se auch nicht<br />

gesagt werden. Erst, wenn <strong>der</strong> gestalterische<br />

<strong>E<strong>in</strong>fluss</strong> des Menschen überwiegt<br />

und die KI nur mehr ausführendes Instrument<br />

<strong>der</strong> gestalterischen Hoheit des<br />

Menschen ist, dann tendiert man dazu<br />

anzuerkennen, dass <strong>der</strong> Mensch Urheber<br />

des so erzeugten Textes ist. Für ChatGPT<br />

hieße dies wohl, dass die Detailliertheit<br />

<strong>der</strong> Prompts und die Verkettung stark<br />

steuern<strong>der</strong> Prompts hier maßgeblich<br />

s<strong>in</strong>d. Als e<strong>in</strong>er <strong>der</strong> Ersten im deutschsprachigen<br />

Raum hat dies Thomas Horen von<br />

<strong>der</strong> Westfälischen Wilhelms-Universität<br />

Münster e<strong>in</strong> „Rechtsgutachten zum Umgang<br />

mit KI-Software im Hochschulkontext“<br />

2 publiziert.<br />

Das datenschutzrechtliche Dilemma<br />

mit KI ist ja bereits h<strong>in</strong>länglich bekannt.<br />

Unsere Daten, die <strong>in</strong> diese Softwaren geladen<br />

werden, werden von den Firmen<br />

zu Tra<strong>in</strong><strong>in</strong>gszwecken genutzt. Gleichzeitig<br />

haben wir aber ke<strong>in</strong>e Möglichkeit,<br />

dies zu verh<strong>in</strong><strong>der</strong>n. Selbst wenn wir von<br />

24 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

(c)istock, Peshkova<br />

Opt<strong>in</strong>g-Out-Möglichkeiten Gebrauch<br />

machen, ist es unmöglich zu sagen, ob<br />

dies tatsächlich befolgt wird. Gleichzeitig<br />

wissen wir aber nicht, woher die Daten<br />

stammen, mit denen die KI arbeitet o<strong>der</strong><br />

aufgrund welcher Rechtsgrundlage sie<br />

verarbeitet wurden. Da es Nie<strong>der</strong>lassungen<br />

<strong>der</strong> Softwarefirmen <strong>in</strong> <strong>der</strong> EU <strong>der</strong>zeit<br />

(noch) nicht gibt, ist es faktisch unmöglich,<br />

Betroffenenrechte durchzusetzen.<br />

Den Hochschulen obliegt nun die Aufgabe,<br />

im Spannungsfeld <strong>der</strong> rechtlichen<br />

Unklarheiten und unglaublichen Möglichkeiten<br />

Studierenden Orientierung zu<br />

bieten. Sie <strong>in</strong> <strong>der</strong> neuen Welt <strong>der</strong> KI alle<strong>in</strong>e<br />

zu lassen, ist ke<strong>in</strong>e Option. Es ist schlichtweg<br />

die Aufgabe <strong>der</strong> Universitäten und<br />

Hochschulen, für die Sicherstellung <strong>der</strong><br />

guten wissenschaftlichen Praxis und akademischen<br />

Integrität zu sorgen. 3 Und<br />

die Schulung <strong>der</strong> Studierenden für diese<br />

Fertigkeiten ersche<strong>in</strong>t dr<strong>in</strong>gend geboten,<br />

wie e<strong>in</strong>e Umfrage im deutschsprachigen<br />

Raum zum Thema KI und GWP im Frühjahr<br />

dieses Jahres 4 ganz deutlich zeigt.<br />

Aus Sicht <strong>der</strong> Personen, die sich mit gwP<br />

beschäftigen, s<strong>in</strong>d alle Textteile, die KI enthalten,<br />

genau auszuweisen. Nur dann ist<br />

gesichert, dass die Eigenständigkeit <strong>der</strong><br />

Leistungen <strong>in</strong> schriftlichen Arbeiten noch<br />

nachvollziehbar gestaltet ist. Gerade diese<br />

Eigenständigkeit <strong>der</strong> Leistungen fehlt<br />

aber, wenn durch die Übernahme ungekennzeichneter<br />

KI-Texte e<strong>in</strong>e wissenschaftliche<br />

o<strong>der</strong> künstlerische Leistung<br />

vorgetäuscht wird, die nicht vom Studierenden<br />

stammt.<br />

RULES FOR TOOLS<br />

Nach Erwachen aus <strong>der</strong> Schockstarre,<br />

grundsätzlichen Verboten, die (meist)<br />

schnell wie<strong>der</strong> zurückgenommen wurden,<br />

machen sich nun viele Organisationen<br />

und Institutionen auf, um mittelfristige<br />

Lösungsmöglichkeiten für den<br />

Zu- und Umgang mit KI für die ihrem<br />

Bereich zugeordneten Personenkreise<br />

zu f<strong>in</strong>den. Als gelungenes Beispiel sollen<br />

hier die ENAI 5 Recommendations 6 vom<br />

Mai 20<strong>23</strong> angeführt werden, die „Unauthorised<br />

Content Generation (UCG)“ als<br />

Überbegriff für alle Formen <strong>der</strong> unerlaubten<br />

Erstellung von Inhalten, Ghostwrit<strong>in</strong>g<br />

und unangemessener Nutzung von<br />

KI def<strong>in</strong>ieren. Gleichsam wird anhand<br />

konkreter Schritte und Empfehlungen<br />

aufzeigt, wie es E<strong>in</strong>richtungen gel<strong>in</strong>gen<br />

kann, Lehrenden und Studierenden geme<strong>in</strong>sam<br />

e<strong>in</strong>en Weg anzubieten, mit KI<br />

sorgsam und angemessen umzugehen.<br />

Insbeson<strong>der</strong>e für Deutschland richtungsweisend<br />

ist die Stellungnahme des Präsidiums<br />

<strong>der</strong> Deutschen Forschungsgeme<strong>in</strong>schaft<br />

(DFG) 7 . Sie soll nicht nur als<br />

Orientierung für das Forschungshandeln<br />

von Wissenschaftler:<strong>in</strong>nen dienen, son<strong>der</strong>n<br />

gibt zugleich auch Antragstellenden<br />

bei <strong>der</strong> DFG Anhaltspunkte für den<br />

Umgang mit KI.<br />

VERANTWORTUNG BEWUSST<br />

Anhand <strong>der</strong> Universität <strong>der</strong> Autor*<strong>in</strong>nen<br />

kann aufgezeigt werden, dass die e<strong>in</strong>zelnen<br />

Bildungse<strong>in</strong>richtungen sich ihrer<br />

Verantwortung <strong>in</strong> H<strong>in</strong>blick auf KI bewusst<br />

und bereit zu handeln s<strong>in</strong>d. Ganz beson<strong>der</strong>s<br />

für Kunstuniversitäten, die sich auch<br />

<strong>in</strong>tensiv mit ton- und bildgeben<strong>der</strong> KI<br />

beschäftigen, ist die Thematik von hoher<br />

Relevanz. Im Rahmen e<strong>in</strong>es Positionspapiers<br />

wurde e<strong>in</strong> erster Aufschlag<br />

gemacht, um Studierenden, Lehrenden,<br />

Künstler:<strong>in</strong>nen und Wissenschaftler:<strong>in</strong>nen<br />

e<strong>in</strong>en Orientierungsrahmen 8 zu geben.<br />

Die Universität Wien wählte e<strong>in</strong>en<br />

etwas an<strong>der</strong>en Weg <strong>der</strong> Vermittlung e<strong>in</strong>es<br />

KI-Handlungsrahmens. 9<br />

All diesen Stellungnahmen, Empfehlungen,<br />

Positionspapieren, Guidel<strong>in</strong>es ist geme<strong>in</strong>,<br />

dass <strong>der</strong> Umgang mit KI nicht generell<br />

ausgeschlossen werden soll, ganz<br />

im Gegenteil, hält man dies auch nicht<br />

für s<strong>in</strong>nvoll und realisierbar. Allerd<strong>in</strong>gs<br />

darf man sich bei allen Versuchen, KI<br />

kurz- und mittelfristig über e<strong>in</strong>e gewisse<br />

Regulierungsflut <strong>in</strong> den Griff zu bekommen,<br />

den weiterführenden Fragen zu<br />

den Grundwerten des <strong>in</strong>tegren wissenschaftlichen<br />

Arbeitens nicht verschließen.<br />

Insbeson<strong>der</strong>e <strong>der</strong> zukünftige Umgang<br />

mit Daten im S<strong>in</strong>ne <strong>der</strong> Ehrlichkeit, Zuverlässigkeit,<br />

Verantwortung, Respekt,<br />

Transparenz und Rechenschaftspflicht<br />

muss h<strong>in</strong>terfragt, analysiert und gegebenenfalls<br />

neu gedacht werden.<br />

VERÄNDERUNG DES DENKENS<br />

H<strong>in</strong>sichtlich <strong>der</strong> Zukunft des Schreibens<br />

haben mehrere Autor*<strong>in</strong>nen versucht,<br />

das Spannungsfeld zwischen Utopie und<br />

Dystopie darzustellen. Ausgehend von<br />

<strong>der</strong> Feststellung, dass die durch KI bee<strong>in</strong>flusste<br />

Zukunft „nicht determ<strong>in</strong>istisch<br />

vorprogrammiert ist, son<strong>der</strong>n vielmehr<br />

Handlungsmöglichkeiten – vielleicht sogar<br />

Spielräume – eröffnet“, resultiert e<strong>in</strong>e<br />

große Verantwortung, „und dieser Gestaltungsverantwortung<br />

– künstliche Intelli-<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

25


genz nutzenbr<strong>in</strong>gend <strong>in</strong> den Dienst <strong>der</strong><br />

Gesellschaft zu stellen – muss sich Wissenschaft<br />

bewusst se<strong>in</strong>.“ 10 Es ist daher<br />

dr<strong>in</strong>gend geboten, kritisch darüber nachzudenken,<br />

wie die Arbeit mit KI-Tools<br />

nicht nur unser Schreiben und Kreieren<br />

von Inhalten verän<strong>der</strong>t, son<strong>der</strong>n auch unser<br />

Denken. Schließlich macht es e<strong>in</strong>en<br />

weitreichenden Unterschied, ob man<br />

sich Gedanken zu e<strong>in</strong>em Thema o<strong>der</strong> Gedanken<br />

über e<strong>in</strong>en bereits vorhandenen<br />

Text zu e<strong>in</strong>em Thema macht.<br />

Jedenfalls ist nicht zu übersehen, dass die<br />

Weiterentwicklung <strong>der</strong> KI-Tools rasant<br />

voranschreitet, sodass unsere Arbeitsund<br />

Lebenswelt ständig neu bee<strong>in</strong>flusst<br />

wird. Heute neue Fähigkeiten <strong>der</strong> KI-<br />

Tools werden übermorgen schon über-<br />

Mart<strong>in</strong>a Baravalle<br />

ist Jurist<strong>in</strong> <strong>in</strong> <strong>der</strong><br />

Abteilung für Organisationsrecht<br />

und<br />

Berufungsmanagement<br />

<strong>der</strong> mdw und<br />

seit 2014 mit Plagiatsdetektion und<br />

-prävention beschäftigt sowie dem<br />

Aufbau und <strong>der</strong> Leitung des Kompetenzzentrum<br />

für Akademische<br />

Integrität. Sie ist Österreichkoord<strong>in</strong>ator<strong>in</strong><br />

des UniWiND-Netzwerks Gute<br />

wissenschaftliche Praxis vermitteln.<br />

holt se<strong>in</strong> o<strong>der</strong> <strong>in</strong> noch weitreichen<strong>der</strong>en<br />

Funktionen aufgehen. Dies erfor<strong>der</strong>t Offenheit<br />

im Denken, die Bereitschaft, sich<br />

auf Neues e<strong>in</strong>zulassen, und die Fähigkeit,<br />

das bedrohte Bewährte mit dem Neuen<br />

s<strong>in</strong>nvoll zu verb<strong>in</strong>den. Manche Äußerungen<br />

betonen die <strong>der</strong>zeitigen Grenzen <strong>der</strong><br />

KI, wenn etwa <strong>der</strong> Visual-Effects-Künstler<br />

und Universitätsprofessor Franz Brandstätter<br />

me<strong>in</strong>t: „Und das wird die Frage<br />

bleiben, ob e<strong>in</strong>e KI, die von e<strong>in</strong>em Ma<strong>in</strong>stream<br />

gefüttert ist, <strong>in</strong> <strong>der</strong> Lage ist, etwas<br />

zu entwickeln, das es bis dato nicht gegeben<br />

hat.“ 11<br />

REFLEXION NICHT ABGEBEN<br />

Es wird zu wenig se<strong>in</strong>, die gwP-Regelungen<br />

auf ihre Vere<strong>in</strong>barkeit mit den<br />

Möglichkeiten <strong>der</strong> KI-Tools abzuän<strong>der</strong>n,<br />

Karl-Gerhard Straßl<br />

leitet als Jurist<br />

und Kulturwissenschaftler<br />

die Abt.<br />

Organisationsrecht<br />

und Berufungsmanagement<br />

<strong>der</strong> mdw. Als Plagiatsbeauftragter<br />

ist er mit für Aufbau und<br />

Leitung des Kompetenzzentrums für<br />

Akademische Integrität zuständig. Er<br />

publiziert außerdem zu den Themenbereichen<br />

Universitätsrecht, Kulturrecht<br />

und Kulturpolitik.<br />

vielmehr ist es notwendig, mögliche Än<strong>der</strong>ungen<br />

bei den Ansprüchen von gwP<br />

zu diskutieren und zu formulieren. Es<br />

bedarf e<strong>in</strong>er erneuerten Festlegung, was<br />

gwP nun bedeutet. <strong>Der</strong>zeit s<strong>in</strong>d KI-generierte<br />

Texte noch durch eigene Tools<br />

produzierbar, aber wie wird im H<strong>in</strong>blick<br />

auf gwP mit bewährten Programmen<br />

umzugehen se<strong>in</strong>, <strong>in</strong> die bald KI-Funktionalitäten<br />

<strong>in</strong>tegriert se<strong>in</strong> werden? Vielleicht<br />

wird dies alles zu grundlegenden<br />

Verän<strong>der</strong>ungen <strong>in</strong> <strong>der</strong> Wissenschaft führen,<br />

wie etwa die These, dass sich künftig<br />

das Zitiererfor<strong>der</strong>nis auf menschlich generierte<br />

Texte beziehen sollte: „…könnten<br />

wir […] e<strong>in</strong>e Kennzeichnung primär für die<br />

Textpassagen verlangen, die entwe<strong>der</strong> direkt<br />

von dem/<strong>der</strong> menschlichen Autor:<strong>in</strong><br />

stammen o<strong>der</strong> unter se<strong>in</strong>er/ihrer Leitung<br />

[…] entstanden s<strong>in</strong>d.“ 12<br />

Doch die Autor*<strong>in</strong>nen dieses Artikels s<strong>in</strong>d<br />

überzeugt: Schreiben und gwP wird auch<br />

<strong>in</strong> KI-Zeiten nicht obsolet, aber zu verän<strong>der</strong>n<br />

se<strong>in</strong>. Denn: „Schreiben ist eng mit<br />

<strong>der</strong> Fähigkeit verbunden, kritisch zu reflektieren.<br />

Wer die kritische Reflexion vollständig<br />

an Masch<strong>in</strong>en abgibt, überträgt<br />

den Masch<strong>in</strong>en auch die Verantwortung<br />

für die Schlüsse, die aus wissenschaftlichen<br />

Erkenntnissen gezogen werden<br />

sollten.“ 13 Dieser Gefahr sollten wir uns<br />

nicht im Ansatz aussetzen.<br />

Quellen:<br />

1. Opernr<strong>in</strong>g Zwei, Magaz<strong>in</strong> <strong>der</strong> Wiener Staatsoper GmbH, April 20<strong>23</strong>, S. 34.<br />

2. Thomas Hoeren, Rechtsgutachten zum Umgang mit KI-Software im Hochschulkontext, <strong>in</strong>: Peter Salden/Jonas Leschke (Hgg.), Didaktische<br />

und rechtliche Perspektiven auf KI-gestütztes Schreiben <strong>in</strong> <strong>der</strong> Hochschulbildung, Ruhr-Universität Bochum, 20<strong>23</strong>, S. 22 - 40. https://doi.<br />

org/10.13154/294-9734 (12.11.20<strong>23</strong>).<br />

3.. für die Universitäten: § 2 Z 3a Universitätsgesetz 2002.<br />

4. Umfrage des Kompetenzzentrum für Akademische Integrität a.d. mdw u. d. Kompetenzstelle akademische Integrität an <strong>der</strong> Johannes<br />

Gutenberg-Universität Ma<strong>in</strong>z unter Personen, die sich an Hochschulen <strong>in</strong>tensiv mit guter wissenschaftlicher Praxis beschäftigen. Publikation<br />

folgt<br />

5. European Network for Academic Integrity.<br />

6. Foltynek, T., Bjelobaba, S., Glend<strong>in</strong>n<strong>in</strong>g, I. et al. ENAI Recommendations on the ethical use of Artificial Intelligence <strong>in</strong> Education. Int J Educ<br />

Integr 19, 12 (20<strong>23</strong>). https://doi.org/10.1007/s40979-0<strong>23</strong>-00133-4.<br />

7. Stellungnahme des Präsidiums <strong>der</strong> Deutschen Forschungsgeme<strong>in</strong>schaft (DFG) zum <strong>E<strong>in</strong>fluss</strong> generativer Modelle für die Text- und Bil<strong>der</strong>stellung<br />

auf die Wissenschaften und das För<strong>der</strong>handeln <strong>der</strong> DFG, 20<strong>23</strong>, https://www.dfg.de/download/pdf/dfg_im_profil/geschaeftsstelle/publikationen/stellungnahmen_papiere/20<strong>23</strong>/<strong>23</strong>0921_stellungnahme_praesidium_ki_ai.pdf<br />

(12.11.20<strong>23</strong>)..<br />

8. mdw „Positionspapier zum Umgang mit Tools <strong>der</strong> <strong>Künstlichen</strong> <strong>Intelligenz</strong> (KI) an <strong>der</strong> mdw“. https://www.mdw.ac.at/upload/MDWeb/aki/<br />

downloads/PositionspapierKImdwRektorat_1.pdf (12.11.20<strong>23</strong>).<br />

9. Nie<strong>der</strong>schwelliger Zugang für Studierende: https://studieren.univie.ac.at/lernen-pruefen/ki-<strong>in</strong>-studium-und-lehre/ (12.11.20<strong>23</strong>); ausführliche<br />

Schritt-für-Schritt-Anleitung für Lehrende: „Guidel<strong>in</strong>es Umgang mit KI <strong>in</strong> <strong>der</strong> Lehre“, 20<strong>23</strong>-09-26. https://phaidra.univie.ac.at/detail/o:1879857.<br />

10. Limburg, A., Bohle-Jurok, U., Buck, I., Grieshammer, E., Gröpler, J., Knorr, D., Mundorf, M., Sch<strong>in</strong>dler, K., Wil<strong>der</strong>, N.(20<strong>23</strong>). Zehn Thesen zur<br />

Zukunft des wissenschaftlichen Schreibens. Diskussionspapier Nr. <strong>23</strong>. Berl<strong>in</strong>: Hochschulforum Digitalisierung, S. 19. https://hochschulforumdigitalisierung.de/sites/default/files/dateien/HFD_DP_<strong>23</strong>_Zukunft_Schreiben_Wissenschaft.pdf<br />

(14.11.20<strong>23</strong>).<br />

11. ORF Topos „Neue Chancen durch künstliche <strong>Intelligenz</strong>“, 28.10.20<strong>23</strong>, https://topos.orf.at/das-elixier100 (12.11.20<strong>23</strong>).<br />

12. N.Wil<strong>der</strong>/ D. Weßels/J. Gröpler A. Kle<strong>in</strong>/M. Mundorf, Forschungs<strong>in</strong>tegrität und Künstliche <strong>Intelligenz</strong> mit Fokus auf den wissenschaftlichen<br />

Schreibprozess. Traditionelle Werte auf dem Prüfstand für e<strong>in</strong>e neue Ära, <strong>in</strong>: K. Miller/M. Valeva/J. Prieß-Buchheit (Hgg.), Verlässliche Wissenschaft.<br />

Bed<strong>in</strong>gungen, Analysen Reflexionen, Darmstadt 2022, S. 217.<br />

13. Limburg, A. et. al., a.a.O., S. 20.<br />

26 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

ChatGPT4 komponiert noch sehr klischeehaft - e<strong>in</strong> Experiment<br />

von Johannes Kretz<br />

<strong>Musik</strong> und KI - Erfahrungen<br />

und Überlegungen<br />

Auch wenn die Aufmerksamkeit <strong>in</strong> Bezug<br />

auf KI im Moment stark auf Text-<br />

bzw. Bildgenerierung gerichtet sche<strong>in</strong>t,<br />

war und ist auch <strong>in</strong> <strong>der</strong> <strong>Musik</strong> die – so<br />

genannte – künstliche <strong>Intelligenz</strong> durchaus<br />

e<strong>in</strong> Thema.<br />

CONSTRAINTS PROGRAMMING:<br />

ERGEBNISSE NACHVOLLZIEH-<br />

BAR<br />

Bereits <strong>in</strong> den 1990er Jahren wurden von<br />

Komponist*<strong>in</strong>nen zeitgenössischer <strong>Musik</strong><br />

verschiedene Implementationen von Expert<br />

Systems / Constra<strong>in</strong>ts Programm<strong>in</strong>g<br />

verwendet, um musikalische Strukturen<br />

zu generieren. Dabei def<strong>in</strong>iert man<br />

e<strong>in</strong>en Suchraum, z. B. e<strong>in</strong>e Sammlung<br />

von Elementen (Töne, Akkorde, rhythmische<br />

Zellen etc.), die grundsätzlich beliebig<br />

komb<strong>in</strong>iert werden können, und<br />

aus denen durch Ane<strong>in</strong>an<strong>der</strong>reihen von<br />

Elementen e<strong>in</strong>e Lösung generiert werden<br />

soll. Dazu werden Regeln aufgestellt,<br />

welche gewisse Konstellationen erlauben<br />

bzw. verbieten. In <strong>der</strong> <strong>Musik</strong> könnte das<br />

z. B. die Regel se<strong>in</strong>, dass e<strong>in</strong>e Melodie<br />

nach e<strong>in</strong>em großen Sprung <strong>in</strong> e<strong>in</strong>e Richtung<br />

e<strong>in</strong>en kle<strong>in</strong>en Schritt <strong>in</strong> die Gegenrichtung<br />

machen muss. O<strong>der</strong> es könnte<br />

das Vermeiden gewisser musikalischer<br />

Intervalle se<strong>in</strong>, die als „unschön“ betrachtet<br />

werden. Sobald <strong>der</strong> Constra<strong>in</strong>ts Solver<br />

auf e<strong>in</strong>e verbotene Konstellation stößt,<br />

wird die entsprechende (Teil-)Lösung<br />

verworfen. <strong>Der</strong> Solver hat die Fähigkeit,<br />

systematisch Komb<strong>in</strong>ationen aus Elementen<br />

des Suchraums zu generieren<br />

und zu evaluieren, bis (zum<strong>in</strong>dest) e<strong>in</strong>e<br />

Lösung gefunden wurde. Zusätzlich kann<br />

man auch noch „heuristische Regeln“<br />

(Wünsche) anbr<strong>in</strong>gen: Hier werden gewisse<br />

Konstellationen nicht erlaubt o<strong>der</strong><br />

verboten, son<strong>der</strong>n mit e<strong>in</strong>em Zahlenwert<br />

versehen, <strong>der</strong> angibt, wie „erwünscht“<br />

diese Konstellation ist („Bonuspunkte“).<br />

Dort, wo es die „normalen“ Regeln<br />

zulassen, werden dann jene Lösungen<br />

bevorzugt, die <strong>in</strong> Summe von den heuristischen<br />

Regeln mehr Bonuspunkte<br />

bekommen. Damit können Charakteristika<br />

implementiert werden, die wünschenswert,<br />

aber nicht unbed<strong>in</strong>gt erfor<strong>der</strong>lich<br />

s<strong>in</strong>d. Mit dieser Methode lassen<br />

sich recht überzeugende musikalische<br />

Resultate erzielen was eigentlich nicht<br />

erstaunen sollte, zumal die Vorgangs-<br />

Das Bild wurde von <strong>der</strong> <strong>OCG</strong> mit <strong>der</strong> App Neuroflash erstellt, mit <strong>der</strong> Vorgabe: Bild von leuchtenden<br />

Strahlen, bunten Fäden und Mustern, die <strong>Musik</strong> visualisieren sollen, die aus e<strong>in</strong>em klassischen<br />

Instrument kommt, aber von e<strong>in</strong>er unsichtbaren Hand gespielt werden. Das Thema des<br />

Bildes soll im Kern Künstliche <strong>Intelligenz</strong> und <strong>Musik</strong> ausdrücken.<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

27


weise nicht unähnlich zu jener Methodik<br />

ist, welche <strong>in</strong> <strong>der</strong> Komponist*<strong>in</strong>nen-Ausbildung<br />

verwendet wird (Harmonielehre<br />

und Kontrapunkt). Bemerkenswert ist,<br />

dass <strong>der</strong>/die User*<strong>in</strong> bei Constra<strong>in</strong>ts Programm<strong>in</strong>g<br />

nicht e<strong>in</strong>en konstruktiven<br />

Weg angeben muss, WIE man zum gewünschten<br />

Ergebnis kommt. Das System<br />

f<strong>in</strong>det selbst – durch Permutieren – e<strong>in</strong>e<br />

Lösung. In diesem S<strong>in</strong>ne wirken Expert<br />

Systems „<strong>in</strong>telligent“. An<strong>der</strong>erseits ist diese<br />

Vorgangsweise durchaus transparent.<br />

<strong>Der</strong> Mensch ist durch das Aufstellen <strong>der</strong><br />

Regeln für das Ergebnis verantwortlich<br />

und die Beschaffenheit <strong>der</strong> Ergebnisse ist<br />

nachvollziehbar und überprüfbar.<br />

NEURONALE NETZE –<br />

ERGEBNISSE NICHT MEHR<br />

NACHVOLLZIEHBAR<br />

Bei aktuellen KIs aus künstlichen neuronalen<br />

Netzen ist das eher nicht <strong>der</strong> Fall.<br />

Durch viele tausend Tra<strong>in</strong><strong>in</strong>gsdurchgänge<br />

sedimentiert sich e<strong>in</strong>e Art von statistischem<br />

Wissen im Netzwerk, wie man von<br />

Fragen zu Antworten kommt. Wie aber<br />

e<strong>in</strong>e spezielle Antwort zustande kam, ist<br />

kaum nachvollziehbar. Bei Inputs, welche<br />

von den Tra<strong>in</strong><strong>in</strong>gsdaten nicht gut abgedeckt<br />

wurden, führt das möglicherweise<br />

zu Antworten, welche durch Interpolation<br />

zwischen denen <strong>der</strong> Tra<strong>in</strong><strong>in</strong>gsdaten<br />

liegen. Dabei ist zu bedenken, dass<br />

es Gebiete gibt, wo dieses Interpolieren<br />

S<strong>in</strong>n macht (z. B. Handschrifterkennung),<br />

während es <strong>in</strong> an<strong>der</strong>en Bereichen problematisch<br />

ist. In tonaler <strong>Musik</strong> s<strong>in</strong>d z. B.<br />

parallele Qu<strong>in</strong>t-, Oktav- und Prim-Intervalle<br />

verboten, parallele Terzen und Sexten<br />

beliebt, und gewisse parallele Intervallfortschreitungen<br />

kommen aus an<strong>der</strong>en<br />

Gründen nicht <strong>in</strong> Frage (Dissonanzen).<br />

Bei <strong>der</strong> Frage, ob e<strong>in</strong> Intervall parallel geführt<br />

werden darf, wäre die Interpolation<br />

zwischen Beispielsdaten also fatal, weil <strong>in</strong><br />

dieser Doma<strong>in</strong>e sehr diskrete, nicht <strong>in</strong>terpolierbare<br />

Pr<strong>in</strong>zipien herrschen.<br />

EIN EXPERIMENT<br />

Folgendes Experiment hat <strong>der</strong> Autor<br />

selbst durchgeführt. Dabei wurde <strong>in</strong><br />

ChatGPT4 folgen<strong>der</strong> Prompt e<strong>in</strong>gegeben:<br />

Hi ChatGPT, I would like you to help me<br />

and my colleagues with an artistic performance.<br />

Can you create a structure for<br />

this performance. There are 3 performers<br />

<strong>in</strong>volved: Soroosh is play<strong>in</strong>g a traditional<br />

Iranian <strong>in</strong>strument called setar, and also<br />

another electric setar. He is also s<strong>in</strong>g<strong>in</strong>g,<br />

requir<strong>in</strong>g lyrics for this. Mahdieh is a visual<br />

artist, and Johannes is play<strong>in</strong>g live<br />

electronics. The performance should last<br />

8 m<strong>in</strong>utes <strong>in</strong> total. Soroosh can play on<br />

his <strong>in</strong>strument <strong>in</strong> various styles, rang<strong>in</strong>g<br />

from traditional Iranian music over rock<br />

music to very experimental avant-garde<br />

style. He can switch between setar and<br />

electric setar and also s<strong>in</strong>g to lyrics given<br />

to him by you. Mahdieh will do live charcoal<br />

draw<strong>in</strong>g dur<strong>in</strong>g the performance<br />

on a canvas. The canvas will also have<br />

contact microphones captur<strong>in</strong>g sound<br />

from the actions from Mahdieh‘s pa<strong>in</strong>t<strong>in</strong>g.<br />

Johannes will play live electronics,<br />

either by captur<strong>in</strong>g and transform<strong>in</strong>g<br />

the sounds of Soroosh and/or Mahdieh<br />

with various electronic effects, but he<br />

can also play sound files with any k<strong>in</strong>d<br />

of sound and/or music. Please generate<br />

a structure <strong>in</strong> several sections, tell<strong>in</strong>g,<br />

what each performer should do <strong>in</strong> which<br />

section, def<strong>in</strong><strong>in</strong>g for example the style,<br />

the <strong>in</strong>tensity, the characteristics for each<br />

performer.<br />

ERGEBNIS VON CHATGPT 4:<br />

Section 1: Introduction<br />

(Duration: 1 m<strong>in</strong>ute)<br />

• Soroosh: Beg<strong>in</strong>s with a slow, melodic<br />

traditional Iranian setar piece, sett<strong>in</strong>g<br />

a reflective tone.<br />

• Mahdieh: Starts with broad, gentle<br />

strokes on the canvas, creat<strong>in</strong>g abstract<br />

shapes, captur<strong>in</strong>g the mood of<br />

Soroosh‘s music.<br />

• Johannes: Utilizes m<strong>in</strong>imal electronic<br />

effects, subtly amplify<strong>in</strong>g the setar‘s<br />

natural sound.<br />

Section 2: Transition<br />

(Duration: 1.5 m<strong>in</strong>utes)<br />

• Soroosh: Transitions to a rhythmic<br />

piece with elements of rock. Beg<strong>in</strong>s<br />

s<strong>in</strong>g<strong>in</strong>g with soft, lyrical voice:<br />

Verse 1: „In the echoes of ancient<br />

str<strong>in</strong>gs, / Through the halls of<br />

time it r<strong>in</strong>gs. / Melodies of ages past, /<br />

In mo<strong>der</strong>n chords, they‘re recast.“<br />

Chorus: „Bridges span from<br />

old to new, / In every note, a journey<br />

through. / Where tradition and tomorrow<br />

meet, / In harmony, they entw<strong>in</strong>e<br />

and greet.“<br />

• Mahdieh: Responds to the rhythm<br />

shift with more dynamic, expressive<br />

strokes, add<strong>in</strong>g texture.<br />

• Johannes: Starts captur<strong>in</strong>g Mahdieh‘s<br />

canvas sounds, blend<strong>in</strong>g them with<br />

Soroosh‘s music.<br />

Section 3: Exploration<br />

(Duration: 2 m<strong>in</strong>utes)<br />

• Soroosh: Switches to the electric setar,<br />

div<strong>in</strong>g <strong>in</strong>to an experimental avant-garde<br />

style, creat<strong>in</strong>g an <strong>in</strong>trigu<strong>in</strong>g<br />

soundscape.<br />

• Mahdieh: Intensifies her draw<strong>in</strong>g,<br />

us<strong>in</strong>g aggressive, rapid strokes to reflect<br />

the chaotic energy of the music.<br />

• Johannes: Processes the sounds from<br />

both performers, add<strong>in</strong>g electronic<br />

distortions and ambient sound files to<br />

enhance the avant-garde atmosphere.<br />

Section 4: Climax<br />

(Duration: 1.5 m<strong>in</strong>utes)<br />

• Soroosh: Comb<strong>in</strong>es elements of all<br />

previous styles <strong>in</strong>to a crescendo, blend<strong>in</strong>g<br />

traditional, rock, and experimental<br />

sounds.<br />

• Mahdieh: Reaches the peak of her visual<br />

performance, her movements becom<strong>in</strong>g<br />

almost performative, <strong>in</strong> sync<br />

with the music‘s <strong>in</strong>tensity.<br />

• Johannes: Fully <strong>in</strong>tegrates the sound<br />

collage, creat<strong>in</strong>g a powerful, immersive<br />

audio-visual experience.<br />

Section 5: Resolution<br />

(Duration: 2 m<strong>in</strong>utes)<br />

• Soroosh: Returns to the traditional setar,<br />

play<strong>in</strong>g a sooth<strong>in</strong>g, meditative melody,<br />

signal<strong>in</strong>g a return to the roots.<br />

• Mahdieh: Slows down her draw<strong>in</strong>g, add<strong>in</strong>g<br />

f<strong>in</strong>al touches, br<strong>in</strong>g<strong>in</strong>g a sense of<br />

closure to the visual narrative.<br />

• Johannes: Gradually fades out the<br />

electronic elements, leav<strong>in</strong>g the pure,<br />

unaltered sound of the setar to conclude<br />

the performance.<br />

Obiges wirkt auf den ersten Blick so, als<br />

ob ChatGPT durchaus wüsste, wovon<br />

28 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Schwerpunktthema<br />

es „spricht“. Bei genauerer Betrachtung<br />

wirken die Instruktionen allerd<strong>in</strong>gs recht<br />

klischeehaft. E<strong>in</strong>e <strong>Musik</strong>form <strong>in</strong> <strong>der</strong> Improvisation,<br />

die langsam und vorsichtig<br />

beg<strong>in</strong>nt, sich dann über 2/3 <strong>der</strong> Zeitdauer<br />

steigert, um sich am Ende wie<strong>der</strong> zu beruhigen,<br />

ist mittlerweile etwas, was improvisierende<br />

<strong>Musik</strong>er*<strong>in</strong>nen meist vermeiden<br />

bzw. bewusst zu durchbrechen<br />

suchen. Auch wenn man die Lyrics <strong>in</strong><br />

Section 2 betrachtet, fällt auf, dass <strong>der</strong> Inhalt<br />

und die Gestaltung sehr klischeehaft<br />

und bei genauerer Betrachtung ziemlich<br />

nichtssagend ausfällt. Auch dass alle drei<br />

Mitwirkenden praktisch immer parallel<br />

im Ausdruck vorgehen, ist nicht gerade<br />

orig<strong>in</strong>ell. (Seltsamerweise wird das auch<br />

nicht besser, wenn man ChatCPT auffor<strong>der</strong>t,<br />

weniger klischeehafte Anweisungen<br />

zu geben.)<br />

INHALT UND GESTALTUNG IST<br />

KLISCHEEHAFT UND ZIEMLICH<br />

NICHTSAGEND<br />

Bei e<strong>in</strong>er Aufführung im Rahmen von<br />

aNOther festival am 6. Oktober 20<strong>23</strong> an<br />

<strong>der</strong> mdw haben nach obigem Muster (allerd<strong>in</strong>gs<br />

<strong>in</strong> e<strong>in</strong>er 30-m<strong>in</strong>ütigen, ausführlicheren<br />

Version) Künstler*<strong>in</strong>nen versucht,<br />

sich an die Instruktionen <strong>der</strong> KI zu halten<br />

und diese auch durch Videoprojektion für<br />

das Publikum offengelegt. Es stellte sich<br />

heraus, dass die Performer*<strong>in</strong>nen relativ<br />

schnell von den Vorgaben <strong>der</strong> KI abwichen,<br />

dem musikalischen Flow folgend<br />

eigene Ideen weiterentwickelten bzw.<br />

auch wie<strong>der</strong> durchbrachen. E<strong>in</strong>e „getreue“<br />

Umsetzung <strong>der</strong> „Komposition“ <strong>der</strong><br />

KI fühlte sich nicht richtig an.<br />

Darauf wiesen wir die KI auch h<strong>in</strong>:<br />

Prompt: BTW, I have to tell you, that the<br />

artists might not always follow your <strong>in</strong>structions.<br />

What do you th<strong>in</strong>k about this<br />

attitude?<br />

ChatGPT antwortete diplomatisch:<br />

Artistic freedom is a fundamental aspect<br />

of creative expression. When artists<br />

deviate from given <strong>in</strong>structions, it can be<br />

a sign of their commitment to authenticity<br />

and spontaneity <strong>in</strong> their craft. It often<br />

leads to unexpected and <strong>in</strong>novative<br />

results that can enhance a performance<br />

or an artwork.<br />

Johannes Kretz<br />

ist Komponist,<br />

Electronics Performer<br />

und Artistic<br />

Researcher. Er leitet<br />

das Artistic Research<br />

Center an <strong>der</strong> mdw – Universität für<br />

<strong>Musik</strong> und darstellende Kunst Wien<br />

Bild: Reza Eshtehardi<br />

Das Bild wurde von <strong>der</strong> <strong>OCG</strong> mit <strong>der</strong> App Neuroflash erstellt, mit <strong>der</strong> Vorgabe „E<strong>in</strong>e Künstliche<br />

<strong>Intelligenz</strong> kreiert eigenständig <strong>Musik</strong>“.<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

29


Wie Christiane Floyd die Software-Entwicklung verän<strong>der</strong>te<br />

von Theresa Aich<strong>in</strong>ger-Fankhauser<br />

Von Menschen für Menschen<br />

Christiane Floyd gilt als Vorreiter<strong>in</strong> <strong>der</strong><br />

nutzer*<strong>in</strong>nenzentrierten Software-Entwicklung.<br />

Die Informatik-Pionier<strong>in</strong> und<br />

leidenschaftliche Wan<strong>der</strong><strong>in</strong> hat viele<br />

Wege beschritten – durch Wäl<strong>der</strong>, Netzwerke,<br />

Berge und Server. Am 26. April<br />

20<strong>23</strong> feierte sie ihren 80sten Geburtstag<br />

Christiane Floyd lehnt das Wort „Karriere“<br />

ab. Karriere ist e<strong>in</strong>e äußere Hülle, spricht<br />

von <strong>der</strong> Notwendigkeit, an<strong>der</strong>en etwas zu<br />

beweisen. <strong>Der</strong> eigene Weg lässt sich erst<br />

im Nachh<strong>in</strong>e<strong>in</strong> verstehen, ist sich Floyd<br />

sicher. Sie hat ihren Weg gemacht, nach<br />

ihrem Lebenspr<strong>in</strong>zip: Schritt für Schritt.<br />

Die österreichische Informatiker<strong>in</strong> und<br />

erste Informatikprofessor<strong>in</strong> im deutschsprachigen<br />

Raum ist e<strong>in</strong>e Wegbereiter<strong>in</strong><br />

<strong>der</strong> menschenzentrierten Informatik.<br />

Mit ihrem Konzept des evolutionären<br />

partizipativen Systemdesigns (STEPS)<br />

erf<strong>in</strong>det sie bereits <strong>in</strong> den 1980er Jahren<br />

e<strong>in</strong>en Vorläufer <strong>der</strong> agilen Methoden.<br />

Nach ihrem Mathematikstudium an <strong>der</strong><br />

Universität Wien lernt Floyd bei Siemens<br />

München programmieren und trägt<br />

wesentlich zur Entwicklung e<strong>in</strong>es Algol<br />

60-Compilers bei. 1968 bekommt sie e<strong>in</strong><br />

Angebot von Edward Feigenbaum aus<br />

Stanford für das Dendral-Projekt, das<br />

erste Expertensystem. „Die Zeit am AI-<br />

Lab hat mich fürs Leben geprägt. Es<br />

war die Zeit <strong>der</strong> ersten ‚Wun<strong>der</strong> <strong>der</strong> KI´“,<br />

sagt Floyd. „Schon damals hat mich<br />

aber die Gleichsetzung von Menschen<br />

mit Masch<strong>in</strong>en gestört. Das Verhältnis<br />

von Mensch und Masch<strong>in</strong>e ist e<strong>in</strong>e<br />

Grundfrage, die <strong>in</strong> <strong>der</strong> Informatik nicht<br />

auf den Tisch kommt, zu <strong>der</strong> wir jedoch<br />

alle <strong>in</strong> unserer Arbeit stillschweigend<br />

Stellung nehmen. Ich vertrete die Überzeugung,<br />

Menschen <strong>in</strong> den Mittelpunkt<br />

<strong>der</strong> Technikentwicklung zu stellen.“<br />

Seit den 1970ern steht diese Überzeugung<br />

im Zentrum ihres Schaffens. Damals<br />

ist die Informatik auf diese Idee<br />

nicht vorbereitet. Obwohl sich <strong>in</strong>teraktive<br />

Systeme zusehends verbreiteten, blendet<br />

das noch neue Fach Software Eng<strong>in</strong>eer<strong>in</strong>g<br />

den Nutzungs-Kontext aus und setzt<br />

feste Anfor<strong>der</strong>ungen voraus. Floyd kennt<br />

das aus eigener Erfahrung: 1973 kehrt sie<br />

nach München zurück und beg<strong>in</strong>nt bei<br />

<strong>der</strong> Softwarefirma Softlab an <strong>der</strong> Automatisierung<br />

des Rechenzentrums e<strong>in</strong>es<br />

großen Unternehmens zu arbeiten. „Als<br />

ich ankam, fragte ich: ‚Was passiert, wenn<br />

das System am Montag früh im Rechenzentrum<br />

angeschaltet wird?‘ Niemand<br />

hatte daran gedacht.“ Sie stellt sich die<br />

Arbeitsabläufe vor und entwickelt e<strong>in</strong><br />

Benutzungs-Modell, ähnlich späterer<br />

Use Cases. So wird das Projekt e<strong>in</strong> Erfolg.<br />

„Ich habe erkannt, dass e<strong>in</strong> Top-Down-<br />

Ansatz nie die Lösung se<strong>in</strong> kann. Wir<br />

müssen ständig mit den Anwen<strong>der</strong>*<strong>in</strong>nen<br />

kommunizieren“, ist Floyd sicher.<br />

VORREITERIN DER HU-<br />

MAN-COMPUTER INTERACTION<br />

Nach ihrer Berufung als Professor<strong>in</strong><br />

für Softwaretechnik an die TU Berl<strong>in</strong><br />

1978 will sie diese Herangehensweise<br />

auch an die Universität br<strong>in</strong>gen.<br />

„Mir wurde vorgeworfen, me<strong>in</strong>e<br />

Arbeit sei unwissenschaftlich.“<br />

Doch sie entwickelt mit ihren Mitarbeiter*<strong>in</strong>nen,<br />

allen voran Fanny-Michaela<br />

Reis<strong>in</strong> und Re<strong>in</strong>hard Keil, den Ansatz<br />

STEPS („Softwaretechnik für Evolutionäre<br />

Partizipative Systementwicklung“), <strong>der</strong><br />

auf Prototyp<strong>in</strong>g, versionsorientierte Entwicklung<br />

und kont<strong>in</strong>uierliche Kommunikation<br />

mit den Benutzer*<strong>in</strong>nen setzt.<br />

Diese Sichtweise ist mittlerweile <strong>in</strong> <strong>der</strong><br />

Human-Computer Interaction etabliert,<br />

doch bleibt das Zusammenspiel<br />

mit <strong>der</strong> Software-Entwicklung e<strong>in</strong>e Herausfor<strong>der</strong>ung.<br />

„In <strong>der</strong> Praxis müssen<br />

wir die Nutzungs-Sicht mit <strong>der</strong> technischen<br />

Sicht verb<strong>in</strong>den. Daher kommt<br />

es darauf an, schon <strong>in</strong> <strong>der</strong> Ausbildung<br />

unterschiedliche Denkweisen <strong>der</strong> Informatik<br />

zu <strong>in</strong>tegrieren“, sagt Floyd.<br />

Die E<strong>in</strong>führung ihrer neuen Methoden<br />

führt zu Spannungen mit manchen<br />

Kollegen. Als Hartmut Ehrig<br />

und Christiane Floyd 1985 die erste<br />

TAPSOFT-Konferenz organisieren, f<strong>in</strong>den<br />

sie e<strong>in</strong>en produktiven Weg, unterschiedliche<br />

Sichtweisen zusammenzubr<strong>in</strong>gen.<br />

KEINE EINZELKÄMPFERIN<br />

Noch viel tiefgreifen<strong>der</strong> befasst sich<br />

Floyd mit den Grundlagen ihres Faches<br />

<strong>in</strong> ihrem Buch „Software Development<br />

and Reality Construction“ (Softwareentwicklung<br />

und Realitätskonstruktion). Hier<br />

zeigen Informatiker*<strong>in</strong>nen und Philosoph*<strong>in</strong>nen<br />

unterschiedliche Perspektiven<br />

auf die <strong>in</strong>tellektuelle Tradition <strong>der</strong> Softwareentwicklung<br />

als gestalterische und<br />

kreative Tätigkeit. „Me<strong>in</strong> wissenschaftliches<br />

Leben war geprägt von Zusammenarbeit<br />

und Freundschaft. Ich sehe<br />

mich nicht als E<strong>in</strong>zelkämpfer<strong>in</strong>, son<strong>der</strong>n<br />

im Schnittpunkt verschiedener geistiger<br />

Strömungen, die mich durch den <strong>in</strong>tensiven<br />

Austausch mit an<strong>der</strong>en Forscher*<strong>in</strong>nen<br />

erreicht haben“, ist Floyd überzeugt.<br />

„Eng verbunden war ich beson<strong>der</strong>s mit<br />

dem Kybernetiker He<strong>in</strong>z von Foerster,<br />

<strong>der</strong> für mich wie e<strong>in</strong> Mentor war.“<br />

1991 folgt sie e<strong>in</strong>em Ruf an die Universität<br />

Hamburg, wo sie bis zu ihrer<br />

Emeritierung 2008 die Fachgruppe<br />

Softwaretechnik zusammen mit He<strong>in</strong>z<br />

Züllighoven leitet und eng mit Wolf-Gideon<br />

Bleek, Ingrid Schirmer und Carola<br />

Lilienthal zusammenarbeitet.<br />

Im Jahr 2012 wird sie zur Honorarpro-<br />

30 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Intern<br />

Christiane Floyd während ihrer Zeit bei <strong>der</strong> Firma Softlab, Bild aus privatem<br />

Archiv, (c) Elisabeth Biron<br />

Das Titelblatt des Buches „Software Development and<br />

Reality Construction“ (c) Christiane Floyd<br />

fessor<strong>in</strong> <strong>der</strong> Fakultät für Informatik an<br />

<strong>der</strong> TU Wien ernannt. Das Motto <strong>der</strong><br />

TU Wien lautet bekanntlich „Technik<br />

für Menschen“. „Das habe ich me<strong>in</strong><br />

ganzes Leben gemacht – ich fühle<br />

mich wie zu Hause“, schmunzelt Floyd.<br />

Christiane Floyd setzt sich bis heute <strong>in</strong>tensiv<br />

für e<strong>in</strong>e gleichberechtigte Nutzung<br />

und Implementierung von Technologien<br />

e<strong>in</strong>. „Die Kluft zwischen Menschen, die IT<br />

frei nutzen können und jenen, die ke<strong>in</strong>en<br />

Zugang haben, wird immer größer“,<br />

stellt sie fest. Schon <strong>in</strong> den 80er Jahren<br />

sucht sie nach Wegen, um die Nutzung<br />

von Computern <strong>in</strong> Entwicklungslän<strong>der</strong>n<br />

zu för<strong>der</strong>n. „Aber damals war die Hilfe oft<br />

fehlgeleitet und stärkte vor allem die Regierung<br />

despotischer Führer.“ An <strong>der</strong> TU<br />

Berl<strong>in</strong> ist Floyd nach ihrer Berufung auch<br />

Vertrauensdozent<strong>in</strong> für ausländische Studierende.<br />

„Das öffnete mir die Augen für<br />

die völlig an<strong>der</strong>en Lebenswirklichkeiten<br />

von Studierenden aus Entwicklungslän<strong>der</strong>n.<br />

Informatik, wie wir sie lehren,<br />

beruht darauf, dass wir <strong>in</strong> e<strong>in</strong>em Industrieland<br />

leben und arbeiten – von <strong>der</strong><br />

Technik bis zu den Organisationsstrukturen,<br />

von <strong>der</strong> Ausbildung bis zur Arbeitsteilung.<br />

In e<strong>in</strong>em Entwicklungsland s<strong>in</strong>d<br />

die Strukturen, auf die wir uns verlassen,<br />

nur ansatzweise vorhanden“, sagt Floyd.<br />

PROJEKT TEMACC ETHIOPIA<br />

Seit 2006 ist Christiane Floyd <strong>in</strong> Äthiopien<br />

engagiert. In den ersten Jahren berät<br />

sie geme<strong>in</strong>sam mit Tesfaye Biru die Universität<br />

Addis Abeba beim Aufbau e<strong>in</strong>es<br />

Promotionsstudiengangs. Später ist sie<br />

Mitgrün<strong>der</strong><strong>in</strong> des Projekts TEMACC Ethiopia<br />

(Technology Enabled Maternal and<br />

Child healthCare) <strong>der</strong> Johannes Kepler<br />

Universität L<strong>in</strong>z und <strong>der</strong> Universität Addis<br />

Abeba, geför<strong>der</strong>t vom österreichischen<br />

Programm APPEAR. Gustav Pomberger,<br />

Johannes Samet<strong>in</strong>ger und Peter Oppelt<br />

von <strong>der</strong> JKU s<strong>in</strong>d die Partner von Rahel<br />

Bekele, Tesfaye Biru und ihrem äthiopischen<br />

Team. Das Ziel ist, mit Hilfe von<br />

IKT den Zugang von Müttern zum Gesundheitssystem<br />

<strong>in</strong> ländlichen Gebieten<br />

zu verbessern, um die Mütter- und<br />

K<strong>in</strong><strong>der</strong>sterblichkeit zu senken. Bewährte<br />

Methoden zur partizipativen Systementwicklung<br />

werden kontextualisiert. In e<strong>in</strong>em<br />

Pilotprojekt führt das äthiopische<br />

Team Feldforschung durch, entwickelt<br />

und erprobt e<strong>in</strong>e Informations-App für<br />

Mütter rund um Schwangerschaft und<br />

Geburt sowie Software zur Unterstützung<br />

von Kommunikation und <strong>der</strong> Arbeit des<br />

Gesundheitspersonals. Jetzt geht es um<br />

die Weiterverwendung <strong>der</strong> Ergebnisse.<br />

Für die Zukunft hofft Christiane Floyd,<br />

dass humanistische Werte den technischen<br />

Fortschritt wesentlich mitbestimmen:<br />

„Die Lösungen s<strong>in</strong>d da, wir<br />

müssen nur den Mut haben,<br />

uns auf den Weg zu machen.“<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

31


Connected Boot - <strong>der</strong> vernetzte Schischuh<br />

Elisabeth Häusler im Gespräch mit Ronald Bieber<br />

Houskapreis für außeruniversitäre<br />

Forschung<br />

<strong>Der</strong> Houskapreis ist <strong>der</strong> größte Preis für<br />

anwendungsnahe Forschung <strong>in</strong> Österreich.<br />

<strong>Der</strong> nach dem Stiftungsmitglied<br />

Wolfgang Houska benannte Preis wird<br />

seit 2006 jährlich von <strong>der</strong> B&C Privatstiftung<br />

vergeben.<br />

Ronald Bieber: Sie haben e<strong>in</strong>en sehr<br />

<strong>in</strong>teressanten Lebenslauf - von <strong>der</strong> Tourismus-Schule<br />

über die FH zur Houskapreisträger<strong>in</strong><br />

20<strong>23</strong> mit e<strong>in</strong>em spannenden<br />

Projekt bei Salzburg Research <strong>in</strong><br />

Kooperation mit Atomic. Können Sie uns<br />

Ihr Houskapreis-Projekt <strong>in</strong> wenigen Worten<br />

beschreiben.<br />

Elisabeth Häusler: <strong>Der</strong> Connected Boot<br />

bewertet die Qualität des Skifahrens. Mit<br />

Hilfe verschiedener Sensortechnologien<br />

und Masch<strong>in</strong>ellem Lernen wird das <strong>in</strong>dividuelle<br />

Fahrverhalten gemessen, skirelevante<br />

Parameter wie Aufkantw<strong>in</strong>kel<br />

o<strong>der</strong> Geschw<strong>in</strong>digkeit berechnet und<br />

das Fahrkönnen mit dem speziell entwickelten<br />

und wissenschaftlich verifizierten<br />

Carv<strong>in</strong>g Score beurteilt. Die Daten<br />

werden an das Smartphone übertragen<br />

und s<strong>in</strong>d sofort aufrufbar. Die Skifahrenden<br />

erhalten dadurch besseren E<strong>in</strong>blick<br />

<strong>in</strong> ihre eigene Leistung, können an <strong>der</strong><br />

Technik feilen und so das Skierlebnis verbessern.<br />

Diese Innovation bildet e<strong>in</strong>en<br />

wichtigen Meilenste<strong>in</strong> auf dem Weg zu<br />

weiteren digital vernetzten Produkten.<br />

S<strong>in</strong>d Sie selber Skifahrer<strong>in</strong>?<br />

Ja, ich b<strong>in</strong> leidenschaftliche Skifahrer<strong>in</strong><br />

– vor allem mit <strong>der</strong> Familie. Und <strong>der</strong><br />

Connected Boot hilft, direkt auf <strong>der</strong> Piste<br />

e<strong>in</strong>e Rückmeldung zur letzten Abfahrt zu<br />

bekommen.<br />

Sie arbeiten mit <strong>der</strong> Universität Salzburg<br />

und Atomic zusammen. Wie kamen diese<br />

Kooperationen zustande?<br />

Mit beiden Organisationen verb<strong>in</strong>det uns<br />

e<strong>in</strong>e langjähre Partnerschaft. Durch die<br />

laufende Zusammenarbeit werden immer<br />

wie<strong>der</strong> geme<strong>in</strong>sam <strong>in</strong>novative Ideen<br />

gesponnen und e<strong>in</strong>ige davon auch prototypisch<br />

umgesetzt.<br />

Haben sich aus diesem Projekt auch an<strong>der</strong>e<br />

Kooperation entwickelt – wie z. B.<br />

mit dem Österreichischen Skiverband<br />

(die <strong>der</strong>zeitige Präsident<strong>in</strong> ist ja auch<br />

Salzburger<strong>in</strong>)?<br />

Aus dieser Zusammenarbeit wurde das<br />

COMET-Projekt „Digital Motion“ entwickelt.<br />

<strong>Der</strong> Connected Boot ist e<strong>in</strong> Vorreiter<br />

für smarte Produkte <strong>in</strong> <strong>der</strong> Ski-Branche,<br />

aber auch für an<strong>der</strong>e Sportarten, wie z. B.<br />

Laufen. Dadurch ist auch adidas Partner<br />

im COMET-Projekt. In diesem Großprojekt<br />

s<strong>in</strong>d alle relevanten Stakehol<strong>der</strong> aus<br />

den Bereichen Sport und Fitness vere<strong>in</strong>t<br />

– entlang <strong>der</strong> ganzen Werte – von <strong>der</strong><br />

Integration, z. B. Inf<strong>in</strong>eon, Digital Elektronik<br />

aus Salzburg, die Grabher Group mit<br />

Schwerpunkt auf Smart Textiles aus Vorarlberg<br />

- bis h<strong>in</strong> zur Evaluierung im Feld,<br />

<strong>in</strong> <strong>der</strong> die smarten Produkte, z. B. <strong>in</strong> <strong>der</strong><br />

Region Schladm<strong>in</strong>g-Dachste<strong>in</strong> o<strong>der</strong> Ski<br />

Amadé, dann auch getestet werden können.<br />

Sie haben mit diesem Projekt bereits 9<br />

Patente angemeldet. Wie wird es mit<br />

diesem Projekt weitergehen?<br />

Die Patente wurden vom Industriepartner<br />

angemeldet, <strong>der</strong> sich damit die Nische<br />

von IoT-Produktentwicklung im alp<strong>in</strong>en<br />

Skifahren gesichert hat. <strong>Der</strong> Boot ist<br />

<strong>der</strong>zeit <strong>in</strong> unterschiedlichen weiterführenden<br />

Forschungsaktivitäten im E<strong>in</strong>satz.<br />

Können Sie kurz über Ihren beruflichen<br />

Werdegang berichten.<br />

Nach <strong>der</strong> Matura an <strong>der</strong> Tourismusschule<br />

Klessheim <strong>in</strong> Salzburg absolvierte ich<br />

2001 an <strong>der</strong> FH Salzburg-Urste<strong>in</strong> me<strong>in</strong> Diplom<br />

<strong>in</strong> Telekommunikationstechnik und<br />

-systeme. Zu Salzburg Research habe ich<br />

durch e<strong>in</strong> Praktikum gefunden. Seit 2020<br />

leitet ich dort den Bereich „Human Motion<br />

Analytics“. Seit 2019 arbeite ich zudem<br />

an me<strong>in</strong>em Doktorat zum Thema IoT<br />

New Product Development, also die Entwicklung<br />

von smarten Produkten und<br />

dessen Herausfor<strong>der</strong>ungen.<br />

Wann haben Sie Ihre Begeisterung zu<br />

Informatik/Technik gespürt?!<br />

E<strong>in</strong>e Aff<strong>in</strong>ität zu Informatik und Technik<br />

wurde mir quasi <strong>in</strong> die Wiege gelegt – vor<br />

allem durch me<strong>in</strong>e zwei Brü<strong>der</strong>. Nach <strong>der</strong><br />

Matura habe ich mich für e<strong>in</strong> Studium<br />

an <strong>der</strong> FH Salzburg entschieden, weil das<br />

Angebot dort sehr praxisnah war.<br />

Viele junge Forschende s<strong>in</strong>d beruflich oft<br />

Suchende - haben Sie vielleicht Tipps für<br />

diese Gruppe, wie man Durststrecken<br />

überbrückt, Wege f<strong>in</strong>det, um <strong>in</strong>teressante<br />

berufliche Herausfor<strong>der</strong>ungen zu<br />

f<strong>in</strong>den?<br />

Me<strong>in</strong> Tipp für junge Menschen: Zuerst<br />

die Basics lernen – daran führt ke<strong>in</strong> Weg<br />

vorbei. Durch das Tun kommt die Freude<br />

und wächst das Interesse. Und durch<br />

Interesse wird <strong>der</strong> Blick für Innovationen<br />

32 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong>


Intern<br />

geschärft. Gerade <strong>der</strong> Technologiebereich<br />

bietet viele verschiedene Facetten<br />

und Nischen. Daraus ergeben sich mannigfaltige<br />

Berufsbil<strong>der</strong>, die sich immer<br />

weiterentwickeln und dadurch immer<br />

wie<strong>der</strong> neue Perspektiven bieten.<br />

Welche Visionen haben Sie für Ihre berufliche<br />

Zukunft?<br />

Me<strong>in</strong> nächstes Ziel ist, das Doktorat abzuschließen.<br />

In <strong>der</strong> außeruniversitären Forschung<br />

möchte ich weiterh<strong>in</strong> die Innovationskraft<br />

heimischer und <strong>in</strong>ternationaler<br />

Unternehmen im Bereich Sport, Gesundheit,<br />

Prävention und Fitness mit smarter<br />

Technologie auf e<strong>in</strong> nächstes Level heben.<br />

Mit e<strong>in</strong>em starken Fokus auf Endkonsument<strong>in</strong>nen<br />

und -konsumenten<br />

und den Technologiestandort Österreich<br />

können wir geme<strong>in</strong>sam viel bewirken.<br />

Als Houskapreisträger<strong>in</strong> - welche Message<br />

möchten Sie jungen Forschenden<br />

weitergeben?<br />

Ich empfehle für Innovationen zu arbeiten<br />

und zu forschen, die wirtschaftliche<br />

und technologische Relevanz haben.<br />

So bleibt die Kreativleistung nicht <strong>in</strong> <strong>der</strong><br />

Schublade liegen, son<strong>der</strong>n kann sich am<br />

Markt behaupten.<br />

Haben Sie im Vorfeld schon von <strong>der</strong> Österreichischen<br />

Computer Gesellschaft<br />

gehört? Wenn ja, wann war das?<br />

Me<strong>in</strong> ältester Bru<strong>der</strong> hat mehrmals an<br />

<strong>der</strong> Informatik-Olympiade <strong>der</strong> <strong>OCG</strong> teilgenommen<br />

und auch gewonnen. Dadurch<br />

ist mir die <strong>OCG</strong> von K<strong>in</strong>dheit an e<strong>in</strong><br />

Begriff.<br />

Die <strong>OCG</strong> steht u. a. für Informatikför<strong>der</strong>ung<br />

bei K<strong>in</strong><strong>der</strong>n und Jugendlichen? Haben<br />

Sie Tipps, wie wir noch mehr Mädchen<br />

für MINT begeistern können?<br />

Ich b<strong>in</strong> <strong>der</strong> vollen Überzeugung, dass<br />

MINT-För<strong>der</strong>ung bereits im jüngsten Alter<br />

im Elternhaus, im K<strong>in</strong><strong>der</strong>garten und<br />

sogar schon <strong>in</strong> <strong>der</strong> Krabbelgruppe beg<strong>in</strong>nen<br />

muss. Durch die eigene Erziehung,<br />

Interesse wecken und ihre zwei Brü<strong>der</strong><br />

hat me<strong>in</strong>e Tochter auch ke<strong>in</strong>e Scheu vor<br />

technischen o<strong>der</strong> naturwissenschaftlichen<br />

Themen. In <strong>der</strong> Schule sollte dann<br />

logische Denken tra<strong>in</strong>iert werden – und<br />

zwar nicht nur <strong>in</strong> Mathematik, son<strong>der</strong>n<br />

umfassend und fächerübergreifend. Und<br />

das Arbeitsmaterial und auf e<strong>in</strong>fache<br />

Art programmier- und konfigurierbares<br />

Spielzeug existiert, das auch Mädchen<br />

anspricht. Aber es könnte mehr geben.<br />

Außerdem muss För<strong>der</strong>ung auch gefor<strong>der</strong>t<br />

werden – auf allen Ebenen. Auch das<br />

sehe ich als wertvollen Beitrag <strong>der</strong> <strong>OCG</strong>.<br />

Houskapreis<br />

<strong>Der</strong> Houskapreis wurde von <strong>der</strong> B&C Privatstiftung<br />

im Jahr 2005 <strong>in</strong>s Leben gerufen, um die f<strong>in</strong>anziellen<br />

Grundlagen für Innovation und Forschung <strong>in</strong><br />

Österreich zu verbessern und ihre Wertschätzung<br />

für die hervorragende Forschungsarbeit auszudrücken,<br />

die <strong>in</strong> Österreich geleistet wird. Mit e<strong>in</strong>er<br />

Dotierung von <strong>in</strong>sgesamt 750.000 Euro ist <strong>der</strong><br />

Houskapreis <strong>der</strong> größte private Preis für anwendungsnahe<br />

Forschung <strong>in</strong> Österreich.<br />

Über das Projekt:<br />

Elisabeth Häusler und ihr Forschungsteam von<br />

<strong>der</strong> Salzburg Research Forschungsgesellschaft<br />

mbH gewann <strong>in</strong> <strong>der</strong> Kategorie „Außeruniversitäre<br />

Forschung“ den 1. Platz.<br />

Elisabeth Häusler mit Forschungsteam (c) Gregor Hofbauer<br />

Projektbeschreibung: Im Sport spielen die Messung und Bewertung <strong>der</strong> Bewegungsqualität e<strong>in</strong>e wichtige Rolle. Bestehende<br />

Systeme s<strong>in</strong>d oft ungenau und nicht auf bestimmte Sportarten, wie z. B. Skifahren, ausgerichtet. Mit dem Connected (CTD)<br />

Boot, welcher vom Forschungs<strong>in</strong>stitut Salzburg Research und <strong>der</strong> Universität Salzburg entwickelt wurde, kann die Qualität des<br />

Skifahrens mit Hilfe verschiedener Sensortechnologien sowie masch<strong>in</strong>ellem Lernen bewertet und <strong>in</strong> weiterer Folge verbessert<br />

werden. <strong>Der</strong> CTD-Boot kann durch Sensoren das <strong>in</strong>dividuelle Fahrverhalten messen, skirelevante Parameter wie Aufkantw<strong>in</strong>kel<br />

o<strong>der</strong> Geschw<strong>in</strong>digkeit berechnen sowie das Fahrkönnen mit dem speziell entwickelten und wissenschaftlich verifizierten<br />

Carv<strong>in</strong>g Score beurteilen. Die Daten werden an das Smartphone übertragen und s<strong>in</strong>d sofort aufrufbar. Dies war bisher nur <strong>in</strong><br />

e<strong>in</strong>em Labor möglich. Die Skifahrenden erhalten dadurch besseren E<strong>in</strong>blick <strong>in</strong> ihre eigene Leistung, können an <strong>der</strong> Technik<br />

feilen und so das Skierlebnis verbessern. Die Salzburg Research hat für diese Technologie bereits neun Patente angemeldet.<br />

Diese Innovation bildet e<strong>in</strong>en wichtigen Meilenste<strong>in</strong> auf dem Weg zu weiteren digital vernetzten Produkten.<br />

04 • 20<strong>23</strong> | <strong>OCG</strong> <strong>Journal</strong><br />

33


Informatiker Georg Gottlieb hielt Zemanek Lecture <strong>in</strong> Wien über Künstliche Ignoranz<br />

von Kathar<strong>in</strong>a Resch-Schobel<br />

Künstliche <strong>Intelligenz</strong> muss<br />

noch viel lernen<br />

Im ehrwürdigen Ambiente des Festsaals<br />

<strong>der</strong> Universität Wien wurden die rund<br />

200 Anwesenden am Donnerstag, 5. Oktober<br />

20<strong>23</strong>, <strong>in</strong> die fasz<strong>in</strong>ierende Welt des<br />

masch<strong>in</strong>ellen Lernens entführt. In se<strong>in</strong>er<br />

Zemanek Lecture, welche die Österreichische<br />

Computer Gesellschaft (<strong>OCG</strong>) e<strong>in</strong>mal<br />

jährlich zu Ehren des Computerpioniers<br />

He<strong>in</strong>z Zemanek veranstaltet, sprach<br />

Gottlob über Künstliche <strong>Intelligenz</strong> und<br />

Künstliche Ignoranz. <strong>Der</strong> Österreicher<br />

forscht an <strong>der</strong> Universität Oxford zu Algorithmen<br />

und Komplexitätsproblemen<br />

im Zusammenhang mit Graphen und<br />

Hypergraphen, Datenbankabfragesprachen<br />

und Problemzerlegungsmethoden.<br />

Gottliebs Vorredner Prof. Peter Reichl von<br />

<strong>der</strong> Universität Wien sprach zum 400.<br />

Geburtstag des Computers. In se<strong>in</strong>em<br />

unterhaltsamen Vortrag weckte <strong>der</strong> Professor<br />

Lust, mehr über die Geschichte<br />

des Computers zu erfahren. Reichls Buch<br />

„Homo cyber” ist soeben im Müry Salzmann<br />

Verlag erschienen.<br />

Gabriele Kotsis, Johannes-Kepler-Universität,<br />

mo<strong>der</strong>ierte die Veranstaltung und<br />

rief dazu auf, <strong>der</strong> Wissenschaft zuzuhören,<br />

um Krisen zu überw<strong>in</strong>den. <strong>Der</strong> Vizerektor<br />

<strong>der</strong> Universität Wien, Ronald Maier,<br />

zuständig für Digitalisierung und Wissenstransfer,<br />

freute sich, <strong>in</strong> se<strong>in</strong>em Haus<br />

das Vermächtnis von He<strong>in</strong>z Zemanek zu<br />

ehren. <strong>OCG</strong>-Präsident Thomas Mück begrüßte<br />

die Gäste im Namen <strong>der</strong> <strong>OCG</strong>.<br />

<strong>Der</strong> Festsaal <strong>der</strong> Universität Wien war gut gefüllt.<br />

Georg Gottlob am Podium.<br />

Peter Reichl und Georg Gottlob<br />

34 <strong>OCG</strong> <strong>Journal</strong> | 04 • 20<strong>23</strong><br />

Viktor Kudielka, Mitglied des damaligen „Mailüfterl“-Teams<br />

Edgar Weippl, Niki Popper und Ronald Bieber<br />

Alle Fotos vom Event f<strong>in</strong>den Sie auf unserem<br />

Flickr Kanal „Österreichische Computer Gesellschaft“<br />

(c) <strong>OCG</strong>/Scheitz


Intern<br />

Veranstaltungen und Term<strong>in</strong>e<br />

IRI§ 24<br />

Internationales Rechts<strong>in</strong>formatik Symposium<br />

14. - 17. Februar 2024, Salzburg und onl<strong>in</strong>e <strong>in</strong> Wien<br />

https://iris-conferences.eu/iris24<br />

Tra<strong>in</strong>DL Summit<br />

Abschlussveranstaltung des Projektes Tra<strong>in</strong>DL<br />

22. - <strong>23</strong>. Februar 2024, Berl<strong>in</strong><br />

tra<strong>in</strong>.d..eu<br />

Informatiktag an <strong>der</strong> JKU<br />

Herausfor<strong>der</strong>ungen und Angebote für Schulen<br />

6. März 2024, L<strong>in</strong>z<br />

<strong>in</strong>formatik.jku.at/<strong>in</strong>formatiktag24/<br />

NIS-2 Bus<strong>in</strong>ess Breakfast<br />

EU Richtl<strong>in</strong>ie im Überlick<br />

12. März 2024, Wien<br />

ocg.at/nis-2-richtl<strong>in</strong>ie<br />

För<strong>der</strong>preise und Zemanek Preis<br />

Ende <strong>der</strong> E<strong>in</strong>reichs- und Nom<strong>in</strong>ierungsfrist:<br />

14. März 2024<br />

ocg.at/wissenschaftliche-wettbewerbe<br />

EDU|days<br />

Tagung für Lehrende<br />

3. - 4. April 2024, Krems<br />

edudays.at<br />

dHealth 2024<br />

18th Annual Conference on Health Informatics meets<br />

Digital Health<br />

7. - 8. Mai 2024, Wien<br />

dhealth.at<br />

ICCHP 2024<br />

International Conference on Computers Help<strong>in</strong>g People<br />

with Special Needs<br />

8. - 12. Juli 2024<br />

icchp-aaate.org<br />

European Girls´Olympiad <strong>in</strong> Informatics<br />

21. - 27. Juli 2024, Veldhofen, Nie<strong>der</strong>lande<br />

egoi2024.nl<br />

International Olympiad <strong>in</strong> Informatics<br />

01. - 08. September 2024, Alexandria, Ägypten<br />

ioi2024,eg<br />

CEEE|Gov Days 2024<br />

Central and Eastern e|Dem and e|Gov Days 2024<br />

12. - 13. September 2024, Budapest<br />

ceeegov2024.ocg.at<br />

IMPRESSUM<br />

Das <strong>OCG</strong> <strong>Journal</strong> ist die Mitglie<strong>der</strong>zeitschrift <strong>der</strong> Österreichischen Computer<br />

Gesellschaft (<strong>OCG</strong>). Inhaltlich wird das <strong>Journal</strong> <strong>in</strong> völliger Unabhängigkeit gestaltet<br />

und berichtet über die <strong>OCG</strong> Leitthemen Ausbildung und Qualität, Innovation und<br />

Start-ups, <strong>in</strong>ternationale Vernetzung und digitale Zivilgesellschaft.<br />

ISSN 1728-743X<br />

Medien<strong>in</strong>haber und Herausgeber:<br />

Österreichische Computer Gesellschaft (<strong>OCG</strong>)<br />

Präsident: Dr. Thomas Mück<br />

Generalsekretär und Leitung <strong>der</strong> Redaktion: Dr. Ronald Bieber<br />

Redaktion: Ir<strong>in</strong>a Scheitz, Kathar<strong>in</strong>a Resch-Schobel, Josef<strong>in</strong>e Hiebler<br />

Layout und DTP: <strong>OCG</strong> | Josef<strong>in</strong>e Hiebler<br />

Lektorat: Kathar<strong>in</strong>a Resch-Schobel<br />

Fotos: Archiv <strong>OCG</strong>, Autor*<strong>in</strong>nen, Privatarchive, istock<br />

Kontakt: <strong>in</strong>fo@ocg.at | URL: www.ocg.at<br />

Alle: Wollzeile 1, 1010 Wien | Tel.: +43 1 512 02 35-0<br />

Druck: Pr<strong>in</strong>t Alliance HAV Produktions GmbH, 2540 Bad Vöslau<br />

https://pr<strong>in</strong>talliance.at/fairpr<strong>in</strong>t


IT-Sicherheit zertifizieren<br />

ISO/IEC 27001<br />

Wir zertifizieren Ihre Informationssicherheit<br />

nach ISO/IEC 27001 und bieten als<br />

Qualifizierte Stelle auch Prüfungen nach dem<br />

NISG an.<br />

istock<br />

www.ocgcert.com<br />

Österreichische Computer Gesellschaft • 1010 Wien • Wollzeile 1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!