Das Ziel dieses Papers ist eine Veranschaulichung der Verwendungsmöglichkeiten von Markov Models und Hidden Markov Models in der algorithmischen Komposition. Zu diesem Zweck werden die jeweiligen Modelle sowohl erklärt als auch mit Anwendungsbeispielen aus der Forschung verdeutlicht. Es wird versucht, durch besonders interessante Fälle Denkanstöße für den zukünftigen Gebrauch solcher Modelle in der Komposition zu bieten.
Inhaltsverzeichnis
1 Einleitung
2 Markov Model
2.1 Stilkopie
2.2 Komposition ohne Korpus
2.3 Herausforderungen des MMs in der Komposition
3 Hidden Markov Model
3.1 3 Probleme des HMM
3.2 Jazz-Improvisationen aus Motiven
3.3 Kontrapunktische Ergänzung
3.4 Hierarchische Modelle
3.5 Stilerkennung
4 Fazit
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abstract
Das Ziel dieses Papers ist eine Veranschaulichung der Verwendungsmöglichkeiten von Markov Models und Hidden Markov Models in der algorithmischen Komposition. Zu diesem Zweck werden die jeweiligen Modelle sowohl erklärt als auch mit Anwendungs- beispielen aus der Forschung verdeutlicht. Es wird versucht, durch besonders interes- sante Fälle Denkanstöße für den zukünftigen Gebrauch solcher Modelle in der Kompo- sition zu bieten.
1 Einleitung
Seit es die „calculating engine“ gibt, dem Vorfahren des Computers, besteht ein Interesse an Computer-generierter Musik. Die Erfinderin der „calculating engine“, Ada Lovelace, sagt bereits im 19. Jahrhundert:
„Supposing, for instance, that the fundamental relations of pitched sound in the signs of harmony and of musical composition were susceptible of such expression and adapta- tions, the engine might compose elaborate and scientific pieces of music of any degree of complexity or extent" [1]
Diese Arbeit beschäftigt sich mit dem ersten Ansatz, mithilfe von Computern Musik zu generieren. Der Mathematiker Andrey Andreyevich Markov (1856–1922) schrieb 1913 in der Neuauflage seines ersten Buches über seinen Ansatz der Betrachtung einer Buch- stabenfolge als eine simple Kette. Darin analysiert er die Abfolge von 20.000 Buchstaben im Gedicht „Eugen Onegin“ von A. S. Pushkin hinsichtlich der Wahrscheinlichkeit des Aufeinanderfolgens von Konsonanten und Vokalen. So errechnete er die Wahrscheinlich- keit von 0.128, dass auf einen Vokal ein weiterer Vokal folgt. Die Wahrscheinlichkeit, dass ein Vokal einem Konsonanten folgt, beträgt 0.663. Außerdem war die stationäre Wahrscheinlichkeit eines Vokals 0.432. Erst 1926 wurde diese Art stochastischer Ketten Markov-Ketten genannt. [2, S. 67]
Bis zur ersten bekannten musikalischen Anwendung dauerte es weitere 20 Jahre. Lejaren Hiller und Leonard Isaacson produzierten an der University of Illinois 1955-56 die „Illiac Suite“ aus 4 Kompositionen für ein Streichquartett.
„In ‘experiment four’, Hiller and Isaacson use Markov Models of variable order for the generation of musical structure. Amongst others, these Markov Models serve to select notes under various musical aspects, like the succession of skips and stepwise motions, the progression from consonant to dissonant intervals or even sound textures, which can be related to a tonal center in order to establish a distinct tonality.” [2][2, S. 72]
Obwohl Hiller und Isaacson versuchten, jede Entscheidung in der Komposition dem Computer zu überlassen, klingen vor allem die ersten zehn Sekunden sehr harmonisch. Man hat über weite Strecken des Stücks ein Gefühl von Struktur.
Im Gegensatz dazu nutzte Iannis Xenakis, berühmt für seine Experimente in der Kompo- sition mit mathematischen Strukturen, MM lediglich zur Unterstützung seiner Komposi- tion. Demnach produzierten seine Modelle musikalisches Material, welches er zusam- menfügte. Seine Werke wurden live auf traditionellen Instrumenten gespielt. [9, S. 134]
In den 60er Jahren fügte unter anderem Leonard E. Baum eine weitere Dimension zum MM hinzu, woraus das HMM entstand. Dieses erlaubte z.B. die Ergänzung einer vorge- gebenen Kette. [3]
Im Ansatz von Farbood und Schoner wurde ein HMM mit den Regeln der Kontrapunkt- technik des 16. Jahrhunderts ausgestattet. Unter der Vorgabe einer Melodie erzeugte das HMM ein kontrapunktisches Gegenstück.
Auch heute noch werden MM in der Komposition verwendet. Eine solche Funktion ist unter anderem in den Kompositionsprogrammen CSound, Max und SuperCollider ent- halten.
In dieser Arbeit werden das MM und HMM jeweils formal vorgestellt, dann bildlich er- klärt und mit Anwendungsbeispielen aus der algorithmischen Komposition weiter veran- schaulicht.
2 Markov Model
Markov Models sind stochastische Modelle, um sich zufällig ändernde Systeme zu mo- dellieren. Markov-Ketten sind darauf basierend mögliche Folgen von Ereignissen, bei denen die Wahrscheinlichkeit jedes Ereignisses von dem vorherigen state oder mehreren vorherigen abhängt. Formal lässt sich ein MM wie folgt darstellen:
States: Abbildung in dieser Leseprobe nicht enthalten
Transition probabilities: Abbildung in dieser Leseprobe nicht enthalten
Initial distribution vector: Abbildung in dieser Leseprobe nicht enthalten
Länge der MC: T
Sequenz von states: Abbildung in dieser Leseprobe nicht enthalten
Da die MC eine spezielle Art einer stochastischen Kette ist, hat jeder Zeitpunkt 𝑡eine Zufallsvariable𝑞q. Die Zufallsvariable 𝑞 wird aus der Menge der states belegt. Für ( am Zeitpunkt 𝑡) ist die TP aij zu 𝑞qt𝑡+1 (dem auf folgenden state)
Abbildung in dieser Leseprobe nicht enthalten
wobei die states 𝑆𝑖Si und Sj gegeben sind. Der IDV enthält die Wahrscheinlichkeiten aller states Si, die Belegung der ersten Zufallsvariable 𝑞q1 zu sein.
Um dieses Konzept zu verdeutlichen kann man das Beispiel einer Wettervorhersage her- anziehen.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2.1: MC aus Wetterzuständen
Man kann die TP sowohl als Matrix als auch als Graph darstellen. Die states dieses MM sind Sun, Snow und Clouds. In der Matrix in Abb. 2.2 sind alle states jeweils horizontal und vertikal aufgelistet. Ein Feld beschreibt die Wahrscheinlichkeit, dass, gegeben im Zeitpunkt 𝑡 ist der state der Zeile eingetreten, im Zeitpunkt 𝑡t + 1 der state der Spalte eintritt. Wenn also das Wetter an einem Tag sonnig war, ist die Wahrscheinlichkeit für Sonne am nächsten Tag 0,3. Mit einem Wahrscheinlichkeitsvektor 𝜋∏i = (0.1, 0.5, 0.4) kann man nun durch zufälliges Auswählen des nächsten state eine beliebig lange Kette erzeugen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2: transition graph und transition matrix [vgl. 2, S. 68]
2.1 Stilkopie
Eine der häufigsten Anwendungen einfacher MM in algorithmischer Komposition ist die Stilkopie. Dabei wird ein MM an einer Vielzahl von Stücken einer fest abgegrenzten Stil- richtung trainiert. Dieses Material nennt man Korpus. Zum Training werden ein oder mehrere Parameter festgelegt, wie Tonhöhe, Tondauer oder Lautstärke. Alle möglichen Zusammensetzungen dieser Parameter (auch Symbole genannt) bilden die Menge der sta- tes. Beim Training werden die relativen Häufigkeiten zweier aufeinanderfolgender Sym- bole im Korpus analysiert und bilden nun die transition matrix. Der IDV wird häufig durch die Anfangssymbole der Stücke bei selbem Verfahren bestimmt.
Eine sehr simple Anwendung ist diese Stilkopie des Liedes Happy Birthday:
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2.3: Erste Strophe des Liedes „Happy Birthday“ [10]
Man lege als Parameter die Tonhöhe innerhalb einer Oktave fest. Dadurch entstehen die states c, d, e, f, g, a, h. Nun werden die absoluten Häufigkeiten jedes Paares zweier auf- einanderfolgender states bestimmt, also von c auf c, von c auf d usw., wie gesehen in Abb. 2.4. In den letzten zwei Schritten transponiert man die Häufigkeiten in eine Matrix und berechnet relative Häufigkeiten daraus. Der Ton c ist der erste, also wird er auch in allen von diesem MM generierten Kompositionen zu Beginn stehen. Der IDV enthält also an der Stelle von c eine 1, der Rest ist mit Nullen gefüllt.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2.4: Drei Schritte des Trainings der transition matrix [10]
2.2 Komposition ohne Korpus
Statt mit einem Korpus die transition matrix aufzustellen und states zu entdecken, stellt Kevin Jones ein System ohne Korpus dar. Die states sind kurze Motive. In Abb. 2.5 sind diese states in einem transition graph dargestellt, der nicht stark zusammenhängend ist. Weiter teilt Jones die Motive zwei Arten von Äquivalenzklassen zu, den „transient“ (durchlässig) und „recurrent“ (wiederkehrend) Klassen. Transient classes zeichnen sich dadurch aus, dass wenn ein state darin eingetreten ist, immer noch states von anderen Klassen erreicht werden können. Das ist bei recurrent classes nicht der Fall. Wird ein state einer solchen Klasse erreicht, kann kein state einer anderen Klasse mehr auftreten. Neben dem transition graph sind die Motive in ihrer Zugehörigkeit zu den vier Klassen aufgelis- tet.
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2.5: transition graph und Motive nach Äquivalenzklassen [4]
Die einzige recurrent class ist C2, die anderen sind also durchlässige Klassen. Bei der Komposition wird ein Event zufällig gewählt und von da aus für jeden Übergang ein Zu- fallswert zwischen 0 und 1 bestimmt. Ist der Wert unter der angegebenen TP, wird der state gewechselt. [4]
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.6: Beispielkomposition nach Jones [4]
Wie man in Abb. 2.6 sieht, ist in der zweiten Zeile die recurrent class C2 erreicht. Das illustriert die Möglichkeiten dieses Formalismus.
In vielen populären Liedern gibt es wiederkehrende Strukturen, sowohl die Liedstruktur (Strophe, Refrain etc.) als auch die Akkordwechsel. Durch die Verwendung recurrent classes wird eine Strukturierung möglich.
2.3 Herausforderungen des MMs in der Komposition
Die bisher gezeigten Beispiele nutzten MM erster Ordnung. Die Ordnung gibt an, wie viele der states in einer Kette Einfluss auf den nächsten state nehmen. Hauptsächlich wer-den in der Komposition MM der dritten oder vierten Ordnung verwendet. Ein einfaches MM erster Ordnung wie im Beispiel mit „Happy Birthday“ produziert sehr zufällige Stü-cke. Die melodischen Strukturen sind in den seltensten Fällen konsonant. Dazu kommt, dass die Liedstruktur des produzierten Stückes auch nicht kontrollierbar ist, da immer nur der nächste Ton betrachtet wird.
In populärer Musik werden hauptsächlich der Plagalschluss, Halbschluss oder Ganz-schluss verwendet, diese werden über eine bestimmte Abfolge harmonischer Funktionen definiert. Wenn ein MM erster Ordnung einen solchen Schluss produziert, dann nur durch Zufall. Das kann man verhindern, indem man die Schlussformeln der Lieder des Korpus markiert, oder ein eigenes MM für die Schlüsse aufstellt.
Doch auch MM hoher Ordnung sind problematisch. Je höher die Ordnung ist, desto ähn-licher werden die produzierten Stücke dem Korpus. Mit der fünften Ordnung würde das MM aus dem „Happy Birthday“-Beispiel das Stück reproduzieren. Das liegt daran, dass jede Folge von fünf Tönen in dem Korpus einzigartig ist. Das zeigt auch, dass wenn eine Sequenz von 𝑛 Tönen nicht im Korpus ist, sie auch niemals in der Komposition eines MM 𝑛-ter Ordnung ist. Ein weiteres Problem ist die steigende Komplexität bei höherer Ordnung. Die transition matrix hat 𝑚𝑛 Zeilen (𝑚 sei die Anzahl der states), was schnellzu einer Explosion benötigter Rechenleistung führt [vgl. 2, S. 69, 81].
[...]