Skip to content
Kategorie Technologik

Computerkomposition zu Alain Turings 100. Geburtstag #1

Der Freitag berichtet von einem Konzert des London Symphony Orchestra, bei dem ein Werk uraufgeführt wird, das der Computer komponiert hat.

http://www.freitag.de/autoren/the-guardian/bartok-am-laufenden-meter

Michael Harenberg hat im DEGEM Newsletter dazu geschrieben:

Illiac Suite Relaoded

Wie die Wochenzeitschrift „der FREITAG“ in Übersetzung eines Artikels
des englischen GUARDIAN meldet, gibt es offenbar wieder einmal einen
Versuch mit Partitursynthese zu arbeiten. Wie dem Artikel unscharf zu
entnehmen ist, wurde wohl ähnlich wie schon bei Hiller und Isaacson
mit generischen Algorithmen komponiert. Und wie damals hat der
Computer, der hier doch recht modern als „der Ker, der genau weiss was
er willl“ in Erscheinung tritt, mal wieder eigenständig Meisterwerke
komponiert, auf die kein Mensch Einfluss genommen hat! Es sind diese
Erzählungen, die anscheinend in ihrer metaphorischen Umkehrung so
stark sind, dass man sie immer mal wieder aktualisieren kann. Alan
Turing, zu dessen Ehren das Projekt zur Aufführung kommt, hätte
wahrscheinlich wenig Spass daran gehabt. Seinen Turing Test auf
„Mensch versus Maschine“ zu reduzieren, hat mit der Frage nach den
Grenzen der Formalisierbarkeit nur noch wenig zu tun. Dafür werden die
Arbeiten von Xenakis zur algorithmischen Komposition mit einem
Algorithmus für schwedische Kinderlieder gleichgesetzt. Hauptsache der
Computer komponiert und tritt uns, wenn auch als „Kerl“ so doch
immerhin als eigenständiges künstlerisches Subjekt gegenüber, auf
dessen selbsttätige Maschinenhaftigkeit wir unser ästhetisches
Begehren projezieren wenn auch niemals spiegeln können. Dass
ausgerechnet Bartók, Ligeti und Penderecki als Vorlage für eine
musikalische Moderne herhalten müssen, ist dann nur noch eine
zusätzliche Skurillität am Rande, die musikalische Eignung und das
Mass ihrer Wertigkeit ist im Zweifelsfall sowieso immer noch Bach.
Immerhin wird den Stücken des Computers attestiert, dass sie
musikalischer sind, als die einiger „Avantgarde-Komponisten, die in
ihrer eigenen Logik schwelgten, aber praktisch unspielbar seien“. Sehr
schön auch die anschliessende Diskussion der Community. Im Gegensatz
zu zeitgenössischen Werken in den Bereichen Fine Arts, Theater,
Literatur, Performance, etc. kann man mal wieder das
Vermittlungsproblem zeitgenössischer Musik beobachten, deren
Entwicklungen spätestens nach dem 2. Weltkrieg in der Mitte der
bürgerlichen Gesellschaft kaum noch wahrgenommen und reflektiert
wurden, was man an den Reaktionen gut sehen kann. Dazu passt, dass die
„Werke“ statt als endlos Stream im Netz von einem renommierten
Orchester gespielt auf CD erscheinen. Es gibt sie also doch noch, die
so oft totgesagte bürgerliche Musikkultur. Nur wird sie jetzt von
Bartók Algorithmen beliefert, was ja auch eine schöne Form der
Traditionspflege ist.
Michael Harenberg

Doku über Sampling, 1989

Das Luftkompressor-Grammophon

… muss wohl sehr laut gewesen sein.

THE AUXETOPHONE: 1898-1918.
Two Englishmen, Horace Short and Sir Charles A Parsons (yes, the steam turbine man) introduced the compressed air amplifiers known as Auxetophones. Horace Short began the development of the idea and was granted a patent in 1898, and again in 1901. The patent rights were sold to Parsons in 1903. Parsons, who was noted for his skill as a craftsman, took on the development of the Auxetophone as a hobby when he was already financially secure from his steam turbine business, and applied it to musical instruments as well as gramophones.

(via BoingBoing)

Jugend ohne Gitarre

(Frei nach Ödön von Horváth’s „Jugend ohne Gott“)

Dazu etwas biografisches: Als ich 14 war, 1994, war die Techno-Welle gerade am Höhepunkt, und ich fand die Musik super, gerade auch, weil es endlich etwas gründlich anderes gab als die pathetisch-zotteligen Gitarrenrocker.

Und: Ich finde die Beatles kompositorisch fantastisch, aber ihren muffigen Sound ertrage ich fast nicht.

Darum halte ich es auch für unbedingt erforderlich, dass heutige Musik nicht (nur) auf alten Instrumenten gespielt wird.

(via Kraftfuttermischwerk)

Früher auf Kulturtechno: Wenn man Altes einfach nicht ausstehen kann

Rückkopplungs-Polyphonie

So hört es sich an, wenn man mit einem Mikrofon-Anzug in einen Raum mit lauter Lautsprechern geht.

Update: Vergleichbar ist Alvin Luciers monodisches „Bird and Person Dyning“ (1975) (Danke, Thomas!)

(via Guardian Music)

Die Geschichte der elektronischen Musik als Facebook-Timeline

Es kommen schöne Ideen auf, wie man die heutigen Kommunikationsmedien für historische Themen nutzen kann, so der „Stream of Consciousness“ aus James Joyce’s Ulysses als Facebook-Stream oder Wittgensteins Tractatus-Logicus als Twitter-Feed. Bleep hat die neue Facebook-Timeline zur Darstellung der Geschichte der elektronischen Musik genutzt:

https://bleep.com/stream/a+guide+to+electronic+music

Grafischer Synthesizer, 1938

Gemeinhin gilt Iannis Xenakis‘ UPIC-System (Kulturtechno früher) als Pionier der grafischen Computerkomposition, aber viel früher schon wurde die Idee in der Sowjetunion geboren (1938) und umgesetzt (1958). Mit dem ANS-Synthesizer wurde der Soundtrack zu Tarkovskys „Solaris“ komponiert.

You don’t play the ANS synthesizer with a keyboard. Instead you etch images onto glass sheets covered in black putty and feed them into a machine that shines light through the etchings, trigging a wide range of tones. Etchings made low on the sheets make low tones. High etchings make high tones. The sound is generated in real-time and the tempo depends on how fast you insert the sheets.

This isn’t a new Dorkbot or Maker Faire oddity. It’s a nearly forgotten Russian synthesizer designed by Evgeny Murzin in 1938. The synth was named after and dedicated to the Russian experimental composer and occultist Alexander Nikolayevich Scriabin (1872–1915).

(via BoingBoing)

Gemälde mit Gitarren, Lauten etc.

Heike Matthiesen hat eine sehr schöne Online-Galerie mit Gemälden musizierender Menschen erstellt.

http://www.pinterest.com/heikematthiesen/music-art/

Casimir Van Den Daele (1818-1880,) Two Women Making Music

Casimir Van Den Daele (1818-1880,) Two Women Making Music

 

Gerard ter Borch, The Music Lesson. Around 1670

Gerard ter Borch, The Music Lesson. Around 1670

 

In Egypt

In Egypt

 

Picasso's "Girl with Mandolin"

Picasso’s „Girl with Mandolin“

ePlayer – über das Komponieren mit Instrumentensamples

Kürzlich hatte ich hier Harry Lehmanns Text „Die gehaltsästhetische Wende der Neuen Musik“ verlinkt, den nun Stefan Hetzel drüben im Bad Blog kommentiert hat. Hetzel befasst sich vor allem mit der umstrittenen Technologie des „ePlayer“ – darum möchte ich an dieser Stelle ein Kapitel aus dem Text „COIT“ bringen, der meine gleichnamige Software beschreibt und erstmalig in „Musik mit Musik. Texte 2005 – 2011“ erschienen ist; daraus das Kapitel zum „ePlayer“:

 

ePlayer

Ein Novum sind die Sample-Datenbanken von Instrumenten. Mittlerweile kann jeder einzelne Klang eines Instruments in all seinen Schattierungen hochwertig aufgenommen, gespeichert und abgerufen werden. Das verdankt sich den heutigen Speicherkapazitäten und Rechenleistungen. Aus diesen Atomen lässt sich dann theoretisch jede instrumentale Klangverbindung synthetisieren. Der Philosoph Harry Lehmann hat die realistische Abspielfunktion jener speziellen Samples »ePlayer« getauft.[1]

Zum ersten Mal verwendet habe ich solche Samples 2005 im Klavierstück 5. Die Idee war, glissandierende und über den Ambitus gehende Klaviertöne, also real unspielbare Aktionen, mit dem Live-Klavier zu kombinieren. Im Internet fand ich sogleich einen Satz Klaviersamples, mit dem ich das durchführen konnte. Im Konzert dann funktionierte die Mischung von Live-Klavier und zugespielten Klaviersamples verblüffend gut, oft konnte man nicht unterscheiden, woher was kommt, live oder von der Zuspielung.

Danach begann ich systematisch, Instrumentensamples zu sammeln oder selber aufzunehmen (gegenwärtig besitze ich rund 50 Gigabyte). Auch fing ich damit an, Aufnahmen von Stücken durch gemischte Verfahren zu erstellen: Teilweise wurden Ensembles komplett aufgenommen, oder die Musiker wurden in einzelnen Sessions via Clicktrack aufgezeichnet, sodass sie später synchronisierbar waren, oder ich habe sie mit mehr oder weniger hohem Anteil an Instrumentensamples ergänzt. 2007 war es so weit, dass ich ein ganzes Ensemblestück mittels ePlayer komponieren und zu einer Aufnahme zusammensetzen konnte: die 3300 Klänge; gleichsam war die massenhafte Verfügbarkeit von Klängen Thema. Im November 2008 wurde das Stück aufgeführt und prompt fiel ein Schlagzeuger aus. Es blieb nichts anderes übrig, als seinen Part als ePlayer zuzuspielen – was nicht weiter auffiel. Ähnlich erging es mir bereits im Frühjahr mit einer Aufführung von Dekonfabulation, als ebenfalls der Schlagzeugpart wegen eines erkrankten Spielers zugespielt werden musste.

Dennoch erschien mir das bis dahin mehr als Notbehelf. Die Aura und Einmaligkeit des ausführenden Musikers ist ein hohes Gut, und wenn zu viele Spieler fehlen, fehlt etwas (und die menschliche Stimme in Elemente zu zerlegen ist bislang fast unmöglich). Im ePlayer liegt aber ein beträchtliches Potenziel für das Komponieren, bei der Erstellung von Aufnahmen und bei der Aufführung – das hat mir erst Harry Lehmann zu Bewusstsein gebracht. So habe ich bei der Uraufführung des Stückes Fremdarbeit (2009), in dem es um ökonomische Effizienz geht, erstmals die Technik mit Nachdruck exponiert, als Konzept.

 

Seit Living in a Box (2010) kombiniere ich gezielt im Konzertsaal die Live-Instrumente mit den Möglichkeiten der ePlayer. Diese sind:

– beliebige Mengen, wie 40 Posaunen, und menschenunmögliche Virtuosität (wie Conlon Nancarrow mit dem PlayerPiano schon vor Jahrzehnten verwirklichte, was jetzt aber mit allen Instrumenten möglich ist, also zum Beispiel PlayerTrompete, PlayerMarimba oder ein ganzes PlayerEnsemble)

– Glissandi jeder Steigung und Mikrointervalle selbst in unhörbaren Abstufungen, beispielsweise Glissandi und Sechzehnteltöne von Klavierklängen

– unmögliche Register durch Transpositionen, zum Beispiel das Klavier in der sechsten Oktav

– hybride Instrumente, deren Samplesätze aus diversen Ausgangsaufnahmen gekreuzt wurden, etwa ein Klavier-Vibraphon oder ein Geigenkratzen hinterm Steg mit Trompeten- oder Kettensägenanteil.[2]

 

Seit das musikalische Material über die einfachen Tonhöhen weit hinausgegangen ist, hat das Klavier als Arbeitsplatz des Komponisten ausgedient. Wer Geld und die Fähigkeiten besaß, konnte vielleicht noch ein Cello oder eine Flöte zur Hand haben, worauf sich ein extremes Pizzicato oder ein Luftgeräusch ausprobieren ließ; letztlich war aber der taube Beethoven zum Urbild des Komponierens im 20. Jahrhundert geworden: Man musste sich am Schreibtisch all die erforschten Instrumentalmöglichkeiten und vor allem -kombinationen im Kopf vorstellen.

Bald nach Beginn der Arbeit an COIT habe ich die ePlayer-Technik implementiert, damit ich instrumentale Klänge neben den elektronisch produzierten auf derselben Ebene parat habe und mir die Komposition immer gleich anhören kann. Vor allem ermöglichte dies, zu experimentieren, Dinge auszuprobieren, die man erst hörend beurteilen kann – vormals war das nahezu unmöglich, denn wer hat schon ein ganzes Instrumentalensemble im Arbeitszimmer. Alles in allem unterstützen die Instrumentensamples das Komponieren ungemein, wenn es auch auf Dauer einige Konzentration beansprucht, sich immer so viel anzuhören.

Das Verfahren ist umstritten.[3] Noch sind die Instrumente nicht umfassend durch Samples abgebildet, und das Abspielen am Computer entspricht nicht exakt dem, wie ein Mensch ein Instrument spielen würde, darum gibt der Rechner teilweise keinen realistischen Eindruck wieder. Hier ist noch immer die praktische Erfahrung und Vorstellungskraft gefragt (und manchmal ist die Vorstellungskraft alleine auch ein starkes Medium). Ich sehe bei der Technik aber erherbliches Optimierungspotenzial. Vielleicht liegt die Lösung nicht nur in der Zahl der aufgenommenen Samples, sondern auch bei der Kombination von Sampling und anderen Techniken. Zum Beispiel ließe sich, wo Dateien fehlen, zwischen zwei vorhandenen Samples algorithmisch interpolieren; so werden in COIT die Centabweichungen durch granulare Transposition der chromatisch vorliegenden Samples bewerkstelligt. Ebenso könnten auch Daten der physikalischen Nachbildung, dem Physical Modelling, mit in die klangliche Umsetzung einfließen, und die Imperfektion des menschlichen Spielers ließe sich noch simulieren, so wie der Film mit 24 Einzelbildern pro Sekunde Bewegung glaubhaft vortäuscht; schließlich wäre mit Verräumlichungsalgorithmen auch eine Konzertsaalatmosphäre herstellbar.

Natürlich ist grundsätzlich zu bedenken, dass die Sample-Aufnahmen in ihrer Qualität variieren können, dass Studio- und Konzertsaalakustik verschieden sind, dass Lautsprecher nicht die physisch-akustische Präsenz eines Instruments haben (und stattdessen ihre eigenen Klangcharakteristika besitzen) und dass nachher menschliche Spieler die Noten interpretieren, was nicht zuletzt der Musik Leben einhaucht. Doch der Schritt vom bloßen Imaginieren zum hilfsmäßigen Sample-Abspielen ist für das Komponieren schon groß.[4] Des weiteren ist der bislang noch teilweise künstliche Klang des ePlayers als solcher ja auch nutzbar, selbst wenn er qualitativ als minderwertig empfunden wird gegenüber den hehren Instrumenten; ich denke, in der Kunst kann es nicht nur darum gehen, Rolls-Royce zu fahren.

 


[1] Harry Lehmanns Definition: http://bit.ly/xqqqns.

[2] Siehe dazu auch das Kapitel »ePlayer« von Harry Lehmann in: Johannes Kreidler, Claus-Steffen Mahnkopf, Harry Lehmann: Musik, Ästhetik, Digitalisierung – eine Kontroverse, Hofheim 2010, S. 161-167.

[3] Ebd., vor allem S. 40ff, S. 61f und S. 161ff.

[4] Zur kompositorisch-praktischen Nutzung der ePlayer-Technik siehe auch: Thomas Hummel: Not als Innovationsmotor, in: Dissonance 113, S. 18-22, http://bit.ly/pTEHJW.

Liegeklavier

Warum nicht auch im Konzert?

(via Facebook)