Technologie trifft Kreativität: Ein Interview über Musik mit dem iPhone
Warning: strip_tags() expects parameter 1 to be string, array given in /www/htdocs/w00877ff/wp-includes/formatting.php on line 631
Nun umfasst der iTunes AppStore über 100.000 Applikationen – darunter einige Kuriositäten und ein paar wunderbare Programme die neue Möglichkeitsräume eröffnen. So gibt es eine Reihe von Anwendungen, die auf einfache Art und Weise erlauben, Musik zu machen. Zwei frühe Pioniere auf dem Gebiet der iPhone-Musik sind Nadia Zaboura (NZ) und Björn Eichstaedt (BE) mit ihrem Projekt Zaboura Eichstaedt Experience. Was sie bewegt hat das iPhone als Instrument zu nutzen, was sie daran fasziniert und wie Technologie neue kreative Spielräume ermöglicht erläutern sie uns im Gespräch.
Könnt ihr euch kurz vorstellen? Was macht Ihr? Was ist Euer Hintergrund?
BE Unser Projekt heißt ZEE. Zaboura Eichstaedt Experience und besteht im Kern aus Nadia Zaboura und mir. Ich bin vom Hintergrund her Neurobiologe und seit 8 Jahren im PR-Bereich tätig. Außerdem habe ich mich seit meinem 20. Lebensjahr intensiv mit Experimentalmusik und frei improvisierter Musik auseinandergesetzt. Nadia ist Kommunikationswissenschaftlerin und im Bereich Social Media und Kreativwirtschaft tätig.
NZ Wie Björn schon sagte, bin ich Kommunikationswissenschaftlerin und arbeite im Themenfeld digitale Kreativwirtschaft und Social Media. Das sind zwei Bereiche, die sich hervorragend verknüpfen lassen – was noch viel zu selten passiert. Mich faszinieren darüber hinaus Spiegelneurone, über die ich das wissenschaftliche Buch “Das empathische Gehirn” geschrieben habe. Diese besonderen Nervenzellen geben uns einen vollkommen neuen Blickwinkel auf das Entstehen von Empathie und zwischenmenschlicher Verbindung – auch im Digitalen. Und was meine Verbindung zu “the fine arts” angeht: Band, Ballett (klassisch, modern), Literatur, Sprache als starkes zwischenmenschliches Medium. Und die logische Konsequenz aus all dem: ZEE. Zaboura Eichstaedt Experience
Wie kamt ihr auf die Idee Musik auf dem iPhone zu machen?
BE Ich kam darauf, als ich zum ersten Mal eine Musik-App aufs iPhone geladen habe – das war so etwa im Herbst 2008. Ich habe darin die Möglichkeit gesehen mit wenig Equipment auf eine einfache Art und Weise Musik in der Gruppe zu machen. Etwas, das mir zuvor im hektischen Berufsalltag kaum mehr möglich war – zuviel Geschleppe und Geprobe, bevor man loslegen kann. Als dann immer mehr Apps auf den Markt kamen, die sich gut in einem Live-Kontext einbinden ließen, war irgendwann klar, dass daraus mehr werden musste. Nadia und ich haben uns dann auf der CeBIT 2009 – wo sie einen Lesungs-Slot im Rahmen der “Webciety” hatte – zusammengesetzt und recht spontan einen Duo-Ansatz entwickelt: Lesung mit iPhone-Begleitung. Als das bei einigen spannenden Leuten sehr gut ankam, wussten wir, dass wir da mehr machen müssen… bei uns ist vor allem die Verknüpfung mit theoretischen soziologischen und netzkulturellen Ansätzen wichtig sowie die multimediale Integration von VJs, Fotografen, anderen Musikern etc.
NZ Die Webciety war der perfekte Ort, um unsere erste Performance durchzuführen, denn: sie fand 2009 das erste Mal statt, sie bot durch das Messedesign eine neue Art der Interaktion und sie versammelte Menschen, die Netzkultur aktiv leben und ihr Denken nicht mehr in Schubladen pressen. Für mich war das die Live-Umsetzung zu Cluetrain-Manifesto-Autor David Weinberger und seinem Buch “Everything is miscellaneous – Das Ende des Schubladendenkens”.
Der Hintergrund der Performance war dieser: Die Initiative DNAdigital gab mir damals einen Webciety-Leseslot, um einen Buchbeitrag vorzustellen und zu diskutieren. Ich hatte schon als Zuhörer keine Lust auf PowerPointPräsentationen, Monologe und die immer gleichen Panel-Diskussionen. Deshalb schlossen Björn und ich uns kurzfristig zusammen und entwickelten die Performance und ZEE.
Was fasziniert Euch daran?
BE Was uns daran fasziniert? Die Einfachheit, die Mobilität und gleichzeitig die Vielfalt der Möglichkeiten. Durch Mikrophon, Bewegungssensitivität etc. des iPhones und durch den Touchscreen, sind sehr vielfältige Anwendungen möglich. Und: Die Entwickler-Community kommt permanent mit neuen Programmen, so dass die Entwicklung permanent im Fluss ist. Waren wir gestern noch auf ein paar Apps reduziert, können das morgen schon viel mehr sein.
NZ Mich fasziniert vor allem das Grenzen Überschreitende: Wichtig war und ist uns immer, das analoge mit dem digitalen Erlebnis zusammenzuführen.
Und ebenfalls wichtig ist das genuin Neue: Das iPhone und jedes digitale Device kann nicht nur zur klassischen Fern-Kommunikation genutzt werden. Spannend wird es exakt da, wo es in ungewohnten, völlig neuen Kontexten eingesetzt wird. Ein iPhone als Werkzeug für ein Team Building Event? Ein Nintendo DS, das Dir dröhnende Beats ins Ohr jagen kann? Ein Wii-Controller als Live-Instrument (zu sehen u.a. beim The Notwist Konzert in Köln)?
Die reine Technik erlangt hier eine neue Bedeutung, eine erweiterte Dimension. Durch kreative Ideen und Aneignung wird sie – im wahrsten Sinne des Wortes – zur Kulturtechnik.
Und hier kommt der Zusatz, den Björn oben angekündigt hat – denn das ist auch vollkommen faszinierend:
Das Zusammenspiel verschiedenster Menschen ist in ZEE eingeschrieben. Bei unseren Performances, die mehr Teilnehmer als unseren Zweier-Kern umfassen, stoßen Leute mit den unterschiedlichsten Hintergründen, Lebensläufen und Interessen zusammen. Da kann es sein, dass durch unser Crowdsourcing im Vorfeld Menschen zusammengeführt werden, die im normalen Leben nie ein Wort miteinander gewechselt hätten, geschweige denn sich aktiv ausgetauscht und gemeinsam Kunst gemacht hätten. Das Moment der Reibung und des Dissenz ist also Teil des Projekts.
Das Gleiche gilt auch für die Erweiterung der Performances mit Künstlern, die aus ganz anderen Bereichen kommen. Ich erinnere mich sehr gerne an unseren Auftritt mit Abdurrahman Köse, einem der besten Kanun-Spieler überhaupt. Oder auch an Benjamin Jantzen aka VJ Pixelschubser, ein fantastischer Visual Artist, Udo Dahmen, bekannter Schlagzeuger und künstlerischer Direktor und Geschäftsführer der Popakademie in Mannheim oder Josh von Staudach, der uns in eine bewegte 360-Grad-Panoramen-Welt tauchte. Sie alle bringen ihre Kunst in den Gesamtprozess ein und reagieren in Echtzeit auf die Performances.
Und zum theoretischen, wissenschaftlich-soziologischen und literarischen Hintergrund sei kurz gesagt, dass erstaunlich viele Details unserer heutigen vernetzten, beschleunigten Welt schon vor Jahren und Jahrzehnten antizipiert wurden. Genau deshalb bringen wir via Sprache den Soziologen Georg Simmel ein, Rainer Maria Rilke mit seinem verstörenden “Malte Laurids Brigge” oder Hartmut Rosa mit der “Beschleunigung”. Diese Texte als cut up, kombiniert mit digitalen Klanggebilden ergeben völlig neue Assoziationen – beim Publikum und auch bei uns.
Was glaubt Ihr, unterscheidet das iPhone-Musizieren von einem klassischen Musiker-Ensemble (Band, Quartett, Orchester etc.)?
BE Eigentlich wenig. Ich kann frei improvisieren, ich kann sehr streng durchkomponierte und durcharrangierte Stücke dafür schreiben. Das iPhone ist eigentlich eher so etwas wie “viele Instrumente” – je nachdem, welche Apps ich einsetze. Früher brauchte ich einen VW-Bus, um das alles zu transportieren, heute passt es in die Hosentasche.
NZ Der Augenkontakt spielt bei klassischen Bandformationen ja eine sehr wichtige Rolle. Das spüren wir bei unseren Performances gleichermaßen, wenn nicht sogar stärker, da Improvisation viel mit nonverbaler Kommunikation arbeitet. Mein Wunsch an die ICT Experten da draußen: ein Device, das kompakt und real-time alle Gesichter der Performance-Teilnehmer abbildet inklusive semantischer Erkennung von Mimik und Gefühl.
iPhone-Orchester werden zunehmend beliebter – siehe das Michigan iPhone Orchestra – was glaubt Ihr, werden wir hier noch in Zukunft sehen?
BE Es wird alles mögliche geben – auch wir haben bereits unterschiedliche Konstellationen ausprobiert. Ein iPhone als Teil einer “normalen” Band (YouTube-Link), reine iPhone Bands (YouTube-Link), Orchester aus Gadgets wie iPhone, iPod, Nintendo DS (YouTube-Link), Tenori-On etc., mit Vokalist, unplugged etc. Das iPhone wird vermutlich so etwas sein, wie der Taschensynthesizer der Zukunft. Aufgrund seiner Möglichkeiten mit Mikrophon, Kompassfunktion etc. wird aber mehr Möglich sein. Es wird sicherlich auch viele Verknüpfungen von iPhone Projekten mit Ansätzen aus der Netzkultur geben – die Nähe ist ja gegeben. Etwa Live-Streaming und Performen an verteilten Locations.
NZ Genau solche Location Based Services (LBS) machen im Kunstbereich absolut Sinn. Die Ankündigung einer Live-Dripping-Session à la Pollock via LBS, das liegt nicht zu weit in der Zukunft. Damit wird Kunst wieder Teil und Gestalter des öffentlichen Raums. Außerdem wird es in Zukunft noch mehr Verschmelzung mit Pop-/Rockband-Ansätzen und ja, auch mit Gesang geben. Die popkulturelle Sexyness von Technik ist noch lange nicht ausgespielt!
Wie macht ihr die iPhone-Musik konkret? Also welche technische Infrastruktur nutzt Ihr? Welche Apps?
BE In der Regel ist die Infrastruktur eine klassische Anlage / PA. Die iPhones werden über den Kopfhörerausgang via Kabel mit DI-Boxen gekoppelt. Und dahinter hängt ein Mischpult und Boxen. An Apps nutzen wir zunehmend viel – bei der nächsten Performance, die im Februar oder März (da auf jeden Fall zum einjährigen Bestehen auf der CeBIT) stattfinden wird, sicherlich mehr als bislang. Stand heute: Bloom (von Brian Eno, eine Ambient App), Ocarina (eine Blasinstrumenten-App), RjDj (um Umgebungsgeräusche aufzunehmen und verfremdet wiederzugeben), iKoto (japanisches Saiteninstrument als App), Air und Trope (von Eno), Bebot (eine Art Theremin als App), TonePad (ähnlich einem Tenori-On), Zephyr (ein Zeichen-Sound-Programm), Bedrum als Drum- und Rhythmus-App. Ich habe gerade auch Manetron und IntoInfinity für mich entdeckt, die kamen aber noch nicht live zum Einsatz.
NZ RJDJ ist eine fantastische App für Stimme. Die Effekte sind gewaltig.
Was wollt ihr mit ZEE erreichen?
BE Unser Slogan lautet “ZEE – Zaboura Eichstaedt Experience – Performance, Art, Empathy – Melting Creativity with Technology. Das sagt eigentlich schon eine Menge. Aber hier bin ich sicher, dass Nadia Ergänzungen hat.
NZ Die Frage der Fragen. Digital-analoge Verschmelzung von Kunst, Wissenschaft, Leben. Verschiebung der Grenzen des Mach-, Denk- und Fühlbaren. Schaffung empathischer Räume und Verbindungen. Interdisziplinäre, verteilte, kollektive Kreativität.
Wo kann man Euch als nächstes sehen/hören?
BE Eventuell schon im Februar. Auf jeden Fall aber am 5. März 2010 in Hannover auf der Webciety-Bühne der CeBIT. Aktuelle Termine gibt es immer hier.
NZ Leise Neues zwitschernd unter twitter.com/zeeing. Auf Konzerten, in Galerien, in Abrissgebäuden, in Japan.
BE Achja, genau eine Facebook Fanpage gibt es auch noch: facebook.com/pages/ZEE
Bild: Nicola Bernhart