Informatiker, Musiker und Toningenieur
Hi, ich bin Per und dies ist meine Webpage. Hier kannst du dir anschauen was ich die letzten Jahre so getrieben habe, ohne meinen Namen zu googeln und dabei unweigerlich einen Haufen Treffer zum Lebenswerk meines sich dem Kabarett verschriebenen Onkels überspringen zu müssen (wobei, auch da kann man ja gezielt mal vorbei schauen). Die Projekte sind zum Teil in meiner Freizeit entstanden (hauptsächlich die Musikprojekte) oder während meiner Studienzeit, die im Jahr 2017 mit dem M.Sc. Medieninformatik ein jähes Ende fand. Man könnte meinen, dass so einem Abschluss mit Mitte 30 ein recht ausgiebig zelebriertes Studentenleben vorausging. Dazu sei angemerkt, dass ich davor schon insgesamt sieben Jahre beim NDR gearbeitet habe und dort auch eine Ausbildung zum Mediengestalter Bild und Ton gemacht habe, die wirklich unglaublich lehrreich war. Kamera, Videoschnitt- und Effekte, 3D Animationen, Tonausbildung - von jedem was dabei. Spezialisiert habe ich mich letztlich aufgrund meiner überdurchschnittlichen Neigung zur Musik auf den Bereich Ton und habe während des Studiums als freier Toningenieur beim WDR gearbetet. Zum Fernsehen verschlug es mich, nachdem ich mich gegen eine Karriere als Musiker entschieden hatte, obwohl ich davon seit ich mit sieben Jahren anfing Gitarre zu spielen träumte.
Als ich anfing zu studieren stand ich auf Röhrenverstärker, analoge Klangsynthese und Schallplatten.
Was war geschehen?
Im dritten Semester belegte ich den Kurs "iOS Programmierung" an der Hochschule Düsseldorf. Damals ahnte ich noch gar nicht, was für eine zentrale Bedeutung dieser Kurs für mich bekommen würde. Ich war einigermaßen beeindruckt von der App "Silvio" die der Kurs bis dahin hervor gebracht hatte und wollte auch lernen wie so etwas funktioniert. Es entstand der CHAiOS SYNTH und ich war absolut elektrisiert von den Möglichkeiten der Programmierung von Software. Was mich daran am meisten faszinierte: man braucht nichts weiter als eine Idee und einen Computer um wirklich fantastische Sachen zu machen. Und das wollte ich fortan tun!
Wie bereits in der Einleitung erwähnt war der CHAiOS SYNTH mein erstes wirkliches Programmierprojekt. Davor verfügte ich lediglich über Grundkenntnisse, die ich mir im Fach Informatik in der Schule und den Grundkursen Informatik aus den ersten Semestern angeeignet hatte. Wir durften uns das Thema im Kurs selbst aussuchen und ich hatte Lust einen Synthesizer zu programmieren. Dabei war mir zum einen wichtig, dass er nicht klassisch per Tastatur zu bedienen sein sollte und andererseits, dass er die Melodien per Zufallsgenerator selbst generieren sollte - allerdings so, dass es auch gut klingt. Auf die Idee brachte mich ein Bekannter, der mir seinen Modularsynthesizer präsentierte und dabei eine quantisierte Zufallsspannung in einen Oszillator schickte. Das Ergebnis erinnerte mich stark an den Minimal Electro dem ich noch am Abend zuvor im Hamburger Golden Pudel Club gelauscht hatte. Ich fand weitere vier Kommilitonen die Lust hatten und gemeinsam lernten wir, was so ein gemeinsames Softwareprojekt so an Herausforderungen mit sich bringt. Doch ein Semester später konnten wir den CHAiOS SYNTH präsentieren (einen kurzen Teaser gibt es hier) und das Ergebnis konnte sich wirklich sehen lassen. Hören allerdings nur bedingt, er knackste an allen Enden und war alles andere als tight zum Beat. Doch David Bau und ich waren nicht zu bremsen und ein weiteres Semester und unzählige Nachtschichten später hatten wir den Synth soweit, dass er veröffentlicht werden konnte. Und das zu unserem Erstaunen mit beachtlichem Erfolg, schließlich ist so eine App im AppStore erstmal nichts anderes als eine Nadel im Heuhaufen. Bis heute wurden mehr als 10.000 CHAiOS SYNTH aus dem App Store geladen und wir haben 2014 den AES Students Design Competition Gold Award abgestaubt.
Im nächsten Schritt wollten David und ich aus dem Schatten des Uni-Projekts heraustreten und unseren eigenen Synth veröffentlichen. Wir hatten eine Reihe neuer Funktionen auf dem Zettel und merkten schnell, das unser Quellcode katastrophal organisiert war. Viele der neuen Funktionen waren aufgrund eines fehlenden Model View Controller Konzeptes kaum oder nur schwer umzusetzen. Für den CHAiOS SYNTH 2 programmierten wir also im Grunde alles neu, samt GUI und Klangerzeugung. So ist er seit Anfang 2016 für das iPad im App Store und hat viele Freunde gefunden.
Zur Funktionsweise:
Der CS2 ist ein Synth mit eingebautem Sequencer. Man stellt ein Tempo ein, berührt das x/y-Panel und es wird eine zufällig generierte eintaktige Melodie gespielt. Dazu kann ein Beat und wichtige Effekte wie Filter, Delay und Reverb hinzugefügt werden. Außerdem stehen die wichtigsten Funktionen der subtraktiven Klangsynthese zur Verfügung wie Hüllkurven für Filter und Amp sowie verschiedene Waveformen. Das folgende Video zeigt den Synth in Aktion, es gibt aber auch moderierte Reviews z.B. bei the soundtestroom oder synth anatomy.
Stravinski ist das Begleitprogramm zu meiner Masterarbeit Konzeption und Implementierung eines Algorithmus zur Generierung einprägsamer Melodien auf Grundlage musikpsychologischer Erkenntnisse sowie stilistischer Merkmale von Popmusik. Dieses Thema habe ich selbst gewählt weil mich seit der Entwicklung des CHAiOS SYNTH die automatische Melodiegenerierung zunehmend faszinierte. Der relativ einfache Algorithmus des CS lieferte bereits recht gute Ergebnisse und ich war gespannt was passieren würde, wenn man sich richtig tief ins Thema einarbeiten würde. Ich fand in Prof. Dr. Michael Oehler den perfekten Betreuer für meine Arbeit. Erst durch ihn begann ich den Ansatz für meinen Algorithmus im Themenbereich der Musikpsychologie zu suchen. Ich kam nach meiner Recherche zu dem Schluss, dass die Komplexität einer Melodie entscheidend dafür ist ob einem Hörer eine Melodie gefällt oder nicht. Das entscheidende daran ist, dass jeder Mensch ein unterschiedlich ausgeprägtes Musikgedächtnis hat, je nachdem, wie intensiv er sich dem Musikhören widmet. Damit fällt auch die Fähigkeit (komplexe) Melodien in Echtzeit zu dekodieren unterschiedlich aus. Ich entwickelte eine Formel anhand derer die Komplexität einer Melodie auf einer Skala von 0 bis 10 berechnet werden kann. Die Formel nutze ich als Heuristik zur Evaluierung von Melodien, die mithilfe einer Hand voll Kompositionskonventionen zufällig erzeugt werden. Dieser probabilistische Algorithmus ermöglicht die Generierung von Melodien mit regelbarer Komplexität.
Stravinski kann seit Mitte 2017 im App Store erworben werden. Das Programm ist auf den ersten Blick relativ unscheinbar und hat wenig Einstellmöglichkeiten. Neben der Komplexität lassen sich noch Tonart und -geschlecht auswählen, außerdem Tempo und ein Beat zur Orientierung. Stravinski ist eigentlich nicht als Standalone App gedacht sondern soll mit anderen Anwendungen zusammen verwendet werden. Er verfügt mit der Audiobus Unterstützung über eine komfortable Möglichkeit als Zuspieler für andere Apps zu dienen, außerdem kann er auch MIDI Daten senden und somit andere Synthesizer "spielen". Hier ist ein kurzes Video, das zeigt wie der Komplexitätsregler arbeitet.
MPER-3 ist unter den hier vorgestellten Projekten ein bisschen der Exot. Es war meine Bachelorarbeit und ich habe mir das Thema nicht selbst ausgedacht sondern von Prof. Dr. Dieter Leckschat bekommen. Ich hatte große Lust darauf, denn Datenkompression hat mich schon immer fasziniert und ich wollte auch mal mein DSP Wissen unter Beweis stellen. Denn auch wenn das hier vielleicht nicht so den Anschein erweckt ist die digitale Signalverarbeitung während des Studiums eine große Leidenschaft von mir gewesen. Die Aufgabe bestand darin, einen mp3-Encoder in MATLAB zu programmieren dessen Besonderheit darin bestehen sollte, dass er in der Lehre eingesetzt werden können sollte. Man sollte also in den Encoder "hineinschauen" und Hand anlegen können. Ich habe eine ganze Weile dafür gebraucht, denn ich hatte den Ehrgeiz den Encoder "from scratch" nur anhand der ISO/IEC 11172-3 CODING OF MOVING PICTURES AND ASSOCIATED AUDIO FOR DIGITAL STORAGE MEDIA AT UP TO ABOUT 1.5 MBIT/s Part 3 AUDIO in MATLAB zu implementieren. Die Fehlersuche hätte mich fast in den Wahnsinn getrieben, denn war auch nur ein Bit falsch gesetzt kam hinten nur noch Schrott raus. Aber ich habe es hinbekommen und bin sehr stolz darauf.
Die hier gezeigten drei kleinen Anwendungen sind erst nach bestandener Bachelorarbeit entstanden. Das ursprüngliche Konzept sah vor, die Studenten einen Laborversuch durchführen zu lassen und dabei direkt im Quellcode an besonders markierten Stellen zu arbeiten weil ich dies nach wie vor für (lern-)erfolgsversprechender halte. Doch ich hatte die Gelegenheit MPER-3 2015 auf der DAGA in einem Vortrag zu präsentieren und dafür erschien es mir passend, diese Anwendungen zu entwickeln und vorzustellen. Das folgende Video zeigt diese drei Anwendungen der Reihe nach und gibt einen kleinen Eindruck von den besonderen Vorteilen die dieser Encoder im Gegensatz zu herkömmlichen mp3-Encodern bietet.
Der ChordSlammer ist das Ergebnis eines Kurses im Master in dem mit einem Teensyduino ein MIDI Controller gebaut werden sollte. Nachdem ich mich viel mit der Generierung von Melodien beschäftigt hatte wollte ich nun einen Controller entwickeln, mit dem man Akkorde spielen kann ohne jemals eine Tastatur gesehen zu haben. Ursprünglich sollte das Gerät mit zwei Touchpads ausgestattet sein um alle vier Parameter komfortabel gleichzeitig verändern zu können. Leider dauerte die Lieferung der Pads recht lange und dann waren die (zugegeben recht günstigen) Pads auch noch beide kaputt. Da sich das Semester rapide dem Ende neigte musste ich kurzfristig eine alternative Lösung finden und daraus entstand das Konzept mit dem Endlosregler der gleichzeitig alle per Pushbutton angewählten Parameter ändert. Dieses Bedienkonzept funktioniert wunderbar (vielleicht sogar besser als die x/y-Pad Lösung) und man kommt beim Spielen schnell zu interessanten Ergebnissen.
Das folgende Video zeigt den ChordSlammer in Aktion. Als DAW verwende ich Logic und das Piano ist "Alicia's Keys", eine Kontakt-Library von Native Instruments. Die vier Hauptparameter "Terzen", "Velocity", "Grundton" und "Notenwert" sind direkt per Puschbutton auf der Oberfläche anwählbar und werden einfach mithilfe des Endlosreglers editiert. Die beiden Tasten am Rand sind für verschiedene Einstellungen zuständig, wie Tonart, Sustain, Tempo und Oktave.
Ich mag liebe Musik
Wie bereits erwähnt träumte ich in meiner Jugend davon, später einmal Musiker zu werden. Ich spielte schon in der sechsten Klasse in einer eigenen Band und auf Schulfesten und habe erst kürzlich von einem befreundeten professionellen Musiker gehört, dass ich damals sein Vorbild gewesen sei. Ich habe die Musik nie an den Nagel gehängt und eigentlich immer in verschiedenen Bands und viele Konzerte gespielt, aber das professionelle Musikerdasein war nicht der richtige Weg für mich. Vielleicht weil meine Interessen zu breit gefächert waren um mich voll auf ein Musikstudium zu konzentrieren. Ich fing an mich für Technik zu interessieren, kaufte mir digitale Mehrspurrecorder und andere Geräte und experimentierte damit herum. Außerdem fing ich an zu fotografieren und mich für Video zu interessieren. Kurzum: die Mediengestalterausbildung beim NDR war zu dem Zeitpunkt perfekt für mich. Doch wie gesagt, ich hab nie aufgehört Musik zu machen.
Faraday war die letze Band in der ich gespielt habe, die ernsthafte Ambitionen hatte "erfolgreich" zu werden. Mit dem Schlagzeuger Alex spielte ich schon seit der ersten Band in der sechsten Klasse zusammen, die anderen beiden Mitglieder Till und Dennis hatten ebenfalls schon zusammen in einer Band gespielt, Faraday war quasi die Symbiose beider Bands. Die Musikrichtung wurde nicht festgelegt, wir legten einfach los und ließen das Ergebnis auf uns zukommen. Aus heutiger Sicht würde ich sagen, wir spielten progressiven Alternative, damals wollten wir solche Fragen nicht kommentieren. Wir nahmen ziemlich schnell ein Demo auf das recht gut ankam und wir fanden uns sogar in einer Nachtsendung auf NDR Info wieder wo wir über unsere Musik reden durften. Direkt danach begannen wir mit der Arbeit an unserer EP "The Dying Art of Composure", die wir komplett in Eigenregie produzierten und mischten, lediglich das Mastering gaben wir aus der Hand. Auch diese EP wurde sehr gut aufgenommen. Wir spielten viele Konzerte, unter anderem auf dem Dockville Festival in Hamburg und wurden regelmäßig von der Konzertagentur Scorpio als Vorband für internationale Künstler gebucht. Es lief gut und wir begannen mit der Arbeit an unserem Debütalbum. Wir hatten große Ansprüche an uns und leider zog sich die Fertigstellung endlos hin. Das hinterließ Spuren, die Motivation schwand und dann zog Alex auch noch zum Studieren nach Hannover. So kam es, dass unser Debüt "Vice Versa" erst nach unserer Auflösung auf Bandcamp erschien. Den Deal mit einem kleinen Hamburger Label den wir hatten ließen wir natürlich platzen. Das Ende von Faraday war ziemlich schade, aber auch nicht wirklich traurig. Es war am Ende alles dabei gewesen und ich begrub meine ernsthaften Musikerambitionen ohne Wehmut in der Gewissheit, dass ich nichts vermissen würde. Die EP kann bei bandcamp kostenlos gehört werden, es gibt sie aber auch bei Spotify, iTunes und Co.
Nachdem unsere EP erschienen war, brauchten wir ein Video. Da ich zu der Zeit eine Ausbildung beim Fernsehen machte war natürlich klar, dass ich mich darum kümmern würde. Ich fragte zwei Azubikollegen ob sie Bock hätten ("klaro!") und wir bekamen für unserer Projekt von unseren Ausbildern zwei Wochen Zeit, das nötige Equipment und die Schlüssel zum Ausbilungsstudio. Dort nahmen wir zunächst die quasi Liveperformance von uns als Band auf. Das Stück war allerdings recht lang und so beschlossen wir, zusätzlich noch eine kleine Geschichte einzubetten. Nach zwei Wochen war das Video komplett fertig.
Seit meiner ersten Band habe ich auch immer nebenher an eigenen Songs gearbeitet und zu Hause aufgenommen, anfangs mit Kasettenrekorder, später mit digitalem Harddiskrecorder und seit vielen Jahren natürlich mit dem Computer. Dabei experimentierte ich viel herum und einige Songs fanden auch immer mal wieder ihren Weg in das Repertoire meiner aktuellen Bands. Aber es ging eben nicht nur um die Songs, sondern auch um Arrangements und vor allem um die Produktion und den Sound. Hier konnte ich mich so richtig austoben und Musik komplett in Eigenregie machen. Auch das war mir wichtig, auch wenn ich unterm Strich das gemeinsame Komponieren und Arrangieren bevorzuge. Daher hatte ich auch nie irgendwelche Ambitionen mit meiner eigenen Musik auf die Bühne zu gehen, teilweise behielt ich sie sogar komplett für mich. Das Projekt "Ron Zimmer" entstand etwa zu der Zeit, als es bei Faraday nicht mehr richtig lief. Ich wollte in erster Linie ein Album komplett in Eigenregie aufnehmen und dabei wie eine Band klingen. Daher kaufte ich mir die Software "Superior Drummer 2" weil man damit authentische Drumbeats erzeugen kann und kompletten Zugriff auf sämtliche Einzelkanäle hat. Dazu kamen natürlich eine Reihe Gitarren, Bass und Software Synthesizer. Als DAW habe ich Logic verwendet, die seit meinem Umstieg auf Apple im Jahre 2008 meine erste Wahl geblieben ist. Lediglich das Mastering habe ich nicht selber gemacht, weil ich der Ansicht bin, dass es gut ist am Ende auch nochmal eine andere "Sichtweise" mit reinzubringen. Das Album mit zehn Songs und weitere EPs können ebenfalls auf der zugehörigen bandcamp Seite gehört werden.
Ich wollte mich nun auch an einem Videoclip in Eigenregie versuchen. Zunächst musste ich eine Reihe Ideen verwerfen, weil sie alleine einfach nicht umzusetzen waren, aber nach meinem Umzug nach Köln wurde mir das Video durch den Kölner Karneval quasi auf dem Tablett serviert. Der Song handelt zwar nur metaphorisch vom Karneval, aber das tut der Unterhaltsamkeit der Bilder keinen Abbruch..
Bei Fragen und/oder Anregungen sind hier meine aktuellen Kontaktdaten