Synthesizer sind schwer. Nicht weil sie kompliziert sind — das sind sie auch — sondern weil sie eine Übersetzung verlangen, die kein Musikstudium beibringt: Du hörst etwas im Kopf, und dann musst du aus Filter-Cutoff, Envelope-Shape und Oscillator-Mix das bauen, was du hörst.
Die meisten Synthesizer-User überspringen diese Übersetzung. Sie nehmen ein Preset. Das ist in Ordnung — bis du merkst, dass dein Track nach niemandem mehr klingt.
Sound-to-Synth ist der Kern-Flow in BEJUSTME. Er macht das, was früher zehn Jahre Erfahrung gebraucht hat: Deinen Wunsch in Parameter zu übersetzen. Hier ist, wie er funktioniert.
Schritt 1: Den Sound in Sprache übersetzen
Nimm einen Sound, den du hören willst. Nicht einen Sound, den du kopieren willst — einen Sound, der in deinem Kopf existiert. Zum Beispiel:
"Ein warmer, leicht angezerrter Pad. Langsam atmend. Ein tiefer Grundton, aber mit Luft oben drüber. Als würde man durch dichte Wolken schauen und ein Licht dahinter erahnen."
Das ist keine Parameter-Liste. Das ist eine Beschreibung. Genau darum geht es. Beschreibung ist das einzige, was du dir selbst geben musst — den Rest macht BEJUSTME.
Schritt 2: Was die AI daraus macht
Die AI liest deine Beschreibung und zerlegt sie in Dimensionen, die ein Synthesizer versteht:
- Warm → Oscillator: Sawtooth mit mildem Low-Pass (Cutoff ~1.2 kHz)
- Leicht angezerrt → Drive: 25 %, Resonance: 35 %
- Langsam atmend → LFO auf Filter Cutoff, Rate 0.08 Hz, Amount moderate
- Tiefer Grundton mit Luft oben → Tiefe Oszillator-Oktave + dezenter High-Shelf
- Pad → Slow Attack (800 ms), long Release (2.5 s), gehaltene Noten
Das ist kein Machine-Learning-Voodoo. Das ist ein Kalibrierungsmodell, das auf Tausenden annotierten Synth-Presets trainiert wurde — und auf deinem eigenen Creative Profile. Je mehr du BEJUSTME nutzt, desto präziser wird die Übersetzung auf deinen Geschmack.
Schritt 3: Dein Hardware-Synth bekommt die Parameter
Hier wird es spannend: BEJUSTME kennt deinen spezifischen Synth. Wenn du einen Moog Subsequent 37 hast, sendet die App MIDI CC #19 (Cutoff), CC #21 (Resonance), CC #23 (Envelope) — exakt die Controller, die dein Gerät versteht. Wenn du einen Arturia MicroFreak hast, werden andere CCs gesendet. Der Waldorf Iridium bekommt wieder andere.
Du drückst einen Knopf in der App. Zwei Sekunden später ist dein Hardware-Synth programmiert. Du spielst eine Note. Du hörst deinen Sound. Nicht einen Preset-Sound. Deinen.
Schritt 4: Feintuning mit der AI
Selten trifft die erste Übersetzung alles. Du sagst dann: "Mehr Luft oben." Die AI erhöht den High-Shelf und öffnet den Filter leicht. Du sagst: "Weniger Zerrung." Der Drive-Wert geht runter. Du arbeitest in Sprache, nicht in Parametern. Deine Hände bleiben bei deiner Musik. Der Synth gehorcht deinen Beschreibungen.
Schritt 5: Das Preset gehört dir
Wenn der Sound sitzt, wird er Teil deiner persönlichen Preset-Library. Nicht eine generische Datenbank — deine. Mit einer Notiz, wofür du ihn gebaut hast. Mit Tags, die an dein Creative Profile gebunden sind. Wenn du in sechs Monaten denkst "Ich will wieder so einen Sound wie damals im zweiten Track", findet BEJUSTME ihn dir.
Warum das wichtig ist
Die meisten Producer verbringen 60 % ihrer Zeit mit Sound Design. Nicht mit Komposition, nicht mit Arrangement — mit dem Übersetzen von Ideen in Parameter. Das ist verschwendete Kreativität.
Sound-to-Synth nimmt diese Übersetzungs-Arbeit weg, ohne dir die kreative Kontrolle wegzunehmen. Du beschreibst. Die AI übersetzt. Du verfeinerst in Sprache. Die Maschine folgt.
Das Ergebnis: Du verbringst deine Zeit da, wo Kreativität entsteht — beim Hören, beim Entscheiden, beim Komponieren. Nicht beim Parameter-Jonglieren.
Die Pointe
Sound Design ist Handwerk. Aber Handwerk bedeutet nicht, dass du jeden Schritt manuell machen musst. Handwerk bedeutet, dass du verstehst, was passiert. BEJUSTME nimmt dir das Tippen ab, nicht das Hören.
Deine Hardware. Deine Ideen. Deine Sprache. Die AI ist nur der Übersetzer dazwischen.