Auphonic
,🎙️ Wie Auphonic entstand – Ein Blick hinter die Kulissen mit Gründer Georg.
In dieser Episode haben wir Georg, den Gründer von Auphonic, zu Gast und sprechen mit ihm darüber, wie alles begann. 🚀 Früher gab es für die Nachbearbeitung von Audio fast ausschließlich Echtzeit-Tools – aber warum eigentlich? Für Podcasts, bei denen die gesamte Aufnahme bereits vorliegt, wäre eine leistungsfähige Batch-Verarbeitung viel naheliegender gewesen. Genau hier setzte Auphonic an! 🤔
Natürlich sind auch Johannes, Dominik und Jochen wieder mit dabei! Gemeinsam werfen wir einen Blick auf die Entwicklung der letzten zehn Jahre: Während frühere Machine-Learning-Modelle hauptsächlich dazu dienten, die Parameter klassischer Audioprozessoren wie Kompressoren und Limitern automatisch einzustellen, setzen moderne Systeme zunehmend auf End-to-End-Deep-Learning. Heute sind Audio-to-Audio-Modelle der Stand der Technik, die das Signal direkt transformieren – ohne den Umweg über klassische Audiotools. 🎛️➡️🎶
Außerdem gibt Georg spannende Einblicke in die technische Infrastruktur von Auphonic:
- ⚙️ Django im Backend, Vue.js für den Transkripteditor, ein bisschen htmx und alpine.js
- 🚀 Celery als Task-Queue, das seit zehn Jahren treue Dienste leistet
- 🎧 Eigenes Training von Machine-Learning-Modellen auf On-Premise-GPUs, Inferenz über GPU-Instanzen bei Hetzner.
Und natürlich diskutieren wir darüber, warum es kein „One-Size-Fits-All“-Modell für Podcasts gibt – schließlich will ein True-Crime-Podcast vielleicht Atemgeräusche entfernen, während ein Yoga-Podcast genau diese beibehalten möchte. 🧘♂️🔎
Hört rein – viel Spaß bei dieser Episode! 🎧