Mit wenigen Textzeilen erzeugt Elevenlabs Music heute ganze Songs – inklusive Gesang, Stil, Instrumentierung und Text. Das US-Unternehmen, bekannt für seine fortschrittliche KI-Stimmtechnologie, hat nun ein Musikmodell vorgestellt, das kreative Werke binnen Sekunden generiert. Der Clou: Die Plattform vermeidet systematisch rechtliche Grauzonen, die bisherige Musik-KIs wie Suno AI ins Visier von Rechteverwertern wie der GEMA gebracht haben.
Prompts à la „Mach einen Song im Stil von Adele“ werden automatisch in neutrale, aber stilistisch vergleichbare Beschreibungen übersetzt. So wird aus Adele ein „emotionaler Popsong mit kraftvollen Vocals und orchestralen Elementen“. Musiker-Namen dürfen im Prompt nicht vorkommen. Die erzeugten Songs sind rechtlich abgesichert – Elevenlabs verspricht, dass die Inhalte bei Einhaltung der Nutzungsbedingungen für die kommerzielle Verwertung genutzt werden dürfen.
Um das zu ermöglichen, hat Elevenlabs für das Training seines KI-Modells aktiv mit Lizenzgebern wie dem Merlin Network und der Kobalt Music Group kooperiert. Deren Künstler – darunter Adele, Nirvana oder Bon Iver – stellen ihre Werke freiwillig zur Verfügung und profitieren finanziell: 50 % der Einnahmen aus den generierten Songs gehen an die Rechteinhaber. Weitere Gespräche mit großen Labels wie Universal, Sony und Warner laufen.
Was das Modell dabei besonders macht: Es generalisiert musikalisches Stilwissen, ohne konkret auf nicht lizenzierte Songs zuzugreifen. Selbst wenn U2 nicht im Trainingsset war, kann die KI typische Elemente wie hymnische Gitarrenriffs oder bestimmte Songstrukturen erzeugen – ohne eine Kopie zu liefern.
Elevenlabs legt außerdem klare Grenzen für die Nutzung fest: Kommerzielle Verwendung ist erlaubt – etwa für Filme, Podcasts, Social Media oder Games – allerdings nur im Rahmen eines Bezahlabos. Verboten ist der Einsatz in politischer, religiöser oder pharmazeutischer Werbung. Die kostenlose Version darf nur privat genutzt werden.
Gleichzeitig rüsten sich Musiker gegen unautorisiertes Training mit sogenannten „vergifteten Audiodateien“. Diese beinhalten für Menschen unhörbare Störungen, die KI-Modelle beim Training stören und unbrauchbare Ausgaben produzieren lassen. Meta-Forscher haben demonstriert, dass sich solche Schutzmaßnahmen sogar nutzen lassen, um zu überprüfen, ob ein Modell auf bestimmten Daten trainiert wurde – ein potenzielles Werkzeug im künftigen Urheberrechtsschutz gegen KI.
Fazit: Während andere Musik-KIs mit rechtlichen Risiken kämpfen, geht Elevenlabs einen anderen Weg – durch Zusammenarbeit, Transparenz und stilistische Abstraktion. Damit wird KI-Musik nicht nur kreativ, sondern auch wirtschaftlich nutzbar.
Quelle: FAZ