Wir stehen 2025 vor einem Marketing-Problem, das vor ein paar Jahren noch wie Science Fiction geklungen hätte: KI-Influencer-Klone von echten Influencern tauchen überall auf – und das ohne zu fragen. Die Technologie ist mittlerweile so ausgereift, dass diese digitalen Doubles nicht nur genauso aussehen wie ihre Vorbilder, sondern auch deren Stimme und Art zu sprechen perfekt nachahmen können. Für Unternehmen ist das natürlich verlockend: Warum teure Verträge mit launischen Influencern abschließen, wenn man sich einfach eine KI-Version basteln kann? Nur dumm, dass die echten Creator das gar nicht lustig finden und mittlerweile reihenweise vor Gericht ziehen. Das ganze Thema bringt unser Rechtssystem ziemlich ins Schwitzen – die Gesetze hinken der Technologie halt gehörig hinterher. Die Entwicklung von KI-Influencer-Klonen schreitet dabei in einem atemberaubenden Tempo voran, während die rechtlichen Rahmenbedingungen noch völlig ungeklärt sind.
KI-Influencer-Klone und die Rechtslage: Ein ziemlicher Flickenteppich
Eigentlich dürfen Unternehmen virtuelle Influencer einsetzen, das ist erst mal nicht verboten. Die müssen aber genauso gekennzeichnet werden wie echte Influencer auch – mit #werbung und allem Drum und dran. Wobei es dann richtig kompliziert wird: KI-generierte Inhalte bekommen keinen Urheberrechtsschutz, weil sie nicht von einem Menschen stammen. Das bedeutet paradoxerweise, dass theoretisch jeder diese Inhalte nutzen könnte. Gleichzeitig haben echte Personen aber sehr wohl Rechte an ihrem Aussehen und ihrer Persönlichkeit. Wenn also eine KI einen Creator kopiert, dann verletzt das ziemlich sicher dessen Persönlichkeitsrechte – auch wenn das Original keinen Urheberrechtsschutz genießt. Das Recht am eigenen Bild greift hier nämlich trotzdem, und das kann richtig teuer werden für Unternehmen, die sich nicht daran halten. Die Rechtsprechung kämpft gerade noch damit, all diese Widersprüche unter einen Hut zu bekommen.
Besonders verwirrend wird es, wenn man bedenkt, dass § 2 Abs. 2 UrhG eine „persönliche geistige Schöpfung“ verlangt – etwas, was KI eben nicht leisten kann. Trotzdem können die Ergebnisse so überzeugend sein, dass Verbraucher den Unterschied nicht merken. Die rechtliche Bewertung von KI-Influencer-Klonen steht daher vor enormen Herausforderungen, da bestehende Gesetze nicht für diese neuartigen technologischen Möglichkeiten konzipiert wurden. Anwälte und Richter müssen völlig neue Präzedenzfälle schaffen, um mit dieser digitalen Revolution Schritt zu halten.
Wo es in der Praxis kracht
Die ersten Gerichtsprozesse zeigen ziemlich deutlich, wo die Schmerzgrenze liegt. Sobald ein KI-Avatar so aussieht und sich so verhält wie ein bekannter Creator, wird es rechtlich heikel. Das Problem wird noch größer, wenn diese digitalen Doubles anfangen, über Erfahrungen zu sprechen, die sie nie gemacht haben. Stellt euch vor: Ein KI-Klon einer Fitness-Influencerin schwärmt von einem Protein-Shake, den die echte Person vielleicht noch nie probiert hat. Das ist nicht nur irreführend, sondern kann auch wettbewerbsrechtlich richtig Ärger geben.
Unternehmen tragen dabei das volle Risiko – wenn etwas schiefgeht, bleiben sie auf den Kosten sitzen. Vertragsrechtlich ist das ganze Feld noch ziemlich unerforscht, weil niemand so richtig weiß, wer für was haftet. Die Nutzungsrechte sind oft unklar geregelt, und wenn dann noch Markenrechte ins Spiel kommen, wird es richtig unübersichtlich. Besonders problematisch wird es, wenn mehrere Unternehmen gleichzeitig ähnliche KI-Avatare eines prominenten Influencers erstellen – wer hat dann welche Rechte und wer haftet für eventuelle Schäden?
Marken und Vertrauen – beides steht auf dem Spiel
Creator investieren Jahre in den Aufbau ihrer Marke. Ihr Name, ihr Gesicht, ihre Art zu kommunizieren – das alles hat einen Wert. Wenn dann plötzlich KI-Klone auftauchen, die genauso aussehen und reden, ist das nicht nur ein Schlag ins Gesicht, sondern auch ein handfester Markenrechtsverstoß. Das Vertrauen der Follower leidet massiv, wenn sie merken, dass sie möglicherweise mit einer Maschine interagiert haben, ohne es zu wissen. Transparenz ist hier das A und O – wobei viele Unternehmen offenbar hoffen, dass es schon niemand merkt. Ein gefährliches Spiel, denn Verbraucherirreführung kann richtig teuer werden.
Besonders perfide wird es, wenn KI-Avatare in sozialen Medien so authentisch wirken, dass selbst Experten sie nicht sofort erkennen. Die Follower entwickeln eine echte Beziehung zu dem, was sie für eine reale Person halten – und fühlen sich dann betrogen, wenn die Wahrheit rauskommt. Studien zeigen bereits, dass das Vertrauen in Influencer-Marketing generell sinkt, wenn Verbraucher unsicher werden, ob sie es mit echten Menschen oder digitalen Kopien zu tun haben. Diese Vertrauenskrise könnte die gesamte Branche nachhaltig schädigen.
Was international passiert
Während wir hier noch diskutieren, haben andere schon klare Regeln aufgestellt. Die EU arbeitet mit dem AI Act an Vorschriften, die noch viel strenger werden könnten als das, was wir heute haben. Das bedeutet für Unternehmen: Was heute noch als Grauzone durchgeht, könnte morgen schon illegal sein. International gibt es allerdings massive Unterschiede – was in einem Land okay ist, kann in einem anderen zu hohen Strafen führen.
Hierzulande haben wir schon relativ strenge Regeln zum Persönlichkeitsrechtsschutz, aber die Durchsetzung hinkt noch hinterher. Die Gerichte müssen erst mal lernen, wie sie mit dieser neuen Technologie umgehen sollen. Das dauert seine Zeit, und bis dahin bewegen sich alle Beteiligten in einer ziemlichen Unsicherheitszone. In den USA hingegen ist die Rechtsprechung zum Right of Publicity bereits weiterentwickelt, was europäischen Unternehmen helfen könnte, die auch dort aktiv sind.
Übrigens zeigt sich auch, dass Verbraucher zunehmend sensibel für das Thema werden. Umfragen belegen, dass die meisten Menschen KI-Influencer akzeptieren würden – aber nur, wenn sie ehrlich als solche gekennzeichnet sind. Die Akzeptanz sinkt dramatisch, sobald der Verdacht aufkommt, dass echte Personen ohne deren Zustimmung kopiert wurden.
Was Unternehmen jetzt tun sollten
Wer auf Nummer sicher gehen will, sollte ein paar grundlegende Regeln befolgen. Erstens: Finger weg von Avataren, die echten Personen zu ähnlich sehen. Das Risiko ist einfach zu hoch. Zweitens: Immer deutlich kennzeichnen, dass es sich um einen virtuellen Influencer handelt – und zwar so, dass es jeder versteht, nicht nur das Kleingedruckte.
Am besten holt man sich vorher eine rechtliche Beratung, bevor man loslegt. Die paar hundert Euro für einen Anwalt sind nichts im Vergleich zu dem, was eine Klage kosten kann. Bei der Zusammenarbeit mit KI-Anbietern sollten alle Verantwortlichkeiten klar geregelt sein – wer haftet wofür, wem gehören die Rechte an den erstellten Inhalten, und was passiert, wenn jemand klagt?
Grundsätzlich bieten virtuelle Influencer durchaus spannende Möglichkeiten für das Marketing. Man kann sie rund um die Uhr einsetzen, sie haben nie schlechte Laune und geraten nicht in Skandale. Aber ohne die entsprechenden rechtlichen Vorsichtsmaßnahmen kann das Ganze schnell nach hinten losgehen. Besser ist es, von Anfang an transparent zu sein und eigene, eindeutig als virtuell erkennbare Charaktere zu entwickeln, statt echte Creator zu kopieren. Die Zukunft des Influencer-Marketings wird wahrscheinlich eine Mischung aus echten Menschen und klar gekennzeichneten KI-Charakteren sein – aber nur, wenn alle Beteiligten fair und transparent agieren.