Der Einsatz generativer Künstlicher Intelligenz erlebt zurzeit einen wahren Boom. Gleichgültig, ob es sich um die Ausgestaltung von Texten oder die Erzeugung von Bildmaterial oder Videoclips handelt: Zahllose Tools liefern hier die gewünschten Ergebnisse. Die Erzeugung dieser Inhalte steht aber keineswegs in einem rechtsfreien Raum. Spätestens mit der seit Anfang August 2024 in Kraft getretenen EU-weit gültigen KI-Verordnung (AI Act) ist ein weit gefasster Rechtsrahmen geschaffen worden, der auch generative KI mit einschließt.
Welche Konsequenzen dies für die Nutzung hat, soll im Folgenden etwas eingehender unter die Lupe genommen werden. Lassen Sie uns den Blick auf einige zentrale Aspekte der Transparenz- und Kennzeichnungspflichten, die durch den AI Act beim Einsatz generativer KI geregelt werden, werfen, einmal schauen, welcher Nutzen für Unternehmen damit verbunden ist, aber auch sehen, was mögliche Sanktionen sein können.
Inzwischen ist hinlänglich bekannt, dass KI-Systeme im Sinne des AI Act in vier Risikostufen von verbotenen Systemen über Hochrisikosysteme bis hin zu wenig regulierten Systemen mit geringem Risiko eingeordnet werden. Je nach Einstufung unterliegen die Systeme verschiedenen Anforderungen und Pflichten.
Bemerkenswert in diesem Zusammenhang ist, dass Transparenzpflichten unabhängig davon, ob ein System als (hoch-)riskant oder nicht eingestuft wird, gelten. Nebenbei bemerkt: Nicht nur auf juristischer Ebene sollten sich Unternehmen den Transparenzpflichten stellen: Anbieter*innen wie Anwender*innen verschiedener KI-Systeme sollten die Möglichkeit nutzen, auf freiwilliger Basis Verantwortung zu üben.
Unabhängig von den Funktionen einer generativen KI, sie fällt immer mindestens in den Bereich „begrenztes Risiko“ und unterliegt somit der Kennzeichnungs- und Transparenzpflicht.
Aber der Reihe nach:
Zentrale Aspekte der Transparenz- und Kennzeichnungspflichten durch den AI Act
„Alle Anbieter von generativen KI-Systemen, unabhängig von ihrem Standort, ihrer Größe, ihrer Leistung oder ihrer Art, ob offen (frei und quelloffen) oder proprietär, müssen grundlegende Transparenzverpflichtungen einhalten. Diese ermöglichen es der Öffentlichkeit, zu erkennen, ob die Inhalte künstlich erzeugt wurden, und sie von authentischen, von Menschen erstellten Inhalten zu unterscheiden.“ – Anthony Level (IMATAG)
Betroffene Personen müssen klar, gut verständlich und zeitnah informiert werden. Darüber hinaus muss angegeben werden, was genau von der KI erfasst und verwertet wird, wer für die von einer KI getroffenen Entscheidungen verantwortlich ist und welche Rechtsmittel Betroffenen zur Verfügung stehen, um gegen die Anwendung solcher KI-Anwendungen vorzugehen.
Das Gesetz macht jedoch keine Vorgaben, häufig wird jedoch die Nutzung eines digitalen Wasserzeichens empfohlen. Digitale Wasserzeichen werden häufig von Fotografen verwendet, die ihre Bilder verkaufen, oder Webseiten, die mit dem Verkauf von Bildern Geld verdienen (bspw. Pixabay oder Pexels). So funktioniert ein digitales Wasserzeichen auch bei von KI generierten Inhalten.
Das digitale Wasserzeichen
Jedoch ist es mit einem Vermerk „KI-generierter Inhalt“ nicht getan. Grund dafür ist, dass solche Hinweise leicht zu entfernen sind. Es geht vielmehr darum, „ein verbindliches, wirksames, robustes und zuverlässiges digitales Wasserzeichen [zu schaffen]“. Dieses digitale Wasserzeichen ist für das menschliche Auge meist nicht sichtbar, für einen Computer jedoch identifizierbar. Es verrät diesem, ob ein Inhalt mittels KI generiert wurde. Da es seitens des Gesetzgebers keine expliziten Vorgaben gibt, fehlt es in der Umsetzung an Standardisierung.
Des weiteren benötigt es einen Algorithmus, um ein digitales Wasserzeichen zu erkennen. Das Wasserzeichen kann als ein Schloss verstanden werden, wofür es einen entsprechenden Schlüssel braucht (einen Algorithmus). Der Algorithmus kann also die versteckten Wasserzeichen erkennen und somit offenlegen, ob ein KI-System genutzt wurde. Problematisch ist jedoch, dass mit einem passenden Algorithmus auch eine Möglichkeit geschaffen wird, das digitale Wasserzeichen zu beseitigen und die Kennzeichnung somit aufzuheben. Eine Studie zeigt, dass Wasserzeichen auch ohne den passenden Algorithmus erkannt, gelesen und entfernt werden können. Wie bei alle IT-Security-Themen gilt auch hier, mit genug Ressourcen und entsprechender Motivation können Hacker*innen KI-generierte Inhalte vom ihrem Wasserzeichen befreien und verwenden.
Mögliche Sanktionen
Bei den möglichen Sanktionen muss zuerst geklärt werden, ob es sich um welche Art von Akteur es sich handelt (bspw. Anwender, Anbieter, Bevollmächtigte, Einführer, Händler). Denn: Abhängig vom Akteur ändert sich auch die Sanktionierung.
Es wird ebenfalls zwischen den Verstößen und damit verbundenen Bußgeldern unterschieden:
Freiwillige Selbstverpflichtungen
Nicht zu unterschätzen sind mögliche Maßnahmen einer freiwilligen Selbstverpflichtung zur Transparenz im Umgang mit generativer KI. Idealerweise geschieht dies im Rahmen eines KI-Kodex oder von Richtlinien. So kann das Unternehmen sowohl gegenüber den eigenen Mitarbeiter*innen als auch nach außen transparent kommunizieren, wofür es einsteht. Wenn dann noch die juristischen Compliances eingehalten werden, sollte das Unternehmen auf der sicheren Seite sein.
Sollten Sie Interesse an der Erstellung freiwilliger KI-Richtlinien für Ihr Unternehmen haben, empfehlen wir Ihnen folgenden Artikel:
Im Zusammenhang mit Künstlicher Intelligenz, internen Selbstverpflichtungen im Bereich KI und darüber hinaus können Sie weitere interessante Artikel auf unserer Webseite finden: