Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von künstlicher Intelligenz (KI beziehungsweise Englisch AI). Das EU-Gesetz zur künstlichen Intelligenz legt fest, welche Anforderungen KI-Systeme innerhalb der Europäischen Union erfüllen müssen, um sicher und vertrauenswürdig zu sein. Unternehmen in Deutschland stehen nun vor der Herausforderung, die neuen Regeln umzusetzen. Dass Entwicklende sowie Anbieterinnen und Anbieter von KI-Systemen besonders gefordert sind, ihre Produkte zu optimieren, erscheint klar. Doch auch Betreibende, Nutzerinnen und Nutzer von KI sind gefragt, sich mit den gesetzlichen Vorgaben zu KI auseinanderzusetzen.
EU AI Act legt Risikoklassen für KI fest
Der EU AI Act teilt KI-Anwendungen in Risikoklassen ein und erlässt für jede Klasse eigene Vorschriften. Das Risiko wird umso höher eingeschätzt, je einfacher eine Anwendung Menschen manipulieren kann. Datenerhebungen und Datenauswertungen im großen Stil, gefälschter Content, der massenhaft auf Social Media ausgespielt wird, und anderes mehr zählen zu dem enormen manipulativen Potenzial von künstlicher Intelligenz. Unternehmen, die die Vorschriften nicht einhalten, sollen nach dem Willen der Europäischen Kommission Geldstrafen zahlen. Die EU-Kommission bietet einen Online-Compliance-Checker, mit dem Betroffene testen können, ob sie unter das EU-Gesetz zur künstlichen Intelligenz fallen.
Folgende Risikoklassen nennt das EU-Gesetz zur KI-Regulierung:
- Minimales Risiko: Die Mehrheit der KI-Systeme, etwa KI-basierte Empfehlungssysteme und Spamfilter, gehört in diese Kategorie. Sie unterliegen keinen speziellen Auflagen.
- Besondere Transparenzverpflichtungen: Bei manchen Anwendungen von KI besteht ein Manipulationsrisiko, etwa bei Chatbots oder durch KI erzeugte Audio-, Video- und Bildinhalte (sogenannte Deepfakes). Anbietende müssen solche synthetischen Inhalte und Chatbots als KI-generiert kennzeichnen. Und das sowohl für die menschlichen Nutzenden als auch in maschinenlesbarer Form, also zum Beispiel für Google, Bing und Co.
- Hohes Risiko: Unter Hoch-Risiko-KI-Systeme fallen nach Ansicht des EU AI Acts zum Beispiel solche, die Unternehmen bei der Personaleinstellung verwenden, mit denen bewertet wird, ob jemand kreditwürdig ist, KI-Anwendungen im medizinischen Bereich oder mit denen autonome Roboter betrieben werden. Hier legt die EU-Kommission unter anderem strenge Anforderungen für die Dokumentation der Vorgänge, Cybersicherheit und menschliche Aufsicht fest.
- Unannehmbares Risiko: Verboten sind künftig KI-Systeme, die Grundrechte bedrohen, menschliches Verhalten manipulieren und den freien Willen unterwandern wollen. Dazu gehören zum Beispiel Systeme, die Behörden und Unternehmen eine Bewertung des sozialen Verhaltens (Social Scoring) ermöglichen, ähnliche, vorausschauende polizeiliche Überwachung, verschiedene Verwendungsarten biometrischer Systeme etwa zur Emotionserkennung am Arbeitsplatz oder Sprachassistenten, die zum Beispiel zu gefährlichem Verhalten ermuntern.
Texterzeugung mit KI für Websites, Social Media und Co
Viele Content Creator nutzen mittlerweile generische KI-Modelle wie ChatGPT, um Texte und verwandte Inhalte zu erstellen. Für eine solche Texterstellung mit KI für Websites, Onlineshops, Social Media und Co hält der EU AI Act in § 50 Absatz 4 Regelungen parat. Es geht dabei um Vorschriften für sogenannte KI-Modelle mit allgemeinem Verwendungszweck.
Sollen KI-erzeugte Texte eine breite Leserinnen- und Leserschaft über Angelegenheiten von öffentlichem Interesse informieren, etwa in einem Unternehmensblog, einem Newsletter, einem Social-Media-Account oder auch in Printmedien, müssen diese Texte entsprechend gekennzeichnet sein. Die Ausnahme ist, wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung trägt. Steht also eine PR-Agentur, eine Abteilung für Unternehmenskommunikation oder eine Redaktion hinter den Texten, die auch namentlich etwa im Impressum oder in Autorenzeilen benannt werden, dann besteht keine solche Kennzeichnungspflicht. Vor allem wird also automatisch generierter Spam aller Art von dieser Kennzeichnungspflicht erfasst.
Was sieht der EU AI Act für Bilder, Videos und Audio-Content vor?
Der § 50 Absatz 4 des EU AI Acts geht auch auf Bild-, Video- und Audio-Content ein, der durch KI-Modelle mit allgemeinem Verwendungszweck erzeugt wird. Die leistungsfähigen generischen KI-Tools sind mittlerweile in der Lage, realitätsnahe Videos, Audio-Inhalte und fotorealistische Bilder zu erzeugen. Auch die Manipulation vorhandener Inhalte ist möglich. Vor allem der Begriff „Deepfake“ macht hierbei immer wieder Schlagzeilen. Ab August 2026 müssen Deepfakes als KI-generiert gekennzeichnet werden, was Betrug und Täuschung von Konsumentinnen und Konsumenten verhindern soll.
Doch wie ist der Begriff Deepfake definiert? Zumeist denkt man dabei an Prominente, Politiker und Politikerinnen, die von Deepfakes betroffen sind. Hierbei montieren Kriminelle die Gesichter bekannter Persönlichkeiten in Fotos hinein, legen gefälschte Tonspuren unter echte Videos, um Politikschaffenden etwas in den Mund zu legen, oder erzeugen gänzlich gefälschte, aber täuschend echt wirkende Fotos, Videos und Audio-Dateien. Die Ziele sind Betrug und Manipulation der öffentlichen Meinung.
Fachleute interpretieren den Begriff Deepfake jedoch deutlich weiter. Es müssen nicht zwingend reale Personen die Basis für Deepfakes sein. Auch täuschend echt wirkende Bilder, Videos und Audio-Aufnahmen von fiktiven Menschen, Geschehnissen, Orten etc. sind Deepfakes. Dieser durch künstliche Intelligenz gestaltete Content wird also durch den §50.4 erfasst und muss künftig als KI-generiert gekennzeichnet werden. Das Ziel von solchen Deepfakes mit fiktiven Personen kann zum Beispiel das Anlegen von gefälschten Social-Media-Accounts sein. Oft nutzen Unternehmen die künstlich generierten Fotos auch, um schnell und einfach passendes Bildmaterial für Firmenpublikationen und Websites zu erhalten. Zur Erstellung solcher KI-Marketingbilder fallen keine Kosten für Models und Fotografierende an, die KI erzeugt die fotorealistischen Bilder mühelos in Sekundenschnelle. Auch kommerzielle Bilddatenbanken bieten bereits zahlreiche KI-generierte Fotos an.
KI-Regulierung und Chatbots bei Websites und Onlineshops
Bei vielen Onlineshops, Websites und Handy-Apps übernehmen Chatbots den ersten Kundenkontakt. Sie stehen für Fragen zu den Services sowie Produkten zur Verfügung und geben allgemeine Auskünfte zum Unternehmen. Die Transparenzverpflichtung des EU AI Act umfasst solche Chatbots. Die Shop-, Website- oder App-Betreibenden müssen den Nutzenden deutlich darlegen, dass diese es mit einer KI zu tun haben und nicht mit menschlichen Gesprächspartnerinnen und -partnern.