Skip to content
27. APRIL 2026 · 11 MIN. LESEZEIT

EU AI Act für Online-Händler: Was Shop-Betreiber 2026 wissen müssen

ProductPolish Editorial··11 Min. Lesezeit
EU AI Act für Online-Händler: Was Shop-Betreiber 2026 wissen müssen

Der EU AI Act ist seit dem 1. August 2024 in Kraft, aber für Online-Händler wird er erst am 2. August 2026 richtig praktisch — dann greifen die Transparenz­pflichten aus Artikel 50. Trotzdem geistert in vielen E-Commerce-Foren das Gerücht: ab August 2026 muss jede KI-generierte Produkt­beschreibung einen "AI-generiert"-Sticker bekommen.

Das stimmt so nicht. Die Verordnung verlangt das nicht für kommerzielle Produkt­listings — und ein Großteil der Pflichten liegt ohnehin nicht beim Händler, sondern beim AI-Anbieter (ProductPolish, ChatGPT, Claude, Gemini, etc.).

Dieser Artikel ordnet die Lage: Welche Stichtage gelten? Was steht in Artikel 50 wirklich? Was musst du als Händler praktisch tun, was übernimmt dein KI-Tool, und wo regelt schon längst geltendes Recht (UWG, DSA, Konsumentenschutz) das Wesentliche?

Die Stichtage — was gilt wann

Der AI Act ist gestaffelt in Kraft. Was Online-Händler betrifft:

| Datum | Was passiert | |---|---| | 1. August 2024 | AI Act tritt in Kraft (Verordnung (EU) 2024/1689) | | 2. Februar 2025 | Verbot von "unzulässigen" KI-Praktiken — relevant für Social Scoring etc., nicht für Produkt­texte | | 2. August 2025 | Pflichten für GPAI-Anbieter (General-Purpose AI) — trifft OpenAI, Anthropic, Google, betrifft dich nicht direkt | | 2. August 2026 | Transparenz­pflichten Artikel 50 — der einzig praktisch relevante Stichtag für Online-Händler | | 2. August 2027 | Hochrisiko-KI-Pflichten — Produkt­text-Tools sind nicht als hochrisiko klassifiziert |

Was am 2. August 2026 konkret greift, steht in Artikel 50. Lass uns die drei relevanten Absätze einzeln ansehen.

Artikel 50 im Detail — was die Verordnung wirklich verlangt

Artikel 50 hat drei Absätze, die auf E-Commerce-Tools angewandt werden könnten. Nur einer davon trifft im Regelfall überhaupt zu — und nicht dich als Händler, sondern den Anbieter deines AI-Tools.

Artikel 50(1): "Du redest mit einer KI"

"Anbieter müssen sicher­stellen, dass KI-Systeme, die direkt mit natürlichen Personen interagieren sollen, so konzipiert und entwickelt werden, dass die betroffenen natürlichen Personen darüber informiert werden, dass sie mit einem KI-System interagieren — sofern dies nicht offen­sichtlich ist."

Das ist die Regel für Chatbots. Wenn ein Käufer auf deinem Shop mit einem KI-Assistenten chattet (z. B. ein Shopify-Chatbot, der Produkt­fragen beantwortet), muss erkennbar sein, dass es kein Mensch ist. Standard-Lösung: ein Hinweis "AI-Assistent" oder "KI-Bot" im Chat-Fenster reicht.

Was das nicht ist: Eine Pflicht für statische Produkt­texte. Eine Produkt­beschreibung "interagiert" nicht mit dem Käufer — sie wird nur gelesen.

Artikel 50(2): Watermarking für AI-Output

"Anbieter von KI-Systemen, [...] die synthetische Audio-, Bild-, Video- oder Text­inhalte erzeugen, müssen sicher­stellen, dass die Ausgaben in einem maschinen­lesbaren Format markiert und als künstlich erzeugt oder manipuliert erkennbar sind."

Wichtigster Punkt: Die Pflicht liegt beim Anbieter, nicht beim Verwender. Wenn ProductPolish, ChatGPT oder Midjourney Inhalte für dich erzeugen, ist es deren Verantwortung, ein Watermark einzubauen — nicht deine.

Wie sieht das aus?

  • Bilder: Das wahrscheinlichste Format ist C2PA-Metadata — eine kryptographisch signierte Information im Bild, die maschinen­lesbar offenlegt, dass es KI-generiert wurde. OpenAI, Adobe und Google haben C2PA bereits eingeführt. Der Käufer sieht davon nichts.
  • Text: Hier ist Watermarking technisch unausgereift. Die Verordnung sagt selbst "wo technisch machbar". OpenAI und Co. arbeiten an statistischen Watermarks, die für freie Käufer aber praktisch unsichtbar bleiben — und für viele Use-Cases als nicht durchsetzbar gelten.
  • Ausnahme: "Hilfs­weise Bearbeitung", die das Original nicht wesentlich verändert, ist ausgenommen. Ein KI-Tool, das nur Tipp­fehler korrigiert, muss nichts watermarken.

Artikel 50(4): Die "öffentlich-relevante Information"-Klausel

"Verwender eines KI-Systems, das Text erzeugt oder manipuliert, der mit dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde."

Das ist die Klausel, die immer falsch zitiert wird. Sie betrifft journalistische Berichterstattung, politische Information, Gesundheits­informationen und ähnliche Inhalte — Bereiche, in denen Faktentreue für die Öffentlichkeit existenziell wichtig ist.

Produkt­beschreibungen sind keine "Angelegenheiten von öffentlichem Interesse" im Sinne dieser Klausel. Sie sind kommerzielle Kommunikation und fallen unter das Werberecht — geregelt durch UWG, DSA und Konsumentenschutz, nicht durch Artikel 50(4).

Ausnahme von der Ausnahme: Wenn der KI-Text durch redaktionelle Verantwortung einer natürlichen oder juristischen Person geprüft und freigegeben wird, entfällt die Offenlegungs­pflicht ohnehin. Das ist im E-Commerce der Normalfall: Du sichtest die KI-generierte Beschreibung, klickst "Veröffentlichen" und übernimmst damit die Verantwortung — die Person hinter dem Listing bist immer noch du.

Was das praktisch für dich heißt

Drei Fragen, drei klare Antworten:

Muss ich KI-generierte Produkt­texte mit "AI-generiert" markieren?

Nein. Weder der AI Act noch die DSA noch das UWG verlangen das auf Produkt­listings. Was verlangt wird: Der Text darf nicht irreführen. Wenn die KI behauptet, dein Akku hält 24 Stunden, und in Wahrheit sind es 8 — dann verstößt das gegen § 5 UWG (irreführende geschäftliche Handlung), unabhängig davon, ob der Text von Hand oder per KI geschrieben wurde.

Muss ich KI-Bilder kennzeichnen?

Nein, du nicht. Watermarking-Pflicht trifft den Bildgenerator-Anbieter (ProductPolish, OpenAI, Midjourney etc.). Die Metadaten gehen mit dem Bild mit. Manche Marktplätze (Meta hat das angekündigt, Amazon prüft) werden das künftig auslesen und ggf. einen kleinen Label-Hinweis einblenden — das ist deren Pflicht, nicht deine.

Muss ich einen Hinweis im Impressum oder in den AGB setzen?

Keine Pflicht — aber empfehlens­wert. Weder AI Act noch DSGVO erzwingen einen "Wir nutzen KI"-Disclaimer. Wer es trotzdem aufnimmt, signalisiert Transparenz und reduziert das Risiko, dass ein wachsamer Mitbewerber dich abmahnt. Eine Zeile in den AGB wie "Produkt­texte und Produkt­bilder werden teilweise KI-gestützt erstellt und vor Veröffentlichung redaktionell geprüft" reicht.

Was sich nicht ändert — schon längst geltendes Recht

Der AI Act baut keine neue Mauer. Er ergänzt bestehende Rechte, die für Online-Händler ohnehin gelten:

  • § 5 UWG (Deutschland) / § 1 UWG (Österreich) — Irreführung. Falsche Angaben zu Eigenschaften, Herkunft oder Wirkungsweise sind verboten. Egal, ob die KI sie erfunden hat oder ein Praktikant.
  • DSA (Digital Services Act). Marktplätze wie Amazon, Etsy und eBay haben Sorgfalts­pflichten — sie müssen Listings prüfen lassen können und gegen rechts­widrige Inhalte vorgehen. KI-Texte fallen darunter wie alle anderen.
  • DSGVO. Wenn deine KI mit Käufer­daten trainiert wird (z. B. um personalisierte Texte zu generieren), gelten alle DSGVO-Pflichten — Rechts­grundlage, Auftrags­verarbeitung, Auskunfts­recht.

Diese drei Regelwerke sind seit Jahren in Kraft. Wer als Online-Händler schon heute korrekte Produkt­beschreibungen veröffentlicht, hat den AI Act zu 90 % bereits erfüllt.

Was du jetzt — vor dem 2. August 2026 — konkret tun solltest

Eine pragmatische Checkliste, sortiert nach Effekt:

1. KI-Output vor Veröffentlichung sichten. Das ist die wichtigste Maßnahme — und die einzige, die wirklich Risiko reduziert. Eine KI kann halluzinieren ("Material: Edelstahl" obwohl Plastik), und dann haftest du. Ein Mensch (du oder ein Mitarbeitender) klickt jedes Listing einmal durch und prüft die Kern­fakten.

2. KI-Tool auswählen, das Watermarking unterstützt. Frag den Anbieter explizit: "Implementiert ihr Artikel 50(2) AI Act?" Seriöse Tools antworten klar (z. B. "Ja, C2PA-Metadaten ab Q2 2026"). Wer ausweicht, riskiert nach August 2026 selbst Probleme — die du als Verwender nicht trägst, aber dein Tool dann ggf. nicht mehr verfügbar ist.

3. Lieferanten­vertrag prüfen. Wenn du mit einer Agentur oder einem Tool ein Produkt­katalog gestaltet hast, lass dir schriftlich geben, wer für AI-Compliance verantwortlich ist. Idealerweise eine Klausel: "Anbieter erfüllt Anforderungen aus Artikel 50 AI Act ab Anwendungs­datum."

4. AGB-Zeile zur KI-Nutzung ergänzen. Optional, aber gutes Signal. "Produkt­texte und Produkt­bilder werden teilweise KI-gestützt erstellt und vor Veröffentlichung redaktionell geprüft." Mehr braucht es nicht.

5. Faktentreue-Spotcheck einmal pro Quartal. Geh durch deine 20 umsatz­stärksten Listings und kontrolliere: Stimmt jede Spezifikation? Stimmt jedes Material? Stimmt jede Größen­angabe? Kleine Halluzinationen sammeln sich an, wenn niemand prüft.

Strafen — wie hoch ist das Risiko wirklich?

Die Verordnung sieht abgestufte Strafen vor:

  • Bis zu 35 Mio. € oder 7 % des welt­weiten Jahresumsatzes — für verbotene Praktiken (Social Scoring, manipulative KI etc.). Trifft Online-Händler praktisch nie.
  • Bis zu 15 Mio. € oder 3 % des Jahresumsatzes — für Verstöße gegen die Pflichten in Artikel 50 (Transparenz). Hier sitzt das Risiko, aber die Pflicht trifft Anbieter, nicht Händler.
  • Bis zu 7,5 Mio. € oder 1 % des Jahresumsatzes — für falsche Auskünfte gegenüber Behörden.

Für einen typischen Online-Händler mit 1–10 Mitarbeitenden: Das größte reale Risiko sind nicht AI-Act-Strafen, sondern UWG-Abmahnungen — die deutlich häufiger und wahrscheinlicher sind. Eine einzige Abmahnung kostet im Schnitt 1.500–3.000 € Streit­wert plus Anwalts­kosten.

Wo der AI Act noch unklar ist

FAQ

Muss ich auf jedes KI-generierte Produkt­bild ein sichtbares "AI-generiert"-Wasser­zeichen setzen? Nein. Die Verordnung verlangt maschinen­lesbare Markierungen (z. B. C2PA-Metadaten), nicht visuell sichtbare Wasser­zeichen. Und die Pflicht trifft den Anbieter des Bild­generators, nicht dich.

Was ist, wenn ich einen Text per KI generiere und ihn dann selbst überarbeite? Wenn du als verantwort­liche Person den Text vor Veröffentlichung prüfst und freigibst, greift die Ausnahme in Artikel 50(4): redaktionelle Verantwortung. Eine Offenlegungs­pflicht entfällt damit — auch falls Produkt­beschreibungen unter "öffentliches Interesse" fallen sollten (was sie nicht tun).

Bin ich als Händler überhaupt direkt vom AI Act adressiert? Im Regelfall nein. Du bist "Verwender" (Deployer) im Sinne der Verordnung. Direkte Pflichten triffst nur, wenn du selbst KI-Systeme entwickelst und auf den Markt bringst — was bei reinen Online-Händlern selten der Fall ist.

Kann ich weiter mit ChatGPT, Claude, Gemini, ProductPolish & Co. arbeiten? Ja. Die Anbieter müssen ihre Compliance bis zum 2. August 2026 sicher­stellen. Du als Verwender musst nichts darüber hinaus tun, solange du den Output vor Veröffentlichung sichtest.

Was passiert, wenn die KI eine falsche Eigenschaft erfindet (Halluzination)? Veröffent­lichst du das ungeprüft, haftest du nach UWG (§ 5 — irreführende geschäftliche Handlung). Eine Mitbewerber­abmahnung ist realistischer als eine AI-Act-Strafe. Faktencheck vor Veröffent­lichung ist die wichtigste Schutz­maßnahme.

Gibt es eine Pflicht, KI-Nutzung in den AGB zu erwähnen? Nein. Aber eine kurze Klausel in den AGB oder im Impressum ist ein guter Transparenz-Move — und reduziert die Angriffs­fläche für eine Abmahnung wegen Irreführung.

Wann kommt die Übergangs­frist für bestehende KI-Systeme? Für GPAI-Modelle (große Sprach­modelle), die schon vor dem 2. August 2025 auf dem Markt waren, gilt eine Übergangs­frist bis zum 2. August 2027. Für Anwendungs­systeme wie ProductPolish, die GPAI-Modelle einsetzen, gilt der reguläre Stichtag 2. August 2026.