EU AI Act für Online-Händler: Was Shop-Betreiber 2026 wissen müssen

Der EU AI Act ist seit dem 1. August 2024 in Kraft, aber für Online-Händler wird er erst am 2. August 2026 richtig praktisch — dann greifen die Transparenzpflichten aus Artikel 50. Trotzdem geistert in vielen E-Commerce-Foren das Gerücht: ab August 2026 muss jede KI-generierte Produktbeschreibung einen "AI-generiert"-Sticker bekommen.
Das stimmt so nicht. Die Verordnung verlangt das nicht für kommerzielle Produktlistings — und ein Großteil der Pflichten liegt ohnehin nicht beim Händler, sondern beim AI-Anbieter (ProductPolish, ChatGPT, Claude, Gemini, etc.).
Dieser Artikel ordnet die Lage: Welche Stichtage gelten? Was steht in Artikel 50 wirklich? Was musst du als Händler praktisch tun, was übernimmt dein KI-Tool, und wo regelt schon längst geltendes Recht (UWG, DSA, Konsumentenschutz) das Wesentliche?
Die Stichtage — was gilt wann
Der AI Act ist gestaffelt in Kraft. Was Online-Händler betrifft:
| Datum | Was passiert | |---|---| | 1. August 2024 | AI Act tritt in Kraft (Verordnung (EU) 2024/1689) | | 2. Februar 2025 | Verbot von "unzulässigen" KI-Praktiken — relevant für Social Scoring etc., nicht für Produkttexte | | 2. August 2025 | Pflichten für GPAI-Anbieter (General-Purpose AI) — trifft OpenAI, Anthropic, Google, betrifft dich nicht direkt | | 2. August 2026 | Transparenzpflichten Artikel 50 — der einzig praktisch relevante Stichtag für Online-Händler | | 2. August 2027 | Hochrisiko-KI-Pflichten — Produkttext-Tools sind nicht als hochrisiko klassifiziert |
Was am 2. August 2026 konkret greift, steht in Artikel 50. Lass uns die drei relevanten Absätze einzeln ansehen.
Artikel 50 im Detail — was die Verordnung wirklich verlangt
Artikel 50 hat drei Absätze, die auf E-Commerce-Tools angewandt werden könnten. Nur einer davon trifft im Regelfall überhaupt zu — und nicht dich als Händler, sondern den Anbieter deines AI-Tools.
Artikel 50(1): "Du redest mit einer KI"
"Anbieter müssen sicherstellen, dass KI-Systeme, die direkt mit natürlichen Personen interagieren sollen, so konzipiert und entwickelt werden, dass die betroffenen natürlichen Personen darüber informiert werden, dass sie mit einem KI-System interagieren — sofern dies nicht offensichtlich ist."
Das ist die Regel für Chatbots. Wenn ein Käufer auf deinem Shop mit einem KI-Assistenten chattet (z. B. ein Shopify-Chatbot, der Produktfragen beantwortet), muss erkennbar sein, dass es kein Mensch ist. Standard-Lösung: ein Hinweis "AI-Assistent" oder "KI-Bot" im Chat-Fenster reicht.
Was das nicht ist: Eine Pflicht für statische Produkttexte. Eine Produktbeschreibung "interagiert" nicht mit dem Käufer — sie wird nur gelesen.
Artikel 50(2): Watermarking für AI-Output
"Anbieter von KI-Systemen, [...] die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen sicherstellen, dass die Ausgaben in einem maschinenlesbaren Format markiert und als künstlich erzeugt oder manipuliert erkennbar sind."
Wichtigster Punkt: Die Pflicht liegt beim Anbieter, nicht beim Verwender. Wenn ProductPolish, ChatGPT oder Midjourney Inhalte für dich erzeugen, ist es deren Verantwortung, ein Watermark einzubauen — nicht deine.
Wie sieht das aus?
- Bilder: Das wahrscheinlichste Format ist C2PA-Metadata — eine kryptographisch signierte Information im Bild, die maschinenlesbar offenlegt, dass es KI-generiert wurde. OpenAI, Adobe und Google haben C2PA bereits eingeführt. Der Käufer sieht davon nichts.
- Text: Hier ist Watermarking technisch unausgereift. Die Verordnung sagt selbst "wo technisch machbar". OpenAI und Co. arbeiten an statistischen Watermarks, die für freie Käufer aber praktisch unsichtbar bleiben — und für viele Use-Cases als nicht durchsetzbar gelten.
- Ausnahme: "Hilfsweise Bearbeitung", die das Original nicht wesentlich verändert, ist ausgenommen. Ein KI-Tool, das nur Tippfehler korrigiert, muss nichts watermarken.
Artikel 50(4): Die "öffentlich-relevante Information"-Klausel
"Verwender eines KI-Systems, das Text erzeugt oder manipuliert, der mit dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde."
Das ist die Klausel, die immer falsch zitiert wird. Sie betrifft journalistische Berichterstattung, politische Information, Gesundheitsinformationen und ähnliche Inhalte — Bereiche, in denen Faktentreue für die Öffentlichkeit existenziell wichtig ist.
Produktbeschreibungen sind keine "Angelegenheiten von öffentlichem Interesse" im Sinne dieser Klausel. Sie sind kommerzielle Kommunikation und fallen unter das Werberecht — geregelt durch UWG, DSA und Konsumentenschutz, nicht durch Artikel 50(4).
Ausnahme von der Ausnahme: Wenn der KI-Text durch redaktionelle Verantwortung einer natürlichen oder juristischen Person geprüft und freigegeben wird, entfällt die Offenlegungspflicht ohnehin. Das ist im E-Commerce der Normalfall: Du sichtest die KI-generierte Beschreibung, klickst "Veröffentlichen" und übernimmst damit die Verantwortung — die Person hinter dem Listing bist immer noch du.
Was das praktisch für dich heißt
Drei Fragen, drei klare Antworten:
Muss ich KI-generierte Produkttexte mit "AI-generiert" markieren?
Nein. Weder der AI Act noch die DSA noch das UWG verlangen das auf Produktlistings. Was verlangt wird: Der Text darf nicht irreführen. Wenn die KI behauptet, dein Akku hält 24 Stunden, und in Wahrheit sind es 8 — dann verstößt das gegen § 5 UWG (irreführende geschäftliche Handlung), unabhängig davon, ob der Text von Hand oder per KI geschrieben wurde.
Muss ich KI-Bilder kennzeichnen?
Nein, du nicht. Watermarking-Pflicht trifft den Bildgenerator-Anbieter (ProductPolish, OpenAI, Midjourney etc.). Die Metadaten gehen mit dem Bild mit. Manche Marktplätze (Meta hat das angekündigt, Amazon prüft) werden das künftig auslesen und ggf. einen kleinen Label-Hinweis einblenden — das ist deren Pflicht, nicht deine.
Muss ich einen Hinweis im Impressum oder in den AGB setzen?
Keine Pflicht — aber empfehlenswert. Weder AI Act noch DSGVO erzwingen einen "Wir nutzen KI"-Disclaimer. Wer es trotzdem aufnimmt, signalisiert Transparenz und reduziert das Risiko, dass ein wachsamer Mitbewerber dich abmahnt. Eine Zeile in den AGB wie "Produkttexte und Produktbilder werden teilweise KI-gestützt erstellt und vor Veröffentlichung redaktionell geprüft" reicht.
Was sich nicht ändert — schon längst geltendes Recht
Der AI Act baut keine neue Mauer. Er ergänzt bestehende Rechte, die für Online-Händler ohnehin gelten:
- § 5 UWG (Deutschland) / § 1 UWG (Österreich) — Irreführung. Falsche Angaben zu Eigenschaften, Herkunft oder Wirkungsweise sind verboten. Egal, ob die KI sie erfunden hat oder ein Praktikant.
- DSA (Digital Services Act). Marktplätze wie Amazon, Etsy und eBay haben Sorgfaltspflichten — sie müssen Listings prüfen lassen können und gegen rechtswidrige Inhalte vorgehen. KI-Texte fallen darunter wie alle anderen.
- DSGVO. Wenn deine KI mit Käuferdaten trainiert wird (z. B. um personalisierte Texte zu generieren), gelten alle DSGVO-Pflichten — Rechtsgrundlage, Auftragsverarbeitung, Auskunftsrecht.
Diese drei Regelwerke sind seit Jahren in Kraft. Wer als Online-Händler schon heute korrekte Produktbeschreibungen veröffentlicht, hat den AI Act zu 90 % bereits erfüllt.
Was du jetzt — vor dem 2. August 2026 — konkret tun solltest
Eine pragmatische Checkliste, sortiert nach Effekt:
1. KI-Output vor Veröffentlichung sichten. Das ist die wichtigste Maßnahme — und die einzige, die wirklich Risiko reduziert. Eine KI kann halluzinieren ("Material: Edelstahl" obwohl Plastik), und dann haftest du. Ein Mensch (du oder ein Mitarbeitender) klickt jedes Listing einmal durch und prüft die Kernfakten.
2. KI-Tool auswählen, das Watermarking unterstützt. Frag den Anbieter explizit: "Implementiert ihr Artikel 50(2) AI Act?" Seriöse Tools antworten klar (z. B. "Ja, C2PA-Metadaten ab Q2 2026"). Wer ausweicht, riskiert nach August 2026 selbst Probleme — die du als Verwender nicht trägst, aber dein Tool dann ggf. nicht mehr verfügbar ist.
3. Lieferantenvertrag prüfen. Wenn du mit einer Agentur oder einem Tool ein Produktkatalog gestaltet hast, lass dir schriftlich geben, wer für AI-Compliance verantwortlich ist. Idealerweise eine Klausel: "Anbieter erfüllt Anforderungen aus Artikel 50 AI Act ab Anwendungsdatum."
4. AGB-Zeile zur KI-Nutzung ergänzen. Optional, aber gutes Signal. "Produkttexte und Produktbilder werden teilweise KI-gestützt erstellt und vor Veröffentlichung redaktionell geprüft." Mehr braucht es nicht.
5. Faktentreue-Spotcheck einmal pro Quartal. Geh durch deine 20 umsatzstärksten Listings und kontrolliere: Stimmt jede Spezifikation? Stimmt jedes Material? Stimmt jede Größenangabe? Kleine Halluzinationen sammeln sich an, wenn niemand prüft.
Strafen — wie hoch ist das Risiko wirklich?
Die Verordnung sieht abgestufte Strafen vor:
- Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes — für verbotene Praktiken (Social Scoring, manipulative KI etc.). Trifft Online-Händler praktisch nie.
- Bis zu 15 Mio. € oder 3 % des Jahresumsatzes — für Verstöße gegen die Pflichten in Artikel 50 (Transparenz). Hier sitzt das Risiko, aber die Pflicht trifft Anbieter, nicht Händler.
- Bis zu 7,5 Mio. € oder 1 % des Jahresumsatzes — für falsche Auskünfte gegenüber Behörden.
Für einen typischen Online-Händler mit 1–10 Mitarbeitenden: Das größte reale Risiko sind nicht AI-Act-Strafen, sondern UWG-Abmahnungen — die deutlich häufiger und wahrscheinlicher sind. Eine einzige Abmahnung kostet im Schnitt 1.500–3.000 € Streitwert plus Anwaltskosten.
Wo der AI Act noch unklar ist
FAQ
Muss ich auf jedes KI-generierte Produktbild ein sichtbares "AI-generiert"-Wasserzeichen setzen? Nein. Die Verordnung verlangt maschinenlesbare Markierungen (z. B. C2PA-Metadaten), nicht visuell sichtbare Wasserzeichen. Und die Pflicht trifft den Anbieter des Bildgenerators, nicht dich.
Was ist, wenn ich einen Text per KI generiere und ihn dann selbst überarbeite? Wenn du als verantwortliche Person den Text vor Veröffentlichung prüfst und freigibst, greift die Ausnahme in Artikel 50(4): redaktionelle Verantwortung. Eine Offenlegungspflicht entfällt damit — auch falls Produktbeschreibungen unter "öffentliches Interesse" fallen sollten (was sie nicht tun).
Bin ich als Händler überhaupt direkt vom AI Act adressiert? Im Regelfall nein. Du bist "Verwender" (Deployer) im Sinne der Verordnung. Direkte Pflichten triffst nur, wenn du selbst KI-Systeme entwickelst und auf den Markt bringst — was bei reinen Online-Händlern selten der Fall ist.
Kann ich weiter mit ChatGPT, Claude, Gemini, ProductPolish & Co. arbeiten? Ja. Die Anbieter müssen ihre Compliance bis zum 2. August 2026 sicherstellen. Du als Verwender musst nichts darüber hinaus tun, solange du den Output vor Veröffentlichung sichtest.
Was passiert, wenn die KI eine falsche Eigenschaft erfindet (Halluzination)? Veröffentlichst du das ungeprüft, haftest du nach UWG (§ 5 — irreführende geschäftliche Handlung). Eine Mitbewerberabmahnung ist realistischer als eine AI-Act-Strafe. Faktencheck vor Veröffentlichung ist die wichtigste Schutzmaßnahme.
Gibt es eine Pflicht, KI-Nutzung in den AGB zu erwähnen? Nein. Aber eine kurze Klausel in den AGB oder im Impressum ist ein guter Transparenz-Move — und reduziert die Angriffsfläche für eine Abmahnung wegen Irreführung.
Wann kommt die Übergangsfrist für bestehende KI-Systeme? Für GPAI-Modelle (große Sprachmodelle), die schon vor dem 2. August 2025 auf dem Markt waren, gilt eine Übergangsfrist bis zum 2. August 2027. Für Anwendungssysteme wie ProductPolish, die GPAI-Modelle einsetzen, gilt der reguläre Stichtag 2. August 2026.
