Was sind KI-Agenten im E-Commerce?
KI-Agenten sind autonome Softwareprogramme, die in verschiedenen Anwendungsbereichen eingesetzt werden können. Im E-Commerce übernehmen sie beispielsweise einen Großteil des Einkaufsprozesses für Kunden - bekannt als Agentic Commerce. Sie werden vom EU AI Act als “universell einsetzbares KI-Modell” eingestuft (Artikel 3 Nr. 63 der Verordnung).
KI-Agenten gehen weit über klassische Assistenzfunktionen hinaus: Sie recherchieren Produkte, vergleichen Optionen, berücksichtigen Präferenzen (z. B. Preis, Qualität, Lieferzeit, Bewertungen) und können – innerhalb vorher definierter Grenzen – auch selbstständig Einkäufe tätigen. Nutzer formulieren ein Ziel oder eine Aufforderung („Finde mir eine rote Bluse für unter 50 €“ oder „Bestelle mir jeden Monat mein Haarshampoo“) und der Agent arbeitet autonom oder teil-autonom, um dieses Ziel zu erfüllen.
Sie interessieren sich für KI-Agenten oder andere spannende KI-Lösungen im E-Commerce? Sprechen Sie uns gerne an. Als erfahrene KI-Agentur freuen wir uns, Ihnen bei Ihrem Anliegen zu helfen.
Der EU AI Act und KI-Agenten
Die Verordnung (EU) 2024/1689 über Künstliche Intelligenz (AI Act) ist der weltweit erste umfassende Rechtsrahmen für den Einsatz und die Entwicklung von Künstlicher Intelligenz in der Europäischen Union. Ziel ist es, ein hohes Schutzniveau für Grundrechte oder die Gesellschaft, öffentliche Gesundheit und Sicherheit zu gewährleisten – und gleichzeitig Innovation zu fördern.
Für KI-Agenten, also Systeme, die auf Grundlage autonomer Entscheidungsmechanismen agieren, ergeben sich daraus erhebliche rechtliche, technische und organisatorische Herausforderungen.
Unklare Risikoklassifizierung autonomer Systeme
Die EU Verordnung zur KI-Regulierung verfolgt einen risikobasierten Ansatz, der KI-Systeme in die Kategorien minimales, begrenztes, hohes und inakzeptables Risiko einteilt. Autonome KI-Agenten, die in wechselnden Kontexten agieren oder mehrere Funktionen kombinieren, lassen sich jedoch häufig nicht eindeutig einer Risikostufe zuordnen. Die Abgrenzung zwischen einem „Hochrisiko-System“ und einem „begrenzten Risiko-System“ ist insbesondere dann problematisch, wenn der Agent adaptiv lernt oder sein Verhalten dynamisch anpasst. Diese Unsicherheit führt zu Rechtsunsicherheit für Entwickler und Betreiber und erschwert die Planung von Compliance-Maßnahmen.
Ein KI-Agent im Bereich E-Commerce wird gemäß seiner Zweckbestimmung in der Lage sein, eine erhebliche allgemeine Verwendbarkeit aufzuweisen und, unabhängig von der Art und Weise seines Inverkehrbringens, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen und kann in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden. Daher sind solche KI-Agenten von der EU-Verordnung umfasst. Für den Betreiber der E-Commerce-Plattform (i.d.R. ein Händler) bedeutet das, dass er mit dem Einsatz des KI-Agenten ein „KI-System für allgemeine Zwecke“ betreibt (Artikel 3 Nr. 66 der Verordnung).
Bei der Beurteilung, wofür ein KI-Agenten-System verwendet werden soll, muss man nicht nur darauf schauen, in welchem Bereich es eingesetzt wird (z.B. Einkauf, Kundendienst etc.) oder welche Art von Ergebnissen es liefert. Wichtig ist auch, welche Werkzeuge der KI-Agent zur Verfügung hat. Wenn ein KI-Agent also z.B. für Einkäufe im Shop gedacht ist, aber eigenständig auf einen Computer oder Browser zugreifen und diesen steuern kann, dann birgt das ein höheres Risiko für unerwartete oder missbräuchliche Anwendungen.
Dadurch könnte er als KI-System mit allgemeinem Verwendungszweck (General Purpose AI oder auch GPAI) eingestuft werden – selbst wenn er ursprünglich nur für Einkäufe im Shop gedacht war. Allerdings fallen Händler, Einführer, Betreiber oder sonstige Dritte als Anbieter eines KI-Systems mit allgemeinem Verwendungszweck im Bereich E-Commerce nicht zwangsläufig in die Hochrisiko- Kategorie der Verordnung. Dies ergibt sich aus dem Umkehrschluss des Artikels 25 Abs. 1 c) der Verordnung.
Erklärbarkeit und Nachvollziehbarkeit
Gemäß der Verordnung müssen Hochrisiko-KI-Systeme transparent und für den Menschen nachvollziehbar sein. Insbesondere KI-Agenten, die auf Large Language Model/Deep-Learning-Architekturen oder Reinforcement-Learning basieren, generieren jedoch Entscheidungsprozesse, die kaum interpretierbar sind („Black-Box-Problematik“). Die Umsetzung der Transparenzanforderungen ist daher technisch äußerst anspruchsvoll.
Verantwortung und Haftung
Ein weiteres zentrales Problem betrifft die Zurechnung von Verantwortung. Die Verordnung regelt primär Pflichten der Anbieter und Nutzer von KI-Systemen (Art. 16–29 der Verordnung), geht aber nicht umfassend auf Haftungsfragen ein. Bei autonomen KI-Agenten stellt sich die Frage, wer für rechtswidriges Verhalten oder Schäden verantwortlich ist, wenn Entscheidungen ohne unmittelbares menschliches Zutun getroffen werden. Die geplante EU-Richtlinie über KI-Haftung (COM(2022) 496 final) versucht diese Lücke zu schließen, doch die praktische Umsetzung der Haftungsverteilung bleibt unklar, insbesondere bei Systemen, die sich selbständig weiterentwickeln.
Dokumentations- und Auditpflichten
Die EU-KI-Verordnung verpflichtet Anbieter von Hochrisiko-Systemen zur umfassenden Technischen Dokumentation (Art. 11 der Verordnung) sowie zu Risikomanagement-, Datenqualitäts- und Überwachungspflichten (Art. 9–15 der Verordnung). Bevor Händler ein Hochrisiko-KI-System auf dem Markt bereitstellen, überprüfen sie, ob es mit der erforderlichen CE-Kennzeichnung versehen ist, ob ihm eine Kopie der in Artikel 47 der Verordnung genannten EU-Konformitätserklärung und Betriebsanleitungen beigefügt sind und ob der Anbieter und gegebenenfalls der Einführer dieses Systems ihre in Artikel 16 Buchstaben b und c sowie Artikel 23 Absatz 3 der Verordnung festgelegten jeweiligen Pflichten erfüllt haben.
Für KI-Agenten, die kontinuierlich lernen oder mit offenen Datenquellen interagieren, ist die Einhaltung dieser Pflichten oft kaum praktikabel. Die Anforderungen an Nachvollziehbarkeit und Reproduzierbarkeit kollidieren mit der inhärenten Dynamik solcher Systeme. Insbesondere kleine und mittlere Unternehmen (KMU) sehen sich durch diese regulatorischen Anforderungen in ihrer Innovationsfähigkeit eingeschränkt.
Fazit
Die EU-KI-Verordnung schafft einen wichtigen Rahmen für den verantwortungsvollen Umgang mit Künstlicher Intelligenz, doch für autonome KI-Agenten bringt sie komplexe Herausforderungen mit sich. So stellt sich die Frage der Haftungsübernahme, wenn ein KI-Agent fehlerhaft agiert (z.B. Auswahl von falschem Artikel, höhere Anzahl von Artikeln im Warenkorb, falsche Preiskalkulation, etc.). Unklare Risikoklassifizierungen, mangelnde technische Erklärbarkeit, offene Haftungsfragen und hohe Compliance-Kosten erschweren die praktische Umsetzung. Daher ist es vor dem Einsatz eines KI-Agenten notwendig, mit der implementierenden Software-Agentur die Rahmenbedingungen des Systems festzulegen und mittels eines Stresstests die Fehlfunktionen zu beseitigen.
Bei elio arbeiten wir bereits seit einigen Jahren an passenden KI-Lösungen für unsere Kunden. Durch unsere Rechtsabteilung sind wir immer auf dem aktuellen Stand, um Vorgaben zur KI-Compliance im E-Commerce zu erfüllen. Auf dieser Grundlage helfen wir Ihnen gerne dabei, KI-Agenten im Rahmen des EU AI Acts für Ihre Herausforderungen einzusetzen.