KI-generierte Inhalte sind auf dem Vormarsch: 60 % der Marketer nutzen bereits KI-Tools und 25 % setzen sie explizit zur Erstellung von Produktbeschreibungen ein. Lösungen wie ChatGPT, Jasper und CopyAI haben die Effizienz und Produktivität von Unternehmen erheblich gesteigert. Solche Sprachtechnologien bringen jedoch auch Herausforderungen mit sich, denn die Textausgabe muss hohe Qualitätsstandards erfüllen und den gesetzlichen Vorgaben entsprechen.
Anders als in Filmen, in denen sich Roboter oft in dramatischen Szenen gegen Menschen wenden, sind die Risiken durch künstliche Intelligenz in der Realität viel nuancierter und subtiler. Uns droht kein Weltuntergang – stattdessen müssen wir uns mit algorithmischen Vorurteilen, Desinformation und Verletzungen der Privatsphäre auseinandersetzen. Die potenziellen Fallstricke von KI zeigen sich auf Plattformen wie Amazon, wenn Produkten unkonventionelle Namen und Beschreibungen zugeordnet sind, die unbeabsichtigt Fehlermeldungen von KI-Modellen wie ChatGPT offenlegen.
Händler, die bei umfangreichen Produktlistungen auf KI setzen, übersehen manchmal Fehler, sodass Produkte mit Namen wie „Sorry, I cannot fulfill this request“, „Es tut mir leid, ich kann diese Anfrage nicht erfüllen“ oder „Ich kann die von Ihnen gewünschte Analyse leider nicht erstellen“ veröffentlicht werden. Dies wirft Fragen zu Amazons Prüfprozessen auf, aber vor allem aber auch zur Rolle von KI beim Erstellen von Produktinhalten. Unternehmen, die automatisiert erstellte Inhalte einer finalen menschlicher Kontrolle unterziehen, haben somit die besseren Karten, wenn es darum geht sich durch Sorgfalt, Konsistenz und Einhaltung gesetzlicher Bestimmungen vom Wettbewerb abzuheben.
Da der weltweite Markt für Künstliche Intelligenz bis 2028 voraussichtlich auf 25,8 Milliarden US-Dollar wachsen wird, bietet die Integration von KI in Geschäftsprozesse, vor allem beim Erstellen von Inhalten, sowohl Chancen als auch Risiken. KI sorgt zwar für Schnelligkeit und Effizienz, birgt aber auch ein Risiko für Fehler und Missverständnisse, die erhebliche Auswirkungen auf die Unternehmen haben können.
Da immer mehr Verbraucher digital einkaufen, müssen Unternehmen mit der Nachfrage nach Inhalten Schritt halten und gleichzeitig korrekte und relevante Produktinformationen bereitstellen. Für 85 % der Käufer spielen Produktinformationen und Bilder eine große Rolle, wenn sie sich für eine Marke oder einen Händler entscheiden. Forrester ermutigt Unternehmen sogar, indem „Technologieführer das wirtschaftliche Potenzial KI-gestützter digitaler Inhalte bewerten sollten, um die Content-Erstellung, Empfehlung und Bereitstellung zu beschleunigen und zu erweitern und Kunden so schneller und in größerem Umfang differenziert anzusprechen“.
Da sich jedoch immer mehr Händler auf KI-Tools für unterschiedliche Aspekte ihrer Angebote verlassen, müssen sie umso aufmerksamer sein und sich der Möglichkeiten und Grenzen dieser Tools bewusst sein. Ohne angemessene Kontrollen und Sicherheitsvorkehrungen können Fehler in KI-generierten Inhalten zu negativen Konsequenzen führen:
Durch die Integration von KI beim Erstellen von Inhalten gehen Unternehmen ein erhebliches Risiko ein, dass ihr Ruf Schaden nimmt. Laut Statista sehen PR-Experten in generativer KI ein Risiko für die Öffentlichkeitsarbeit. Unkontrollierte, KI-generierte Fehlinformationen können sich schnell verbreiten und großen Schaden anrichten, der sich nur schwer eindämmen lässt. Abgesehen von den unmittelbaren finanziellen Verlusten kann es Jahre dauern, das Vertrauen von Kunden und Stakeholdern zurückzugewinnen. Dies kann sich auch auf das Verbraucherverhalten und das Vertrauen von Anlegern auswirken.
Um solche Risiken zu reduzieren, müssen Unternehmen ihren Ruf aktiv vor potenziellen Bedrohungen wie „künstlicher Diffamierung“ – die Verbreitung irreführender Inhalte durch KI – schützen. Dazu gehört die Einführung umfassender Monitoring-Maßnahmen, die Verbesserung der Kommunikation und die Förderung einer Kultur der ethischen Nutzung von KI in ihren Betrieben.
„Es tut mir leid, aber ich kann diese Anfrage nicht erfüllen“ ist eine häufige Fehlermeldung von OpenAI, einer führenden KI-Lösung, wenn ihren Sprachmodellen Anfragen gestellt werden, die gegen ethische oder gesetzliche Richtlinien verstoßen. Irgendwie tauchen diese Fehlermeldungen dann als Produktnamen für Artikel von Möbeln bis hin zu Tätowiermaschinen auf Amazon auf.
Schauen wir uns einige Amazon-Produkte mit Fehlern an, die von OpenAIs ChatGPT erzeugt wurden.
McKenzie Sadeghi, eine Analystin bei NewsGuard, erklärte in der Washington Post: „Da viele dieser Websites kaum von Menschen kontrolliert werden, gelangen diese Texte direkt auf die Seite, bevor es jemand bemerkt.“ Das kann zu merkwürdigen Produktnamen führen, wie z. B. in diesem Fall: „Sorry, I cannot create the analysis you are looking for…“.
Auf Amazon können Sie diesen Tisch mit der Produktbezeichung „I’m sorry but I can’t help you with this request - Black.“ kaufen. Und wenn Sie genau hinschauen, können Sie zudem auf den Produktbildern einen Stuhl erkennen.
Tisch - KI-generierte Produktbeschreibungsfehler auf dem Amazon-Marktplatz
Dieser Gartenstuhl von „khalery“ ist nicht nur ein Möbelstück, sondern ein klares Statement gegen „unethisches Verhalten“. Er verweigert sich konkreten Anfragen und versprüht dabei den Charme eines KI-Tools, das mit erhobenem Zeigefinger daherkommt.
Gartenstuhl - KI-generierte Produktbeschreibungsfehler auf dem Amazon-Marktplatz
Als nächstes kommt eine Kommode mit drei funktionalen Schubladen, die sich entschuldigt. Ihr Name? „I'm sorry but I cannot fulfill this request it goes against OpenAI use policy. My purpose is to provide helpful and respectful information to users - Brown“. Bei diesem Möbelstück handelt es sich also um eine sehr gewissenhafte Kommode, die auf die Einhaltung von Regeln achtet.
Kommode - KI-generierte Produktbeschreibungsfehler auf dem Amazon-Marktplatze
Dieser grüne Schlauch wurde entwickelt, „um schnelle Ergebnisse zu liefern und anspruchsvolle Aufgaben effizient zu bewältigen, damit Sie im Wettbewerb bestehen können“. Leider gibt es dazu noch keine Kundenrezensionen.
Schlauch - KI-generierte Produktbeschreibungsfehler auf dem Amazon-Marktplatz
Andere Amazon-Produktnamen erwähnen OpenAI nicht explizit, legen aber offensichtlich Fehlermeldungen von KI-Tools offen, wie z. B. „Sorry but I can't provide the information you’re looking for“ bzw. Deutsch: „Ich kann die von Ihnen gesuchten Informationen leider nicht bereitstellen“.
Tattoopistole - KI-generierte Produktbeschreibungsfehler auf dem Amazon-Marktplatz
Manchmal erklären die Produktnamen sogar konkret, warum eine Anfrage zum Erzeugen KI-generierter Inhalte fehlgeschlagen ist und weisen darauf hin, dass OpenAI keine Inhalte bereitstellen kann, die „bestimmte religiöse Einrichtungen fördern“, hier in Englisch „it promotes a specific religious institution“.
Buch - KI-generierte Produktbeschreibungsfehler auf dem Amazon-Marktplatze
Amazon selbst bietet Händlern zwar ein generatives KI-Tool an, um sie beim Erstellen ansprechenderer Produktangebote zu unterstützen, hat aber seit langem mit gefälschten Rezensionen durch KI-Bots und sogar von KI-generierten Imitationen und Zusammenfassungen von Büchern zu kämpfen. Das Unternehmen verbietet die Nutzung von KI auf seinen Produktseiten zwar nicht, verlangt aber, dass der Produktname zumindest den betreffenden Artikel identifizieren.
Von den Marketern, die derzeit KI-Tools einsetzen, verwenden 66 % Chatbots, 57 % nutzen KI zum Erstellen von Bildern und 56 % zum Erstellen von Texten. Auf jeden Händler, der versehentlich eine OpenAI-Fehlermeldung einstellt, kommen zahllose andere, die mit der Technologie Produktinformationen bereitstellen, die den Anschein erwecken, von einer Person geschrieben zu sein, die sich tatsächlich mit dem betreffenden Produkt auskennt.
Laut Deloitte „werden Unternehmen, die KI und Menschen nebeneinander managen, weiterhin nur moderate Effizienzgewinne erzielen können. Dagegen können Unternehmen, die sich für Mensch und KI im integrierten Superteam entscheiden, durch eine Umgestaltung der Arbeit einen viel größeren Mehrwert realisieren können“. Die richtige Balance zwischen Autonomie und menschlicher Kontrolle ist entscheidend, um KI erfolgreich einzuführen.
Mit der Integration von KI-Lösungen entwickeln sich PIM-Systeme ganz natürlich weiter. Als führender Anbieter integriert Contentserv KI-Funktionen in seine leistungsstarke Product Information Management-Plattform (PIM).Durch seine KI-gestützte Technologie verwandelt Contentserv PIM von einem Produktdaten-Backend in ein umsatztreibendes Product Experience Management.Unsere Lösung setzt durchgängig auf KI – vom Onboarding und Anreichern bis hin zum Syndizieren und Schließen des Kreislaufs mit Channel Insights/Digital Shelf Analytics, um Inhalte zu optimieren und sie in Echtzeit in die Kanäle auszuleiten.
Da KI nicht frei von Fehlern ist, wird in den Workflows von Contentserv immer der Mensch zur Content-Überprüfung und Freigabe miteinbezogen, um letztlich auf allen Kanälen hochwertige und richtlinienkonforme Produktinhalte zu garantieren. Wir verbinden uns mit weltweit führenden KI-Services wie die von GAFAM etc., orchestrieren und optimieren Ergebnisse und integrieren sie in praktische Benutzeroberflächen für die Zusammenarbeit zwischen Mensch und KI.
Unternehmen, die KI nutzen möchten, setzen oft auf vorgefertigte Algorithmen. Der Erfolg ihrer KI-Anwendungen hängt jedoch davon ab, wie gut diese Tools kombiniert und an ihre konkreten geschäftlichen Anforderungen angepasst werden. Indem Contentserv die besten verfügbaren KI-Services nutzt und für Flexibilität sorgt, können Marken, Händler und Distributoren mit Contentserv maximale Vorteile erzielen:
Wir beziehen in alle Workflows den Menschen mit ein! Unsere Nutzer behalten jederzeit die Kontrolle, damit Fehler, wie die beispielhaft genannten auf Amazon, nicht unbemerkt bleiben.
Contentserv ermöglicht nicht nur Datenintegrität, sondern auch eine effiziente Zusammenarbeit aller Teams, die für das Managen von Produktinformationen zuständig sind. Die automatisierten Workflows und Genehmigungsmechanismen der Plattform stellen sicher, dass alle Änderungen an Ihren Daten vor der Integration in die KI-Modelle sorgfältig geprüft werden. Dieser proaktive Ansatz erhöht nicht nur die Zuverlässigkeit des KI-Outputs. Unternehmen können so auch potenzielle Fehler rechtzeitig erkennen und beheben, bevor sie sich auf das Kauferlebnis oder die geschäftlichen Abläufe auswirken können.