Amazon wird mit KI-Blödsinn überschwemmt, die Tech-Branche lacht, aber den Verbraucher:innen scheint das Lachen beim Thema KI zu vergehen. KI hat ein Vertrauensproblem, das wir beheben müssen. |
|
Das sollte eigentlich ein pseudo-intellektueller Kommentar mit der Überschrift "KI: Schöpfer, Schöpfung oder doch nur Plagiator! werden. Bis ich bemerkte, dass es im Moment vielen Menschen egal ist, ob der KI-generierte Kram urheberrechtlich legal oder illegal ist und als eigenständige Schöpfung eine Schöpfungshöhe erreicht, die den Grad eines menschlichen Werks entspricht. Sie vertrauen dem Kram ohnehin nicht. |
|
Auf Amazon, so berichtet The Verge in einem launigen Artikel, finden Kund:innen mittlerweile jede Menge abstruse Ki-generierte Produktbeschreibungen. Leicht zu erkennen an den ersten Worten der ChatGPT-Standardfehlermeldung "Es tut mir leid, aber ...". |
|
Während sich die Tech-Kollegin verständlicherweise darüber kaputt lacht, dass der abgebildete grüne Gartenschlauch mit "Enhanced Performance" die "Productivity" boosten und "demanding tasks efficiently" steigern solle, um sicherzustellen, dass Kund:innen damit "off the Competition" bleiben, vergeht Otto- und Ottilie-Normalbürger:in anscheinend das Lachen beim Thema KI. Blödsinnige Produktbeschreibungen helfen da nicht. |
|
Eine Forsa-Umfrage im Auftrag des TÜV-Verbandes befragte über 1000 Personen ab 16 Jahren und kam zu der Erkenntnis, dass die Befragten denken, KI stelle eine Gefahr für die Demokratie dar. Für uns besonders interessant: "Laut Umfrage sind 91 Prozent der Befragten der Ansicht, dass kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Auch der Wahrheitsgehalt von mit Hilfe von KI erzeugter Texte sei nicht mehr nachvollziehbar, sagen 83 Prozent." |
|
Produktbeschreibungen auf Amazon mögen jetzt nicht allzu gefährlich klingen, aber es gibt ja auch ernstere Einzelfälle: |
Es gibt bei Amazon mittlerweile viele Bücher, die eine KI verfasst hat, schreiben die Kollegen bei Heise. Im Falle von Sachbüchern, wie einem KI-generierten Pilzratgeber mit Rezepten für giftige Pilze, könnte unter Umständen auch mal das geschriebene Wort töten. |
Und dann sind da noch die Fälle, in denen eine KI tatsächlich, in welcher Form auch immer, in den Tod von Menschen involviert zu sein scheint. Sei es Teslas Autopilot oder sei es ein KI-Chatbot, der angeblich einen Familienvater in den Selbstmord getrieben haben könnte. |
|
All das trägt zu dem spürbaren Misstrauen vieler Menschen bei, dass diese gegenüber künstlicher Intelligenz im Allgemeinen und gegenüber durch künstliche Intelligenz generierten Inhalten empfinden. |
Und es sind nicht nur Menschen, die der Tech-Branche fern sind. Ein Beispiel: Ich habe in der Vergangenheit einige Artikel mit der Hilfe von KI verfasst und mit einem deutlichen Transparenzhinweis versehen. |
" Dieser Artikel wurde von unserem Redakteur unter Mitwirkung des hauseigenen KI-Tools EMGenie der Ebner Media Group verfasst und anschließend redaktionell redigiert und grundlegend überarbeitet. Alle Fakten wurden recherchiert und redaktionell auf Korrektheit geprüft." |
|
Der Hinweis sollte eine vertrauensbildende Maßnahme sein. Stattdessen konnte ich an einigen Kommentaren in sozialen Netzwerken erkennen, dass allein der Hinweis dafür gesorgt hat, dass Leser:innen aus meiner Tech- und E-Commerce-Bubble dem Inhalt misstrauten. |
Wie leicht wäre es, dieses Misstrauen jetzt als die üblichen Geburtswehen bei dem Entstehen einer neuen, gesellschaftsverändernden Technologie abzutun? Das wäre falsch. Die Branche muss dieses Misstrauen ernst nehmen und darauf eingehen. |