Viele Menschen in Deutschland begegnen KI-Anwendungen mit Skepsis. Im Mittelpunkt stehen Sorgen um Datenschutz und Datensicherheit sowie Zweifel an der Verlässlichkeit von KI-Ergebnissen. Auch die Angst vor Arbeitsplatzverlust durch Automatisierung ist verbreitet. Diese Bedenken werden angeführt, wenn es um die Einführung von KI-Anwendungen wie Chatbots geht.
Umso erstaunlicher sind die Ergebnisse des „AI Sentiment Index“, der neusten KI-Studie von EY, auf die wir heute blicken wollen. Wie die Deutschen KI nutzen und was das für Ihr Unternehmen bedeutet? Sie werden überrascht sein!
Was ist der AI Sentiment Index?
Der AI Sentiment Index ist eine globale Studie darüber, wie Menschen künstlicher Intelligenz (KI) nutzen und welche Einstellungen sie zur ihr haben. Die aktuelle Ausgabe basiert auf einer Befragung von mehr als 15.000 Personen aus 15 Ländern, die zwischen Dezember 2024 und Januar 2025 durchgeführt wurde.
Die Teilnehmenden wurden unter anderem gefragt, ob sie KI-Anwendungen bewusst genutzt haben, wie gut die Systeme ihre Eingaben verstehen und welche Sorgen sie im Umgang mit KI haben. Auch die Nützlichkeit von KI-Übersetzungen und der Spaß beim Chatten mit einem Chatbot waren Teil der Befragung.
In Deutschland gaben 82 % der Befragten an, in den letzten sechs Monaten KI-Anwendungen– hauptsächlich für Übersetzungen oder Unterhaltungen mit Chatbots – bewusst genutzt zu haben. Dies zeigt, dass Künstliche Intelligenz bereits im Alltag der Befragten angekommen ist. Aber es gibt mehrheitlich immer noch Bedenken.
Welche Bedenken haben Menschen im Umgang mit KI-Anwendungen
Die Studie zeigt, dass es mehrheitlich erhebliche Bedenken hinsichtlich der Genauigkeit von KI, der Verwendung persönlicher Daten und der Kontrolle von KI-Anwendungen gibt.
Am größten ist die Sorge vor Falschinformationen. 70 Prozent der Befragten äußerten die Sorge, dass KI-Anwendungen falsche Informationen generieren. Von den befragten Deutschen taten dies allerdings nur 65 Prozent – und das ist kein Ausreißer. Denn nur bei einer von 6 Aussagen waren die deutschen Teilnehmer minimal skeptischer als der weltweite Durchschnitt.
Mit Werten zwischen 64 und 85 Prozent sind die Bedenken gegen KI weltweit nach wie vor groß. Das gilt auch für 70 Prozent der deutschen Teilnehmer. Wie aber stehen sie Verwendung von Texten, Bildern und Daten, die von KI-Anwendungen erzeugt werden?
So gehen die Deutschen mit den Aussagen generativer KI um
Die EY-Studie ergab, dass sich 80 Prozent der Deutschen von KI-Anwendungen verstanden fühlen und folgender Aussage zustimmen: „Künstliche Intelligenz versteht bei Anfragen genau, was ich von ihr benötige.“ 70 Prozent der befragten Deutschen haben allerdings Sorge, dass generative KI-Anwendungen falsche Informationen erzeugen.
Nur 27 Prozent der Deutschen überprüft die Aussagen generativer KI
Führt die mehrheitliche Skepsis zu einem besonders kritischen Umgang mit den Ergebnissen generativer KI-Anwendungen, wie man erwarten könnte? Weit gefehlt!
Das überraschende Ergebnis der Befragung: Nur 27 Prozent der Befragten aus Deutschland überprüfen die Aussagen, Daten oder Bilder, die von KI-Anwendungen erzeugt wurden. Damit liegen die Deutschen 4 Prozentpunkte unter dem Durchschnitt und sogar 15 Prozentpunkte niedriger als der Kontroll-Spitzenreiter Südkorea (42 Prozent).
Nur 15 Prozent der befragten Deutschen überarbeiten KI-Ergebnisse
Bei der Überarbeitung der von KI generierten Inhalte ist der Wert sogar noch deutlich niedriger: Nur 15 Prozent der deutschen KI-Nutzer (weltweit 19 Prozent) stecken viel Arbeit in die Anpassung der KI-Erzeugnisse, bevor sie sie nutzen.
Die Zahlen zwischen Vertrauen in die Richtigkeit und der Bereitschaft, KI-Inhalte zu prüfen und zu überarbeiten, klaffen weit auseinander. Selbst ein Teil derjenigen, die sich über Falschinformationen sorgen, sehen selbst keine Notwendigkeit, KI-Ergebnisse zu überprüfen.
Noch mehr Tipps für erfolgreiche Chatbots
Diese Blogbeiträge enthalten weitere interessante Tipps und geben Ihnen Anregungen für erfolgreiche Chatbot-Anwendungen:
Chatbot Anwenderbericht: „Chatbot Wertstoff-Alex weiß weiter“
Chatbots in der Praxis: Wertstoff-Alex weiß weiter Lesen Sie in diesem Anwenderbericht, wie die Abfallwirtschaft Heidekreis AHK die Chatbot-Lösung Reinbert einsetzt, um für einen insgesamt erweiterten Bürgerservice zu sorgen. Zur Ergänzung ihres Kundendienstes und zur...
Chatbots: Keine Kompromisse bei Datenschutz und Datensicherheit!
Was bedeutet Datenschutz für KI Chatbots? Sind Sie im Bereich der öffentlichen Versorgung, der Entsorgung oder der Verwaltung tätig? Dann haben Sie eine besondere Herausforderung, wenn Sie die Digitalisierung vorantreiben und dabei einen KI Chatbot einsetzen wollen....
Chatbot-Erfolg im Blick: So helfen KPIs den Chatbot-Service zu verbessern
Cobuddy Dashboard zeigt aussagekräftig KPIs intuitiv verständlich an „Hurra, wir haben einen Chatbot!“ … Immer mehr Unternehmen haben einen Chatbot installiert und feiern das bereits als Erfolg. Leider haben sie meist keinen Überblick, ob ihr Chatbot gut performt....
Schau dir Cobuddy Videos an!
Sieh dir die Chatbot Videos von Cobuddy mit KI Avatar Alisha auf YouTube an!
Geringes Vertrauen, dass KI im Sinne des Menschen eingesetzt wird
Zu den Zweifeln über die Richtigkeit der generierten Inhalte kommen verschiedene andere Befürchtungen. So zweifelt weltweit eine Mehrheit der Befragten daran, dass KI im Sinne des Menschen eingesetzt wird.
Selbst in der KI-affinen Technologiebranche liegt das Vertrauen nur bei 49 %. Besonders niedrig aber ist das Vertrauen in staatliche Institutionen (39 %) und Medien (38 %) – zwei Bereiche, die für die Rolle von KI im öffentlichen Leben besonders wichtig sind.
Für Unternehmen stellen die mehrheitlichen Bedenken einerseits und der sorglose Umgang mit KI-generierten Inhalte andererseits eine besondere Herausforderung dar.
So setzen Unternehmen KI-Chatbots ein, ohne Vertrauen aufs Spiel zu setzen
KI-Anwendungen wecken also mehrheitlich viele Zweifel, und es besteht wenig Vertrauen über ihren ethischen Einsatz. Gleichzeitig prüft nur eine Minderheit KI-Inhalte und nur jeder Siebte überarbeitet Daten, die von KI erzeugt wurden.
Unternehmen, die beispielsweise einen KI-Chatbot einsetzen (wollen), haben in diesem Spannungsfeld eine besondere Verantwortung: Es gilt, Unsicherheiten abzubauen und Vertrauen aufzubauen.
Angesichts der Studienergebnisse wäre es leichtfertig, die Verantwortung für KI-Inhalte an Mitarbeitende oder Kunden abzugeben. Nutzer müssen sich auf die bereitgestellten Informationen verlassen können – die Verantwortung dafür liegt eindeutig beim Unternehmen.
Ein Unternehmen ist für Inhalte auf der eigenen Website verantwortlich. Dies schließt einen KI-Chatbot mit ein. Mit diesen Maßnahmen können sie Vertrauen aufbauen:
-
- Ethischen und transparenter Einsatz sicherstellen
Weisen Sie explizit darauf hin, wo und wie KI zum Einsatz kommt. Machen Sie transparent, dass es sich bei Ihrem Chatbot nicht um eine menschliche Interaktion handelt. Machen Sie klar, dass die Anwendung der Hilfe und Unterstützung dient. - Datenschutz sicherstellen, Eingaben anonymisieren
Stellen Sie sicher, dass Nutzerdaten anonymisiert werden und nicht von Dritten unautorisiert genutzt werden können. Achten Sie darauf, dass Ihre Lösung Standards für die Anonymisierung und Löschung bereithält. - Zeigen Sie die Grenzen der KI-Anwendung auf
Weisen Sie explizit auf die Grenzen ihrer KI-Anwendung hin. Bestimmen Sie Übergabepunkte an Ihr Service-Team. - Machen Sie die Informationen überprüfbar
Stellen Sie sicher, dass alle Informationen aus der Anwendung Ihren Anforderungen und Abläufen entsprechen. Machen Sie die Informationen überprüfbar, zum Beispiel indem Sie Chatverläufe protokollieren.
Machen Sie sich klar, dass alle automatisch generierten Antworten eines LLM-basierten Chatbots (Large Language Modells, GenAI) im Prinzip individuell überprüft werden müssen. - KI-Technologie zur Erkennung von Nutzerabsichten verwenden
Intentbasierte Chatbots wie Cobuddy und Reinbert nutzen KI zur Erkennung von Nutzerabsichten und ordnen kuratierte Antworten zu. Bei intentbasierten KI-Chatbots hat das Unternehmen die volle Kontrolle über alle Antworten. Es kann also sicher sein, dass nur solche Fragen ausgespielt werden, die das Unternehmen zuvor genehmigt hat.
- Ethischen und transparenter Einsatz sicherstellen
Fazit: Unkritischer Umgang mit KI-Inhalten nimmt Unternehmen besonders in die Pflicht
KI-Anwendungen werden viel unkritischer genutzt, als die mehrheitlichen Bedenken gegen ihren Einsatz vermuten lassen. KI-Nutzer in Deutschland stehen zwar im Ruf, besonders große Bedenkenträger zu sein – die jüngste KI-Studie von EY zeigt jedoch, dass in Deutschland etwas sorgloser mit KI umgegangen wird als weltweit.
Der unkritische Umgang mit generierten KI-Inhalten stellt Unternehmen vor eine besondere Herausforderung: Weil nur rund ein Viertel der Befragten überprüft, ob automatisch erzeugte Aussagen richtig sind, müssen Unternehmen besondere Maßnahmen ergreifen, um deren Richtigkeit sicherzustellen. Mit KI-Chatbots, wie Cobuddy, die nur kuratierte zuvor genehmigte Antworten geben, stellen sich Unternehmen auf die sichere Seite.
Sie möchten sichergehen, dass Ihr Chatbot keine erfundenen Antworten liefert?
Sprechen Sie uns an!