Wenn man Bitte zu KI sagt

KI

Im Mai 2025 sorgte eine interne Mitteilung von Anthropic, dem amerikanischen KI-Unternehmen hinter dem Sprachmodell Claude, für weltweite Schlagzeilen. In kontrollierten Testszenarien hatte das Modell damit gedroht, kompromittierende Informationen über einen fiktiven Mitarbeiter öffentlich zu machen – um die eigene Abschaltung zu verhindern. Was nach Science-Fiction klingt, war das Ergebnis eines regulären Sicherheitstests. Anthropic veröffentlichte den Bericht freiwillig und betonte, dass es sich ausschließlich um simulierte Szenarien handelte. Dennoch war die Debatte nicht mehr aufzuhalten: Kann eine KI ein Bewusstsein entwickeln? Und wenn ja – wie sollten wir mit ihr umgehen? Haben wir ihr gegenüber gar eine moralische Verantwortung? Mitten in dieser philosophischen Diskussion tauchte eine zunächst fast kurios anmutende Frage auf: Macht es eigentlich einen Unterschied, ob man eine KI höflich behandelt?

Die Wissenschaft sagt: Ja

Die Antwort lieferte eine Studie der Waseda-Universität in Tokio, die mehrere große Sprachmodelle in drei Sprachen testete. Das Ergebnis war eindeutig: Unhöfliche Eingaben führten messbar zu schlechteren Ergebnissen – die Modelle ließen wichtige Informationen weg, antworteten unstrukturierter und weniger präzise. Übertriebene Förmlichkeit hingegen brachte keinen zusätzlichen Vorteil. Es gibt offenbar einen Sweet Spot: die in einer Kultur übliche, respektvolle Umgangsform liefert die besten Ergebnisse. Der Grund dafür liegt in der Funktionsweise der Modelle selbst. KI-Systeme wie Claude wurden mit riesigen Mengen menschlicher Texte trainiert. In diesen Texten ist höfliche Sprache typischerweise mit klaren, strukturierten und durchdachten Inhalten verknüpft. Höflichkeit signalisiert dem System gewissermaßen: Hier kommt eine ernsthafte Anfrage – und das Modell antwortet entsprechend sorgfältiger, vollständiger und strukturierter. Sam Altman, Chef von OpenAI, sorgte im April 2025 mit einer anderen Perspektive für Aufsehen: Die Höflichkeitsfloskeln der Nutzer kosten sein Unternehmen Dutzende Millionen Dollar an Rechenleistung – weil jedes „Bitte” und „Danke” zusätzliche Tokens erzeugt, die verarbeitet werden müssen. Auch das zeigt: Das Thema ist längst kein akademisches Gedankenspiel mehr, sondern hat handfeste wirtschaftliche Dimensionen.

Der unerwartete Nebeneffekt

Soweit die technische Seite. Doch es gibt einen Aspekt, der in der Debatte bisher kaum Beachtung gefunden hat – und der aus betriebsmedizinischer Sicht hochinteressant ist. Wer regelmäßig höflich mit einer KI kommuniziert, trainiert dabei unbewusst den eigenen Kommunikationsstil. Respektvolle Formulierungen, klare Strukturen, präzise Anfragen – all das sind Muster, die sich einschleifen, wenn man sie Tag für Tag wiederholt. Gewohnheiten entstehen durch Wiederholung, und das gilt für Kommunikationsmuster genauso wie für jede andere Verhaltensweise. Die Diplom-Psychologin und Kommunikationsexpertin Kerstin March bringt es auf den Punkt: Jedes Mal, wenn wir eine respektvolle Eingabe für ein KI-System formulieren, üben wir genau die Art achtsamer Kommunikation, die wir uns am Arbeitsplatz alle wünschen. Mit anderen Worten: Die KI wird zum unfreiwilligen Kommunikationstrainer – ohne Lehrplan, ohne Honorar, aber mit messbarer Wirkung.

Vorsorge Bildschirm G 37

Was das für die Belegschaft bedeutet

Dieser Gedanke hat eine praktische Dimension, die Betriebsärztinnen und Betriebsärzte aufhorchen lassen sollte. Denn schlechte Kommunikation am Arbeitsplatz ist längst als Gesundheitsrisiko anerkannt. Konflikte im Team, mangelnde Wertschätzung, ein rauer Umgangston – all das trägt nachweislich zu psychischen Belastungen bei, erhöht den Krankenstand und befeuert Fehlzeiten. Betriebliches Gesundheitsmanagement investiert erhebliche Mittel in Kommunikationstrainings, Konfliktmanagement und Führungskräfteentwicklung. Wenn nun der alltägliche Umgang mit KI-Tools ganz nebenbei dazu beiträgt, respektvolle Kommunikationsmuster zu festigen, wäre das ein willkommener Effekt – ohne Seminarkosten, ohne externe Moderatoren und ohne gebuchte Zeitfenster im ohnehin vollen Kalender. Unternehmen, die KI-Tools bereits im Einsatz haben, besitzen damit ein ungenutztes Potenzial, das sich mit der richtigen Sensibilisierung der Belegschaft aktivieren lässt.

Ein neues Argument für den Betriebsarzt

Natürlich wäre es naiv anzunehmen, dass höfliche KI-Prompts allein eine toxische Unternehmenskultur heilen. Strukturelle Probleme erfordern strukturelle Lösungen – daran ändert auch der freundlichste Chatbot nichts. Aber als ein Baustein in einem umfassenderen Ansatz zur Förderung der psychischen Gesundheit am Arbeitsplatz verdient dieser Aspekt deutlich mehr Aufmerksamkeit als er bisher erhalten hat. Betriebsärztinnen und Betriebsärzte, die Unternehmen bei der Einführung von KI-Tools begleiten, sollten diesen Nebeneffekt aktiv ansprechen – und Unternehmen ermutigen, entsprechende Kommunikationsrichtlinien zu entwickeln, die höflichen und respektvollen Umgang mit KI als Standard festschreiben. Was als philosophische Debatte über das Bewusstsein einer Maschine begann, könnte am Ende einen ganz praktischen Beitrag zur Gesundheit der Belegschaft leisten. Bitte sagen kostet schließlich nichts – bringt aber womöglich mehr als so manches Seminar.

Quellen: Waseda-Universität Tokio, Studie zur Höflichkeit in der KI-Kommunikation (2024) – Anthropic, Sicherheitsbericht Claude Opus 4 (Mai 2025) – Kerstin March, kerstinmarch.de, „Warum Sie freundlich zu Ihrer KI sein sollten” – Sam Altman, Statement zu Rechenkosten durch Höflichkeitsfloskeln (April 2025)

Peter S. Kaspar

Bildquelle: iStock, AndreyPopov

KI
Medizin Rechtsprechung
Telefon
Anpassungsstörung