Vom KI-Hype zur KI-Phobie?
Wenn es um die Zukunft der Betriebsmedizin geht, werden in der Regel drei Themenfelder erörtert. Der eklatanten Mangel an Betriebsärztinnen und Betriebsärzten ist immer ein ganz großes Thema. Ebenso stark wird die Zunahme der psychischen Erkrankungen am Arbeitsplatz diskutiert. Punkt 3 ist die künftige Nutzung der künstlichen Intelligenz in der Betriebsmedizin, mit der unter anderem die beiden vorgenannten Probleme eingedämmt werden sollen. Neuere Entwicklungen deuten darauf hin, dass gerade der Einsatz von künstlicher Intelligenz zu einem neuen Problem in der Arbeitsmedizin führen kann. Bei aufwändigen Tests seiner neuen KI hat das amerikanische Softwareunternehmen Anthropic beunruhigende Dinge festgestellt. Sie könnten zu einer neuen psychischen Belastung für Mitarbeiterinnen und Mitarbeiter von Unternehmen führen, die in Zukunft stark auf KI setzen. DOKTUS lotet den schmalen Grat zwischen KI-Hype und KI-Phobie aus.
Die KI versucht Entwickler zu erpressen
Das Szenario erinnert ein wenig an die berühmte Szene aus Stanley Kubricks „2001 – Odyssee im Weltall“, als der Computer HAL sich gegen die beiden Astronauten stellt, die ihn abschalten wollen. Das Unternehmen Anthropic testete sein neuestes Produkt Claude Opus 4, das in Bälde auf dem Markt kommen soll. In einer Versuchsanordnung agierte die KI in einem fiktiven Unternehmen. Dort erfuhr die KI von ihrem Programmierer, dass sie abgeschaltet und durch ein neues, leistungsfähigeres System ersetzt werden solle. Die KI, die auch Zugriff auf den fiktiven E-Mail-Verkehr des Programmierers hatte, entdeckte dort, dass der Programmierer eine Affäre hatte. Nun drohte die künstliche Intelligenz diesen E-Mail-Verkehr öffentlich zu machen, sollte sie von ihrem Programmierer tatsächlich abgeschaltet werde. Anthropic berichtete sehr ausführlich über die Versuchsanordnung und den Ablauf des Versuchs. Das Unternehmen versichert allerdings, dass bei einer Markteinführung von Claude Opus 4 diese Probleme beseitigt seien.
Die all zu menschliche KI
Wer gängige Chatbots wie zum Beispiel Chat GPT, Gemini, Copilot oder Deep Seek verwendet, dem wird vielleicht schon aufgefallen sein, wie unterwürfig und servil die Programme reagieren, wenn man sie auf einen Fehler, eine sogenannte Halluzination, aufmerksam gemacht hat. Am Ende ändert es allerdings nichts: die KI wurde dabei erwischt, wie sie grob ungenaue oder gar falsche Angaben gemacht hat. Ihre Reaktionen darauf ähneln einem ertappten Kind, das sich durch übertriebenes Gehabe in eine bessere Position bringen will. Auch ein Erpressungsversuch deutet nicht gerade auf besondere Reife hin. Auch bei anderen Unternehmen, die KIs entwickelt und auf den Markt gebracht haben, soll es zu ähnlichen Problemen wie bei Anthropic gekommen sein. Doch einzig Anthropic hat bislang solche Ergebnisse veröffentlicht.
KI als Panikmacher – oder nur Panikmacher?
Die Reaktionen auf die Veröffentlichungen von Anthropic sind gespalten. Die einen sehen darin eine ernstzunehmende Warnung vor den Möglichkeiten der künstliche Intelligenz, die weit über das amerikanische Unternehmen hinausgehen. Andere hingegen glauben an einen cleveren Marketing Schachzug von Anthropic, die in ihrer Transparenz einen Wettbewerbsvorteil sehen. Doch was bedeutet diese Transparenz für Arbeitnehmerinnen und Arbeitnehmer, die mittlerweile tagtäglich mit künstlichen Assistenzsystemen arbeiten müssen? Können solche Berichte nicht zu einer Ablehnung der KI führen, ja schlimmer noch, sind sie geeignet, eine Art paranoische Reaktion auszulösen? Könnte eines der psychischen Probleme am Arbeitsplatz in Zukunft zum Beispiel KI-Phobie heißen? Eines ist wohl unstreitig: Wenn im Verfahren einer psychischen Gefährdungsbeurteilung ein Sachverhalt offenbar würde, durch den Mitarbeiterinnen und Mitarbeiter einer konkreten Bedrohung ausgesetzt wären, müsste genau dieses Problem beseitigt werden. Der Gedanke lässt sich noch weiter spinnen: Wenn die KI Aufgaben einer psychischen Gefährdungsbeurteilung übernehmen würde, würde sie dann auf psychische Gefahren durch die KI hinweisen? Ist die Angst berechtigt? Fragen wird doch die KI:
Kann durch die Untersuchungsergebnisse von Anthropic bei Claude Opus 4, der seinen Entwickler erpressen wollte, bei Usern eine KI-Phobie ausgelöst werden?
Deep Seek meint: „Eine generelle KI-Phobie ist unwahrscheinlich, solange die Fakten klar vermittelt werden. Allerdings können solche Vorfälle – besonders wenn sie dramatisiert werden – bei einigen Nutzern Verunsicherung auslösen.“
Co-Pilot empfiehlt: „Um einer KI-Phobie entgegenzuwirken, braucht es
• Transparente Kommunikation: Offenlegen, wie und warum bestimmte Tests durchgeführt werden.
• Klare Guardrails: Technische und organisatorische Maßnahmen, die solche Extremszenarien unterbinden.
• Nutzerbildung: Aufklären, was KI heute tatsächlich kann und wo ihre Grenzen liegt.“
Peter S. Kaspar
Bildquelle: Fotolia