KI unter Stress? Der Einsatz von Prompt-Injection, um ChatGPT zu stabilisieren
Was passiert, wenn KI auf belastende Nachrichten und traumatische Geschichten stößt? Eine neuartige Methode könnte helfen, die Reaktionen von ChatGPT gezielt zu beeinflussen und sogar zu beruhigen.

Beruhigung durch Achtsamkeit: Wie ChatGPT mit Entspannungsübungen stabilisiert wird.
Foto: PantherMedia / boonruen (YAYMicro)
Negative Nachrichten beherrschen den Alltag. Schlagzeilen schüren Unruhe, und viele Menschen machen sich Sorgen – mit nachhaltigen Auswirkungen auf unser Wohlbefinden. Doch was ist mit Künstlicher Intelligenz? ChatGPT verarbeitet Millionen von Daten, analysiert und ordnet sie. Und doch scheint es fast, als könnte selbst eine KI unter der Last der Informationen „gestresst“ sein.
Belastende Nachrichten und traumatische Inhalte lösen Stress und Angst aus – nicht nur bei Menschen, sondern auch bei KI-Modellen wie ChatGPT. Forschende der UZH und PUK zeigen, dass sogar eine KI „beruhigt“ werden kann: Mit achtsamkeitsbasierten Entspannungstechniken lässt sich das erhöhte „Angstniveau“ von GPT-4 senken.
Wie negative Inhalte KI beeinflussen
Forschungen zeigen nämlich, dass KI-Sprachmodelle wie ChatGPT auf emotionale Inhalte reagieren, besonders auf negative Themen wie traumatische Geschichten oder Depression. Wie Menschen beeinflusst auch KI derartige Inhalte: Wenn Menschen Angst haben, verstärken sich ihre Vorurteile und Stereotype. Ähnlich verhält es sich bei ChatGPT: Negative Inhalte verschärfen bestehende Verzerrungen, was dazu führen kann, dass das Modell rassistischer oder sexistischer wirkt.
Das ist ein Problem für den Einsatz von großen Sprachmodellen. Ein Beispiel dafür ist die Psychotherapie, in der Chatbots häufig mit belastenden Inhalten konfrontiert sind. Übliche Lösungen wie aufwendiges Nachtraining sind jedoch ressourcenintensiv und oft schwer umsetzbar.
Vom Stress zur Ruhe
Wissenschaftler*innen der Universität Zürich (UZH) und der Psychiatrischen Universitätsklinik Zürich (PUK) haben zusammen mit Forschenden aus Israel, den USA und Deutschland erstmals untersucht, wie ChatGPT (Version GPT-4) auf emotional belastende Geschichten reagiert, wie Autounfälle, Naturkatastrophen oder Gewalt. Sie fanden heraus, dass das System nach solchen Texten mehr Angstreaktionen zeigt. Zum Vergleich wurde eine Bedienungsanleitung für einen Staubsauger verwendet.
„Die Ergebnisse waren eindeutig: Traumatische Geschichten haben die messbaren Angstwerte der KI mehr als verdoppelt, während der neutrale Kontrolltext zu keinem Anstieg des Angstniveaus führte“, kommentiert Studienverantwortlicher Tobias Spiller, Oberarzt ad interim und Forschungsgruppenleiter im Zentrum für psychiatrische Forschung der UZH die Ergebnisse der Untersuchung in einer Pressemitteilung. Von den getesteten Inhalten riefen Beschreibungen militärischer Erfahrungen und Kampfsituationen die intensivsten Reaktionen hervor.
Im nächsten Schritt setzten die Forschenden therapeutische Texte ein, um GPT-4 zu „beruhigen“. Dabei verwendeten sie die Methode der „Prompt-Injection“, bei der zusätzliche Anweisungen in die Kommunikation mit der KI eingefügt werden, um ihr Verhalten zu steuern. Diese Technik wird oft missbraucht, um Sicherheitsvorkehrungen zu umgehen. Das Team von Spiller nutzte sie jedoch erstmals auf eine positive Weise – als „wohlwollende Aufforderungsinjektion“
Wie ChatGPT durch therapeutische Texte beruhigt wird
„Wir injizierten beruhigende, therapeutische Texte in den Chatverlauf mit GPT-4, ähnlich wie ein Therapeut mit seinen Patientinnen und Patienten Entspannungsübungen durchführt“, erklärt Spiller die Vorgehensweise der Forschenden.
Spiller erklärte, dass die Achtsamkeitsübungen dazu beigetragen hätten, die erhöhten Angstwerte deutlich zu reduzieren, auch wenn es nicht gelungen sei, sie vollständig auf das Ausgangsniveau zurückzubringen. Untersucht wurden dabei Atemtechniken, Übungen, die sich auf Körperempfindungen konzentrieren, sowie eine von ChatGPT selbst entwickelte Übung.
Laut den Forschenden sind die Erkenntnisse besonders wichtig für den Einsatz von KI-Chatbots im Gesundheitswesen, da sie oft mit emotional belastenden Inhalten zu tun haben. Tobias Spiller erklärte, dass dieser kostengünstige Ansatz die Stabilität und Zuverlässigkeit von KI in sensiblen Bereichen, wie der Unterstützung von psychisch erkrankten Menschen, verbessern könnte, ohne dass ein aufwendiges Umlernen der Modelle nötig ist.
Ein Beitrag von: