Der Umgang mit unfairen Situationen: Empfehlungen für junge Menschen im Zeitalter der KI
Ein Experiment, bei dem zwei Personen eine modifizierte Version von Tetris spielen, hat gezeigt, dass Spieler, die weniger Spielzüge bekommen, den anderen Spieler unabhängig davon, ob eine Person oder ein Algorithmus die Spielzüge zugeteilt hat, als weniger sympathisch wahrnehmen.
Ein von der Cornell University geleitetes Experiment, bei dem zwei Personen eine modifizierte Version von Tetris spielen, hat gezeigt, dass Spieler, die weniger Spielzüge bekommen, den anderen Spieler als weniger sympathisch wahrnehmen, unabhängig davon, ob eine Person oder ein Algorithmus die Spielzüge zugeteilt hat.
Die meisten Studien zur algorithmischen Fairness konzentrieren sich auf den Algorithmus oder die Entscheidung selbst, aber die Forscher wollten die Beziehungen zwischen den von den Entscheidungen betroffenen Menschen untersuchen.
„In immer mehr Situationen sehen wir, dass KI Entscheidungen darüber trifft, wie Ressourcen unter den Menschen verteilt werden sollen“, sagte Malte Jung, Associate Professor für Information Science, dessen Gruppe die Studie durchgeführt hat. „Wir möchten verstehen, wie sich das auf die Art und Weise auswirkt, wie Menschen einander wahrnehmen und sich verhalten. Es gibt immer mehr Hinweise darauf, dass Maschinen unsere Interaktionen beeinflussen.“
In einer früheren Studie wählte ein Roboter aus, welcher Person ein Block gegeben wurde, und untersuchte die Reaktionen jeder einzelnen Person auf die Entscheidungen des Roboters.
„Wir haben festgestellt, dass jedes Mal, wenn der Roboter eine Person bevorzugt hat, die andere verärgert war“, sagte Jung. „Wir wollten das genauer untersuchen, denn wir dachten, dass sich Menschen anders fühlen, wenn Maschinen Entscheidungen treffen – egal ob es sich um einen Roboter oder einen Algorithmus handelt.“
Mit Open-Source-Software entwickelte Houston Claure, der Erstautor der Studie und Postdoktorand an der Yale University, eine Zwei-Spieler-Version von Tetris, bei der die Spieler fallende geometrische Blöcke manipulieren, um sie zu stapeln, ohne Lücken zu hinterlassen, bevor die Blöcke den oberen Bildschirmrand erreichen. Claures Version namens Co-Tetris ermöglicht es zwei Personen (eine nach der anderen), zusammenzuarbeiten, um jede Runde abzuschließen.
Ein „Verteiler“ – entweder ein Mensch oder eine KI, was den Spielern mitgeteilt wurde – bestimmt, welcher Spieler den jeweiligen Zug macht. Jung und Claure konzipierten ihr Experiment so, dass die Spieler entweder 90% der Spielzüge („mehr“ Zustand), 10% („weniger“) oder 50% („gleich“) hatten.
Die Forscher stellten fest, dass diejenigen, die weniger Spielzüge erhielten, sich stark bewusst waren, dass ihr Partner deutlich mehr bekam. Doch sie waren überrascht festzustellen, dass die Gefühle in Bezug darauf weitgehend gleich waren, unabhängig davon, ob ein Mensch oder eine KI die Verteilung vornahm.
Empfehlung vom Coach Holger Kiefer zu ungerechten Situationen
Reflexion der eigenen Reaktionen: Es ist wichtig, sich bewusst zu werden, wie man auf Ungerechtigkeiten reagiert, insbesondere wenn sie von maschinellen Systemen verursacht werden. Selbstreflexion kann helfen, eigene Emotionen und Vorurteile zu erkennen. Objektive Betrachtung der Situation: Versuchen Sie, die Situation aus einer objektiveren Perspektive zu betrachten und nicht automatisch negative Gefühle oder Vorurteile gegenüber der anderen Person zu entwickeln. Erinnern Sie sich daran, dass die Entscheidungen von Maschinen möglicherweise nicht persönlich motiviert sind. Offene Kommunikation: Wenn Sie sich durch eine unfaire Verteilung benachteiligt fühlen, ist es wichtig, dies offen und respektvoll anzusprechen. Klären Sie Missverständnisse und versuchen Sie, gemeinsame Lösungen zu finden. Sensibilisierung für algorithmische Entscheidungen: Entwickeln Sie ein Verständnis dafür, wie Algorithmen funktionieren und welche Auswirkungen sie auf die Verteilung von Ressourcen haben können. Dies kann helfen, Vorurteile und Ungerechtigkeiten besser zu erkennen und anzusprechen. Förderung von Fairness und Transparenz: Unterstützen Sie Bemühungen, algorithmische Systeme fairer und transparenter zu gestalten. Setzen Sie sich für Richtlinien und Regelungen ein, die sicherstellen, dass algorithmische Entscheidungen gerecht und nachvollziehbar sind. ChatGPT
Basierend aus den Erkenntnissen des Experiments möchte ich jungen Menschen einige Empfehlungen geben:
- Selbstreflexion: Achte darauf, wie du auf ungerechte Situationen reagierst, insbesondere wenn sie durch Algorithmen oder KI-Systeme verursacht werden. Reflektiere deine eigenen Emotionen und Vorurteile.
- Objektive Sichtweise: Versuche, die Situation aus einer neutralen Perspektive zu betrachten und nicht automatisch negative Gefühle oder Vorurteile gegenüber anderen Personen zu entwickeln. Denke daran, dass maschinelle Entscheidungen nicht persönlich motiviert sind.
- Offene Kommunikation: Wenn du dich durch eine ungerechte Verteilung benachteiligt fühlst, ist es wichtig, dies offen und respektvoll anzusprechen. Kläre Missverständnisse und suche nach gemeinsamen Lösungen.
- Sensibilisierung für algorithmische Entscheidungen: Lerne, wie Algorithmen funktionieren und welche Auswirkungen sie auf die Verteilung von Ressourcen haben können. Dadurch kannst du Vorurteile und Ungerechtigkeiten besser erkennen und ansprechen.
- Förderung von Fairness und Transparenz: Unterstütze Initiativen, die algorithmische Systeme fairer und transparenter gestalten möchten. Setze dich für Richtlinien und Regelungen ein, die sicherstellen, dass algorithmische Entscheidungen gerecht und nachvollziehbar sind.
Es ist wichtig zu beachten, dass dies allgemeine Empfehlungen sind und die individuelle Situation variieren kann. Denke immer daran, dass du einen positiven Beitrag leisten kannst, um eine gerechtere und transparentere Welt mitzugestalten.