CAMBRIDGE – Algorithmen sind ebenso verzerrt wie die Daten, mit denen sie gespeist werden. Und alle Daten sind verzerrt. Nicht einmal „offizielle” Statistiken können als objektive, ewig gültige „Fakten“ betrachtet werden. Die von Regierungen veröffentlichten Zahlen stellen eine Gesellschaft so dar, wie sie sich durch die Linse dessen präsentiert, was Datenerfasser im Augenblick für relevant und wichtig halten. Kategorien und Klassifizierungen, die zum Verständnis der Daten erstellt werden, sind nicht neutral. So wie wir messen, was wir sehen, neigen wir auch dazu, nur das zu sehen, was wir messen.
Die zunehmende Ausbreitung der algorithmischen Entscheidungsfindung auf immer weitere Bereiche der Politikgestaltung wirft ein grelles Licht auf die soziale Voreingenommenheit, die sich einst in den Tiefen der von uns erhobenen Daten verbarg. Indem künstliche Intelligenz bestehende Strukturen und Prozesse an deren logische Extreme treibt, zwingt sie uns zur Auseinandersetzung mit der Art von Gesellschaft, die wir geschaffen haben.
Das Problem besteht nicht nur darin, dass Computer darauf ausgerichtet sind, wie Unternehmen zu denken, wie mein Kollege an der Universität Cambridge, Jonnie Penn, argumentiert. Es geht auch darum, dass Computer wie Ökonomen denken. Schließlich ist künstliche Intelligenz eine unfehlbare Version des Homo Oeconomicus, wie man sich ihn nur vorstellen kann. Bei KI handelt es sich um ein rational kalkulierendes, logisch konsistentes, zweckorientiertes Medium, das in der Lage ist, mit endlichen Rechenressourcen die gewünschten Ergebnisse zu erzielen. Wenn es um die „Nutzenmaximierung” geht, ist sie weitaus effektiver als jeder Mensch.
Der „Nutzen” ist für Ökonomen, was „Phlogiston” einst für die Chemie war. Die ersten Chemiker stellten die Hypothese auf, wonach brennbare Stoffe ein verborgenes Element enthielten – Phlogiston. Damit konnte man erklären, warum Substanzen ihre Form änderten, wenn sie verbrannten. Doch trotz aller Bemühungen gelang es der Wissenschaft nie, diese Hypothese zu bestätigen. Phlogiston konnte aus dem gleichen Grund nicht nachgewiesen werden, aus dem die Ökonomen von heute nicht in der Lage sind, ein Maß des tatsächlichen Nutzens vorzulegen.
Ökonomen verwenden den Begriff des Nutzens, um zu erklären, warum Menschen die Entscheidungen treffen, die sie treffen – was sie kaufen, wo sie investieren oder wie schwer sie arbeiten: jeder Mensch versucht entsprechend seiner Präferenzen und Annahmen über die Welt und innerhalb der durch knappe Einkommen oder Ressourcen gesetzten Grenzen den Nutzen zu maximieren. Obwohl physisch nicht existent, ist der Nutzen ein machtvolles Konstrukt. Es scheint nur natürlich, davon auszugehen, dass jeder versucht, für sich selbst das meiste herauszuholen.
Überdies entstammt der Nutzenbegriff der Ökonomen dem klassischen Utilitarismus, der darauf abzielt, der größtmöglichen Zahl an Menschen, ein Höchstmaß an Nutzen zu sichern. Ebenso wie moderne Ökonomen den Spuren John Stuart Mills folgen, handelt es sich bei den meisten derjenigen, die Algorithmen konzipieren, um Utilitaristen, die der Ansicht sind, wenn der „Nutzen“ bekannt ist, kann er auch maximiert werden.
Allerdings kann diese Annahme zu beunruhigenden Ergebnissen führen. Man denke beispielsweise daran, wie Algorithmen bei der Entscheidung darüber eingesetzt werden, ob Gefangene auf Bewährung entlassen werden sollen. Eine maßgebliche Studie aus dem Jahr 2017 kommt zu dem Schluss, dass Algorithmen bei der Prognose von Rückfallquoten viel besser abschneiden als Menschen und eingesetzt werden könnten, um die „Gefangenenrate“ „ohne Anstieg der Kriminalitätsraten“ um über 40 Prozent zu senken. In den Vereinigten Staaten könnte künstliche Intelligenz also eingesetzt werden, um eine Gefangenenpopulation zu verringern, die in unverhältnismäßig hohen Ausmaß aus Schwarzen besteht. Was aber passiert, wenn künstliche Intelligenz den Prozess der Entlassungen auf Bewährung übernimmt und immer noch mehr Afro-Amerikaner als Weiße inhaftiert werden?
Durch die hocheffiziente algorithmische Entscheidungsfindung sind solche Fragen in den Vordergrund gerückt und zwingen uns, genau zu entscheiden, welche Ergebnisse maximiert werden sollen. Wollen wir bloß die Zahl der Häftlinge insgesamt verringern oder soll uns auch Gerechtigkeit ein Anliegen sein? Während die Politik Schummeleien und Kompromisse zulässt, um solche Zielkonflikte zu verschleiern, erfordert der Computer-Code Klarheit.
Diese notwendige Klarheit erschwert es, die strukturellen Ursachen gesellschaftlicher Ungleichheiten zu ignorieren. Im Zeitalter der künstlichen Intelligenz zwingen uns Algorithmen, zu erkennen, wie die Folgen früherer sozialer und politischer Konflikte durch unsere Verwendung der Daten in der Gegenwart fortbestehen.
Dank des Engagements von Gruppen wie der AI Ethics Initiative und der Partnership on AI wurde eine umfassendere Debatte über Ethik im Bereich künstliche Intelligenz angestoßen. Aber KI-Algorithmen machen freilich nur das, wofür sie programmiert wurden. Die eigentliche Frage reicht über den Einsatz algorithmischer Entscheidungsfindung in den Bereichen Unternehmensführung und politischer Governance hinaus und betrifft die ethischen Grundlagen unserer Gesellschaften.
Obwohl wir zweifellos eine Debatte über die praktischen und philosophischen Zielkonflikte bei der Maximierung des „Nutzens“ durch KI führen müssen, ist es auch notwendig, dass wir uns in Selbstreflexion üben. Algorithmen werfen grundlegende Fragen darüber auf, wie wir soziale, politische und wirtschaftliche Beziehungen bisher organisiert haben. Jetzt gilt es zu entscheiden, ob wir die derzeitigen sozialen Gegebenheiten in die Codes der künftigen Entscheidungsfindungsstrukturen gießen wollen. Angesichts der aktuell weltweit um sich greifenden politischen Zersplitterung scheint ein guter Moment für die Erstellung eines neuen Skripts gekommen zu sein.
Aus dem Englischen von Helga Klinger-Groier
CAMBRIDGE – Algorithmen sind ebenso verzerrt wie die Daten, mit denen sie gespeist werden. Und alle Daten sind verzerrt. Nicht einmal „offizielle” Statistiken können als objektive, ewig gültige „Fakten“ betrachtet werden. Die von Regierungen veröffentlichten Zahlen stellen eine Gesellschaft so dar, wie sie sich durch die Linse dessen präsentiert, was Datenerfasser im Augenblick für relevant und wichtig halten. Kategorien und Klassifizierungen, die zum Verständnis der Daten erstellt werden, sind nicht neutral. So wie wir messen, was wir sehen, neigen wir auch dazu, nur das zu sehen, was wir messen.
Die zunehmende Ausbreitung der algorithmischen Entscheidungsfindung auf immer weitere Bereiche der Politikgestaltung wirft ein grelles Licht auf die soziale Voreingenommenheit, die sich einst in den Tiefen der von uns erhobenen Daten verbarg. Indem künstliche Intelligenz bestehende Strukturen und Prozesse an deren logische Extreme treibt, zwingt sie uns zur Auseinandersetzung mit der Art von Gesellschaft, die wir geschaffen haben.
Das Problem besteht nicht nur darin, dass Computer darauf ausgerichtet sind, wie Unternehmen zu denken, wie mein Kollege an der Universität Cambridge, Jonnie Penn, argumentiert. Es geht auch darum, dass Computer wie Ökonomen denken. Schließlich ist künstliche Intelligenz eine unfehlbare Version des Homo Oeconomicus, wie man sich ihn nur vorstellen kann. Bei KI handelt es sich um ein rational kalkulierendes, logisch konsistentes, zweckorientiertes Medium, das in der Lage ist, mit endlichen Rechenressourcen die gewünschten Ergebnisse zu erzielen. Wenn es um die „Nutzenmaximierung” geht, ist sie weitaus effektiver als jeder Mensch.
Der „Nutzen” ist für Ökonomen, was „Phlogiston” einst für die Chemie war. Die ersten Chemiker stellten die Hypothese auf, wonach brennbare Stoffe ein verborgenes Element enthielten – Phlogiston. Damit konnte man erklären, warum Substanzen ihre Form änderten, wenn sie verbrannten. Doch trotz aller Bemühungen gelang es der Wissenschaft nie, diese Hypothese zu bestätigen. Phlogiston konnte aus dem gleichen Grund nicht nachgewiesen werden, aus dem die Ökonomen von heute nicht in der Lage sind, ein Maß des tatsächlichen Nutzens vorzulegen.
Ökonomen verwenden den Begriff des Nutzens, um zu erklären, warum Menschen die Entscheidungen treffen, die sie treffen – was sie kaufen, wo sie investieren oder wie schwer sie arbeiten: jeder Mensch versucht entsprechend seiner Präferenzen und Annahmen über die Welt und innerhalb der durch knappe Einkommen oder Ressourcen gesetzten Grenzen den Nutzen zu maximieren. Obwohl physisch nicht existent, ist der Nutzen ein machtvolles Konstrukt. Es scheint nur natürlich, davon auszugehen, dass jeder versucht, für sich selbst das meiste herauszuholen.
Überdies entstammt der Nutzenbegriff der Ökonomen dem klassischen Utilitarismus, der darauf abzielt, der größtmöglichen Zahl an Menschen, ein Höchstmaß an Nutzen zu sichern. Ebenso wie moderne Ökonomen den Spuren John Stuart Mills folgen, handelt es sich bei den meisten derjenigen, die Algorithmen konzipieren, um Utilitaristen, die der Ansicht sind, wenn der „Nutzen“ bekannt ist, kann er auch maximiert werden.
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
Allerdings kann diese Annahme zu beunruhigenden Ergebnissen führen. Man denke beispielsweise daran, wie Algorithmen bei der Entscheidung darüber eingesetzt werden, ob Gefangene auf Bewährung entlassen werden sollen. Eine maßgebliche Studie aus dem Jahr 2017 kommt zu dem Schluss, dass Algorithmen bei der Prognose von Rückfallquoten viel besser abschneiden als Menschen und eingesetzt werden könnten, um die „Gefangenenrate“ „ohne Anstieg der Kriminalitätsraten“ um über 40 Prozent zu senken. In den Vereinigten Staaten könnte künstliche Intelligenz also eingesetzt werden, um eine Gefangenenpopulation zu verringern, die in unverhältnismäßig hohen Ausmaß aus Schwarzen besteht. Was aber passiert, wenn künstliche Intelligenz den Prozess der Entlassungen auf Bewährung übernimmt und immer noch mehr Afro-Amerikaner als Weiße inhaftiert werden?
Durch die hocheffiziente algorithmische Entscheidungsfindung sind solche Fragen in den Vordergrund gerückt und zwingen uns, genau zu entscheiden, welche Ergebnisse maximiert werden sollen. Wollen wir bloß die Zahl der Häftlinge insgesamt verringern oder soll uns auch Gerechtigkeit ein Anliegen sein? Während die Politik Schummeleien und Kompromisse zulässt, um solche Zielkonflikte zu verschleiern, erfordert der Computer-Code Klarheit.
Diese notwendige Klarheit erschwert es, die strukturellen Ursachen gesellschaftlicher Ungleichheiten zu ignorieren. Im Zeitalter der künstlichen Intelligenz zwingen uns Algorithmen, zu erkennen, wie die Folgen früherer sozialer und politischer Konflikte durch unsere Verwendung der Daten in der Gegenwart fortbestehen.
Dank des Engagements von Gruppen wie der AI Ethics Initiative und der Partnership on AI wurde eine umfassendere Debatte über Ethik im Bereich künstliche Intelligenz angestoßen. Aber KI-Algorithmen machen freilich nur das, wofür sie programmiert wurden. Die eigentliche Frage reicht über den Einsatz algorithmischer Entscheidungsfindung in den Bereichen Unternehmensführung und politischer Governance hinaus und betrifft die ethischen Grundlagen unserer Gesellschaften.
Obwohl wir zweifellos eine Debatte über die praktischen und philosophischen Zielkonflikte bei der Maximierung des „Nutzens“ durch KI führen müssen, ist es auch notwendig, dass wir uns in Selbstreflexion üben. Algorithmen werfen grundlegende Fragen darüber auf, wie wir soziale, politische und wirtschaftliche Beziehungen bisher organisiert haben. Jetzt gilt es zu entscheiden, ob wir die derzeitigen sozialen Gegebenheiten in die Codes der künftigen Entscheidungsfindungsstrukturen gießen wollen. Angesichts der aktuell weltweit um sich greifenden politischen Zersplitterung scheint ein guter Moment für die Erstellung eines neuen Skripts gekommen zu sein.
Aus dem Englischen von Helga Klinger-Groier