#simpleai Machine-Learning-Systeme sind problematisch

Einer der nützlichsten Texte für jeden, der sich mit der Technologiebranche befasst, ist George Orwells berühmter Essay Politik und die englische Sprache. Orwells Fokus in dem Essay lag auf dem politischen Gebrauch von Sprache, um, wie er es ausdrückte, „Lügen wahrhaftig und Mord respektabel klingen zu lassen und dem reinen Wind einen Anschein von Solidität zu verleihen“. Aber die Analyse kann auch auf die Art und Weise angewendet werden, in der zeitgenössische Unternehmen die Sprache biegen, um die Aufmerksamkeit von den schmutzigen Realitäten dessen, was sie tun, abzulenken.

Die Technologiebranche war besonders geschickt in dieser Art von Sprachtechnologie. „Teilen“ ist zum Beispiel das Klicken auf einen Link, um eine Datenspur zu hinterlassen, die verwendet werden kann, um das Profil des Unternehmens über Sie zu verfeinern. Sie geben Ihre „Zustimmung“ zu einem einseitigen Vorschlag: Akzeptieren Sie diese Allgemeinen Geschäftsbedingungen oder gehen Sie verloren. Der Inhalt wird „moderiert“, nicht zensiert. Werbetreibende „erreichen“ Sie mit unerwünschten Nachrichten. Mitarbeiter, die entlassen werden, werden „entlassen“. Defekte Produkte werden „zurückgerufen“. Und so weiter.

Am schädlichsten ist im Moment der Euphemismus im Wörterbuch der doppelzüngigen KI, der in den letzten zwei oder drei Jahren allgegenwärtig geworden ist. Ursprünglich ist es eine Abkürzung für künstliche Intelligenz, definiert von OED als „die Fähigkeit von Computern oder anderen Maschinen, intelligentes Verhalten zu zeigen oder zu simulieren; das diesbezügliche Studienfach“. Ein Ngram-Tool (das Muster der Wortverwendung zeigt) zeigt, dass KI und künstliche Intelligenz bis in die 1960er Jahre mehr oder weniger synonym waren, sich aber später unterschieden und jetzt KI in der Technologiebranche, den Massenmedien und der Wissenschaft gedeiht.

Warum kann das so sein? Zweifellos hat Faulheit etwas damit zu tun; Immerhin sind zwei Buchstaben typografisch leichter als 22. Aber das ist eine Rationalisierung, keine Erklärung. Wenn man es durch eine Orwellsche Linse betrachtet, muss man sich fragen: Was bewirkt diese sprachliche Kompression für die Arbeit? Und für wen? Und hier wird es interessant.


Aber hier ist die Sache: Die Branche ist jetzt süchtig nach einer Technologie, die große technische und gesellschaftliche Nachteile hat.


Als Subjekt und Konzept ist Intelligenz für uns Menschen unendlich faszinierend. Wir streiten seit Jahrhunderten darüber – was es ist, wie man es misst, wer es hat (und wer nicht) und so weiter. Und seit Alan Turing vorschlug, dass Maschinen denken könnten, ist das Interesse an künstlicher Intelligenz gewachsen und befindet sich nun im Fieber mit Spekulationen über die Aussichten für superintelligente Maschinen – manchmal auch bekannt als AGI (für künstliche allgemeine Intelligenz).

All dies ist interessant, hat aber wenig mit dem zu tun, was die Technologiebranche KI nennt, was ihr Name für maschinelles Lernen ist, eine gemütliche und kohlenstoffintensive Technologie, die manchmal gut darin ist, komplexe, aber sehr gut definierte Probleme zu lösen. Zum Beispiel können maschinelle Lernsysteme Go Weltklasse spielen, vorhersagen, wie sich Proteinmoleküle falten werden, und Hochgeschwindigkeits-Netzhautscans analysieren, um Fälle zu identifizieren, die eine weitere Untersuchung durch einen menschlichen Spezialisten erfordern.

Alles gut, aber der Grund, warum die Technologiebranche von Technologie besessen ist, ist, dass sie es ihr ermöglicht, Maschinen zu bauen, die aus dem Verhalten der Internetnutzer lernen, um vorherzusagen, was sie als nächstes tun könnten und insbesondere, was sie mögen, schätzen und kaufen möchten. Aus diesem Grund prahlen Technologiemanager damit, „KI überall“ in ihren Produkten und Dienstleistungen zu haben. Und deshalb reagieren Mark Zuckerberg und Co., wann immer sie für ihre Unfähigkeit angegriffen werden, giftige Inhalte von ihren Plattformen fernzuhalten, ausnahmslos, dass KI das Problem bald lösen wird.

Aber hier ist die Sache: Die Branche verlässt sich jetzt auf eine Technologie, die große technologische und gesellschaftliche Nachteile hat. Die CO2-Emissionen, die beispielsweise durch das Training großer maschineller Lernsysteme entstehen, sind enorm. Sie sind zu zerbrechlich und fehleranfällig, um sich auf sicherheitskritische Anwendungen wie autonome Fahrzeuge verlassen zu können. Sie beinhalten rassistische, geschlechtsspezifische und ethnische Vorurteile (zum Teil, weil sie die Vorurteile absorbiert haben, die in den Aufgaben, für die sie ausgebildet wurden, implizit sind). Und sie sind unwiderruflich undurchsichtig – in dem Sinne, dass selbst ihre Schöpfer oft nicht erklären können, wie ihre Maschinen zu Klassifizierungen oder Vorhersagen kommen – und erfüllen daher nicht die Anforderungen an die demokratische Rechenschaftspflicht. Und das ist nur für den Anfang.

Wie geht die Branche also mit der unangenehmen Realität um, dass sie die Ranch auf eine mächtige, aber problematische Technologie setzt? Antwort: Indem man es vermeidet, seinen richtigen Namen zu nennen, und es stattdessen in einen Namen verpackt, der darauf hindeutet, dass es irgendwie Teil eines größeren, größeren romantischen Projekts ist – dem Streben nach künstlicher Intelligenz. Wie Orwell es ausdrücken könnte, ist es die Art und Weise der Branche, „dem sauberen Wind einen Anschein von Solidität zu verleihen“, während sie mit dem eigentlichen Geschäft des Machens von Vermögen fortfährt.


Posted

in

,

by

Tags:

Comments

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert