#simpleai Machine learning-systemen zijn problematisch

Een van de nuttigste teksten voor iedereen die de technische industrie behandelt, is het beroemde essay van George Orwell, Politics and the English Language. Orwells focus in het essay lag op het politieke taalgebruik om, zoals hij het uitdrukte, “leugens waarheidsgetrouw te laten klinken en moord respectabel te maken, en een schijn van stevigheid te geven aan zuivere wind.” Maar de analyse kan ook worden toegepast op de manieren waarop hedendaagse bedrijven de taal buigen om de aandacht af te leiden van de vuile realiteit van wat ze doen.

De tech-industrie is bijzonder bedreven in dit soort taaltechnologie. “Delen” is bijvoorbeeld klikken op een link om een gegevensspoor achter te laten dat kan worden gebruikt om het profiel dat het bedrijf over u heeft te verfijnen. Je geeft je “toestemming” voor een eenzijdig voorstel: accepteer deze algemene voorwaarden of raak de weg kwijt. De inhoud wordt “gemodereerd”, niet gecensureerd. Adverteerders “bereiken” u met ongewenste berichten. Werknemers die ontslagen worden, worden “losgelaten”. Defecte producten worden “teruggeroepen”. En ga zo maar door.

Op dit moment is het meest schadelijke het eufemisme in het woordenboek van dubbel pratende AI, dat de afgelopen twee of drie jaar alomtegenwoordig is geworden. Oorspronkelijk is het een afkorting voor kunstmatige intelligentie, gedefinieerd door OED als “het vermogen van computers of andere machines om intelligent gedrag te vertonen of te simuleren; het vakgebied dat hiermee verband houdt”. Een Ngram-tool (die patronen van woordgebruik toont) onthult dat AI en kunstmatige intelligentie tot de jaren 1960 min of meer synoniem waren, maar dat ze vervolgens verschilden en nu gedijt AI in de technische industrie, massamedia en de academische wereld.

Waarom kan dat zo zijn? Ongetwijfeld heeft luiheid er iets mee te maken; Twee letters zijn immers typografisch lichter dan 22. Maar dat is een rationalisatie, geen verklaring. Als je het door een Orwelliaanse lens bekijkt, moet je je afvragen: wat doet deze linguïstische compressie voor het werk? En voor wie? En dat is waar het interessant wordt.


Maar hier is het ding: de industrie is nu verslaafd aan een technologie die grote technische en maatschappelijke nadelen heeft


Als onderwerp en concept is intelligentie oneindig fascinerend voor ons mensen. We discussiëren er al eeuwen over – wat het is, hoe het te meten, wie het heeft (en wie niet), enzovoort. En sinds Alan Turing suggereerde dat machines konden denken, is de interesse in kunstmatige intelligentie gegroeid en zit nu in een koorts met speculaties over de vooruitzichten voor superintelligente machines – ook wel bekend als AGI (voor kunstmatige algemene intelligentie).

Dit alles is interessant, maar heeft weinig te maken met wat de technische industrie AI noemt, wat de naam is voor machine learning, een gezellige en koolstofintensieve technologie die soms goed is in het oplossen van complexe maar zeer goed gedefinieerde problemen. Machine learning-systemen kunnen bijvoorbeeld Go van wereldklasse spelen, voorspellen hoe eiwitmoleculen zullen vouwen en snelle retinale scansanalyses uitvoeren om gevallen te identificeren die verder onderzoek door een menselijke specialist vereisen.

Allemaal goed, maar de reden dat de technologie-industrie geobsedeerd is door technologie is omdat het het mogelijk maakt om machines te bouwen die leren van het gedrag van internetgebruikers om te voorspellen wat ze vervolgens zouden kunnen doen en, in het bijzonder, wat ze geneigd zijn leuk te vinden, te waarderen en misschien te willen kopen. Dat is de reden waarom technologiemanagers opscheppen over het hebben van “AI overal” in hun producten en diensten. En dat is de reden waarom wanneer Mark Zuckerberg en co worden aangevallen vanwege hun onvermogen om giftige inhoud van hun platforms te houden, ze steevast antwoorden dat AI het probleem nu snel zal oplossen.

Maar hier is het ding: de industrie vertrouwt nu op een technologie die grote technologische en maatschappelijke nadelen heeft. De CO2-uitstoot van bijvoorbeeld het trainen van grote machine learning-systemen is enorm. Ze zijn te kwetsbaar en foutgevoelig om te worden gebruikt in veiligheidskritische toepassingen, zoals autonome voertuigen. Ze bevatten racistische, gender- en etnische vooroordelen (deels omdat ze de vooroordelen hebben geabsorbeerd die impliciet zijn in de taken waarop ze zijn getraind). En ze zijn onherroepelijk ondoorzichtig – in die zin dat zelfs hun makers vaak niet kunnen uitleggen hoe hun machines tot classificaties of voorspellingen komen – en voldoen daarom niet aan de democratische verantwoordingseisen. En dat is nog maar om te beginnen.

Dus hoe gaat de industrie om met de vervelende realiteit dat het de ranch inzet op een krachtige maar problematische technologie? Antwoord: door het niet zijn echte naam te noemen en het in plaats daarvan in een naam te verpakken die suggereert dat het op de een of andere manier deel uitmaakt van een groter, groter romantisch project – het nastreven van kunstmatige intelligentie. Zoals Orwell het zou kunnen zeggen, is het de manier van de industrie om “een schijn van stevigheid te geven aan schone wind” terwijl het doorgaat met de echte business van het maken van fortuinen.


Posted

in

,

by

Tags:

Comments

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *