Hoe gaan we slim om met kunstmatige intelligentie? - Parlementaire monitor

Parlementaire monitor
Dinsdag 4 augustus 2020
kalender

Hoe gaan we slim om met kunstmatige intelligentie?

Met dank overgenomen van K. (Kim) van Sparrentak i, gepubliceerd op woensdag 19 februari 2020.

Kunstmatige intelligentie, artificial intelligence, of simpelweg AI is hot. De berichten met daarin de nieuwste innovaties die ons leven makkelijker maken, het fileprobleem oplossen of de klimaatcrisis aanpakken, vliegen je om de oren. Toepassingen op basis van kunstmatige intelligentie zijn geen toekomstmuziek. Ze zitten vandaag al in de vertaalapp in onze smartphone en de slimme thermostaat in onze woning. Kunstmatige intelligentie is er en gaat niet weg.

Taken en beslissingen worden steeds meer uitgevoerd door zelflerende machines die niet altijd onder goede menselijke controle staan. Dat AI ook risico’s met zich meebrengt, is echter de laatste jaren duidelijk geworden. Deze technologieën lijken neutraal omdat ze de subjectieve menselijke factor uitsluiten in hun beslissingen. Echter, heel wat vooroordelen en discriminatie zijn ingebakken in de datasets op basis waarvan beslissingen worden genomen.

  • Apple kwam in opspraak toen bleek dat er systematisch hogere limieten werden toegestaan aan mannen dan aan vrouwen bij de creditcard die het bedrijf vorig jaar lanceerde.
  • De Nederlandse overheid werd teruggefloten door de rechter die oordeelde dat het Systeem Risico Indicatie (SyRI), dat wordt gebruikt om uitkeringsfraude op te sporen, in strijd is met het Europees Verdrag voor de Rechten van de Mens en de privacywet. Van digitale burgerrechtenorganisatie Bits of Freedom kreeg het systeem eind vorig jaar al de Big Brother award. Zij oordeelden dat door koppeling van verschillende datasets en geheime algoritmes buurten worden gestigmatiseerd, en personen tot verdachte worden gemaakt zonder dat zij de mogelijkheid hebben hiertegen in verweer te gaan.

Ontslagen door een geautomatiseerd systeem

Kunstmatige intelligentie kan ook een grote impact hebben op de relatie tussen werknemer en werkgever. Afgelopen zomer liet Amazon in enkele Amerikaanse magazijnen werknemers ontslaan door volledig geautomatiseerde AI-systemen. Daarbij stuurde het systeem de minst productieve werknemers automatisch hun ontslagbrief. Ook de prestaties van de maaltijdbezorgers in onze steden worden constant gemonitord, ze concurreren met elkaar en hebben geen menselijk contact met hun werkgever.

Als consument worden we geconfronteerd met het feit dat de algoritmes een zwarte doos zijn waar we niet in kunnen kijken. De prijzen van producten in advertenties en in webshops kunnen variëren, afhankelijk van het profiel van wie er naar kijkt. Het is vaak onduidelijk of je met een chatbot of een echt persoon van de klantendienst aan het praten bent. Manipulatie ten koste van de consument ligt op de loer. Tenslotte is er ook onduidelijkheid over de aansprakelijkheid en veiligheid van slimme producten: ligt die bij de ontwikkelaar van het product of bij de ontwikkelaar van het algoritme?

No-brainer voor Europa

De vraag is hoe de Europese Unie zich tot dit vraagstuk moet verhouden. We hebben één interne markt waarin producten (digitaal of fysiek) vrij verkocht kunnen worden. En als markt van 450 miljoen consumenten kunnen we beter samen optrekken tegen de techgiganten als Amazon en Facebook. Dat we kunstmatige intelligentie ook op Europees niveau moeten reguleren is een no-brainer.

Ursula von der Leyen, de voorzitter van de de Europese Commissie, beloofde eerst om in de eerste honderd dagen van haar mandaat met wetgeving te komen om ‘de menselijke en ethische implicaties van kunstmatige intelligentie’ te beheersen. Die ambitie is nu alweer teruggeschroefd. Hoe sterk het regelgevend wordt, is nog voer voor discussie. Woensdag presenteerde de Europese Commissie wel haar plannen op vlak van kunstmatige intelligentie in de vorm van een zogenaamd witboek.

Hierin staan verschillende opties voor Europese regels over kunstmatige intelligentie, waarbij een opdeling wordt gemaakt tussen toepassingen met hoge en lage risico’s.

  • Een vrijwillig label voor toepassingen met een ’laag risico’.
  • Het aanpassen van bestaande regels voor productveiligheid en -aansprakelijkheid om ook producten en diensten op basis van kunstmatige intelligentie te dekken.
  • Nieuwe regelgeving voor toepassingen met ‘hoge risico’s’ met onder andere voorschriften op vlak van menselijk toezicht en transparantie.

Vestager vs Breton

Er lijken nog steeds verschillende visies te bestaan binnen de Europese Commissie. Aan de ene kant staat Margrete Vestager. Zij wees onlangs in haar speech voor de Tweede Kamer nog op het belang van een sterk ethisch kader voor AI en het belang van menselijke controle. Aan de andere kant staat Thierry Breton, tot voor kort CEO van IT-bedrijf Atos. Hij stelt zich erg terughoudend op als het om bindende regels gaat.

Volgens Breton zijn we op vlak van kunstmatige intelligentie verwikkeld in een race met de VS en China. Maar een ‘race’ met de digitale totalitaire staat in China of het surveillancekapitalisme in de VS is een riskante voorstelling van zaken. Als we Europese waarden zoals privacy, duurzaamheid en sociale rechten serieus nemen, zetten we die niet op het spel omdat we anders de ‘wedstrijd’ zouden verliezen.

Het dilemma dat achter deze tweespalt schuilgaat: gaan we reguleren om de risico’s voor mensen te beperken, innovatie te sturen en laten we ethische toepassingen bij twijfel niet op de markt toe? Of laten we de markt zoveel mogelijk vrij om zich te ontwikkelen en proberen we achteraf in te grijpen als het nodig is?

Ik ben ervan overtuigd dat we de ontwikkeling van kunstmatige intelligentie niet aan de markt alleen kunnen overlaten. Kunstmatige intelligentie kan zowel worden ingezet voor de ontwikkeling van autonome wapens én voor de efficiëntere opwekking en verdeling van hernieuwbare energie; voor betere medische diagnoses én voor automatische beurstransacties die het financieel flitskapitalisme verder versterken. We weten al lang dat technologie niet neutraal is.

Voorzorgsprincipe

We moeten ervoor zorgen dat kunstmatige intelligentie ons helpt om de grote vraagstukken van deze tijd op te lossen, in plaats van nieuwe problemen te creëren. Dit doen we door het voorzorgsprincipe voorop te stellen en de mogelijke langetermijnimpact op ethisch, sociaal en milieuvlak mee te nemen in een vroege fase van de ontwikkeling van nieuwe technologieën. Zo sturen we deze technologische revolutie in de juiste richting. Krachtige regels op ethisch vlak voor kunstmatige intelligentie zorgen ook voor wettelijke zekerheid en een stabiel investeringsklimaat. Een actieve industriepolitiek die inzet op toepassingen die goed zijn voor mens en planeet is hoe een succesvolle Europese benadering van kunstmatige intelligentie er voor mij moet uitzien.

Dit is nou net niet de positie die Nederland tot nu toe inneemt in het debat over kunstmatige intelligentie. Het kabinet zegt dat de mens centraal moet staan bij de ontwikkeling van kunstmatige intelligentie, maar bepleit tegelijkertijd bij de Europese Commissie een ‘learning approach’ waarbij tijdens de ontwikkeling van de technologie wordt gemonitord en er dus pas later wordt gekeken of regelgeving nodig is. Ik vrees dat we ons met deze houding te veel uitleveren aan de goodwill van bedrijven die uiteindelijk winsten boven maatschappelijk belang stellen.