Achtergrond

Artificiële intelligentie: ‘We moeten opnieuw kritisch leren denken’

Geert Schuermans

Met ChatGPT als trekker is artificiële intelligentie niet uit de media te slaan. Maar wat is artificiële intelligentie? Hoe zal het ons toekomstig leven veranderen? En wat betekent het voor sociale professionals? Katleen Gabriels, moraalfilosofe gespecialiseerd in computerethiek, beantwoordt deze cruciale vragen.

Dossier:  
Katleen Gabriëls

© ID / Mies Cosemans

Kunstmatige intelligentie

“Het is zomer”, lacht Katleen Gabriels. Ze heeft het niet over de hete temperaturen deze zomer, wel over de razendsnelle ontwikkelingen die zich op het vlak van artificiële intelligentie afspelen.

“Als het enthousiasme daalt en de evoluties stokken, spreken we in mijn vakgebied over een winter. Maar vandaag is het dus een zomer, misschien ook omdat door ChatGPT, de chatbox die dankzij kunstmatige intelligentie kwaliteitsvolle teksten genereert, journalisten zich zorgen maken dat ze overbodig worden.”

‘Algoritmes hebben het moeilijk om emoties van gebruikers juist te interpreteren.’

Katleen Gabriels is een Vlaamse die in Nederland is verzeild. Aan de Universiteit van Maastricht is ze sinds 2020 opleidingsdirecteur van de opleiding ‘Digital Society’. Gabriels is ook auteur van het boek ‘Regels voor robots. Ethiek in tijden van AI’ dat initieel een introductie techniekfilosofie voor ingenieursstudenten was, maar uiteindelijk een veel breder publiek vond. Vandaag zitten we voor een ouderwets een-op-een-gesprek in haar bureau in Maastricht.

Laten we beginnen met een domme vraag: wat is artificiële intelligentie?

“Dat is helemaal geen domme vraag, maar om het goed te begrijpen moeten we even terug in de tijd.”

“In de jaren 1950 en 1960 werd intelligentie gelijkgesteld met cognitieve intelligentie. Wanneer was iemand verstandig? Als hij goed kon schaken. Vandaar dat toen de schaakcomputers het levenslicht zagen. Dat was een vorm van top-down leren: het systeem kreeg een heel aantal regels ingevoerd en moest op basis daarvan oplossingen voor problemen vinden, in dit geval op een schaakbord.”

“Vandaag is intelligentie een multidimensionaal begrip. Het cognitieve is belangrijk, maar het staat naast het sociale en het emotionele. Dat maakt dat het onderzoek naar artificiële intelligentie ook bredere toepassingen kent. Zo is er de chatbot Woebot die op basis van cognitieve gedragstherapie berichten kan sturen naar mensen met stress, angst of symptomen van depressie.

Dat klinkt al ver gevorderd.

“Dat valt wel mee. Het voordeel van zo’n bot is dat die dag en nacht beschikbaar is. Maar het algoritme vervangt nog lang geen therapeut. De berichten zijn heel beperkt, denk aan zinnen als ‘Hoe voel je je vandaag?’. Bovendien heeft het algoritme het moeilijk om de emoties in de antwoorden van gebruikers juist te interpreteren.”

Is dat zo complex? Griekenland test al programma’s die de emoties van migranten herkennen. Hiermee wil men beslissen of zij al dan niet het land binnen mogen.

“En dat is zorgwekkend, want die systemen van emotieherkenning zijn absoluut niet betrouwbaar. Dat is ook niet vreemd. Emoties zoals geluk, verdriet of schuldgevoel zijn enorm complex. Het is voor een mens al moeilijk om in te schatten wat iemand anders voelt, laat staan dat een computerprogramma dat accuraat zal kunnen.”

‘Het is voor een mens al moeilijk om in te schatten wat iemand anders voelt, laat staan dat een computerprogramma dat accuraat zal kunnen.’

“Je kan geen regels bedenken over hoe empathisch mensen zijn. Daarom leren die programma’s bottom-up, zoals trouwens bijna alle systemen van artificiële intelligentie waar we vandaag zoveel over horen.”

Hoe verschilt dat bottom-up leren van het top-down leren?

“Als je een systeem wil leren wat een kat is, voer je bij top-down leren regels in over hoe een kat eruit ziet: ze heeft snorharen, een vacht, vier poten… Bij bottom-up leren voed je het systeem met honderdduizenden foto’s van katten. Op die manier leert het systeem zichzelf om een kat te herkennen.”

En zo’n bottom-up systeem werkt beter?

“Deze vormen van ‘machine’ en ‘deep learning’ kunnen erg performante systemen ontwikkelen. Dat maakt dat het zelflerend vermogen van artificiële intelligentie nu veel meer nadruk krijgt. In de geneeskunde bijvoorbeeld voeden ze een algoritme met foto’s van melanomen. Dat systeem is in staat om deze gevaarlijke vorm van huidkanker beter te herkennen dan dermatologen.”

Voorwaarde is dan wel dat je die duizenden foto’s van melanomen of katten hebt.

“Maar die hebben we vandaag. Je kunt de recente doorbraken in artificiële intelligentie niet los zien van ontwikkelingen op het vlak van sociale media, mobiel internet en het ‘internet of things’: het netwerk aan apparaten dat via internetverbindingen met andere apparaten in contact staat en met elkaar gegevens uitwisselen.”

‘Je kunt de recente doorbraken in artificiële intelligentie niet los zien van ontwikkelingen op het vlak van sociale media.’

“Of je dat nu wilt of niet, wanneer je op Facebook of TikTok zit, wanneer je een zoekterm in Google ingeeft, maar ook wanneer je locatieherkenning op je telefoon opstaat… zijn er allerlei systemen die je data oogsten en doorsturen naar bedrijven die deze vervolgens verkopen of gebruiken voor de ontwikkeling van hun producten.”

Artificiële intelligentie

“Wanneer je op Facebook of TikTok zit, wanneer je een zoekterm in Google ingeeft, maar ook wanneer je locatieherkenning op je telefoon opstaat… zijn er allerlei systemen die je data doorsturen naar bedrijven die deze verkopen of gebruiken voor hun producten.”

© ID / Mies Cosemans

Is ChatGPT ook een systeem dat op onze data draait?

“Jawel. ChatGPT is getraind met enorme bergen tekst. Uit al die teksten leerde het hoe taal in elkaar steekt. Het begrijpt geen inhoud, maar werkt puur statistisch. ChatGPT berekent razendsnel welk stuk tekst bij een ander stuk tekst past, binnen de context van een vraag die je stelt.”

“Tussen haakjes: het bedrijf achter ChatGPT heeft nooit toestemming gevraagd om al die teksten te gebruiken, laat staan auteursrechten betaald. Om het nog erger te maken: de mensen die het systeem trainden, wonen in in lage loonlanden en werden dus zwaar onderbetaald. De arrogantie van BigTech is oneindig.”

Het systeem heeft dus een keerzijde?

“Ik moet er geen tekening bij maken dat het massaal verzamelen van data privacyproblemen veroorzaakt. Bovendien moet je opletten op basis van welke datasets een algoritme leert. Als die dataset vooringenomen is, kunnen de schijnbaar neutrale beslissingen van een systeem toch verschrikkelijk discriminerend zijn.”

‘Het massaal verzamelen van data veroorzaakt privacyproblemen.’

“In mijn boek ‘Regels voor robots’ geef ik het voorbeeld van een Google algoritme dat leerde op basis van een set foto’s van gezichten. Alleen gebruikten de makers enkel foto’s van witte mensen. Het gevolg was dat het systeem mensen met een donkere huidskleur als gorilla’s labelde.”

Dat is ronduit racistisch.

“Zeer zeker. Maar vaak is de discriminatie subtieler. Zo bleek uit onderzoek dat Google, als de zoekmachine je geslacht weet, vrouwen stelselmatig minder vaak vacatures aanbood voor goedbetaalde jobs. De vooroordelen die in je dataset zitten, zul je altijd terugvinden in de uiteindelijke beslissingen van je systeem.”

Artificiële intelligentie is dus niet noodzakelijk neutraal?

“Nee, en dat heeft niet alleen met de dataset te maken, maar ook met de makers. Denk aan de toeslagenaffaire in Nederland, waarvan het me nog steeds verbaast hoe weinig aandacht die in België krijgt.”

‘De toeslagenaffaire heeft in Nederland duizenden onschuldige gezinnen de ellende ingestuurd.’

“Het begon allemaal met een groep Bulgaren die een manier hadden om de overheid op te lichten. Het ging om een kleine groep, maar zoals dat zo vaak gaat, wordt dat beperkt aantal fraudeurs de norm. Bij het Nederlandse Ministerie van Financiën ontwikkelden programmeurs daarop een algoritme dat mensen in het oog hield. Alleen was dat algoritme niet neutraal: mensen met een dubbele nationaliteit of een ‘exotisch’ klinkende naam werden extra gecontroleerd.”

“Vanaf de kleinste vergissing in hun aanvraag kregen ze een boete en moesten ze enorme bedragen terugbetalen. Dat systeem heeft duizenden onschuldige gezinnen de ellende ingestuurd, zeker omdat een fout meteen als ‘fraude’ werd beschouwd.”

Dat is toch verschrikkelijk.

“Iedereen heeft zijn blinde vlekken, ook jij en ik. We nemen allemaal onze leefwereld als norm. Dat heeft ook zijn effect op ons werk. Ik wil deze schandalige praktijk niet vergoelijken, maar het is een probleem van alle tijden.”

‘Wat voor witte mannen evident is, is dat niet altijd voor vrouwen of voor mensen van kleur.’

“Toen de Amerikaan Theophilus Van Kannel eind 19e eeuw de draaideur uitvond, kreeg hij daarvoor vele prijzen. Zijn uitvinding hield op een ingenieuze manier de koude buiten waardoor we op verwarming konden besparen. Een fantastisch idee. Alleen niet voor vrouwen die een kinderwagen duwen, of ouderen met een wandelstok. Maar die kinderwagens en wandelstokken maakten geen deel uit van de leefwereld van Theophilus.”

“Het toont dat we altijd die intersectionele bril moeten opzetten bij de waardering van nieuwe technologie. Wat voor witte mannen evident is, is dat niet altijd voor vrouwen of voor mensen van kleur.”

Artificiële intelligentie

“In Vlaanderen heeft Mediawijs een goed aanbod over digitaal opvoeden. Dat is ook nodig, want we overschatten de vaardigheden en kennis van mensen danig.”

© ID / Mies Cosemans

Heeft sociale klasse ook een plaats in die intersectionele benadering van artificiële intelligentie?

“Dat is een moeilijke vraag. Je kunt je team ontwerpers diverser maken door vrouwen en mensen van kleur mee aan tafel te zetten, maar hoe betrek je kortgeschoolden in een hoogtechnologische setting waar kennis en opleiding de kern van de zaak uitmaken?”

‘We moeten allemaal met artificiële intelligentie leren omgaan.’

“Ik heb er geen afgelijnd antwoord op, behalve dat wanneer je het design van artificiële intelligentie inclusiever wilt maken, je best zo vroeg mogelijk in het proces kritische vragen stelt. Alleen is dat in een commerciële setting waar alles op snelheid en winst gericht is, niet evident.”

En als het ontwerp toch fout zit, is het aan de gebruiker om zich te beschermen?

“We moeten allemaal met artificiële intelligentie leren omgaan. Maar dat is niet evident, zeker voor kwetsbare groepen. Nog niet zo lang geleden deed ik samen met professor Tom Claes (UGent) onderzoek naar wraakporno en deepfakes. En daaruit bleek dat je je privacy goed moet beschermen, alleen vereist dat middelen en kennis. Die apps zijn duur en je moet weten welke de goede technologie is. En dat is jammer genoeg niet voor iedereen weggelegd.”

Gelukkig hebben jongeren meer digitale kennis en vaardigheden om zich uit de slag te trekken.

“Daar ben ik nog niet zo zeker van. Het is niet omdat je weet hoe je snel kan scrollen dat je op een veilige of kritische manier met artificiële intelligentie overweg kan. In Vlaanderen heeft Mediawijs een goed aanbod over digitaal opvoeden. Dat is ook nodig, want we overschatten de vaardigheden en kennis van mensen danig.”

Werk aan de winkel voor het onderwijs.

“Absoluut, maar het moet wel anders. We hebben in het onderwijs te lang gemikt op vaardigheden, en te weinig op kennis. Die fout betalen we vandaag cash. We hebben te lang naar de verkeerde mensen geluisterd. En dan bedoel ik niet enkel de pretpedagogen, maar ook de techneuten. Het komt er niet op aan om de modernste technologie in de klas te hebben. Wel moeten we kinderen en jongeren opnieuw kritisch leren lezen en denken. En dat kan je ook zonder laptop doen.”

Pak je dit ook aan in je eigen lessen?

“Ik ben in mijn colleges ook te laks geweest. Lange tijd dacht ik: het zijn volwassenen, ze zijn groot genoeg. Maar dat was gemakzucht. Studenten kunnen dit niet vanzelf, ze moeten begeleid worden.”

‘Ik maak me echt zorgen om ons dalende concentratievermogen.’

“Aan het begin van mijn lessen hebben we hier dus een gesprek over, en wanneer iemand een presentatie geeft, gaan de laptops dicht. Uiteraard mogen studenten nota’s nemen tijdens presentaties, maar dan wel met pen en papier. Anders zitten ze misschien op hun sociale media, die verlokking is reëel.”

“Weet je trouwens dat de Nederlandse regering onlangs een dringend advies heeft uitgevaardigd om smartphones in Nederlandse scholen te verbieden? Ik maak me echt zorgen om ons dalende concentratievermogen.”

Is het niet treurig dat onze knapste koppen bezig zijn met manieren te bedenken om ons zo lang mogelijk op sociale media te houden?

“Natuurlijk. Stel je voor dat ze zich zouden bezighouden met klimaatverandering of armoedebestrijding. Alleen zijn BigTech bedrijven aantrekkelijke werkgevers.”

“Grote spelers als Meta, Google en Bytedance hebben er ook alle belang bij om onze aandacht zo lang mogelijk te kapen. Het is hun verdienmodel. Daarom is de oplossing een en-en-en-verhaal: en ethisch design, en kritischer onderwijs, en regulering door de overheid.”

Ik kan me voorstellen dat BigTech dat met hun lobbymachine zal tegengaan.

“Dat doen ze al. In Brussel zitten onnoemelijk veel duurbetaalde lobbyisten die een strengere Europese wetgeving moeten tegengaan. Maar het feit dat bedrijven hier veel geld in steken, wil zeggen dat ze vrezen dat die wetten zullen werken.”

Geloof jij dat ook?

“Toch wel. De GDPR-wetgeving, die het beheer en de beveiliging van persoonlijke gegevens regelt, is daar een goed voorbeeld van. GDPR is verre van perfect, maar het heeft op zijn minst een mentaliteitswijziging op gang gebracht. We zijn er ons veel meer bewust van dat onze data onze eigendom zijn, en niet die van bedrijven. Ik hoop dat nieuwe wetgeving rond artificiële intelligentie ook zo’n effect zal hebben.”

‘BigTech zal niet op de overheid wachten. Daarvoor zijn hun belangen te groot.’

“Er is een Europese verordening op komst die kunstmatige intelligentie moet reguleren: de AI Act. Het zal de nieuwe vormen van technologie in categorieën plaatsen, van laag tot hoog risico. AI wat in deze laatste categorie valt, denk bijvoorbeeld aan systemen die aan biometrische identificatie doen, zal verboden worden.”Van website Autoriteit Persoonsgegevens Nederland: “Voorbeelden van biometrische persoonsgegevens zijn vingerafdrukken of gezichtsafbeeldingen. Deze lichaamskenmerken zijn uniek. Dat betekent: te herleiden naar een individu. Daarom kunnen organisaties biometrie gebruiken om mensen te identificeren. En ook om te controleren of iemand is wie diegene zegt te zijn (authenticatie). Omdat biometrische gegevens uniek zijn, leveren deze gegevens hoge risico’s op voor de privacy van mensen.”

Katleen Gabriëls

“De evaluatie van artificiële intelligentie maken, is een complex en genuanceerd verhaal omdat de context zo belangrijk is. Het gaat erom hoe je deze technologie gebruikt in je organisatie of als overheid.”

© ID / Mies Cosemans

Je klinkt optimistisch.

“De nieuwe regels bepalen ook dat je als persoon altijd moet weten wanneer je met een systeem van artificiële intelligentie aan het communiceren bent. Dat is om bedrog tegen te gaan. Ik ben ervan overtuigd dat dit een stap vooruit is, maar we moeten beseffen dat de wetgever steeds achteroploopt. BigTech zal niet op de overheid wachten. Daarvoor zijn hun belangen te groot.”

Is het punt niet dat die bedrijven een te grote invloed hebben op onze samenleving, zonder dat we er echte democratische controle over hebben?

“Dat is inderdaad de essentie van de zaak. Maar maak je geen illusies, het is een utopie om bijvoorbeeld nu nog een Europese publieke Facebook te ontwikkelen. Zo werkt het niet. Bovendien moet je de vraag stellen of je dit wel in handen van een overheid wilt. In China is dat het geval en daar worden de datasystemen gebruik om ‘goede’ burgers van de ‘slechte’ te onderscheiden.”

‘Artificiële intelligentie is geen magie, mensen dichten het allerhande kwaliteiten toe die er nog niet zijn.’

“Ik zie wel een aantal hoopvolle signalen, bijvoorbeeld het feit dat er steeds meer spijtoptanten opduiken. Nog niet zo lang verliet Geoffrey Hinton, één van de pioniers van artificiële intelligentie, Google omdat hij bezorgd is over de gevolgen van deze technologie op onze democratie. Voor mij geeft dat toch aan dat er een groter bewustzijn ontstaat bij de mensen in het wereldje. Ik vind dat belangrijk, want artificiële intelligentie biedt ook enorm veel kansen op vooruitgang. En we mogen het kind niet met het badwater weggooien.”

Zijn er toepassingen die sociale professionals in zorg en welzijn kunnen helpen?

“Artificiële intelligentie is geen magie, mensen dichten het allerhande kwaliteiten toe die er nog niet zijn. Dat gezegd, zijn er inderdaad wel positieve ontwikkelingen. Ik denk aan programma’s zoals Spotter of Otiom dat op basis van een locatietracker de bewegingsvrijheid en dus de levenskwaliteit van mensen dementie kan verhogen.”

In Vlaanderen willen onderzoekers een algoritme ontwikkelen dat maatschappelijk werkers advies geeft over het wel of niet toekennen van een leefloon. Dat zou tijd uitsparen die vrijkomt voor echte begeleiding.

“Dat klinkt goed. Artificiële intelligentie kan systemen en processen inderdaad efficiënter maken. Maar daarom is het niet automatisch een goede evolutie, dat hangt van de context af. Hebben die sociaal werkers een manager die hen toestaat de gewonnen tijd in begeleiding te steken? Of snoeit hij straks hun jobs weg om kosten te besparen?”

“De evaluatie van artificiële intelligentie maken, is een complex en genuanceerd verhaal omdat de context zo belangrijk is. Het gaat erom hoe je deze technologie gebruikt in je organisatie of als overheid.”

Reacties [1]

  • Paul Jando

    Gelukkig dat als mensen emoties inschatten, het resultaat altijd zo betrouwbaar is dan. In bijna elk individueel probleem zijn computers beter, niet slechter, dan mensen. Dat geldt ook voor emoties inschatten.

    Het is een bekend fenomeen dat blanken die tijdens hun jeugd niet met zwarten te maken hadden moeite hebben om zwarte personen uit elkaar te houden. Het omgekeerde is ook waar. Het grote verschil met dat algoritme van Google … is dat Google dat even kon fixen, terwijl er veel dingen zijn die mensen, eenmaal verkeerd geleerd, nooit zullen fixen (zoek op “kritische periode”)

    Ik vind het bijna verachtelijk dat je zo de Nederlandse belastingsdienst hun onschuld laat claimen. Voor alle duidelijkheid: DE MENSEN waren racistisch, en gebruikten algoritmes om dezelfde inschatting te maken als zij zelf zouden doen …

    De Nederlandse staat heeft dat algoritme aangeleerd racistisch te reageren. Ook dat kan gefixed worden. Wedden dat er een of andere reden is dat dat nog niet gebeurd is?

We zijn benieuwd naar je mening!
Blijf hoffelijk, constructief en respectvol

 

Elke reactie wordt gemodereerd. Lees hier onze spelregels. Je e-mailadres wordt niet gepubliceerd.