Achtergrond

AI en sociaal werk: handig hulpmiddel of bedreiging?

Seppe Vanhex

Artificiële intelligentie is alomtegenwoordig. Hier en daar duikt het ook op in het sociaal werk. Dat roept de vraag op: wanneer is AI een handig hulpmiddel, vergelijkbaar met een rekenmachine, en wanneer vormt het een bedreiging voor de relationele kern van het sociaal werk? Seppe Vanhex (SAAMO Limburg) schetst een ethisch afwegingskader met groene, oranje en rode lichten.

© Unsplash / Nahrizul Kadri

Meer tijd voor cliënten dankzij AI

Recent kondigde het OCMW van Kortrijk aan dat het AI wil inzetten ter ondersteuning van gesprekken met cliënten, met als doel de administratieve druk voor sociaal werkers te verlagen. Niet veel later kwam ook Mechelen in de media met het nieuws dat sociaal werkers er voortaan een dag papierwerk per week uitsparen dankzij een AI-tool.

‘Blind enthousiasme ligt op de loer, maar ook koudwatervrees helpt ons niet vooruit.’

In beide gevallen zou het resultaat zijn: meer tijd voor cliënten. Het debat dwingt sociaal werkers om kleur te bekennen. Want hoe verhoud je je tot een machine die meedenkt, maar gevoed wordt door data die allesbehalve neutraal zijn? Blind enthousiasme ligt op de loer, maar ook koudwatervrees helpt ons niet vooruit.

Ik besloot recent de proef op de som te nemen. Wat volgt is een persoonlijke reflectie, een eerlijk relaas van een zoektocht die hopelijk inspiratie biedt voor andere sociaal werkers. In plaats van AI klakkeloos te omarmen of resoluut af te wijzen, ging ik op zoek naar een werkbaar evenwicht. Dat resulteerde in een persoonlijk ethisch afwegingskader met rode, oranje en groene lichten: een stoplichtenmodel waarmee ik houvast wil bieden aan sociaal werkers die onderweg zijn met AI.

Van weerstand naar experiment

Ik ga eerlijk zijn. Nog niet zo lang geleden voelde ik vooral weerstand. Of ik AI zou toelaten in mijn job als sociaal werker? Dat leek mij een brug te ver. Ik zag ChatGPT vooral als een opgepoetste Google: handig misschien, maar hoort absoluut niet thuis in wat ik beschouw als mijn kritisch en relationeel mensenwerk.

Sociaal werk is 100 procent mensenwerk. Punt. En als ik AI zou toelaten, zou ik mezelf dan niet 100 procent verloochenen? Dat was mijn overtuiging. Tot enkele maanden geleden.

‘Mijn kritische haren gingen meteen rechtop staan.’

Een collega gaf een introductie over AI tijdens een collectief forum binnen onze organisatie. We gingen ook praktisch aan de slag. In groepjes discussieerden we over maatschappelijke thema’s – zoals de beperking van de werkloosheid in de tijd – aan de hand van pro- en contra-argumenten: allemaal door AI gegenereerd.

Mijn kritische haren gingen meteen rechtop staan. Kunnen, of mogen, we immers argumenten laten aanreiken door een machine als we weten dat AI gevoed wordt door menselijke input? En als we weten hoe sterk bepaalde ideologische hoeken vandaag aanwezig zijn in de data waar AI mee getraind wordt? De onthullingen rond Cambridge Analytica en de poging tot beïnvloeding van de Amerikaanse verkiezingen van 2016 lijken ondertussen ver weg, maar wie garandeert ons dat dergelijke mechanismen vandaag niet nog subtieler en krachtiger spelen?

Toch merkte ik dat mijn wantrouwen ook iets anders in gang zette: een constructieve vorm van kritisch bewustzijn. Ik wilde niet alleen scherp krijgen waarom AI voor mij op sommige vlakken absoluut geen plaats heeft, maar ook onderzoeken waar en hoe ik het eventueel wél zou kunnen inzetten. En zo groeide de afgelopen maanden, al experimenterend, een voorlopig afwegingskader met rode, oranje en groene lichten.

Rood licht: mijn sociaal kompas blijft mensenwerk

Als sociaal werker wil en mag ik nooit neutraal zijn tegenover politiek en beleid. AI is evenmin neutraal.

Mijn rode lijn is dan ook helder: mijn sociaal kompas wil ik zuiver houden van AI-ruis. Het moet scherp gericht blijven op het bestrijden van sociale ongelijkheid en het versterken van sociale grondrechten.

‘Mijn sociaal kompas wil ik zuiver houden van AI-ruis.’

Wanneer ik pro- en contra-argumenten wil verzamelen over een politiek thema, wil ik zelf de volledige regie behouden. Regie over de bronnen, over het interpretatiekader en over de vraag welke impact bepaalde argumenten hebben op mensen in kwetsbare situaties.

Die kritische duiding is en blijft voor mij essentieel mensenwerk.

Oranje licht: voorzichtig, met regie en eigenaarschap

In mijn werk als opbouwwerker werk ik sterk procesmatig met groepen. Dat vraagt een open, niet-georkestreerde houding: bottom-up, afgestemd op de mensen die voor me zitten. Authenticiteit is daarbij cruciaal.

Mijn experimenten met AI leerden me dat ik vooral eigenaar moet blijven van interpretatie en taal. Zo zal ik nooit een volledig groepsgesprek laten analyseren door een AI-bot, maar misschien wel een afgelijnd deelaspect. Mijn bind- en vormingsteksten schrijf ik zoveel mogelijk zelf. Ze moeten vooral persoonlijk aanvoelen.

‘Zit ik vast in een negatieve denkflow, dan laat ik de machine bewust los.’

Ook bij verplichte rapportages of projectoproepen balanceer ik soms op een oranje lijn. Al wie ooit vijftien deelrubrieken moest invullen voor een kleine subsidieaanvraag, herkent de reflex om je hier zo snel mogelijk van af te willen maken. Dan kan een tool zoals ChatGPT helpen om snelheid te maken. Maar: vooraf vat ik wel altijd zelf op één pagina het waarom, de doelstellingen, de acties en de beoogde impact samen. Anders wordt het mistig wat uit mijn koker komt, en wat AI verzon.

Daarnaast gebruik ik ChatGPT soms als spiegel voor persoonlijke reflecties. Gedachten neerschrijven en laten herformuleren kan immers verhelderend werken, zolang dat gebeurt vanuit een positieve, stabiele mindset. Zit ik vast in een negatieve denkflow, dan laat ik de machine bewust los. Zonder duidelijke regulering vertrouw ik vandaag niet op de wildgroei aan zogenaamde AI-therapeuten.

Groene lichten: slimme hulpmiddelen, geen vervangers

Op de groene lijn denk ik aan AI-tools zoals aan de rekenmachine of de spellingcorrector: als slim hulpmiddel dat ruimte creëert om meer focus te leggen op inhoud.

Concreet gaat het bij mij vooral om tekstverwerking in de brede zin: teksten omzetten naar heldere taal, zoeken naar sterke titels, creatieve woordspelingen of betere formuleringen. Ik ga alvast niet ontkennen dat AI voor dit opiniestuk een handig hulpmiddel is geweest om mijn initiële pennenvrucht van moeilijke zinnen en verkeerde spreekwoorden te ontdoen.

Maar ook functionele samenvattingen, het destilleren van doelstellingen of gerichte zoekacties kunnen voor mij een plaats krijgen – zolang ik zelf de regie behoud.

En tot slot gebruik ik AI wel eens bij research voor beleidsnota’s om snel in te schatten of wetenschappelijke artikels relevant kunnen zijn. Hoe meer praktijkgericht onderzoek ik kan meenemen, hoe sterker immers het politieke draagvlak. Let wel: AI maakt hier enkel een eerste selectie.

Terug naar Mechelen en Kortrijk

Concrete praktijken maken het debat tastbaar. Zo spaart de sociale dienst in Mechelen nu dus één dag per week papier uit door administratieve processen te digitaliseren. Dat krijgt van mij duidelijk een groen licht: een efficiënt hulpmiddel dat ruimte kan creëren voor meer inhoudelijk mensenwerk, zonder in te grijpen in de relatie met cliënten.

Die tijdswinst heeft voor mij enkel betekenis als ze ook effectief terugvloeit naar cliëntenbegeleiding. Meer ruimte voor gesprekken, huisbezoeken, samen naar de markt gaan of gewoon aanwezig kunnen zijn. Ik ben namelijk bezorgd dat vrijgekomen tijd in de praktijk al te snel opgeslorpt wordt door een steeds grotere dossierlast. Als cliënten daar uiteindelijk niets van voelen, missen we de essentie.

Het initiatief in Kortrijk, waar AI ondersteuning zou bieden tijdens gesprekken met cliënten, schuift dan weer richting oranje. De intentie – administratieve druk verlagen – is begrijpelijk, maar hier is waakzaamheid nodig. Mits toestemming van de cliënt, wordt het gesprek opgenomen en automatisch verwerkt tot een verslag. Net onder hoge werkdruk schuilt daar een risico: dat sociaal werkers sneller geneigd zullen zijn om interpretatie en duiding aan de AI over te laten.

In Mechelen daarentegen blijft de regie duidelijk bij de maatschappelijk werker, die na het gesprek zelf het verslag inspreekt en verwerkt. Voor mij maakt dat een wezenlijk verschil. Waar de sociaal werker eigenaar blijft van taal, betekenis en keuzes, brandt voor mij een helder groen licht. Waar die regie dreigt te verschuiven, knippert het oranje.

Leren omgaan met hulpmiddelen

Zoals kinderen op school nog steeds leren hoofdrekenen en schrijven, lijkt het mij essentieel dat sociale professionals kritisch leren schrijven en bronnenonderzoek doen. Want laten we die basiskennis los, dan riskeren we roekeloos de wilde rivier in te varen. Zoals mensen die ooit blindelings hun GPS volgden, met alle gevolgen van dien.

Ik ben benieuwd naar de ervaringen van andere sociaal werkers. Hoe verloopt jouw zoektocht in relatie tot AI? Bots jij op gelijkaardige vragen, of net op andere ethische dilemma’s? Kom jij jezelf ook tegen in dit debat?

AI kan ons ondersteunen. Maar het sociaal werk? Dat blijft vooral mensenwerk.

Reacties [3]

  • Lyne Uytterhoeven

    Ik was eveneens kritisch en terughoudend, en volgde daarom een vorming rond het gebruik van AI in sociaal werk. Nu, ongeveer een half jaar later, zie ik dat ik AI heb leren inzetten zoals Seppe beschrijft ‘als een rekenmachine’, waarmee ik erover waak om volop in die groene zone te blijven. Als ik bvb vroeger voor een cliënt een brief in het Frans moet schrijven aan de gemeente of huisbaas, was ik daar soms tot langer dan een uur mee bezig. Nu kan ik een opdracht ingeven in het Nederlands, de argumenten aangeven, en op 5′ een geheel anonieme Franse brief verkrijgen die qua taal beter is dan ik kan schrijven. Nog 10′ werk aan opmaak en toevoeging van persoonsgegevens en mijn brief is klaar. Voor mij is de rode lijn alles wat onder het beroepsgeheim valt. Ik zou nooit gesprekken laten opnemen door AI, we hebben geen enkel idee wat AI met die gegevens kan doen. Bedankt voor dit heldere artikel.

  • Luc Lampaert

    Seppe maakt de meest gemaakte fout: denken dat AI hem kan helpen in het automatiseren van taken en hem zo meer tijd te geven voor zijn menselijke contacten. Hij negeert dat door AI in te zetten hij geen ademruimte meer heeft. Letterlijk. Zodoende zal hij harder moeten werken en wellicht kan zijn team het met een persoon minder. Een tweede grote fout die hij maakt, is denken dat AI intelligent is. Dat is het tot op heden niet. Zelf AGI kopieert wat wij er samen in steken. De derde grote fout die hij maakt, is denken dat het allemaal goed bedoeld is. Voor alle duidelijkheid: alle nieuwe technologie is eerst militair. Vandaag wordt AI massaal gebruikt in Oekraïne en Gaza. Willen we echt oorlogstuig gebruiken als sociaal werker? En dan heb ik het nog niet gehad over de miljardairs die staan te popelen om in de AI-race te stappen. Waarom zouden zij dat doen?
    Meer info in het Frans: Unesco – Asma Mhalla : les enjeux et les perspectives de l’IA – https://www.youtube.com/watch?v=dp5Yga_WKng

  • Gwenn Meert

    Wat een heldere analyse! AI kan een handig werkmiddel zijn, mits het met goede intenties gecreëerd wordt. Ik ben daarom fan van; niets voor ons door ons. Tijdens mijn opleiding sociaal werk ontwikkelde ik samen met andere studenten een eigen AI tool. Het doel was regelgeving en info verzamelen over het tewerkstellen van mensen met een beperking. Ook werkgevers zonder sociale achtergrond konden er al hun vragen op afvuren. Wat dit zo’n “groen licht” gaf, was dat wij de volledige controle hadden over de AI. De bronnen hadden we handmatig geselecteerd. Met een tool zoals chat GPT heb je meer risico op foutieve antwoorden. De controle zit elders. Volgens mij mag het sociaal werk zeker openstaan voor artificiële hulp, mits, en dat gaf je zelf ook aan, er kritisch naar gekeken wordt én de juiste vragen errond gesteld worden. Het loont echt.

We zijn benieuwd naar je mening!
Blijf hoffelijk, constructief en respectvol

 

Elke reactie wordt gemodereerd. Lees hier onze spelregels. Je e-mailadres wordt niet gepubliceerd.