Verslag symposium AI en goede doelen

Veel kansen, maar ook (ethische) risico’s

AI ontwikkelt zich stormachtig. Wat gaat daarvan de impact zijn op het werk van goede doelen en op het intern toezicht? Die vraag stond centraal tijdens het symposium “Artificiële intelligentie en de uitdagingen voor goede doelen”, dat ITGD (Intern Toezicht Goede Doelen) en Goede Doelen Nederland op 7 december organiseerde in ING Cedar in Amsterdam.

Wie nog niet overtuigd was dat AI ook in de goede doelen sector vaste voet aan de grond gaat krijgen, denkt er na het symposium vast anders over. Jim Stolze, schrijver van een boek over AI en eigenaar van Aigency, een bedrijf dat AI-oplossingen levert aan bedrijven en overheden, trapte af met een pakkende presentatie waarin hij liet zien dat AI tot in de haarvaten van ons leven en werken gaat kruipen.

Dat was bij vlagen even schrikken. Stolze gaf voorbeelden van de verstrekkende mogelijkheden. Een bedrijf als Eleven Labs kan na analyse van een geluidsfragment van een stem bijvoorbeeld elke aangeleverde tekst geloofwaardig in deze stem uitspreken. HeyGen kan videopresentaties omzetten in een andere taal. Opeens blijk je ook Swahili te kunnen spreken. Het resultaat is niet van echt te onderscheiden. Handig voor multinationale bedrijven die hun trainingsvideo’s in meerdere landen willen toepassen, maar ook potentieel een krachtig instrument voor oplichters en verspreiders van desinformatie.

Prof. Dr. Cokky Hilhorst vindt dat goed bestuur van cruciaal voor de gehele levenscyclus van AI en data.

Minder ethische haken en ogen zitten er aan CoPilot, de AI-assistent van Microsoft, die is geïntegreerd in het Microsoft Office abonnement voor grote bedrijven. CoPilot neemt alledaagse taken uit handen en vraagt bijvoorbeeld bij het opstarten van Word wat voor tekst je wilt schrijven, om vervolgens binnen enkele seconden een draft te produceren. In Outlook kan de co-piloot een snelle samenvatting geven van de mails in de inbox. Rapport samenvatten? Ook dat is mogelijk.

De vragen die over dit soort toepassingen in de maatschappij leven borrelden ook in de zaal op. Hoe ethisch is dit allemaal? En hoe kunnen we ons wapenen tegen informatie die echt lijkt maar het niet is? Stolze koos ervoor toch vooral ook het positieve te benadrukken: AI vervangt mensen niet. Het kan het voorwerk doen, maar uiteindelijk is het de menselijke creativiteit, de menselijke invalshoek, die het verschil maakt.

Prof. Dr. Cokky Hilhorst, hoogleraar Business Information Systems en directeur van het Faculty Expertisecenter Accounting, Auditing & Control aan Nyenrode Business Universiteit, belichtte in haar presentatie de implicaties van de toepassing van AI bij goede doelen. Ze besprak de besluitvorming rondom het gebruiken van generatieve AI, de risicoafweging waarmee dat gepaard zou moeten gaan, en de impact op het intern toezicht. Wat haar betreft is goed bestuur cruciaal voor de gehele levenscyclus van AI en data.

Hilhorst gaf het publiek zeven overwegingen voor interne toezichthouders mee, wanneer AI een bedrijfskritisch risico is: 

  1. Zet AI periodiek op de agenda van het bestuur.

  2. Wijs managementverantwoordelijkheid toe.

  3. Creëer bewustzijn over verantwoord AI-gebruik en risico’s.

  4. Richt nalevingsstructuren in.

  5. Zorg voor periodieke updates over middelen voor AI-activiteiten, naleving van regelgeving en risicobeperking.

  6. Interne toezichthouders moeten geïnformeerd worden over ernstige AI-incidenten en status van belangrijke onderzoeken.

  7. Toezichts- en nalevingsinspanningen moeten worden gedocumenteerd en genotuleerd.

Twee organisaties die wat betreft het toepassen van AI in de voorhoede opereren zijn KWF Kankerbestrijding en WNF.

Miloud Ourahou, Marketing Tech Lead bij KWF Kankerbestrijding, vertelde hoe baanbrekend onderzoek naar vroegtijdige opsporing van kanker met behulp van AI wordt gefinancierd. De organisatie steunt bijvoorbeeld een aantal onderzoeken naar de inzet van AI bij borstkankerscreening.

Het Wereld Natuur Fonds (WNF) gebruikt een door AI-aangedreven voorspellend systeem om ontbossing te voorkomen, legde projectleider Jonas van Duijvenbode uit. Het systeem wordt getraind met behulp van historische radar satellietbeelden, topologische gegevens en sociaal economische data en genereert vervolgens een “hotzone” kaart van bedreigde bossen. Aan de hand daarvan kan WNF vervolgens interventies organiseren om ontbossing te voorkomen. WNF gebruikt daarnaast een AI-model dat dieren kan herkennen in grote hoeveelheden camera trap data.

Jim Stolze: ‘AI vervangt mensen niet’

In de wandelgangen van het symposium vertelde Jim Stolze dat de sector op het gebied van AI grote stappen aan het maken is. “In 2017 klopte ik al op deuren bij de goede doelen, om te praten over AI. Daar was toen nog weinig animo voor. Je ziet nu, bijvoorbeeld op een bijeenkomst als deze, dat organisaties betere vragen kunnen stellen en betere toepassingen kunnen bedenken voor AI.”

Dat beaamde Franck Erkens, de voorzitter van ITGD. “AI is op dit moment overal. Er zijn allerlei ethische vragen,” zei hij. “Aan de andere kant maakt het ons werk gemakkelijker, bijvoorbeeld wanneer tekst in een handomdraai kan worden voorbereid. Maar het vraagt wel goede controle. Allerlei processen en systemen gaan een enorme vlucht krijgen. Het is fijn dat we op dit symposium als bestuurders en toezichthouders in gesprek zijn gegaan over relevante ontwikkelingen op dit belangrijke, nieuwe terrein.”

Vorige
Vorige

ITGD nieuwbrief december 2023

Volgende
Volgende

Bedrijven kunnen leren van goede doelen