Bij ethische AI kun je je het beste richten op de ethiek, niet op de AI

Ondanks het potentieel om bedrijfsprocessen te versnellen en de efficiëntie te verhogen, kan kunstmatige intelligentie (AI) ernstige, onherstelbare schade toebrengen aan onze samenleving als het niet voorzichtig wordt gebruikt.

Onethische AI in wiskundige modellen die door organisaties worden gebruikt, kunnen vandaag de dag een dreiging vormen die minder opvallend is. Wat de vraag oproept: wat betekent het om AI verantwoord, eerlijk en ethisch te gebruiken?

We spraken met Julien Theys, Managing Partner van Agilytic, over de gevaren van misbruik van AI en hoe je AI kunt ontwikkelen voor het goede. Agilytic helpt bedrijven slimmer gebruik te maken van hun gegevens en bedenkt en ontwikkelt sinds 2015 AI-projecten voor verschillende sectoren.

Wat is ethische AI?

AI automatiseert de besluitvorming en zit in de alledaagse technologieën die we gebruiken, van Azure tot Amazon, Facebook en Google. Door taken te automatiseren waarvoor anders menselijke intelligentie nodig zou zijn, helpt AI ons nieuwe inzichten te verwerven, patronen te vinden en problemen op te lossen door het besluitvormingsproces geheel of gedeeltelijk te automatiseren.

AI bevat verschillende subdomeinen waar je misschien al van gehoord hebt, zoals Machine Learning, Deep Learning, Neurale Netwerken, Big Data en Natural Language Processing.

Vooral door het beruchte Cambridge Analytica-schandaal bij Facebook is het concept van ethische AI jaar na jaar populairder geworden en opgedoken in onze sociale feeds en conferentiekringen.

Ethiek - de studie van wat moreel goed en fout is, of een verzameling overtuigingen over wat moreel goed en fout is. - Cambridge Woordenboek

In een ontluikend veld is er weinig consensus over de definitie van ethische en betrouwbare AI. "We moeten ethiek bij AI betrekken door naar de menselijke kant te kijken, de mensen die de technologie ontwikkelen. Kwaadwillendheid, waarbij mensen gegevens gebruiken om schade aan te richten, spreekt tot de verbeelding en haalt de krantenkoppen, maar is aantoonbaar een kleiner deel van het probleem. Vaker zien we onbekwaamheid en onbegrip achter onethische AI, waarbij goede mensen met goede bedoelingen slechte gegevens gebruiken, of gegevens slecht gebruiken," deelt Julien,

"Er is een citaat: 'Schrijf nooit aan kwaadwillendheid toe wat aan domheid kan worden toegeschreven'. Terwijl veel van het debat zich richt op de kwaadaardigheid, moeten we onze eigen grenzen niet vergeten en de controles in het proces opbouwen."

De hoofdoorzaken van onethische AI

Als AI "fout" gaat, is dat meestal het gevolg van een slecht doordacht ontwikkelingsproces en een onethische probleemdefinitie, onvoldoende kwaliteitsgegevens om een groep mensen eerlijk te vertegenwoordigen, een discriminerende feedbackloop, misbruik van de resultaten na verloop van tijd of een combinatie van deze problemen. Als we naar het grotere plaatje achter AI-systemen kijken, wordt het antwoord duidelijk:

"We moeten de inherente vooroordelen van degenen die AI ontwikkelen minimaliseren, omdat onethische AI vaak voortkomt uit menselijke fouten. Er zit altijd iemand achter het algoritme. AI ontmenselijken en de schuld geven aan de tools is niet de manier om vooruit te komen," zegt Julien.

"In dit debat speelt de pers ook een belangrijke educatieve rol. Het is heel gemakkelijk om de aandacht te trekken door te beweren: 'Een algoritme heeft 500.000 mensen van stromend water beroofd'. Het zou correcter zijn om uit te leggen dat 'Mensen die zijn ingehuurd om de waterstromen te verbeteren, blijkbaar een fout hebben gemaakt die dramatische gevolgen heeft gehad'. Je vertelt hetzelfde verhaal, maar de acteur en de bedoeling zijn precies tegenovergesteld."

Als velen van ons zich niet bewust zijn van onze ware motieven en onbewuste vooroordelen, zou de discussie over ethische AI niet puur technisch van aard moeten zijn, maar moeten gaan over wat eerlijk en betrouwbaar is? En hoe vertalen we eerlijkheid naar getallen om vooroordelen te elimineren?

Waar we onethische AI zien

Veel bekende AI-zaken zijn ontmaskerd als onethisch, wat olie op het alomtegenwoordige vuur van discriminatie, ongelijkheid en verkeerde informatie gooit.

AI heeft zijn weg gevonden naar kredietscores, de verwerking van leningen en sollicitaties, gezichtsherkenning en andere gevoelige toepassingen. Het is ook gebruikt om hatelijke chatbotberichten, nepnieuwsverhalen, stemmen, video's, afbeeldingen of 'deepfakes' te verspreiden.

"Wat vaak het geval is, is dat we een dubbel gebruik van technologieën zien. Technologieën die gebruikt kunnen worden voor goede en slechte resultaten. Hier is het niet de schuld van een slecht ontworpen technologie, maar van slechte bedoelingen en verkeerd gebruik. Deze technologieën hebben kwetsbaarheden waarbij de ontwikkelaars misschien niet weten welk beest ze creëren. We hebben ooit een project afgewezen vanwege de onethische implicaties die het had, waarbij de prospect zich in eerste instantie niet realiseerde dat het onethisch was, omdat het soms niet voor de hand ligt," merkt Julien op.

Het gevaar van AI-modellen inschatten

Er wordt vaak verwezen naar Cathy O'Neil's boek "Weapons of Math Destruction" om de drie belangrijkste factoren te bepalen die AI-modellen gevaarlijk en gebrekkig maken:

1. Geheimhouding - waarvan een deel gerechtvaardigd is, bijvoorbeeld om te voorkomen dat een algoritme kwetsbaar is, wat tot rampzalige resultaten kan leiden. Maar hoe weten we zonder transparantie of er geen sprake is van manipulatie voor eigenbelang? Hoe kunnen we het beslissingsproces achter automatiseringssystemen onderzoeken? De ethische AI-regels van de Europese Commissie stimuleren transparantie.

2. Schaal - Op hoeveel mensen kunnen de algoritmen invloed hebben en kan de AI normen vaststellen en vooroordelen versterken? Kan het opschalen en exponentieel groeien?

3. Potentieel schade berokkenen - De sociale en maatschappelijke impact moet zorgvuldig overwogen worden. Er bestaan veel modellen met ingebouwde aannames, waarvan vele bevooroordeeld en onrechtvaardig zijn, en die een aanzienlijke impact kunnen hebben op grote groepen mensen.

AI heeft een enorm potentieel voor sociale en maatschappelijke impact. Daarom moeten we ervoor zorgen dat AI-systemen geen bevooroordeelde gegevens gebruiken om een feedbackloop te versterken die de huidige ongelijkheden verergert. In plaats daarvan kunnen we AI-algoritmen en -systemen gebruiken om ongelijkheid aan te pakken en om te zetten in kansen om iets goeds te doen.

Hoe bouwen we AI die we kunnen vertrouwen?

"Het kan zinloos zijn om een AI-algoritme of -systeem te reguleren, en we moeten oppassen dat we niet zoveel reguleren dat het innovatie belemmert. Maar dat wil niet zeggen dat we geen stappen kunnen zetten in de richting van het ontwikkelen van meer ethische AI," merkt Julien op.

Geconfronteerd met de rook-en-spiegels van zelfregulering, heeft Facebook gevraagd om duidelijkere overheidsregulering van sociale mediagiganten. Na het Cambridge Analytica-schandaal heeft Facebook een verantwoordelijk AI-team ontwikkeld om AI-bias aan te pakken en de impact van hun algoritmen op desinformatie, politieke polarisatie en extremisme te onderzoeken. Joaquin Quiñonero Candela, directeur AI bij Facebook, vertelde Karen Hao van de MIT Technology Review over hun worstelingen.

Karen deelde op LinkedIn: "Het gaat niet over corrupte mensen die corrupte dingen doen. Dat zou eenvoudig zijn. Het gaat over goede mensen die oprecht proberen het juiste te doen. Maar ze zitten gevangen in een verrot systeem en doen hun best om de status quo door te drukken die niet wil wijken. Het rapporteren hiervan heeft me er grondig van overtuigd dat zelfregulering niet werkt, niet kan werken."

Wat is dan de rol van regelgeving?

In Europa hebben organisaties opgeroepen tot een uitgebreid regelgevend kader voor AI en wetgeving is in de maak. Op 21 april 2021 kwam de Commissie met een horizontaal, regelgevend voorstel voor AI om concrete implementatiestappen aan te bieden in alle sectoren. Op de website van de Commissie staat: "Dit initiatief zal ervoor zorgen dat AI veilig en rechtmatig is en in overeenstemming met de grondrechten van de EU. Het algemene doel is om de invoering van betrouwbare AI in de economie van de EU te stimuleren." Het is echter mogelijk dat een uniforme aanpak geen recht doet aan de unieke voordelen en risico's van de toepassing van AI in verschillende sectoren.

"Veel van de benodigde regelgeving en kaders bestaan al en worden al lang toegepast in veel van de sectoren waar we mee werken. De regelgeving voor ethische en eerlijke praktijken blijft meestal hetzelfde als je AI toepast. Als je bijvoorbeeld voor een bank werkt en iemand geen lening zou weigeren omdat zijn vastgoedwaarde volgens jouw database laag is, waarom zou je dat dan door een AI-systeem laten doen? Dit is onethisch omdat het veel mensen kan uitsluiten die al in het nadeel zijn. De ethiek van de bestaande regelgeving komt altijd neer op het gebruik, niet op de technologie," legt Julien uit.

Een ethisch AI-risicokader ontwikkelen

Om te beginnen zouden organisaties ethische AI-praktijken moeten promoten vanaf de eerste conceptiefase van een algoritme.

De volgende stap is het toewijzen van interventieniveaus. Dit kan afhangen van de drie eerder genoemde factoren: geheimhouding, schaal en potentieel om schade te berokkenen. Een voorbeeld van interventie is het formuleren en volgen van een 'ethische checklist' tegen impliciete vooroordelen van geslacht, ras, religie, klasse, postcode en andere ethische risicogebieden - en het monitoren van afwijkingen in de loop van de tijd.

Julien: "Om algoritmen te ontwikkelen die ethische beslissingen nemen, moeten we koste wat het kost voorkomen dat vooroordelen blijven bestaan en moeten we rekening houden met mogelijke negatieve bedoelingen en moeten we stress-testen uitvoeren om ongewenste negatieve gevolgen te voorkomen. Een checklist kan de ethiek achter het ontwikkelen van algoritmen expliciet systematiseren. Door betere waarden in onze algoritmen te verankeren, is er een duidelijkere interpretatie van waar de technologie voor wordt gebruikt en hoe er verkeerd mee kan worden omgegaan."

Vaker wel dan niet is het niet de technologie die ontwrichtend is, maar hoe organisaties de technologie gebruiken om bestaande bedrijfsmodellen te ontwrichten, nieuwe modellen mogelijk te maken en of ze zich inzetten om continu te monitoren. In het geval van AI betekent dit dat ethiek boven winst gaat.

Laatste gedachten

"We moeten onthouden dat de geschiedenis zich misschien niet herhaalt , maar wel rijmt. We zien al meer dan veertig jaar fouten in machines, sinds databases hun grote start maakten. Toen werden de bedoelingen achter databases zelden in twijfel getrokken bij de ontwikkeling ervan. Het is dus goed om te zien dat het onderwerp ethische AI steeds meer aandacht krijgt van veel organisaties, techbedrijven en instellingen," voegt Julien toe.

Het is cruciaal om niet alleen ontwikkelaars, maar ook advocaten, burgers en andere besluitvormers rond de tafel te krijgen om ethische AI-raamwerken te implementeren. Vandaag de dag bestaat er te veel grijs gebied tussen het doen van goede dingen en het veroorzaken van schade met AI. We moeten onszelf eraan herinneren dat de ethiek van AI neerkomt op de ethiek van degenen die erachter zitten.

Vorige
Vorige

Tech Talk: Oplossingen voor intensieve werkbelasting bouwen met Azure's functie-app, verwachtingen en beperkingen

Volgende
Volgende

Internationale Vrouwendag 2021 bij Agilytic: #ChooseToChallenge