Een kijkje in de zwarte doos van Artificial Intelligence

Artificial Intelligence (AI) wordt al in veel markten toegepast om het productie- en dienstverleningsproces slimmer te maken. Machine learning-bots zorgen dat onze apparaten en software zelflerend, herkennend en corrigerend optreden. Maar ook AI maakt wel eens fouten in het besluitvormingsproces: net als mensen is AI namelijk bevooroordeeld of ‘biased’. Om deze fouten eruit te filteren, moeten we de vooroordelen uit het AI-proces herkennen en begrijpen.

Auteur
Redactie
Aantal keer gelezen
2319 keer
Datum van schrijven
5 januari 2021
Leestijd
3 minuten

Vooroordelen in AI

Net als mensen is AI bevooroordeeld. Logisch: machine learning doet aannames op basis van beschikbare informatie. Er zijn in het besluitvormingsproces een aantal lagen waarin deze vooroordelen optreden. Dit zijn de oorzaken:

Bevooroordeelde data

Bots stellen geen kritische vragen wanneer hen informatie wordt geboden: deze wordt meteen verwerkt en voor waar aangenomen. Bevat de beschikbare data al vooroordelen? Dan neemt AI deze klakkeloos over en is de output tevens bevooroordeeld.

Vooroordelen uit interactie

Machine learning updatet zichzelf op basis van de interactie die het heeft met de omgeving. Wanneer deze omgeving slechts eenzijdige informatie biedt, neemt de bot dit over als een universele waarheid. Zo worden bots bevooroordeeld, terwijl ze niet op die manier geprogrammeerd zijn.

Aaneengeschakelde vooroordelen

Wanneer AI bijvoorbeeld suggesties doet voor een bepaalde uitkomst en deze wordt gekozen door de gebruiker, zal AI deze suggesties vaker aandragen. Hierdoor wordt deze vervolgens nóg vaker gekozen door de gebruiker waardoor andere suggesties (die wellicht wél overeenkomen met de wensen van de gebruiker) steeds verder uit de software of het apparaat verdwijnen.

Vooroordelen door gelijkenissen

Net als bij de aaneengeschakelde vooroordelen biedt AI hier informatie waarvan het verwacht dat de gebruiker deze waardeert. Dit doet het omdat deze informatie lijkt op eerdere keuzes van de gebruiker. Dit biedt twee nadelen: ten eerste zorgt het voor eenzijdige uitkomsten, ten tweede zijn de gelijkenissen niet altijd gebaseerd op de juiste kenmerken van de informatie waardoor de output niet meer klopt.

OpenScale: open de zwarte doos

IBM Watson OpenScale analyseert het besluitvormingsproces in AI en gaat na waar er denkfouten worden gemaakt. Dat doet het door dit proces na te lopen en uitkomsten te analyseren, waarvan het rapportages maakt. OpenScale haalt precies de vooroordelen boven water waar AI tegenaan loopt.

Een voorbeeld: vooroordelen in visuele AI met husky’s en wolven

Een bot moet afbeeldingen van husky’s en wolven onderscheiden. Het gaat een aantal keer goed maar ook een aantal keer mis: een aantal wolven worden gelabeld als husky’s. Door het gebruik van OpenScale wordt het besluitvormingsproces van deze bot nagelopen. Daaruit blijft dat de bot bij het kiezen van een label ook kijkt naar de omgeving van de dieren. Husky’s staan meestal in de sneeuw, dus worden de enkele wolven met een besneeuwde achtergrond tevens gelabeld als husky.

Creëer Trusted AI met OpenScale

IBM Watson OpenScale gaat het besluitvormingsproces van AI na gedurende de gehele lifecycle en filtert de denkfouten en vooroordelen eruit. Het updatet de AI bovendien volgens de veranderende omstandigheden binnen de organisatie. Zo blijft er een steeds effectievere AI over die steeds succesvollere uitkomsten biedt.

Benieuwd naar de voordelen van IBM Watson OpenScale voor uw organisatie? Neem vrijblijvend contact op met onze experts.