Kan AI zelf nadenken en discrimineren? Twijfel, twijfel onder Nederlanders
Is ChatGPT eigenlijk in staat om zelf te denken? Kan kunstmatige intelligentie (AI) behalve kunstmatig nadenken ook discrimineren? Wij als Nederlanders hebben er geen eenduidig antwoord op, als het ons in een onderzoek wordt gevraagd.
En dat onderzoek is er, uitgevoerd door het populaire wetenschappelijke tijdschrift Quest. Aan ruim 1800 Nederlanders werd de afgelopen tijd gevraagd hoe zij over artificiële intelligentie, afgekort AI, denken. Quest laat daarmee weer eens horen waarvoor het blad bedoeld is. De afgelopen tijd stond de titel vooral in de belangstelling door gedonder op de werkvloer (het merendeel van de redactie stapte op). Er zijn dus andere en weer redactionele tijden aangebroken.
Kennis AI volgens het Quest-onderzoek
Het blijkt dat ‘onze’ kennis over AI nog wel een update kan gebruiken, laat het onderzoek volgens Quest zien. Eén op de vier testdeelnemers denkt namelijk dat AI niet discrimineert, maar AI-gedreven toepassingen kunnen zich wel degelijk racistisch gedragen.
Op de vraag of ChatGPT autonoom is en zelf kan denken, antwoordde 20 procent van de deelnemers ‘ja’. Daarmee overschatten zij de chatbot. Deze kan namelijk alleen patronen herkennen en op basis daarvan verbanden leggen. 36 procent van de deelnemers denkt dat Weak AI (zoals ChatGPT, Siri en Alexa) niet zelf kan denken, maar wel meerdere taken kan uitvoeren. Ook dit klopt niet, stelt het magazine. Weak AI kan maar één ding: datgene waarvoor het geprogrammeerd is.
En hoe zit het dan met discrimineren? Quest meldt: „Dat kan AI helaas wel. Een Amerikaans systeem dat voorspellingen doet over de kans dat misdadigers opnieuw de fout ingaan, bleek bijvoorbeeld een racistische afwijking te hebben. 23 procent van de deelnemers aan de test denkt dat dit ongewenste ‘gedrag’ van AI niet mogelijk is. Deze relatief hoge score komt waarschijnlijk door het idee dat machines altijd neutraal zijn.”
Mens versus machine
De online test over AI hoort bij het coverartikel in de nieuwste Quest. Het artikel moet een verkenning zijn naar de toekomst van kunstmatige intelligentie in ons dagelijks leven. Wetenschappers komen aan het woord over hete hangijzers rond dit onderwerp. „Een systeem heeft zelf geen voorkeuren of wensen, het werkt met de opdracht die wij het geven. Dat moeten we dus ontzettend secuur doen”, zegt een hoogleraar ethiek van de digitale samenleving aan TU Eindhoven. „En wel binnen een raamwerk dat onze menselijke waarden weergeeft. Dat is lastig, maar ChatGPT laat zien dat het kan. Toen ik het vroeg een grapje te maken over een vriend, gaf het als antwoord: ‘Nee, dat doe ik niet, want ik wil mensen niet belachelijk maken’.”
Het nieuwe magazine over AI ligt morgen in de schappen. Wil je zelf je kennis over AI testen? Dat kan hier.
Jamie Faber uit Goud Zuid: ‘Met alles wat ik heb meegemaakt, geef ik mijn leven toch een 10’