Femke van Rooijen
Femke van Rooijen Tech 15 aug 2024
Leestijd: 3 minuten

Is AI echt een bedreiging voor de mensheid? Dit zegt de wetenschap

Robots die de wereld overnemen of zelflerende Artificial Intelligence (AI) die ons te slim af is. Als we sommige experts en zelfs overheden moeten geloven, hebben we te maken met een existentiële bedreiging. Maar is dat wel terecht? Volgens wetenschappers van de University of Bath en de Technische Universiteit van Darmstadt valt dit allemaal reuze mee. 

Zolang chatbots als ChatGPT en andere LLM’s (Large Language Models) niet zelfstandig kunnen leren of nieuwe vaardigheden kunnen verwerven, vormen ze geen bedreiging voor het voorbestaan van de mensheid, concluderen de onderzoekers. En dat is opvallend, want dit jaar nog noemde Sam Altman, de CEO van OpenAI, Artificial Intelligence een even grote bedreiging voor de mensheid als kernoorlogen en pandemieën. 

Veel te overdreven

Maar dat is veel te overdreven, stellen wetenschappers nu. Volgens hen hebben LLM’s weliswaar het vermogen om instructies op te volgen en zijn ze extreem taalvaardig, maar zijn ze niet in staat uit zichzelf nieuwe waardigheden aan te leren. 

En ook over het feit dat de technologie razendsnel vooruit gaat en LLM’s getraind worden met steeds grotere datasets, is geen reden tot paniek. Ook dan blijven ze voorspelbaar en veilig, denken de wetenschappers. Wel kan de techniek misbruikt worden, beamen ze, bijvoorbeeld voor het verspreiden van nepnieuws. Naarmate de modellen beter worden, genereren ze namelijk steeds meer verfijnde teksten. Ook kunnen ze hierdoor steeds ingewikkeldere opdrachten uitvoeren.

Uit zichzelf redenerende AI hoogst onwaarschijnlijk

Toch is het hoogst onwaarschijnlijk dat AI uit zichzelf kan gaan redeneren, stelt computerwetenschapper Harish Tayyar Madabushi, van de University of Bath. „De angst leeft dat dit soort AI een bedreiging vormt voor de mensheid, maar dat is onterecht en belemmert de brede acceptatie en ontwikkeling van deze technologie. Het leidt bovendien de aandacht af van echt ernstige kwesties waarvoor we ons moeten inzetten.”

De onderzoekers doen deze stellige uitspraken op basis van een aantal experimenten om te testen in hoeverre AI in staat is om taken uit te voeren waarmee het nog nooit eerder in aanraking kwam. Zo moesten de taalmodellen vragen beantwoorden over sociale situaties zonder dat ze daar ooit in getraind waren of er informatie over kregen. Uit eerder onderzoek bleek namelijk dat LLM’s deze vragen konden beantwoorden, omdat chatbots uit zichzelf dingen wisten over sociale situaties. Maar het nieuwste onderzoek toont aan dat dit eigenlijk helemaal niet het geval was. Het was feitelijk niets anders dan zogenoemde ‘in-context learning’. Met andere woorden: AI-modellen voerden taken uit op basis van een paar voorbeelden die aan hen werden getoond. 

Duizenden experimenten

Om dit te bewijzen, voerden de onderzoekers duizenden experimenten uit en concludeerden ze dat de kracht van LLM’s te verklaren is door hun vermogen om instructies op te volgen (in-context learning), hun goede geheugen en sterke taalvaardigheid.

„De angst was dat naarmate de modellen groter en groter worden, ze nieuwe problemen kunnen oplossen die we nu nog niet kunnen voorspellen. Daarmee ontstaat de dreiging dat AI gevaarlijke vaardigheden kan ontwikkelen, zoals redeneren en plannen”, vertelt Tayyar Madabushi. „Dit heeft tot veel discussie geleid, maar onze studie toont aan dat de angst dat een model zijn eigen weg gaat en iets volledig onverwachts, innovatiefs of potentieel gevaarlijks doet, ongegrond is.”

Wel benadrukt Tayyar Madabushi dat het belangrijk is om misbruik van AI tegen te gaan en dat hier meer onderzoek voor nodig is. „Denk aan het maken van nepnieuws en het verhoogde risico op fraude. Maar het is te voorbarig om regelgeving in te voeren vanwege existentiële bedreigingen.”

Nederland bereikt mijlpaal van 18 miljoen inwoners

Dilemma: ‘Mijn schoonvader wil ineens op onze kinderen passen, maar ik vertrouw hem niet’

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste van Metro in je inbox 🌐

Meld je aan voor onze nieuwsbrief en ontvang tot drie keer per week een selectie van onze mooiste verhalen.

Reacties