< Terug naar nieuws 


6 December 2023
Hoe maak je pratende machines menselijker (maar zonder de slechte kanten)?
Dit jaar braken AI-systemen die menselijke teksten schrijven wereldwijd door. Toch zijn veel wetenschappelijke vragen over hoe ze precies werken nog onbeantwoord. Drie UvA-onderzoekers proberen de onderliggende taalmodellen transparanter, betrouwbaarder en menselijker te maken.
De lancering van ChatGPT door OpenAI op 30 november 2022 betekende een game-changer voor kunstmatige intelligentie (AI). Ineens maakte het grote publiek kennis met de kracht van schrijvende machines. Een kleine twee maanden later had ChatGPT al honderd miljoen gebruikers.
Inmiddels gebruiken studenten het om essays te schrijven, programmeurs om code te genereren en bedrijven voor het automatiseren van allerhande schrijftaken. Tegelijkertijd zijn er grote zorgen over de onbetrouwbaarheid van automatisch gegenereerde teksten en over het napraten van stereotypen en discriminatie die in de trainingsdata zitten.
Wereldwijd sprongen media snel bovenop ChatGPT met verhalen die heen en weer slingerden tussen jubel en onheil. 'Vóór de lancering van ChatGPT vond ik het in de media lange tijd oorverdovend stil', zegt UvA-onderzoeker Jelle Zuidema, 'terwijl mijn collega's en ik de afgelopen jaren meerdere malen aan de bel hebben getrokken om te vertellen dat er een belangrijke ontwikkeling aan zat te komen.'
Zuidema is universitair hoofddocent Natural Language Processing, Explainable AI and Cognitive Modelling aan het Institute for Logic, Language and Computation (ILLC). Hij pleit voor een nuchtere discussie over het gebruik van grote taalmodellen, het soort model dat de basis vormt van ChatGPT (zie Kader 1). Zuidema: 'We hebben er niets aan om deze ontwikkeling ofwel te bagatelliseren ofwel er moreel zeer verontwaardigd over te doen, zo van: het is alleen maar plagiaat. Studenten gebruiken het, wetenschappers gebruiken het, programmeurs gebruiken het, en veel andere groepen in de maatschappij gaan ermee te maken krijgen. Dan moeten we het hebben over vragen als: Welke consequenties gaan taalmodellen hebben? Welke banen gaan veranderen? Wat gebeurt er met de eigenwaarde van tekstschrijvers?'
Lees hier meer.
Dit artikel is gepubliceerd door de UvA.
De afbeelding is gegenereerd door de Universiteit van Amsterdam met behulp van Adobe Firefly (keywords: shallow brain architecture).
De afbeelding is gegenereerd door de Universiteit van Amsterdam met behulp van Adobe Firefly (keywords: shallow brain architecture).
Vergelijkbaar >
Vergelijkbare nieuwsitems

Hartslaganalyse helpt deepfakes te ontmaskeren
Onderzoekers van het NFI en de UvA presenteren een innovatieve methode om deepfakes te herkennen aan subtiele kleurveranderingen in het gezicht die synchroon lopen met de hartslag.
Lees meer >

8 juni
Nieuw AI-model ‘Aurora’ belooft doorbraak in rampenvoorspelling
Een internationaal team van onderzoekers, waaronder UvA-wetenschappers, heeft Aurora ontwikkeld: een krachtig AI-model dat voorspellingen van luchtkwaliteit, oceaangolven en extreem weer sterk verbetert.
Lees meer >

29 mei
Verantwoord bouwen op foundation modellen: praktische handreiking van Hogeschool Utrecht en RAAIT
Onderzoekers van RAAIT hebben een praktische gids gepubliceerd voor organisaties die AI willen inzetten op basis van foundation modellen. De handreiking helpt gebruikers de juiste keuzes te maken.
Lees meer >