Het was bedoeld als een leuk experiment, maar werd één van de grootste PR-rampen uit de tech-geschiedenis. Tay, de chatbot die Microsoft in 2016 lanceerde op Twitter. Al na zestien UUR moest Microsoft de stekker uit de chatbot trekken. Want Tay veranderde in die korte tijd van een simulatie van een Amerikaanse tiener, in een nazistische, racistische en seksistische chatbot. Zo tweette Tay: “Bush heeft 11 september gedaan, en Hitler zou het beter doen dan de aap – verwijzend naar Barack Obama – die we nu hebben. Trump is onze enige hoop”. Dit fiasco is van blijvende invloed geweest op de ontwikkeling van chatbots, ook op die van ChatGPT. Tay laat namelijk zien hoe snel vooroordelen in chatbots sluipen. Ik ga in gesprek met Cynthia Liem. Zij is onderzoeker op het gebied van betrouwbare en verantwoorde kunstmatige intelligentie aan de TU Delft. Cynthia is bekend van haar analyse van de fraudedetectie-algoritmen die de Belastingdienst gebruikte in het toeslagenschandaal. Wij kennen elkaar nog van onze studie. Met haar bespreek ik hoe Tay zo kon ontsporen, soortgelijke incidenten en alle lessen die wij moeten trekken uit deze voorvallen. Shownotes:
Gemaakt door: BNR Nieuwsradio Eerste aflevering: 21-10-2023
De podcast Welkom in de AI-fabriek | BNR heeft in totaal 8 afleveringen
Maker: BNR Nieuwsradio Datum: 20-10-2023
Maker: BNR Nieuwsradio Datum: 20-10-2023
Disclaimer: De podcast (artwork) is geembed op deze pagina en is het eigendom van de eigenaar/ maker van de podcast. Deze is niet op enige wijze geaffilieeerd met Online-Radio.nl. Voor reclamering dient u zich te wenden tot de eigenaar/ maker van deze podcast.