In september 2024, I started working on a PhD, after securing funding from NWO. This is the introduction of the proposal that I shared with them. You can read the full proposal here (PDF).
Continue reading “A Neorepublican Perspective on Automated Decision‐making”Category: Digital Rights
On artists and the future of AI at PublicSpaces
On June 6th, 2024, I was at the PublicSpaces conference as a panelist in a session titled The Future of AI & the Internet. You can watch the full panel here. Below, I’ve divided my contribution into a set of short videos.
On how AI (so far) has been a headache for me as a teacher, as I’ve had to redesign all of my assessments:
On the importance of artists (quoting Marshall McLuhan who considered artists the antennae of our society, our radar, looking at least a generation ahead), but also making it clear that you don’t need future thinking to see the very real harms of AI today:
On how AI is not necessarily different than other technologies. The problems that come with AI aren’t technological problems, they are political problems. Technology is not the problem, politics is:
On what it would mean for me to have agency over AI and what I would want it to look like. That means thinking about the power dynamics. I want to flip the script and have AI working for me rather than working for big tech. I prefer nature over technology and like AI that help me be in nature, like BirdNet:
On the fact that explainability and transparency in AI systems have no use in unequal power dynamics:
On how to become a better storyteller: ingest better stories, stop looking at any personalized content as it is terrible for your mind:
“Ik zie de opkomst van AI ook als een kans om het onderwijs weer terug te humaniseren”
Naar aanleiding van mijn opinie in de Volkskrant over het gebruik van antiplagiaatsoftware in de context van AI ben ik binnen mijn faculteit bij de Hogeschool van Amsterdam geïnterviewd door Joyce Wijhenke. Dit is het resultaat.
Antiplagiaatsoftware
‘Docenten moeten stoppen met het gebruik van software om het werk van studenten te controleren op plagiaat. Daar zijn vooral degenen die de taal minder goed beheersen de dupe van. Wees liever creatief om te kijken wat ze hebben geleerd’ sub-kopt het opiniestuk in de Volkskrant. Heldere, maar ook kritische taal van docent-onderzoeker Hans de Zwart, die zich zorgen maakt. “Ja, ik maak me zorgen. Ik merk dat veel studenten gebruikmaken van ChatGPT voor het maken van opdrachten. En ik denk dat ze dat vaker doen dan veel docenten zich realiseren. Ik merk dat veel van mijn onderwijs, en de manier waarop ik studenten toets, niet meer werkt in de context van ChatGPT. Dat betekent dat ik mijn onderwijs aan het herzien ben en moet bedenken hoe ik het zo kan inrichten dat ik weer op een valide manier kan controleren wat studenten hebben geleerd.
Daarnaast maak ik me er zorgen over dat zoveel onderwijsinstellingen nog steeds antiplagiaatsoftware gebruiken. Zelf weiger ik dit omdat ik geen relatie met de studenten wil hebben die is gebaseerd op wantrouwen. Het is daarnaast onmogelijk om met technologie te bepalen of iets met AI is gemaakt of niet. Voorheen namen studenten ergens iets over en deden alsof ze dat zelf hadden geschreven, maar nu leveren ze met AI geheel nieuwe teksten aan, die nergens anders te vinden zijn. En er zijn ook tools op de markt die een inschatting maken of iets met AI is gemaakt, maar het blijft een soort kansberekening. Ik vind dat problematisch en wat mij betreft kan er op die manier dus niet worden gecontroleerd. Het verbaast mij dat er onderwijsinstellingen zijn die blind met dit soort tools werken. Of dat binnen de HvA ook wordt gedaan weet ik niet zeker, daar heb ik nog geen transparante discussie over gezien.”
Meer werk voor docenten
In zijn opiniestuk schetst Hans de huidige situatie: ‘studenten weten ChatGPT inmiddels goed in te zetten, en docenten proberen al jaren met antiplagiaatsoftware erachter te komen of studenten hun ingeleverde werk zelf hebben geschreven; en nu dan ook met AI-detectie, die helaas niet altijd helemaal goed zit.’ Maar hoe moet het dan wel? “Als docenten moeten we ons onderwijs herontwerpen, en dat is veel werk. De ironie is dat we het idee hebben dat AI werk van ons kan overnemen. Ons kan helpen ons werk efficiënter te doen waardoor we hetzelfde werk met minder mensen kunnen uitvoeren. Maar op dit moment levert AI elke docent alleen maar meer werk op. Onderschat niet hoeveel onderwijs moet worden aangepast door de komst van AI. Stel je voor: voorheen deden studenten zelf een programmeeropdracht; nu kan AI dat in 2 minuten voor ze doen. Je moet dus op een andere manier gaan controleren of studenten snappen wat programmeren is. Bovendien gaat het hele beroep van programmeur veranderen door AI, evenals het werkveld. Wat gaat er veranderen en welke skills horen daarbij? Dat heeft mij gedwongen om na te denken over wat studenten moeten kennen en kunnen; het is een soort spiegel geweest voor wat ik aan het doen was.
Een ander voorbeeld: ik geef een filosofie vak op de Business-faculteit. Ik heb daar studenten die zeggen: ‘ik kan deze hele opleiding met ChatGPT doen; ik hoef helemaal niets meer zelf te doen’. Ik denk dat daar zeker een kern van waarheid in zit. Je kan met weinig moeite veel studiepunten halen. Ik liet de studenten altijd een essay schrijven waarmee ik ze op een filosofische manier echt over iets kon laten nadenken. Nu is een essay daar niet meer de juiste vorm voor, want ze kunnen met ChatGPT die opdracht in 5 minuten maken. Weliswaar niet met een top-essay als resultaat, maar wel goed genoeg voor een voldoende. Ik heb die specifieke opdracht moeten veranderen om de studenten echt te laten nadenken en een goed idee te krijgen van wat ze allemaal kunnen. Zo moet het nu om een hele concrete zaak gaan, ze moeten een stakeholder interviewen en ook de transcriptie daarvan inleveren. Daarnaast moeten ze relevante literatuur opzoeken en dat relateren aan de case. En uiteindelijk moeten ze een reflectie doen. Allemaal zaken waar ChatGPT niet heel goed in is. En dit is nog maar één voorbeeld van wat er allemaal moet worden aangepast. Er ligt echt een enorme opgave! Het zou al helpen als we meer onze kennis met elkaar zouden delen en een en ander gezamenlijk zouden oppakken.”
Veelheid aan strategieën
Ook de minor ‘Het internet is stuk, maar we gaan het repareren’ moet eraan geloven. “Ik ben niet meer tevreden over de validiteit van de assessment van de minor en als team hebben we besloten dat we het volgend jaar anders gaan doen. We hadden een portfolio-beoordeling zonder mondeling, maar die gaan we er nu wel bijdoen om de validiteit van het eindcijfer dat de student krijgt te verhogen.” Maar, ook een mondeling heeft nadelen, weet Hans. “Zo is niet iedere student verbaal even vaardig. Je zult dus eigenlijk een veelheid aan strategieën moeten inzetten, want hoe meer verschillende tools je inzet hoe meer validiteit je beoordeling heeft. Een collega filosoof aan de UvA heeft naar aanleiding van de opkomst van AI weer het klassikale tentamen ingevoerd, waarbij je met een pen aan een tafeltje dingen moet schrijven. Daar wil ik niet per se heen. We zijn bij de HvA al veel aan het bewegen richting formatief evalueren tijdens het leerproces. Dus het is ook voor mij een uitnodiging om als docent dichter op de student te gaan zitten en elke student beter in beeld te hebben. Ik zie de opkomst van AI ook als een kans om het onderwijs weer terug te humaniseren. Weg van het fabrieksdenken met grootschalige toetsen. Terug naar docenten die samen met studenten problemen proberen op te lossen.”
Progressieve en scherpere keuzes
“Laten we een discussie voeren, zeker in tijden van bezuinigingen, over of we ons onderwijsgeld willen weggeven aan de grote Amerikaanse bedrijven met hun antiplagiaatsoftware. In de context van bezuinigingen, in de context van hoe we met studenten om willen gaan en in de context van de matig werkende software – die zelfs slechter werkt als Nederlands of Engels niet je eerste taal is, wat dus ook nog eens discriminerend is – vind ik dat we die software weg moeten doen. Ik snap dat sommige opleidingen daar niet klaar voor zijn, maar ik hoop dat de HvA daar progressieve en scherpe keuzes in durft te maken. Overal binnen de HvA zijn docenten die dit op een slimme en creatieve manier aan het oplossen zijn. Dus hoe zorg je ervoor dat die manieren worden gedeeld ? Als instituut hebben we een cultuur waarin onderwijs heel belangrijk is, waarin we investeren, waar goed en serieus over zaken wordt nagedacht. Een cultuur dus die kansrijk is om hiermee goed om te gaan. Ik denk dat we kunnen proberen om meer urgentie te creëren over hoe we hier snel mee aan de slag kunnen gaan.
Het worden echt zware jaren voor HvA-docenten, er moet ongelooflijk veel onderwijs worden aangepast. Er wordt aangenomen dat je continu je onderwijs doorontwikkelt, maar dat gebeurt normaal gesproken niet met déze intensiteit. Door de hele HvA heen passen docenten nu noodgedwongen in hun eigen tijd hun onderwijs aan. En het is belangrijk dat we dat op de een of andere manier in beeld krijgen, faciliteren en ondersteunen, maar wel op een manier die niet ten koste gaat van de hoeveelheid tijd die we per student hebben.”
Het internet lijkt op een vliegveld. Kunnen we er een bibliotheek van maken?
Internetpionier Ethan Zuckerman zat begin 2018 in zak en as over de staat van het internet. Na de Brexit, de verkiezing van Trump en het Cambridge Analytica-schandaal was de maatschappij klaar met het web. Zuckerman had één hoop om het internet weer gezond te krijgen: de Europese publieke omroepen. Geïnspireerd door Zuckerman schreef Geert-Jan Bogaerts (Hoofd Innovatie en Digitale Media bij de VPRO) op Tweede Paasdag 2018 een eerste versie van het PublicSpaces Manifest met daarin vijf belangrijke principes: open, transparant, verantwoordelijk, soeverein en de gebruiker centraal.
Vijf jaar later is PublicSpaces uitgegroeid tot een coalitie van tientallen publieke organisaties die samen werken aan een “een alternatief software-ecosysteem dat het publieke belang vertegenwoordigt en geen winstoogmerk heeft.” Eind juni organiseerde PublicSpaces de derde editie van hun conferentie in Pakhuis de Zwijger in Amsterdam, en ik was erbij. Ik zag tijdens de conferentie twee grote thema’s:
Inclusieve technologie: het gebrek en de noodzaak
Het PublicSpaces Manifest mist een aantal waarden die op dit moment uiterst relevant zijn. Denk aan duurzaamheid of aan gelijke behandeling. Eén van de sessies ging dan ook over welke waarden er toegevoegd zouden moeten worden aan het manifest.
Het PublicSpaces Manifest mist een aantal waarden die op dit moment uiterst relevant zijn. Denk aan duurzaamheid of aan gelijke behandeling. Eén van de sessies ging dan ook over welke waarden er toegevoegd zouden moeten worden aan het manifest.
Die sessie was een logisch vervolg op het verhaal van Ruha Benjamin, auteur van Race After Technology. In haar keynote maakte ze duidelijk dat een heel klein, niet-representatief deel van de mensheid verantwoordelijk is voor onze digitale wereld. Daardoor zitten we volgens haar gevangen in de verbeelding van een ander. Bovendien zijn de standaardinstellingen van onze technologie niet voor iedereen geschikt.
Ze gebruikte hostile architecture als metafoor. Denk daarbij aan bankjes die gemaakt zijn zodat daklozen er niet op kunnen liggen. Kunstenaar Fabian Brunsing verbeeldt de huidige situatie prachtig met zijn bankje waar je vijftig cent in moet gooien om te kunnen zitten.
In het aansluitende panel over publieke waarden en kunstmatige intelligentie (AI) werd duidelijk hoe de blik van een klein groepje mensen ons perspectief kan vertroebelen. Zo vindt onderzoeker Michele Murgia dat er binnen de hype over kunstmatige intelligentie (AI) buitensporig veel aandacht is voor de toekomstige existentiële risico’s ervan. De grote gevaren zijn ondertussen te weinig in beeld. Denk aan de impact van AI op arbeidsomstandigheden, het klimaat, racisme en sexisme. Hij bouwt daarom een language model vanuit publieke waarden om de productiemiddelen rondom AI democratiseren.
Europa moet investeren in de digitale publieke ruimte
In het panel Investing in the digital commons werd duidelijk dat dit een uitgelezen moment is voor Europa om te investeren in digitale publieke infrastructuur. Simona de Heer is politiek assistent van Europarlementariër Kim van Sparrentak. Zij legde uit dat het gehele Europese politieke spectrum het er over eens kan zijn dat het problematisch is dat big tech de infrastructuur maakt waar wij afhankelijk van zijn. Daarnaast is het niet langer en vogue om de publieke sector zo klein mogelijk te houden (zie bijvoorbeeld de Europese liefde voor Mariana Mazzucato). Volgens De Heer verdient een weerbare maatschappij een sterke publieke sector, eentje die zijn eigen infrastructuur bouwt.
Marleen Stikker (oprichter van Waag Futurelab) sluit zich daarbij aan. Volgens haar heeft de overheid afgelopen jaren heel veel geïnvesteerd in de private sector en in zichzelf, terwijl er eigenlijk geen geld is gegaan naar het digitale publieke domein. Hoog tijd om dit te veranderen. Volgens Stikker heb je overal waar data ontstaat een data commons strategie nodig: een strategie om te zorgen dat die data voor iedereen waardevol kunnen zijn. Als overheid moet je bereid zijn daarbij publiek-civiele (in plaats van publiek-private) samenwerkingen aan te gaan.
Hoe moet zo’n digitale publieke ruimte er dan uit zien? Dat besprak Eli Pariser – bekend van het idee van de filter bubble – in de afsluitende keynote. Met zijn stichting New Public onderzoekt en verkent hij wat er nodig is om digitale publieke ruimtes te maken die voor een breder publiek aantrekkelijk kunnen zijn (lees vooral hun onderzoek).
Voor elke publieke ruimte heb je volgens Pariser drie dingen nodig: er moet iets gebouwd zijn (in het digitale domein zijn dat ‘code ’ en ‘design ’), er moet iets geprogrammeerd worden (de inhoud, datgene wat er te doen is) en je hebt eigenaarschap nodig (mensen die zorgen dat het op een prettige manier blijft werken). Die laatste noemt hij ‘stewards’. Volgens Pariser hebben we te weinig aandacht voor het programma en voor de stewards. Mensen moeten de publieke ruimte vormgeven, het liefst op een democratische manier.
Waarom ik dit interessant vind
Het internet begint steeds meer te lijken op een vliegveld: overal tracking, advertenties en surveillance, met een captive audience. Zelf kan ik heel slecht tegen dit soort volledig commerciële ruimtes. Daarom ben ik fan van de bibliotheek, “het paleis voor het volk”. Het is één van de weinige plekken waar je nog gewoon binnen kan lopen zonder dat je iets hoeft te kopen. Ik mis de digitale equivalent. Eerder betoogde ik daarom al dat we moeten investeren in digitale sociale infrastructuur.
Dit is ook de reden waarom ik met een team van docenten van de Hogeschool van Amsterdam en met Marleen Stikker en Waag Futurelab een nieuwe minor heb ontworpen: Het internet is stuk, maar we gaan het repareren.
De uitdaging is daarbij om aan de hand van het denken over de publick stack nieuwe sociale digitale infrastructuur te ontwerpen die democratisch, inclusief en duurzaam is. Doe en denk je mee?
Deze tekst verscheen eerder als Recast nieuwsbrief.
Wees niet bang om je account te deleten als social media je een eikel maakt
Op 6 januari 2019 ben ik voorgoed gestopt met Twitter. Dat was niet alleen maar omdat ik er genoeg van had om als brandstof te dienen voor een surveillance kapitalistisch verdienmodel. Nee, ik vond vooral dat ik moest stoppen met Twitter omdat het platform de allerslechtste kant van mezelf naar boven bracht. Ik ben doorgaans een hele rustige jongen. De mensen die mij boos hebben gezien zijn op één hand te tellen. Mijn bijnaam is “natural born buddha”. Mindfulness komt me aangewaaid. Maar het lukte Twitter keer op keer om een soort woede-machine van me te maken.
Het verliep altijd volgens hetzelfde patroon: Bits of Freedom – de stichting waar ik op dat moment directeur van was – plaatste een tweet met een kritisch perspectief op technologie in de context van mensenrechten. Vervolgens kwam er dan een willekeurige trol langs die zijn (yup, het waren altijd mannen) ongefundeerde en vaak onzinnige mening als antwoord op onze tweet gaf. Omdat dit antwoord nu direct onder onze tweet stond, en ook nog eens voor al onze volgers zichtbaar was, voelde me ik me genoodzaakt om deze spuit elf van repliek te dienen. Ik wilde hem dan in 280 tekens het liefst helemaal kapot schrijven. Mijn collega’s keken me daarna soms wat meewarig aan. Ging het wel goed met me? Dat had die persoon nou ook weer niet verdiend toch?
Deze dynamiek was me natuurlijk al wel opgevallen. En ik had ook allang begrepen dat de op viraliteit gerichte ontwerpkeuzes van Twitter – de retweet optie, de beperkte hoeveelheid tekens per tweet, het gebrek aan gemeenschap en aan context, en de mogelijkheid om elke tweet te zien en daarop te antwoorden – mijn onprettige gedrag in de hand werkte. Maar pas na het lezen van Jaron Lanier’s Ten Arguments for Deleting Your Social Media Accounts Right Now had ik de juiste woorden voor dit probleem. In dat boek is hij duidelijk: “social media is making you into an asshole”.
Lanier heeft een vermoeden over waarom je van sociale media een klootzak wordt. Hij is ervan overtuigd dat we diep in onze menselijke persoonlijkheid een schakelaar hebben die in twee standen kan staan. We lijken daarin op wolven: we kunnen in een solitaire stand of in een roedel stand. In de solitaire stand zijn we vrijer. We moeten wel iets voorzichtiger zijn, maar kunnen in deze stand voor onszelf denken, improviseren en mooie dingen maken. Op ‘standje roedel’ raken we volgens hem geobsedeerd door hiërarchie en de pikorde. We trappen omlaag en likken omhoog. We zien anderen niet meer als individu maar delen ze op in twee groepen: vriend of vijand. Groepsdenken ligt op de loer. En daarmee dus gedrag dat je alleen zult vertonen als je je gesterkt voelt door die groep van gelijkgestemden.
Die roedel stand is funest voor de publieke sfeer. Autoritair denken is bijvoorbeeld geworteld in de roedel. Collectieve processen, zoals onze democratie, werken paradoxaal genoeg het beste als iedereen als individu voor zichzelf denkt, in de solitaire stand dus. Volgens Lanier zetten sociale media platforms zoals Twitter, Facebook, Instagram en YouTube onze schakelaar in de roedel stand. Dit komt volgens hem omdat die platforms ons totaal op elkaar gericht maken in plaats van dat we als individu geconfronteerd worden met een realiteit die groter is dan onszelf.
Al deze platforms kapitaliseren onze beperkte aandacht. Ze verdienen meer geld naarmate we meer tijd bij ze besteden. En dat hoeft helaas geen quality time te zijn. Hun maatstaf voor succes is nooit de mate waarin ze de publieke sfeer gezond houden. Nee, hun growth hackers zijn echt alleen maar geïnteresseerd in meer gebruikers die langer blijven plakken.
Voor dit soort platforms is het feit dat Twitter-president Trump eigenhandig haatvolle online discussies weet te scheppen, dat meer Facebook gebruik leidt tot meer vreemdelingenhaat, of dat er onder een Facebook livestream van een protest tegen Zwarte Piet duizenden afgrijselijke racistische en seksistische reacties worden geplaatst, niets anders dan de collateral damage van hun ambitie om ongeacht de maatschappelijke consequenties zo snel mogelijk zo veel mogelijk geld te verdienen. Online haat is daarmee dus één van de onvermijdelijke uitkomsten van hoe we op dit moment ons informatie-ecosysteem ingericht hebben.
Dit hoeft niet zo te zijn. Het is wel degelijk mogelijk om platforms te ontwerpen waarin de gebruikers niet in de roedel stand gezet worden en waar we wel op een duurzame manier kennis met elkaar kunnen delen, elkaar kunnen steunen, en zelfs een gezonde politiek kunnen bedrijven. Maar dan moeten we die platforms wel zo ontwerpen dat ze succesvoller zijn naarmate ze ons beter mensen maken.
Voor nu kun jij alvast het advies van Lanier opvolgen: als je een nare kant van jezelf ontdekt bij het gebruik van een online platform, als je er onzeker van wordt, of als je merkt dat je iemand neer wilt halen, dan is vertrekken bij het platform eigenlijk de enige verstandige optie. Dat heb ik begin 2019 dus bij Twitter gedaan. Ik ben er oprecht een beter mens van geworden.
Dit artikel verscheen voor het eerst op 4 november 2020 bij Lilith.