‘We moeten nadenken over de gevolgen van algoritmes. Een noodrem is er niet’
Hoe voorkomen we dat enkelingen een monopolie krijgen over algoritmes die ons leven sturen?
Wiskundige en lid van de Jonge Academie
Giovanni Samaey
(KU Leuven)
‘Uit zichzelf hebben algoritmes geen kwaad in de zin’
Het wiskundeonderwijs kan de impact van algoritmes kaderen door te verklaren hoe ze werken.
Communicatiewetenschapper
en lid van de Jonge Academie
Peter Van Aelst (Universiteit Antwerpen)
‘We moeten beseffen dat sociale media het nieuws voor ons filteren’
Sluiten Google, Twitter en Facebook ons op in de filterbubbel van ons eigen gelijk?
Conclusie
Uit zichzelf zijn algoritmes niet kwaadaardig. Ze berekenen een uitkomst, met gegevens die hen door mensen worden aangereikt, in een door mensen bepaalde reeks rekenstappen en volgens door mensen vastgestelde beslissingscriteria.
Week van het weten
Moeten we bang zijn voor het algoritme?
In tijden van fake news is het onderscheid tussen feiten en meningen in een democratie van levensbelang. Daarom vraagt De Standaard deze week aan onderzoekers uit uiteenlopende disciplines wat de wetenschap kan bijdragen aan de grote vraagstukken van deze tijd. We doen dat in samenwerking met de Jonge Academie, die jonge toponderzoekers en -kunstenaars verenigt.
Tomas van Dijk en Hilde Van den Eynde, illustraties Debora Lauwers
‘We moeten nadenken over de gevolgen van algoritmes. Een noodrem is er niet’
Hoe voorkomen we dat enkelingen een monopolie krijgen over algoritmes die ons leven sturen?
pp
‘Algoritmes bepalen de zoekresultaten op internet, welke berichten van vrienden je op Facebook te zien krijgt, en op den duur misschien welke medicijnen je krijgt en welke straf als je een misdaad begaat’, zegt Peter-Paul Verbeek. ‘Dat gaat ver. Er heerst angst in de maatschappij. Onze waarden staan op het spel. Waar zit de noodrem?’
‘De techniek dendert voort. We hebben vaak gedacht dat techniek ons van het podium zou stoten. Meestal ten onrechte. Stoommachines zouden arbeiders overbodig maken. Later vreesden we om die reden de automatisering. Mijn lezingen begin ik met een man met een vuistbijl in de ene hand en een smartphone in de andere. Het zit in onze natuur om technologieën te ontwikkelen.’
‘We moeten beducht zijn voor de risico’s en de technologie waar nodig bijsturen. Dat is beter dan angstvallig te proberen om technologische ontwikkelingen te stoppen. Het begint ermee dat we zaken niet te snel moeten framen als kwaadaardig.’
‘We kiezen nog wel onze volksvertegenwoordigers, maar diegenen die toegang hebben tot datastromen bepalen steeds meer de agenda’
‘Laat ik een voorbeeld geven uit de zorg. Robots die oude mensen te eten geven; in eerste instantie denk je: dat is kil en koud, eten geven is toch mensenwerk? Ik denk juist van niet. Als oudere word je weer afhankelijk. Het overkwam mijn vader tijdens de laatste jaren van zijn leven. Hij vond het verschrikkelijk en stond maar een paar mensen toe hem bij te staan met zo iets delicaats. Nu is er een robot die hierbij kan helpen en die mensen hun onafhankelijkheid terug kan geven. Er zit zelfs sociale intelligentie in. De robot kan tijdens een etentje vaststellen of er een pauze valt tijdens een gesprek en op dat moment een hapje aanbieden. Ik vind dit een mooi voorbeeld van waardegericht ontwerpen. We zetten de robots en algoritmes in om de interactie tussen mensen te verbeteren.’
‘Erg spannend is de opkomst van lerende algoritmes. Die krijgen enorme hoeveelheden data gevoerd en trekken conclusies volgens ingewikkelde leerprocessen die de ontwerpers van de rekenmethoden niet meer kunnen doorgronden. Het risico dat hieraan kleeft, is dat we op een gegeven moment keuzes maken in ons privéleven, rechtspraak of zorg, die tot stand zijn gekomen op manieren die we niet goed kunnen doorzien en waar misschien wel commerciële of andere belangen ongezien een grote rol bij kunnen spelen.’
‘Lerende algoritmes worden een soort zelfstandige entiteiten. Hoe een keuze tot stand komt, is niet meer in stappen terug te beredeneren. Het is alsof je van een mens zou proberen te achterhalen welke onderdelen van zijn opvoeding en levenservaringen ertoe hebben geleid dat hij een crimineel werd. Dat gaat niet. Kunnen we zo’n algoritme laten bepalen welke straf een crimineel verdient? Ik denk niet dat we die kant op moeten. Rechters zouden zulke algoritmes wel kunnen gebruiken als hulpmiddel.’
‘Hetzelfde geldt voor de gezondheidszorg. IBM Watson for Oncology is een programma waarin zowat alle beschikbare literatuur over kanker is gestopt. Dat systeem kan goed overweg met menselijke vragen en is sterk in kankerdiagnostiek. In dat laatste kan een arts het programma nooit evenaren. De vraag is vervolgens: wat doe je met zo’n ding? Volgens mij is in zorg een menselijke blik nodig en kan Watson dienen als hulpmiddel.’
‘Algoritmes gaan ook een grote invloed hebben op onze democratie. We kiezen nog wel onze volksvertegenwoordigers, maar diegenen die toegang hebben tot datastromen, en die deze kunnen begrijpen en duiden, bepalen steeds meer de agenda. We moeten voorkomen dat mensen, instanties of bedrijven een monopolie krijgen over data en algoritmes. Dit is zeker zo in de smart cities. In deze steden van de toekomst is de manier waarop het leven in de stad wordt ontsloten veranderd. In smart cities zijn alle apparaten met het internet verbonden en wemelt het van de sensoren. Algoritmes sturen je auto een kant op om files te omzeilen. Je elektriciteitsverbruik wordt gelinkt met die van de buurt om pieken in energieverbruik op te vangen. Is onze privacy wel gewaarborgd in zo’n stad? Daar spitsen discussies zich op toe. Het is een terechte zorg. Maar er is meer om over na te denken. Met smart cities geven we een nieuwe invulling aan onze democratie. De infrastructuur voor politiek engagement verandert.’
Wiskundige en lid van de Jonge Academie
Giovanni Samaey
(KU Leuven)
‘Uit zichzelf hebben algoritmes geen kwaad in de zin’
Het wiskundeonderwijs kan de impact van algoritmes kaderen door te verklaren hoe ze werken.
fd
‘Moeten we bang zijn voor algoritmes? Uit zichzelf hebben algoritmes geen kwaad in de zin’, zegt Giovanni Samaey. ‘Ze worden door mensen geschreven – zélf staan ze neutraal tegenover de taken die ze uitvoeren. Enkel als ze fout geprogrammeerd worden of afgesteld worden met vooringenomen gegevens, zullen de uitkomsten verkeerd of vooringenomen zijn.’
‘Een algoritme is een instructiepakket dat een gegevensinvoer in een vooraf bepaalde reeks stappen omrekent naar een gegevensuitvoer die mensen van nut kan zijn. Zo kan een algoritme de vaardigheden van sollicitanten omzetten in cijfers, en op basis van die cijfers een rangschikking van kandidaten opstellen in volgorde van geschiktheid voor de job. Of een algoritme kan een zelfsturende wagen vertellen hoe die op een onverwachte verkeerssituatie moet reageren: bijvoorbeeld door te remmen, of juist niet.’
‘Stilaan worden algoritmes beter dan mensen in dit soort “typisch menselijke” taken. Dat is voor veel mensen beangstigend, omdat gebruikers geen zicht hebben op hoe algoritmes aan hun uitkomst komen. Terwijl je als eigenaar van een zelfsturende auto waarschijnlijk wel wilt weten wat de auto zal doen als er onverwacht een voetganger door het rood oversteekt, terwijl er achter je een zware vrachtwagen rijdt. Laat het algoritme de zelfrijdende auto remmen om het leven van de voetganger te redden, met het risico dat de auto zelf door de vrachtwagen zal worden aangereden? Of zal het te allen prijze voorkomen dat de auto wordt aangereden, zelfs als dat het leven van de voetganger kost? Het algoritme beslist daarover uitgaande van beslissingscriteria die de maker heeft ingeprogrammeerd – zoals: neem geen risico’s om het leven van verkeersovertreders te sparen. Maar welke beslissingscriteria een algoritme heeft meegekregen, is soms moeilijk te zeggen omdat veel algoritmes onder het bedrijfsgeheim van hun maker vallen. Ze zijn voor gebruikers een black box: vooraan stop je er iets in, achteraan komt er iets uit, zonder dat je zicht hebt op wat er onderweg in de doos is gebeurd. De vrees leeft dat algoritmes ons leven bepalen zonder dat we er enige greep op hebben.’
‘De vooroordelen van een algoritme weerspiegelen de vooroordelen van diegenen die de gegevens fabriceerden waarop het zich baseert’
‘Mensen hebben dus geen idee hoe de berekeningen verlopen. Maar de makers van het algoritme eigenlijk vaak ook niet meer. Zeker niet bij de complexere algoritmes die ingevoerde gegevens van een “weging” voorzien – in het eindoordeel weegt de ene factor zwaarder door dan de andere. Hoe die weging gebeurt, bepalen veel algoritmes namelijk zelf. Een neuraal netwerk, een geavanceerde vorm van algoritme, wordt op basis van heel veel invoergegevens getraind om “dezelfde beslissing als een mens te nemen”. Pas wanneer dat lukt, wordt het losgelaten in het wild. Ook dan leert het algoritme nog bij en past het voortdurend zijn “weging” aan. Wat de belangrijkste beslissingscriteria zijn, is dan vaak ook voor de makers niet meer duidelijk. Algoritmes die op die manier werken, proberen in essentie de menselijke ervaring te vatten – die verzameling van impliciete criteria die mensen in staat stelt om intuïtief te beslissen.’
‘Als we niet weten wat er precies berekend wordt, is de uitkomst van een algoritme dan wel te vertrouwen? Stel dat je merkt dat een rekruteringsalgoritme systematisch kandidaten met jonge kinderen lager rangschikt. Is dat dan een opdracht geweest voor het algoritme? Is dat voorgeprogrammeerd? Of heeft het algoritme gewoon geleerd dat rekruteerders nu eenmaal impliciet dat criterium hanteren? Hoe dan ook zullen kandidaten met jonge kinderen zich benadeeld voelen. Maar is dat de schuld van het algoritme? De vooroordelen van een algoritme weerspiegelen slechts de vooroordelen van diegenen die de gegevens fabriceerden waarop het zich baseert.’
‘Kan een algoritme ook fouten maken? Natuurlijk, en die fouten kunnen meerdere oorzaken hebben. Deugden de ingevoerde gegevens niet? Werd het algoritme gebruikt voor iets waar het niet voor bedoeld was? Zat er een ontwerpfout in die er bij pre-releasetests niet was uitgehaald? Veel van de angst voor algoritmes komt ook voort uit de onbekendheid met de wiskunde die erbij komt kijken.’
‘Natuurlijk moeten we op onze hoede zijn voor een verkeerd gebruik van algoritmes. En voorzichtig met het zomaar weggeven van gegevens die kunnen gebruikt worden om algoritmes te trainen. Mensen horen te wéten wanneer algoritmes worden betrokken bij een proces waarvan de uitkomst op hen betrekking heeft. De overheid kan spelregels opleggen over hoeveel openheid van zaken de makers van algoritmes moeten geven. Het wiskundeonderwijs kan de impact van algoritmes kaderen door te verklaren hoe ze werken. Maar dat individuele gebruikers ooit van elk algoritme in detail de werking zullen kunnen vatten, lijkt me onwaarschijnlijk – en ook niet nodig.’
Communicatiewetenschapper
en lid van de Jonge Academie
Peter Van Aelst (Universiteit Antwerpen)
‘We moeten beseffen dat sociale media het nieuws voor ons filteren’
Sluiten Google, Twitter en Facebook ons op in de filterbubbel van ons eigen gelijk?
fd
‘Facebook, Twitter en Google leveren ons informatie op maat: thema’s waarvan hun algoritmes, afgaande op ons surfgedrag, voorspellen dat we erin geïnteresseerd zullen zijn’, legt Peter Van Aelst uit. ‘Door die gepersonaliseerde nieuwsstroom zouden we steeds vaker worden bevestigd in wat we al dachten, in plaats van met andere meningen en feiten te worden geconfronteerd. De “filterbubbel” zou ons opsluiten in onze eigen wereld en enkel nog nieuws doen consumeren dat met onze eigen mening overlapt. Gepersonaliseerde zoekalgoritmes zouden onze zoekresultaten steeds minder divers maken, waardoor we steeds dezelfde kijk op de werkelijkheid krijgen.’
‘Schuilt daarin een potentieel gevaar? Zijn er mogelijk negatieve maatschappelijke gevolgen van die “filterbubbel” te vrezen? Jazeker. Maar voorlopig vind ik het discours net iets te alarmerend, en soms ronduit foutief. Bewijzen dat mensen door sociale media effectief in hun eigen mening worden bevestigd, zijn vooralsnog schaars. Enige nuance is op zijn plaats.’
‘Om te beginnen is een selectieve blootstelling aan nieuws niet nieuw. Die heeft altijd bestaan. Vroeger, toen Vlaanderen nog flink verzuild was, kreeg je ook een heel andere kijk op de wereld wanneer je de De Standaard las, toen van de katholieke zuil, dan wel de Volksgazet, van de socialistische zuil. De keuzealgoritmes van het internet zouden die verzuiling terugbrengen, is de vrees. Maar of het gepersonaliseerde nieuwsaanbod van sociale media erg verschilt van keuzes die je zelf uit het steeds ruimere aanbod van nieuwsmedia zou maken, is lang niet zeker. Een recente Duitse studie suggereert van niet: keuzealgoritmes zouden slechts tot een verschuiving van 10 procent leiden in de selectie van nieuwsberichten.’
‘Dat fake news en filterbubbels op het punt staan om onze maatschappij te ontwrichten en de democratie te ondermijnen, geloof ik niet’
‘Wat wél zorgelijk is: de algoritmes die Google, Facebook en Twitter gebruiken om voor ons een nieuwsselectie te maken, zouden zo transparant mogelijk moeten zijn. Dat zijn ze niet. Daarom vind ik het niet erg dat deze bedrijven, na de heisa over de Trump-campagne en het fake news, in het beklaagdenbankje zijn terechtgekomen. Want ze horen toelichting te geven bij hun werkwijze. Niet omdat ik denk dat er ontoelaatbare zaken gebeuren, wel omdat mensen inzicht moeten hebben in hoe het nieuws voor hen gefilterd wordt.’
‘Maar echt gevaarlijk wordt het pas wanneer fake news tot de filterbubbel doordringt. Europa heeft voorlopig minder last van nepnieuws dan de VS, maar ook hier zijn mensen vatbaar voor boodschappen die niet kloppen. Vooral voor microtargeting moeten we beducht zijn: gerichte pogingen om minderheidsgroepen te beïnvloeden. In de aanloop naar het Brexit-referendum zouden eurosceptische belangengroepen jonge Facebook-gebruikers met twijfelachtige boodschappen hebben bestookt om Groot-Brittannië uit de Unie te helpen stemmen.’
‘Dat fake news en filterbubbels op het punt staan om onze maatschappij te ontwrichten en de democratie te ondermijnen, geloof ik niet. Het gevaar van de filterbubbel wordt overschat. Ik denk niet dat internetgebruikers nieuwsfeiten of opinies die hun niet welgevallig zijn, opeens helemaal niet meer te zien zullen krijgen. Mensen weten heus wel dat er andere meningen dan de hunne bestaan, en ze kijken ook nog gewoon naar het journaal. Het hoeft niet verkeerd te gaan als je filters gebruikt om de enorme hoeveelheid informatie van vandaag te reduceren tot wat voor jou het relevantst is.’
‘We moeten wel waakzaam zijn. We moeten weten welke filters worden gebruikt in de nieuwsselectie die internet voor ons maakt, en die desgewenst kunnen aanpassen of uitschakelen. De overheid moet daar spelregels opleggen. Consumenten moeten zich ervan bewust worden dat ze hun nieuws gefilterd aangeleverd krijgen. Daar ligt een rol voor het onderwijs. Dat kan leerlingen mediageletterd maken, en onderscheid leren te maken tussen betrouwbare en onbetrouwbare nieuwsbronnen. Jongeren horen te weten dat er feitenchecksites bestaan, net als sites die hoaxes oplijsten. Daar kunnen ze valse of twijfelachtige Facebook-berichten checken vooraleer ze die met anderen delen.’
MORGEN: Hoeveel slimmer kan de wereld nog worden?
Conclusie
Uit zichzelf zijn algoritmes niet kwaadaardig. Ze berekenen een uitkomst, met gegevens die hen door mensen worden aangereikt, in een door mensen bepaalde reeks rekenstappen en volgens door mensen vastgestelde beslissingscriteria.
Toch moeten we beducht zijn voor de risico’s van de technologie. Algoritmes kunnen ontwerpfouten bevatten, zodat hun uitkomsten niet deugen. Ze kunnen oneigenlijk worden gebruikt, voor zaken waarvoor ze niet ontworpen werden. En als vooroordelen worden geprogrammeerd in een algoritme, levert het bevooroordeelde uitkomsten. De algoritmes die voor ons zoekresultaten ordenen, nieuws selecteren of zelfrijdende auto’s aansturen, zouden daarom zo transparant en aansprakelijk mogelijk moeten zijn. Dat zijn ze nu niet. Daar ligt een rol voor overheden, die bij makers van algoritmes openheid van zaken kan afdwingen. Daarnaast horen mensen te wéten wanneer algoritmes worden betrokken bij een proces waarvan de uitkomst op hen betrekking heeft, en de mogelijkheid te hebben om daarvan af te zien. (hvde)