Geen reden tot paniek na mislukt AI-experiment van Facebook
Een oorlog tussen mens en computer lijkt er niet meteen te komen. Foto: 20th century fox
Het internet ging eerder deze week door het lint: Facebook had een experiment rond artificiële intelligentie (AI) stopgezet omdat twee robots zogezegd een eigen taal had ontwikkeld. Betekende dat een enorme stap naar een oorlog tussen mens en computer?

Facebook is al een tijdlang gefascineerd door artificiële intelligentie en het potentieel ervan. Het verbaasde dan ook niet dat de onderzoekscel van het bedrijf midden juni een experiment lanceerde om de intelligentie van chatbots naar een nieuw niveau te tillen. ‘Vandaag kunnen bots simpele conversaties en taakjes aan’, klonk het in een blogpost, maar Facebook wou ze leren onderhandelen.

Maar het experiment verliep niet meteen zoals gehoopt. De conversatie tussen ‘Bob’ en ‘Alice’ verliep als volgt:

Bob: ‘I can i i everything else’

Alice: ‘balls have zero to me to me to me to me to me to me to me to me to’

Bob: ‘you i everything else’

Alice: ‘balls have a ball to me to me to me to me to me to me to me to me’

Niet meteen de manier van communiceren die Facebook voor ogen had, dus besliste het bedrijf een zestal weken geleden het experiment af te blazen. Daar kraaide lange tijd geen haan naar, maar enkele populaire, voornamelijk Britse media diepten het verhaal begin deze week opnieuw op, wellicht deels gevoed door de recente uitspraken van Elon Musk,

‘Hebben we zonet Frankenstein gecreëerd?’, vroeg International Business Times zich bijvoorbeeld af. The Sun liet een professor aan het woord die het over een ‘erg gevaarlijk’ experiment had. Bij techwebsite BGR klonk het dan weer dat ‘ingenieurs van Facebook in paniek’ waren.

Het internet ging vervolgens door het lint, maar dat is nergens voor nodig, verzekert hoofdonderzoeker Michael Lewis aan de fact checking specialisten van Snopes.

‘We hadden de bots geprogrammeerd om Engels te praten, maar ze werden niet beloond voor correct taalgebruik. Na duizenden gesprekjes, begonnen ze woorden te gebruiken op manieren die voor de mens nergens op slaan [...] Er was nooit sprake van paniek. We gaan nu werk maken van extra technieken om de bots te laten werken zoals wij het willen. Analyseren en parameters aanpassen wil niet zeggen dat je het onderzoek afvoert.’

Nog volgens Lewis heeft het onderzoek bovendien enkele nuttige bevindingen naar boven gebracht. Als bots ooit echt moeten kunnen onderhandelen, vereist dat blijkbaar niet enkel cognitieve vaardigheden, maar ook taalkundige intelligentie.

Tot slot vroeg Snopes ook naar Lewis’ mening over ‘de gevaren’ van artificiële intelligentie. ‘Ook al zullen bots op de duur problemen oplossen op manieren die mensen maar moeilijk zullen begrijpen, ze zullen wel nog steeds enkel de opdrachten van de mens uitvoeren.’ Geen risico op een eigen willetje, denkt Lewis dus.