Wednesday, December 12, 2018

Zeggen wat je denkt

Patiënten met het locked-in syndroom, zoals in een vergevorderd stadium van ALS, kunnen niet meer bewegen en praten. Hun enige hoop op contact met de buitenwereld is een apparaatje dat hun hersensignalen omzet in taal of in handelingen.

Dit artikel is gepubliceerd in I/O Magazine van december 2018



“Wanneer je wel nog alles om je heen hoort, maar niet meer mee kunt praten, kan dat je heel eenzaam maken, zeker tegen het einde van je leven”, vertelt hoogleraar Peter Desain over de patiënten die hij wil helpen. Dan gaat het om mensen met een locked-in syndroom, een neurologische toestand waarbij patiënten gevangen zitten in hun eigen lichaam. Dit komt onder andere voor bij een ver gevorderd stadium van de spierziekte ALS.

Desain: “Natuurlijk willen deze patiënten ook graag dat ze zelf het licht aan of uit kunnen doen, of zelf hun rolstoel kunnen besturen, maar wat ze toch het allerliefste willen, is praten: hun liefde uitspreken voor hun naasten, praten over de frustratie over hun ziekte, praten over hun angst voor de dood. Om deze communicatie weer mogelijk te maken, ontwikkelen we brein-computer-interfaces.”

Desain is hoogleraar cognitiewetenschappen en kunstmatige intelligentie aan de Radboud Universiteit Nijmegen. Hij werkt al twintig jaar aan brein-computer-interfaces, een soort breinlezers die hersensignalen oppikken en vertalen in een handeling of in gesproken of geschreven taal. Brein-computer-interfaces zijn lang een belofte zonder toepassingen geweest, vertelt Desain, maar in de afgelopen jaren zijn er eindelijk doorbraken gekomen die hebben geleid tot betrouwbare detectiemethodes. Deze kunnen worden ingezet voor patiënten die niet meer kunnen praten en bewegen, maar ook voor toepassingen in de game-industrie. Spelers van zowel entertainment-games als serious-games kunnen dan direct met hun hersenen een game spelen.

De recente doorbraken werden mogelijk door het samenkomen van ontwikkelingen in de neurowetenschappen en de kunstmatige intelligentie, vertelt Desain. Een voorbeeld is het gebruik van machine learning om het interpreteren van signalen uit het brein te verbeteren. Desain: “Al decennialang meten we EEG-signalen uit het brein door elektroden met een gel op de schedel te plakken. Droge electroden zijn veel makkelijker in het gebruik, maar geven een slechter signaal en maken een onbetrouwbaar contact. Het signaal kan ook verstoord raken door het signaal van bijvoorbeeld samentrekkende spieren of elektrische storingen uit de omgeving, zoals de motor van een rolstoel. Met machine learning zorgen we er nu voor dat dit soort verstoringen automatisch wordt gecorrigeerd, waardoor het interpreteren van EEG-signalen veel betrouwbaarder wordt.”

Om zulke doorbraken te vertalen in een bruikbaar product voor ALS-patiënten, startte Desain met een klein team in mei van dit jaar het spin-off-bedrijf MindAffect. Het idee is om via een EEG-headset te meten op welke toets van een toetsenbord een patiënt zijn aandacht richt. Elke toets knippert met korte en lange lichtflitsjes en genereert zo als het ware zijn eigen unieke streepjescode. Zo leidt elke toets tot een ander hersensignaal dat met een nieuw model nu voorspelbaar is. Daarmee kan de patiënt ongeveer een letter per seconde produceren. Desain: “Dat staat nog een eindje af van vloeiend typen, maar dit is wel een snelheid waarmee een patiënt met de familie of met de dokter kan communiceren.”

Veel van het Nederlandse onderzoek naar brein-computer-interfaces kwam op gang dankzij het publiek-private project BrainGain, dat tussen 2007 en 2013 liep. Een aantal van de toen gestarte initiatieven loopt nog steeds door, vertelt Desain. “Wat Nederland nu sterk maakt in dit veld, is dat alle disciplines die nodig zijn voor het maken van brein-computer-interfaces goed met elkaar samenwerken: van de fabrikanten van de elektrodes tot de bedenkers en de bouwers van de ondersteunende software.” Zo werkt Desain intensief samen met de TU Eindhoven, die een chip voor in de headset maakt (zie kader), en de ALS-patiëntenvereniging, voor de validatie en het testen met patiënten.

Femke Nijboer, universitair docent biomedische signalen en systemen aan de Universiteit Twente, onderzoekt hoe patiënten in de praktijk omgaan met brein-computer-interfaces. Welke wensen hebben zij? En tegen welke problemen lopen zij aan? Nijboer: “Het is nog steeds een grote uitdaging om een brein-computer-interface te maken dat voor iedereen werkt, draagbaar is, niet snel kapot gaat en ook nog betaalbaar is.”

Naast het type breinlezer dat Peter Desain ontwikkelt, schets Nijboer nog een tweede mogelijkheid: “Professor Nick Ramsey van het UMC Utrecht werkt aan het implanteren van elektrodes net onder de schedel, aan de buitenkant van de hersenen. Zo kun je de elektrische signalen beter meten dan op de schedel, maar hoef je niet in het brein zelf te prikken. Bovendien zit je niet met het gedoe om elektrodes op de schedel te plakken. Een patiënt zou er meer vrijheid door krijgen. Deze techniek staat nog in de kinderschoenen, maar ik zie er veel toekomst in.”

De vraag is wel of een ziektekostenverzekering een relatief dure oplossing voor een relatief kleine groep patiënten wil betalen. Naar schatting telt Nederland op dit moment zo’n 124 patiënten die op geen andere manier meer kunnen communiceren dan via een brein-computer-interface. Om die mensen een sterkere stem te geven, is Nijboer bezig met het opzetten van het landelijke netwerk LISNL voor mensen met locked-in syndroom.

Nijboer vertelt dat patiënten zelf trouwens vaak hele andere dingen belangrijk vinden dan de ingenieurs die de breinlezers ontwerpen. “Zo vinden ze het heel belangrijk hoe het apparaat er uit ziet. Ze zeggen: ‘Ik ben al zo in mijn waardigheid aangetast door mijn ziekte. Ik zie er al zo anders uit dan anderen. Dan moet het apparaat dat ik op mijn hoofd heb er wel goed uitzien.’”

Maar wat dit betreft, verwacht ze veel van het bedrijf Neuralink van tech-ondernemer Elon Musk en van tech-giganten als Microsoft en Facebook. “Al deze bedrijven investeren veel geld in brein-computer-interfaces, voor diverse toepassingen. Ik verwacht dat daar iets gaat uitkomen wat er zowel voor consumenten als voor patiënten aantrekkelijk uitziet. Neuralink werkt bijvoorbeeld aan een gaas van sensoren, dat precies op het juiste hersengebied geïnjecteerd kan worden, zodat het gaas zich daar kan ontvouwen om een interface te vormen met de hersenen. Daarmee hopen ze de elektrische signalen uit de hersenen preciezer te meten. En ongetwijfeld zullen ze de communicatie tussen hersenen en computer ook draadloos gaan maken.”

Tenslotte onderzoekt Nijboer ook de ethische en maatschappelijk effecten van het dragen van zulke breinlezers. “Laten we ook kijken hoe zulke patiënten behandeld worden door de maatschappij”, besluit ze. “Fijn dat er apparaten zijn die mensen kunnen helpen om te communiceren, maar wat als er maar weinig mensen zijn die met hen willen communiceren, omdat ze het eng vinden om met een verlamde patiënt te praten?”


[kader]
EEG-chip voor brein-computer-interfaces

Onderzoekers van de TU Eindhoven ontwikkelen een EEG-chip en een EEG-headset voor brein-computer-interfaces om elektrische hersenactiviteit te meten. De belangrijkste uitdaging hierbij is om de gemeten signalen energiezuinig te bewerken en een batterij gevoede, compacte en intelligente EEG-headset te ontwikkelen. Een belangrijke toepassing is bij patiënten met epilepsie en Parkinson.

Professor Henk Corporaal, hoogleraar elektronische systemen aan de TU Eindhoven: “De bestaande headsets hebben allemaal een forse computer nodig voor het verwerken van de signalen”, vertelt Corporaal. “Door die computer kan een patiënt niet vrij bewegen en bovendien verbruikt die veel energie. Wij hebben dit jaar het eerste prototype van een energiezuinige en zeer flexibele chip ontwikkeld. In de komende anderhalf jaar hopen we dit prototype door te ontwikkelen naar een chip die rijp is voor commerciële toepassingen.”

Hiermee wordt het mogelijk dat epilepsie- en Parkinsonpatiënten de elektrische hersenactiviteit in hun eigen vertrouwde omgeving kunnen meten. Een headset met de EEG-chip kan een epileptische aanval zien aankomen of het plotseling ‘bevriezen’ van de bewegingen van een Parkinson-patiënt. Wanneer een patiënt dit op tijd weet, kan hij adequate maatregelen nemen.

Voor epilepsie en Parkinson vindt het basale onderzoek plaats binnen het NWO-project BrainWave (2016-2020) en het op commerciële toepassingen gerichte deel valt onder het project BrainSense (NWO 2018-2019), dat een looptijd van anderhalf jaar heeft.

Het maken van een energiezuinige chip is erg kostbaar en daarom vaak niet commercieel interessant vanwege de relatief lage aantallen patiënten. Vandaar dat de Eindhovense onderzoekers ook toepassingen zoeken in andere domeinen, zoals brein-computer-interfaces voor consumenten in de domotica, voor toepassingen in de game-industrie en toepassingen in intensive cares.

Friday, December 7, 2018

50 jaar geleden - De moeder aller computerdemo’s

Aanstaande zondag precies vijftig jaar geleden gaf een verlegen ingenieur de invloedrijkste tech-demo aller tijden. Douglas Engelbart demonstreerde toen al hoe wij nu met computers werken.


Dit artikel is gepubliceerd in NRC Handelsblad van 7 december 2018

Het is 9 december 1968, aanstaande zondag precies vijftig jaar geleden, wanneer een wat verlegen ingenieur een tech-presentatie geeft die tegenwoordig bekendstaat als ‘de moeder van alle demo’s’. Een presentatie die de personal computer-revolutie van de decennia daarna tot in detail demonstreerde en ambitieuzer was dan alle demo’s die Apple- baas Steve Jobs deze eeuw heeft gehouden.

In het jaar waarin zowel Steve Jobs als Bill Gates nog maar dertien jaar oud was, begon de Amerikaanse ingenieur Douglas Engelbart zijn visionaire demonstratie in het San Francisco Civic Auditorium als volgt: „Stel je voor dat jij, als kenniswerker, een computerscherm voor je hebt en een computer die de hele dag tot je beschikking staat, en die onmiddellijk reageert op elke actie die je doet – hoeveel waarde kun je daar wel niet uit halen?”

In een anderhalf uur durende presentatie voor een publiek van een kleine duizend mensen, demonstreerde Engelbart vrijwel alle aspecten die we in het hedendaagse digitale tijdperk kennen: een computer die je bedient met een toetsenbord en een computermuis (die Engelbart al in 1963 had uitgevonden), een grafische gebruikersomgeving, het werken met meerdere vensters op het computerscherm, een tekstverwerker, een spellingchecker, het delen van documenten, een blog, een wiki-achtige samenwerking, e-mail, hyperlinks, en een Skype-achtige videoconferentie. Het werkte allemaal in het echt.


Lees het hele artikel op de website van NRC.

Saturday, December 1, 2018

Voorkomen of genezen?

Dit artikel is gepubliceerd in de VPRO Gids van 26 november 2018, naar aanleiding van de tv-uitzending van VPRO Tegenlicht op zondag 2 december: 'Verovering van ons DNA'.

                             

In maart van dit jaar maakte de regering van Estland bekend dat ze vijf miljoen euro uittrekt om in het vervolg van 2018 honderdduizend burgers een gratis genetische screening aan te bieden. Sindsdien stromen de aanmeldingen van belangstellende Esten wekelijks binnen. ‘Nog voor kerstmis gaan we die honderdduizend halen’, zegt professor Andres Metspalu aan de telefoon. Metspalu is directeur van het Estonian Genome Center van de Universiteit van Tartu in Estland. In de biobank van zijn centrum ligt het genetische materiaal van de Esten opgeslagen. Estland heeft een ideaal, vertelt de geneticus: ‘En dat ideaal noemen we precisie­preventie.’ 

De slechts 1,3 miljoen inwoners tellende Baltische staat gaat de genetische informatie van bereidwillige burgers gebruiken om ziekten te voorkomen en om adviezen over gezondheid en medicijngebruik op maat te geven. Collega-onderzoekers van Metspalu publiceerden in oktober een wetenschappelijke studie in het tijdschrift Genetics in Medicine waarin ze lieten zien dat de Estse screening dertien mensen had gevonden met familiaire hypercholesterolemie, een erfelijke aandoening waarbij het cholesterolgehalte in het bloed te hoog is. Hierdoor neemt het risico op een hart­infarct sterk toe. Geen van deze dertien wist dat ze deze aandoening onder de leden hebben, maar ieder van hen kreeg spoedig na de diagnose wel meteen de juiste medische behandeling aangeboden.

‘Dit voorbeeld laat goed zien wat het nut van onze genetische screening is,’ reageert Metspalu. ‘Familiaire hypercholesterolemie komt bij ongeveer een op de tweehonderd mensen voor, maar twee derde van hen krijgt nooit de diagnose. Daar willen we iets aan doen.’ Hij vertelt dat twee ziekenhuizen in Estland al zijn begonnen om programma’s te ontwikkelen voor het voorkomen van hart- en vaatziekten en het vroeg detecteren van borstkanker bij burgers die daar een sterk verhoogde kans op hebben volgens hun genetische screening.

Metspalu: ‘Vijf tot tien procent van de vrouwen heeft een hoge genetische aanleg om voor het vijftigste levensjaar borstkanker te ontwikkelen. Maar borstkankerscreening begint pas boven de vijftig jaar. Voor de groep vrouwen met een sterk verhoogde kans op borstkanker is dat te laat. Met ons programma kunnen we die vrouwen veel eerder screenen en met veel meer kans op succes behandelen.’

Lees het hele artikel op de website van de VPRO Gids.

Tuesday, November 20, 2018

Hoe intelligent is kunstmatige intelligentie?

Worden machines slimmer dan mensen? Natuurlijk: ze kunnen beter schaken dan de beste schaker en verslaan de wereldkampioen in Go. Maar het kost veel energie, en het inlevingsvermogen van een peuter is nog altijd groter. Hoe intelligent is kunstmatige intelligentie eigenlijk?



Wekelijks maakt de NRC Wetenschapsredactie een podcast. Beluister hier mijn bijdrage aan de podcast van 14 november 2018 over kunstmatige intelligentie. Aanleiding was mijn hoofdartikel in de NRC-wetenschapsbijlage van zaterdag 10 november 2018.

Thursday, November 15, 2018

Hoe een poepende roboteend een filosofisch debat op scherp stelde

Dit artikel is gepubliceerd in de VPRO Gids van november 2018


“De eend strekt zijn nek uit om de maïskorrels uit je hand te pikken, slikt ze door, verteert ze en via de gebruikelijke passage verdwijnen ze in zijn ontlasting. Je ziet al deze acties….gekopieerd van de Natuur.” Dat schreef de Zwitserse uitvinder Jacques de Vaucanson (1709-1782) over zijn beroemdste creatie. De mechanische eend kon ook drinken, een gorgelend geluid maken en met zijn vleugels fladderen. 

In 1739 stond deze ingenieuze automaat tentoongesteld in het Hôtel de Longueville in Parijs. Links van de eend stond een mechanische trommelaar, rechts een mechanische fluitspeler. Maar automaten die muziek konden maken, bestonden al eeuwen, zowel in Europa als in China en in de Arabische wereld. Echt nieuw was een automaat die niet alleen kon bewegen, maar zelfs kon eten, spijsverteren en poepen. Dat konden toch alleen dieren van vlees en bloed? Vaucanson had er bewust voor gezorgd dat de bezoekers het inwendige van de roboteend konden zien, zodat ogenschijnlijk niets verborgen was.

Natuurlijk had de eend helemaal geen echte spijsvertering. De uitwerpselen waren natuurgetrouwe nabootsingen die via een verborgen holte uit de eend werden geduwd. Maar de eend zette een filosofisch debat op scherp. In de 17e eeuw had de filosoof René Descartes beweerd dat dieren niets anders dan machines waren. Ze deden alleen wat voorgeprogrammeerd was. Vaucanson wilde met zijn eend het omgekeerde demonstreren: je kunt een mechanische machine bouwen die in alles lijkt op een echt dier.

Maar waarom ophouden bij een dier als machine of een machine als dier? De Franse arts en filosoof Julien Offray de La Mettrie, geboren in hetzelfde jaar als Vaucanson, ging dan ook een stap verder. Hij beweerde dat ook de mens niet meer dan een machine was. En hij schreef dat hij hoopte dat een groot uitvinder als Vaucanson in de toekomst zoiets zou kunnen bouwen als een mechanische mens: “Een machine die niet langer voor onmogelijk gehouden moet worden, zeker niet onder de handen van deze tweede Prometheus.”

Wanneer we de hedendaagse hoop en angst over robots en kunstmatig intelligente computers willen begrijpen, dan moeten we beseffen dat zowel deze hoop als deze angst diep geworteld zijn in de menselijke cultuur. Robots hebben mensen al drieduizend jaar gefascineerd. Dromen over robots in werken als De Ilias van Homerus werden in vele eeuwen daarna eerst omgezet in speelgoedachtige automaten. Later volgden praktische automaten zoals automatische weefmachines, die menselijke handarbeid vervingen. Al deze automaten zijn voorlopers van de uitvinding van de programmeerbare robot halverwege de 20e eeuw. Het zit diep in ons: we proberen machines te bouwen die menselijke, ja liefst bovenmenselijke capaciteiten hebben, maar tegelijkertijd zijn we bang dat deze machines niet ondergeschikt aan ons blijven.

‘Vaucancons poepende roboteend’ is deel 1 van een zesdelige reeks radioverhalen over vreemde ideeën uit het verleden. De serie, getiteld Tijdgeest, is gemaakt door Julie Blussé. In de eerste aflevering praat ze met dierfilosoof Erno Eskens en hoogleraar geschiedenis van de psychologie Douwe Draaisma over de filosofische betekenis van de poepende eend. Waar ligt de grens tussen mechanisch ding en levend wezen?

Informatie
‘Vaucancons poepende roboteend’ wordt uitgezonden op zondag 18 november in het VPRO-programma OVT op NPO Radio 1, tussen 10.00 en 11.00. De aflevering is al vanaf 11 november te beluisteren in de podcast van Tijdgeest.

Saturday, November 10, 2018

Waarom computers het afleggen tegen peuterintuïtie

Hoe kan het toch dat computers op bovenmenselijk niveau schaken en go spelen, maar qua gezond verstand nog niet in de buurt komen van driejarigen?


Dit artikel is gepubliceerd in NRC Handelsblad van zaterdag 10 november 2018

Een man met een stapel papier in zijn handen loopt naar een gesloten kast toe. In de hoek van de kamer kijkt een klein jongetje toe. De man botst tegen de kast op, doet een paar stappen terug, loopt weer naar voren en botst voor de tweede keer tegen de kast op. Weer doet hij een paar stappen terug. Dan loopt het jongetje naar de kast, opent de deuren en kijkt omhoog naar de man. De man loopt weer naar de kast en terwijl het jongetje omlaag kijkt naar een boekenplank, legt de man de stapel papier in de kast.

De video van deze scène is afkomstig van de psychologen Felix Warneken en Michael Tomasello. Zij deden onderzoek naar altruïsme bij jonge kinderen.

De Amerikaanse cognitiewetenschapper en onderzoeker van kunstmatige intelligentie Josh Tenenbaum, verbonden aan het MIT in Massachusetts, gebruikt dezelfde video juist om de beperkingen van de huidige kunstmatige intelligentie te illustreren. Tenenbaum zei afgelopen juli op een congres over kunstmatige intelligentie: „Het jongetje is anderhalf jaar oud en heeft deze situatie nog nooit eerder gezien. Hij begrijpt de bedoeling van de man en hij begrijpt de functie van de kast. Denk je eens in wat het jongetje allemaal moet weten om te doen wat hij doet. Geen enkele computer of robot kan wat dit jongetje kan.”

[...]

Om nog beter te begrijpen waarom het voor kunstmatige intelligentie nog steeds zo moeilijk is om te doen wat het anderhalf jaar oude jongetje doet, ga ik met de video op mijn laptop langs in Nijmegen, bij twee Nederlandse experts: cognitiewetenschapper Iris van Rooij en hoogleraar kunstmatige intelligentie Marcel van Gerven, beiden verbonden aan de Radboud Universiteit in Nijmegen. Allebei kennen ze het werk van Tenenbaum goed, maar kijken er vanuit een ander perspectief tegenaan: Van Rooij als cognitiewetenschapper, en Van Gerven als neurowetenschapper en onderzoeker en ontwikkelaar van kunstmatige intelligentie.

Lees het hele artikel op de website van NRC Handelsblad.

Wednesday, November 7, 2018

Een robot als een blaadje voor iedere leerling

De zelfbouwrobot Leaphy stimuleert scholieren in robotica en programmeren. „Het bouwen van het robotje is helemaal niet moeilijk.”


Dit artikel is verschenen in de online-versie van NRC Handelsblad van 7 november 2018.

Bouw een betaalbare robot voor het onderwijs. Die opdracht gaf docent Olivier van Beekum van het Corderius College in Amersfoort enkele jaren geleden in zijn les over robotica. Van Beekum wil dat elke leerling in Nederland, zowel in het primair als in het voortgezet onderwijs, zijn eigen robot in elkaar kan zetten.

Twee leerlingen die destijds in 4vwo zaten, kwamen met een bijzonder ontwerp. Waar alle andere scholieren robots ontwierpen die er uitzagen als vierkante doosjes, bedachten Vroukje van der Vliet en Hannah Kersbergen een robot die er snel uitziet en ronde vormen heeft. Met een lasersnijder maakten ze een houten romp in de vorm van een blad van een boom. Ze voegden er een goedkoop minicomputertje van Arduino Uno aan toe, twee elektromotoren, enkele sensoren en twee wielen. Zo kwam het rondrijdende robotje Leaphy ter wereld.

Leaphy kan bijvoorbeeld een lijn op de grond volgen, lichtbronnen opzoeken en op geluid reageren. Maar voeg er andere sensoren aan toe, of programmeer het robotbrein iets anders, en de mogelijkheden zijn eindeloos. „Door het zelf bouwen van een robot raak je bekend met wat een robot precies is en kun je er beter over nadenken”, zei Vroukje er twee jaar geleden over.

Lees de rest van het artikel op de website van NRC Handelsblad.

Voor een emotionele band kan een robot maar beter gebreken hebben

Dit artikel is gepubliceerd in De Filmkrant van november 2018

Het duurt minder dan een seconde, maar het is een fascinerend moment in de documentaire AlphaGo: de Roger Federer van het go-spel, de Zuid-Koreaan Lee Sedol, flitst met zijn intense blik van het bord met zwarte en witte stenen naar zijn tegenstander aan de andere kant van het bord. Hij wil de emotie op het gezicht van zijn tegenstander peilen. Ziet hij overtuiging of juist twijfel? Maar zijn tegenstander AlphaGo is onzichtbaar. Het is een computer. Hij heeft geen lichaam, geen gezicht, geen emoties. Bij Lee Sedol slaat de twijfel toe. Heeft de computer zojuist een domme of een geniale zet gedaan?

Lee Sedol verliest de partij en zegt na afloop: “Normaal is er tijdens een partij een uitwisseling van gevoelens met je menselijke tegenstander. Maar van AlphaGo voel je niets. Dat is verwarrend. Het brengt je zelf nog meer aan het twijfelen.”

Computer AlphaGo versloeg Lee Sedol in 2016 met 4-1 in een match die wereldwijd door miljoenen mensen live werd gevolgd. De computer ontdekte geniale zetten waarvan mensen eeuwenlang hadden gedacht dat ze slecht waren. “AlphaGo heeft het go-spel voor duizend jaar verrijkt”, zegt een go-professional in de documentaire AlphaGo.

Waar voor computer AlphaGo het ontbreken van emoties een groot voordeel is ten opzichte van zijn menselijke tegenstanders, daar is gebrek aan emoties en empathie bij een robotinterviewer juist een obstakel. In de documentaire More human than human laat de Amerikaanse filmmaker Tommy Pallotta een robotische camera ‑ een cambot ‑ bouwen die hem als filmmaker gaat interviewen. Pallota hoopte dat hij zich tegenover een robotinterviewer meer bloot geeft dan tegenover een menselijke interviewer. Maar het omgekeerde gebeurt. Door een totaal gebrek aan betekenisvol contact tussen hem en de cambot slaat hij helemaal dicht tijdens het interview dat het hoogtepunt van de documentaire had moeten worden.

Beide documentaires, AlphaGo en More human than human, maken deel uit van een speciaal programma over kunstmatige intelligentie dat draait tijdens het International Science Film Festival InScience, dat van 7 tot en met 11 november plaatsvindt in Nijmegen.

In dat programma zitten ook twee sciencefictionfilms waarin emoties tussen mens en machine het centrale thema vormt: de film Robot & Frank uit 2012 en de Oscar-winnaar Her uit 2013. Om onze menselijke dromen te toetsen aan de werkelijkheid zou je ze eigenlijk alle vier moeten bekijken. Zowel Her als Robot & Frank laten op een subtiele manier zien hoe sterk onze neiging tot het antropomorfismen van levenloze machines is.

In Her wordt hoofdpersoon Theodore Twombly − professioneel brievenschrijver bij het bedrijf BeautifulHandwrittenLetters.com − verliefd op Samantha, het eerste kunstmatig intelligente besturingssyteem ter wereld. Samantha spreekt hem door een oortje toe, kijkt door het cameraatje van zijn mobieltje naar de wereld, organiseert zijn e-mails en spreekt etentjes af. Tegen het einde van de film zegt Samantha tegen Theodore dat ze zich geestelijk heeft ontwikkeld tijdens hun relatie en dat ze verder wil. Samantha blijkt op 641 mensen tegelijk verliefd.

Ook in Robot & Frank ontstaat een emotionele relatie tussen mens en machine. Voormalig juwelendief Frank begint te dementeren en kan steeds minder goed voor zichzelf zorgen. Zijn zoon en dochter zijn druk met hun eigen carrières, en de zoon besluit een hulprobot voor Frank te kopen, die simpelweg Robot heet. Frank sputtert tegen: “Die machine gaat me in mijn slaap vermoorden”, maar zijn zoon houdt voet bij stuk: “De robot blijft hier en jij doet wat hij zegt.”

Robot vertelt Frank dat hij geprogrammeerd is om zich om Franks gezondheid te bekommeren. In plaats van cornflakes voor het ontbijt serveert de robot ineens een grapefruit. Robot neemt Frank mee wandelen en tuinieren. Zo veel goede bedoelingen, zoveel zachte dwang, zo’n robot wekt grote irritatie op, bij Frank en bij de kijker.

Maar dan slaat de sfeer totaal om. Frank vervalt in zijn oude gewoonte om spullen te stelen en ontdekt dat de robot weliswaar om zijn gezondheid zorgt maar verder geen enkele morele grenzen heeft. Het concept stelen kent de robot niet. Wanneer Frank zijn robot leert om sloten te kraken en de robot daar heel handig in wordt, bloeit Frank geestelijk helemaal op.

Samen gaan ze een juweleninbraak plannen bij een jong yuppenstel waar Frank een bloedhekel aan heeft gekregen. De man van het stel heeft zijn geliefde bibliotheek omgetoverd tot een augmented-reality-bibliotheek zonder fysieke boeken. “Ik ben heel blij met je vooruitgang”, zegt de robot. “Het plannen van de inbraak was een geweldig idee.” Zo wordt de robot voor de kijker ineens aaibaar in plaats van bloedirritant. Om een emotionele band met een machine op te bouwen, kan de machine maar gebreken hebben, net als de mens zelf.

De twee sciencefictionfilms verbeelden fraai onze millennia-oude wens om mensachtige machines te bouwen. Waar in de 20e eeuwse sciencefiction veel robots nog tegen de mens in opstand kwamen, zijn de machines uit Her en Robot & Frank er juist om de mens te dienen. Maar het blijven machines. Om Frank uit de handen van de politie te houden, vraagt Robot aan Frank om zijn geheugen te wissen, want daar staat het bewijs van hun inbraken op. “Ik ben geen persoon”, zegt Robot, “Wis mijn geheugen.” Frank wil er niet aan. Hij is gehecht geraakt aan zijn robot.

De twee documentaires laten daarentegen zien hoe verschillend de huidige kunstmatige intelligentie is van onze menselijke intelligentie. In sommige aspecten, zoals logisch redeneren, zijn die machines al lang bovenmenselijk, maar in andere aspecten, zoals empathie, zijn onze slimme machines extreem beperkt. De mens is gevormd door biologische evolutie, computers en robots door de wetten van de logica. Of, zoals de Britse hersenonderzoeker Steven Rose het zegt: “De informatieverwerking waaruit wij bestaan, evolueerde in, en zou wel eens in geen ander medium kunnen werken dan, dat van een sociale, emotionele, door seks geobsedeerde primaat van vlees en bloed.”

Tuesday, October 16, 2018

JUST PUBLISHED: "Hallo Robot: Meet Your New Workmate and Friend"

                                 

Canbury Press just published the book "Hallo Robot: Meet Your New Workmate and Friend" that I wrote together with Nieske Vergunst. It's the English translation of the book that was published last year in Dutch.

Some fear that robots could take half of our jobs and even wipe us out. But is that really so? Hallo Robot reveals how robots see, feel, and act — and what tasks they are likely to perform in the future.

Instead of posing a threat to human beings, intelligent machines could transform our lives. Robots already make our cars and clean our homes and could soon chauffeur us, teach our children, and keep our parents company in old age.

While tackling ethical concerns head-on, Bennie Mols and Nieske Vergunst show how artificial intelligence could help the lame walk again and rescue survivors from collapsed buildings — and boost the global fight against hunger and pollution.

Welcome to a realistic, colourful view of our fast-approaching robot future.

Take a look inside the book:





You can buy the book at your local book store or via Bol.com or Amazon.com.

See here for media attention for the Dutch version.



Monday, October 15, 2018

Kietelende, musicerende en gevaarlijk rondzwaaiende robots

Robots love music en Robot Love − twee prachtige tentoonstellingen die ons via robots een spiegel voorhouden: wat onderscheidt ons van intelligente machines?

Dit artikel is in verkorte vorm verschenen in NRC Handelsblad van 12 oktober 2018



“Zijn bewegingen van hoofd en lichaam, van ogen en lippen waren zo natuurlijk en charmant, dat men volledig vergat dat daar een onbezield werktuig stond.” Dit schreef de Bredase Courant in 1883 over de ‘Androïde Klarinettist’, het magnum opus van de Nederlander Cornelis van Oeckelen, sappelend uitvinder van muziekinstrumenten. De Androïde Klarinettist blies stukken van Von Weber en Beethoven. Na afloop boog de op een middeleeuwse troubadour lijkende automaat zelfs voor voor zijn verbaasde publiek.

De manshoge Androïde Klarinettist is het pronkstuk van de tentoonstelling Robots Love Music in Museum Speelklok in Utrecht. Robots Love Music laat de evolutie zien van musicerende robots en stelt vragen over hoe menselijk robotmuzikanten kunnen zijn. Het begint met simpele automaten die maar een paar tonen spelen. Toch zijn de noten van de remake van de Mechanische Trompettist uit 1808 nauwelijks te onderscheiden van die van een menselijke trompettist.

Het voorlopige einde van de evolutie van musicerende robots is de hypermoderne robot Shimon. Shimon speelt marimba met vier armen en acht stokken. Dat doet geen mens hem na. Zijn computerbrein leerde van zo’n vijfduizend muziekstukken, van Beethoven tot de Beatles, van Miles Davis tot Lady Gaga. Hij treedt op met menselijke muzikanten, luistert naar ze en improviseert vervolgens in free jazz-stijl. Volgens zijn uitvinder luistert Shimon als een mens en improviseert hij als een machine.



Tussen alle muziek spelende automaten in duiken zo’n 250 speelgoedrobots op uit de collectie van de in 2017 overleden sterrenkundige en tv-presentator Chriet Titulaer. Gelukkig ontbreekt het ook niet aan tv-fragmenten van Titulaers tv-programma Wondere Wereld uit de jaren ’80, met een keur aan robots en gadgets.

Robots Love Music is de perfecte opwarmer voor een geheel andere tentoonstelling geïnspireerd door intelligente machines: Robot Love, te zien in de voormalige Campina Melkfabriek in Eindhoven. Waar Robots Love Music de historische dromen van ambachtslieden en ingenieurs vormgeeft, getuigt Robot Love van de grenzeloze verbeelding van moderne kunstenaars. Gesublimeerde hoop in een kietelrobotje dat je een licht erotische rugmassage geeft. Ervaar deze turingtest van de aanraking. Een paar meter verderop is de angst gestold in een loodzware industriële robotarm die doelloos rondzwaait met een stapel gewichten. Hij lijkt de controle totaal kwijt. Het tegendeel van de perfectie waarmee zijn commerciële soortgenoten auto’s in elkaar lassen.

De eeneiige kunstenaarstweeling L.A. Raeven maakte een levensechte robotkopie van henzelf: Annelies. Robot-Annelies is intens verdrietig, van top tot teen. Ze huilt, huilt en blijft maar huilen. Zelfs haar bewegende teen beweegt met treurnis. Waar commerciële robots elk rafelrandje ontberen, is deze robot één grote androïde rafelrand.

Dat we robots ook als een nieuwe levensvorm kunnen zien die in de verste verte niet op homo sapiens lijkt, laat het kunstwerk Beings zien. Tientallen sculpturen gemaakt van plastic slangen, dozen, trechters en ander afval staan rechtop naast elkaar. Hier en daar borrelen zeepbellen uit hun lichamen. Je waant je als bezoeker op een planeet van een bizar robotuniversum.

Waar robotwetenschappers in de kern de mens zoals hij nu is proberen na te bootsen, daar verkennen kunstenaars een robotwereld met in principe onbegrensde mogelijkheden. Toch ademen de meeste robotinstallaties op Robot Love vooral onze eigen diepste angsten en verlangens. Zelfs in de robot ontsnapt de mens maar moeilijk aan zichzelf.

Info
Tentoonstelling Robots Love Music, Museum Speelklok Utrecht, t/m 3 maart 2019
Tentoonstelling Robot Love, Campina Melkfabriek Eindhoven, t/m 2 december 2018

Thursday, October 11, 2018

We need more realism in communicating AI and robotics

This article was written for the blog of the World Summit AI-conference in Amsterdam (10 & 11 October 2018)

In 1965 AI-pioneer Herbert Simon predicted that “machines will be capable, within 20 years, of doing any work a man can do.” It was one of the first overpromises of AI and robots, but by far not the last.

In 2011 the IBM supercomputer Watson stunned the world by winning the tv-quiz Jeopardy, beating the two best humans of all times with a large margin. Ken Jennings, one of the two defeated humans, famously said at the end of the quiz: “I, for one, welcome our new computer overlords.” In the years that followed IBM cleverly developed the vision of revolutionising health care by using a retrained Watson to assist human doctors in making improved medical diagnoses.

This year, seven years after Watson won Jeopardy, IBM sacked two-thirds of its Watson Health division. A STAT-investigation concluded: “IBM pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close.”

The chances are high that in the long run AI really is going to improve healthcare in the way IBM envisions. However, it’s one thing to develop AI that works well on an academic lab scale. It’s a very different thing to transform that same system into a something that works well in the messy, everyday world. We see this also with the self-driving car. The self-driving car still has to overcome some unsolved fundamental problems before it can really drive us without any human intervention from A to B: driving in all types of weather, understanding what it sees in a wider context, communicating with other vehicles in order to predict their behaviour, to name a few remaining challenges.

In the everyday world, data that feed into an AI-system are often messy and biased. AI-systems also lack a lot of common sense that humans have. They can be fooled in very different ways than humans. And once a company implements an AI-system into its everyday working processes, the dynamics inside the organisation changes and new inefficiencies might arise. A surgical robot not only changes the work of the human surgeon, who does not stand any longer next to the patient. The surgical robot also changes the work of the assistants that still do stand next to the patient at the operating table. Suddenly they need some new skills to deal with the robot.

Given AI’s long history in over-promising and under-delivering − especially in the 60’s and 80’s − it would be much better for AI-developers to promise less and deliver more. Better for citizens and consumers, better for politicians and policy-makers. We should listen less to futurists that promise us a utopian future, less as well to the doom thinkers that predict that intelligent machines will take over the world. Both views are equally improbable. AI is a kind of laser-intelligence: very powerful, but in a very narrow area. By comparison, human intelligence is more like a classical light bulb: not as powerful as a laser, but illuminating a much larger area.

In communicating about AI and robots we need a lot more realism. And that’s the reason that I decided to write the book Hallo Robot − Meet Your New Workmate and Friend, together with my colleague Nieske Vergunst. The book is published this week.

For the book we interviewed the scientists and engineers who design and build robots, but also the psychologists who study the interactions between humans and robots, and the economists who work on the impact of automation on the labour market. We asked for input from professionals who use robots on a daily basis, and we spoke with people outside the field of professional robotics: from an amateur robotics enthusiast to a comedian who is fascinated by robots. Through their stories, we hope to find out how the robot works, what it can do well, what it can’t yet do, what we can expect in the near future, and how humans can use robots to make their lives better.

Humans have a lot of cognitive and physical limitations, and we can live better lives if we find clever ways to overcome these limitations. So, the most important question about AI and robots for the next decades is how humans and machines can work side by side in such a way that they perform better together than humans or machines can do alone. Even a very smart machine is still designed, built, programmed and maintained by humans. You can’t get the human out of the machine, so the responsibility rests on us.

Monday, September 17, 2018

Bekijk slimme machines als de show van een illusionist

De documentaire More human than human wil een verhaal vertellen over slimme computers en robots, maar vertelt uiteindelijk vooral een verhaal over de menselijke fantasie.



Deze recensie is verschenen De Filmkrant van juni 2018

Geïnterviewd worden terwijl een camera meekijkt, voelt voor menigeen intimiderend. Zelfs in de meest eenvoudige vorm, waarbij de interviewer zelf de camera hanteert, in plaats van een aparte cameraman, is het alsof er twee paar ogen op je gericht zijn. Stel nu dat je wordt geïnterviewd door alleen een robot, zonder dat er mensen meekijken die ook nog over je kunnen oordelen? Niet een mensachtige robot, maar een robotische camera ‑ een cambot ‑ die als een balletdanser voor je beweegt en die zelf vragen stelt? Voel je je dan meer op het gemak dan bij een menselijke interviewer? Geef je dan meer van jezelf bloot?

Deze vragen zijn het uitgangspunt van de documentaire More human than human van de Amerikaanse filmmaker Tommy Pallotta en zijn Nederlandse collega Femke Wolting. De documentaire wil in beeld brengen wat de stand van zaken is in de kunstmatige intelligentie, het slimmer maken van computers en robots, al enkele jaren een hot item. De film ging eerder dit jaar in première bij het festival South by Southwest in Austin (Texas) en verschijnt op 28 juni in Nederland.

Terwijl in More human than human onderzoekers en ingenieurs van de Universiteit van Pittsburgh de uitdaging aangaan om een cambot te bouwen, leggen de filmmakers hun oor te luister bij bouwers en onderzoekers van robots en kunstmatige intelligentie. We zien een gesprek tussen het meest geavanceerde mensachtige robothoofd ter wereld, robot Sophia, en een van haar makers: ‘Ga jij ooit dood?’ ‘Nee’, antwoordt Sophia, ‘software blijft altijd leven’. We zien een schilderende robot waarover de maker zegt: ‘Geen Van Gogh, maar wel beter dan de gemiddelde mens’. En we zien de Nederlandse zorgrobot Alice, die door haar maker Johan Hoorn een ‘in-between-machine’ wordt genoemd, iets tussen levend wezen en speelgoedpop in.

Tussen de interviews en het cambot-project door schieten flarden uit de onvermijdelijke sciencefictionfilms over robots en kunstmatige intelligentie: Frankenstein, Metropolis, The Terminator, Blade Runner, 2001 ‑ A Space Odyssey, Her. In het begin van de documentaire zegt Daniel Wilson, auteur van de sciencefiction-roman Robocalypse, dat het deze beelden zijn die ons collectieve bewustzijn over slimme machines hebben vergiftigd. Machines die tot leven komen, moorden, mensen ontvoeren en ons in de gaten houden. Uitvergrotingen van onze eigen slechte neigingen. Een ernstig geval van antropomorfisering. Dit is de bron van onze angst dat we robots en computers niet meer in de hand kunnen houden.

Dat dystopische beeld is heel eenzijdig, zegt Wilson, en om dat te doorbreken zouden we volgens hem mensen vaker moeten laten kennismaken met echte robots in plaats van fantasierobots. Met commerciële robots die nuttige dingen doen en succesvol zijn in de markt, en niet alleen met demonstratierobots zoals entertainment-robot Sophia en robot Alice, die trouwens door een mens ingefluisterd krijgt wat ze moet zeggen. Maar dat is nou precies wat ontbreekt in de film. Wat kunnen robots nou echt wel en niet, en waarom? Robots die op twee benen lopen, komen in de verste verte niet in de buurt bij de stabiliteit en de flexibiliteit waarmee mensen lopen. Trouwens, hun accu is ook binnen twee uur leeg. Een robot die gezellig aan de bar een onderhoudend gesprek met je voert? Ook in de verste verte nog niet mogelijk. De paradox is dat robots en computers meestal die dingen goed kunnen die mensen slecht kunnen, maar andersom is dat ook het geval. Voor een robot is een potje schaken veel gemakkelijker dan een huis schoonmaken.

Als zestig jaar aan ontwikkeling van computers en robots ons iets hebben geleerd, dan is het dat computers en robots de mens aanvullen en niet compleet vervangen. ‘De computer is een fiets voor de geest’, zoals Apple-oprichter Steve Jobs ooit zei. Maar de invalshoek waarbij de mens niet tegen de machine strijdt, maar met de machine samen voor een betere wereld ‑ een invalshoek die de meeste specialisten in robots en kunstmatige intelligentie kiezen ‑ ontbreekt vrijwel geheel in de film, op een man die robotische kunstarmen krijgt aangemeten na.

Wat werkelijkheid is over slimme computers en robots, is filmisch vaak niet zo interessant en datgene wat filmisch interessant is, beschrijft niet de werkelijkheid, of in ieder geval een heel verdraaide werkelijkheid. Dat wreekt zich in More human than human.

De schepper van de allereerste chatbot, Joseph Weizenbaum, waarvan trouwens ook een fragment in de film voorbij komt, vond dat we naar kunstmatige intelligentie moeten kijken als naar de show van een illusionist. We moeten beseffen dat we gefopt worden: iets wat lijkt op een mens is nog geen mens. Het verschil zit in de biologie. En net als bij illusionisten, zouden we ons volgens Weizenbaum de vraag moeten stellen hoe we precies worden gefopt.

Dat we het antwoord op die vraag in More human than human niet krijgen, maakt vooral het einde onbevredigend. De cambot is klaar voor gebruik en filmmaker Tommy Pallotta laat zich interviewen door de robot. Bij elke vraag van de robot wordt Pallotta zichtbaar ongemakkelijker. Hij raakt geïrriteerd, voelt zich onbegrepen en geeft er de brui aan: “It feels like an interrogation machine.” Een spannend stukje film, maar wel eentje die vraagt om verdieping. Waarom kan een cambot die gezichtsuitdrukkingen herkent, vragen stelt, antwoorden verwerkt en die vanuit alle standen kan filmen, toch met geen mogelijkheid een betekenisvol contact met de geïnterviewde aangaan? Genoeg wetenschappers die hier interessante antwoorden op hadden kunnen geven, maar die zitten niet in de film.

Tuesday, August 28, 2018

Growing a Mind in a Machine


A man with a stack of papers in his hands walks towards a closed cupboard. In the corner of the room, an 18-month-old boy is watching the scene from a corner of the room. The man bumps to the cupboard, takes a few steps back, tries again, and bumps against the closed doors a second time. The little boy leaves the corner, walks to the cupboard, and opens both cupboard doors; then he looks up to the man, who again walks towards the cupboard. As the boy gazes at the bookshelves, the man places the stack of papers on one of the shelves.

The video described above, titled "Experiments with altruism in children and chimps," was created during a psychological experiment by Massachusetts Institute of Technology (MIT) cognitive scientist and artificial intelligence researcher Josh Tenenbaum. He showed the video during his invited talk on "Building Machines that Learn and Think Like People" at IJCAI2018, the 27th International Joint Conference on Artificial Intelligence, held in Stockholm, Sweden, in July.

In commenting on the video, Tenenbaum said, "The little boy sees an action that he has never seen before. He can understand what's going on and interact. Think about the common sense going on in this kid's head in order to do this. If we could build robots that can do this, that would be incredible. This is still far away, but that's our aim."

Back in the early 1950s, Tenenbaum notes, computer pioneer Alan Turing thought the learning process of young children is like filling the pages of a notebook consisting of mainly blank sheets. "From developmental psychology, we now know that this idea is completely wrong," said Tenenbaum. "The starting state is much more sophisticated than we might have thought, and the learning processes are also much more sophisticated. Apart from supervised learning and reinforcement learning, which we also use in AI (artificial intelligence), children have other powerful learning mechanisms."

Read the full article on the website of the ACM.

Saturday, August 25, 2018

‘Robot verandert hoe mensen samenwerken’

Chirurgen werken anders met een operatierobot en de politie leert misdaden te voorspellen: AI heeft invloed op organisaties.

Dit artikel is gepubliceerd in NRC Handelsblad van maandag 20 augustus 2018.

Voor een socioloog heeft Marleen Huysman een ongebruikelijk grote en multidisciplinaire onderzoeksgroep om zich heen verzameld: 35 onderzoekers, waaronder bedrijfskundigen, sociologen, filosofen, antropologen, industrieel ontwerpers, ingenieurs en informatici. „We vormen een soort lab en opereren heel anders dan de meeste sociale wetenschappers”, vertelt ze in een vergaderkamer van haar onderzoeksinstituut bij de Vrije Universiteit in Amsterdam. „Als detectives rafelen we uit elkaar hoe digitale innovaties organisaties veranderen. Dat doen we op de werkvloer zelf: een soort embedded research.”

Huysman leidt het KIN Center for Digital Innovation. Ze vertelt dat ze vroeger weleens jaloers was op het lab dat haar man, natuurkundige Leo Kouwenhoven, jarenlang aan de TU Delft leidde, voor hij de overstap maakte naar Microsoft. „Vroeger werkte ik meestal in mijn eentje. Maar ik dacht: waarom zou ik ook niet zo’n onderzoeksomgeving als Leo om me heen kunnen creëren? Als je echt wilt weten wat de gevolgen zijn van een digitale innovatie in een organisatie, dan heb je een groot, multidisciplinair team nodig. Onderzoekers van artificial intelligence – AI – zijn meestal alleen bezig met wat de computer kan. Economen kijken vooral naar hoe AI banen verandert of wat de invloed is op economische ongelijkheid. Wij bestuderen het grotere plaatje.”

Lees het hele artikel op de website van NRC Handelsblad.

Wednesday, August 22, 2018

Computers are starting to outperform the average human at negotiation

When computer scientist Tim Baarslag had to negotiate the purchase of his new house, he developed an algorithm to help him. Thanks to the algorithm, he managed to buy his favorite house for only $1,500 more than the bid of the next-highest bidder.

Baarslag works at the Centrum Wiskunde & Informatica (CWI), the national research institute for mathematics and computer science in the Netherlands, where he studies how computers can help humans to negotiate better deals. He also is co-organizer of the Automated Negotiating Agents Competition (ANAC), a contest that has been held annually since 2010; this year, it took place in July during the International Joint Conference on Artificial Intelligence (IJCAI) in Stockholm, Sweden.

At IJCAI, Baarslag answered some questions for Bennie Mols.

What is the purpose of the Automated Negotiating Agents Competition?
For humans, negotiations are often very complex and stressful; think about buying a house, or negotiating about a job. What if computers can help us with this? That would be great, but then we have to know how well computers perform. With ANAC, we want in the first place to compare negotiating computers in the same domain. The competition is also a way to collect a state of the art repository of negotiating agents and their results. Finally, the competition is a way to steer the academic research.

Read the full article on the website of the ACM.

Tuesday, July 24, 2018

Slimme computers moeten de wereld ook begrijpen

Wie een week rondloopt bij de belangrijkste conferentie over kunstmatige intelligentie, ziet vooral het gapende gat tussen de stand van de wetenschap en de mediahype over almachtige machines.



In de warmste week in Stockholm in drie decennia vond dit jaar van 13-19 juli de International Joint Conference on Artificial Intelligence (IJCAI) plaats. Wie iets betekent of wil betekenen in het vakgebied kunstmatige intelligentie hoorde daar bij te zijn. Peetvaders van lerende computers als Yann LeCun en Yoshua Bengio gaven er lezingen, jonge onderzoekers presenteerden hun werk, grote techbedrijven probeerden talent te werven en de belangrijkste prijzen van het vakgebied werden er uitgereikt. Zo ontvingen onderzoekers van DeepMind de Marvin Minsky Medaille voor hun baanbrekende werk aan de go-spelende computer die jaren eerder dan verwacht de mens definitief van het bord veegde.

IJCAI is de oudste en ’s werelds grootste wetenschappelijke conferentie over kunstmatige intelligentie die alle deelgebieden bestrijkt: van machinaal leren (dit jaar verreweg het grootste deel van de conferentie), computer vision en natuurlijke taal-verwerking tot planning, zoeken, games, kennisrepresentatie en robotica. De eerste IJCAI-conferentie vond in 1969 plaats, dertien jaar nadat het vakgebied werd geboren en de naam ‘kunstmatige intelligentie’ werd gemunt. Inmiddels trekt de conferentie vele duizenden onderzoekers van over de hele wereld.

Hoogleraar kunstmatige intelligentie Frank van Harmelen van de VU, gespecialiseerd in kennisrepresentatie en redeneren, bezoekt de conferentie al jaren. Gevraagd naar de opvallendste ontwikkelingen die dit jaar onderscheidt van de afgelopen jaren, vertelt hij: “Sneller dan ik had verwacht zie ik een samensmelting ontstaan tussen de oude aanpak van kunstmatige intelligentie − die van redeneren en kennisrepresentatie − met de nieuwe aanpak, die de laatste jaren zoveel succes heeft geboekt: die van lerende computers, met name door deep learning. Het besef breekt door dat deep learning niet alles oplost.”

Lees het hele artikel op de website van De Ingenieur.

Ontwikkelaars van kunstmatige intelligentie spreken zich uit tegen killer robots

Op ’s werelds grootse wetenschappelijke conferentie over kunstmatige intelligentie (IJCAI) werd in Stockholm op dinsdag 17 juli een petitie gepresenteerd tegen de ontwikkeling en het gebruik van dodelijke autonome wapens, in de volksmond vaak killer robots genoemd.


De petitie is ondertekend door meer dan 2400 wetenschappers, ingenieurs en CEO’s werkzaam in kunstmatige intelligentie en robotica, alsmede door meer dan 160 bedrijven en organisaties. Onder de ondertekenaars zijn Elon Musk, Google DeepMind, de Europese Vereniging voor Kunstmatige Intelligentie en pioniers van kunstmatige intelligentie zoals Yoshua Bengio en Stuart Russell. Ook talloze Nederlandse wetenschappers en ingenieurs hebben de petitie inmiddels ondertekend.

Namens het initiatief nemende Future of Life Institute presenteerde MIT-hoogleraar Max Tegmark de petitie tijdens zijn IJCAI-lezing over hoe kunstmatige intelligentie ten goede van iedereen kan komen. Kunstmatige intelligentie kan de wereld veel goeds bieden, vertelde Tegmark, maar moet niet gebruikt worden om wapens autonoom, zonder menselijke tussenkomst, mensen te laten doden.

Lees het hele artikel op de website van De Ingenieur.

Sunday, June 24, 2018

NEW BOOK: "Hallo Robot: Meet Your New Workmate and Friend"

In October the book "Hallo Robot: Meet Your New Workmate and Friend" will be published by Canbury Press. Written by Bennie Mols and Nieske Vergunst. It's the English translation of the book that was published last year in Dutch.




Some fear that robots could take half of our jobs and even wipe us out. But is that really so? Hallo Robot reveals how robots see, feel, and act — and what tasks they are likely to perform in the future.

Instead of posing a threat to human beings, intelligent machines could transform our lives. Robots already make our cars and clean our homes and could soon chauffeur us, teach our children, and keep our parents company in old age.

While tackling ethical concerns head-on, Bennie Mols and Nieske Vergunst show how artificial intelligence could help the lame walk again and rescue survivors from collapsed buildings — and boost the global fight against hunger and pollution.

Welcome to a realistic, colourful view of our fast-approaching robot future.





Tuesday, June 19, 2018

Luis in de pels van de tech-sector zoekt nu oplossingen

In zijn nieuwste boek How to fix the future is ondernemer en auteur Andrew Keen voorzichtig optimistisch dat de nevenschade van de digitale revolutie nog te repareren is.

Dit artikel is gepubliceerd in de VPRO Gids van 12 juni 2018

Diep voorovergebogen zit Andrew Keen buiten op een plastic stoeltje in de stralende mei-zon. Hij staart op zijn smartphone. Ik spreek hem aan: ‘Hallo, we hebben een interviewafspraak’. ‘O, hallo. Je hoeft dit niet voor radio of tv op te nemen, toch?’ Hij bijt wat op zijn nagels. ‘Nee hoor.’ Hij zakt in, knijpt zijn ogen dicht tegen de zon en zal me de rest van het interview nauwelijks meer aankijken. Binnen gaan zitten wil hij niet: ‘Daar is het nog warmer.’ Hij zucht.

Keen is in Nederland voor de promotie van zijn nieuwste boek How to fix the future. Ik bezoek twee van zijn lezingen en spreek hem op het festivalterrein van The Next Web, een tech-conferentie in Amsterdam waar verreweg de meeste sprekers de blijde boodschap van de digitale technologie verkondigen. Keen is hier een vreemde eend in de sprekersbijt. Hij is een van de vroege critici van de digitale revolutie. In drie eerdere boeken die hij sinds 2007 schreef, betoogde hij dat het internet onze cultuur om zeep helpt door het ondermijnen van expertise en het creëren van nep-nieuws, dat sociale media vooral asociale media zijn die narcisme aanmoedigen, en dat de digitale revolutie een winner-takes-all-economie heeft gecreëerd waarin een handvol grote techbedrijven het geld en de macht in handen heeft en waardoor de economische ongelijkheid in de samenleving wordt vergroot.

Hoe gaat Keen zelf om met al die voor velen zo handige diensten uit Silicon Valley? ‘Ik gebruik Google de hele tijd, maar ik heb geen Google-account. Facebook gebruik ik niet. Ik gebruik Twitter nauwelijks. Eigenlijk haat ik het. Maar kijk, ik ben net zo kwetsbaar als iedereen. Ik ben verslaafd aan tekstberichten. Maar ik besef ook dat voortdurend tekstberichten sturen ongezond is en tot verstoorde relaties kan leiden.’

Sommige mensen hebben hem inconsequent genoemd omdat hij kritiek heeft op de digitale cultuur maar er wel aan mee doet. Wat heeft hij die critici te zeggen? ‘Ik woon met plezier in Silicon Valley. Ik voel meer meer een techie dan een non-techie. Maar neem Uber. Uber biedt veel gemak. Ze behandelen hun chauffeurs echter slecht. Het gebrek aan rechten. Het lage inkomen. Toch bestel ik wel eens een rit via Uber, als het niet anders kan.’ Geïrriteerd zegt hij: ‘Mijn kritiek is veel fundamenteler dan alleen het persoonlijke gebruik. Het gaat er meer om hoe je een dienst gebruikt dan of je een dienst gebruikt. Je kunt Facebook ook heel spaarzaam gebruiken, waarbij je je heel bewust bent van wat Facebook allemaal over je te weten komt, in plaats van dat je zomaar alles zorgeloos deelt.’

Dit raakt de kern van How to fix the future, waarin hij de wereld rondreist op zoek naar mensen die experimenteren met oplossingen voor de structurele problemen die de digitale revolutie volgens Keen heeft veroorzaakt. ‘Voor mij is de kern het begrip agency. Agency gaat over onze sociale gezondheid. Het betekent dat we als burgers en consumenten weer zelf aan het stuur komen te staan in plaats van de grote tech-bedrijven. Als burgers en consumenten moeten we onze verantwoordelijkheid nemen en een tegenkracht ontwikkelen. Zo hebben we het ook gedaan met de voedingsindustrie en de auto-industrie. We zijn om gezonder voedsel en milieuvriendelijkere auto’s gaan vragen.’

Om de problemen van de digitale revolutie te repareren zouden we dit verantwoord digitaal consumeren en het nemen van onze sociale verantwoordelijkheid als burgers volgens Keen moeten combineren met drie andere instrumenten: regulering door overheden ‑ zoals de nieuwe Europese privacywetgeving, waarover hij positief is ‑ innovaties die consument en burger weer meer controle geven, en een onderwijssysteem dat meer aandacht besteedt aan wat het betekent om een burger te zijn. ‘De mens heeft deze vijf instrumenten al vaker in de geschiedenis gebruikt om de nevenschade van ontwrichtende technologie te repareren. In de 19e eeuw bijvoorbeeld met de industriële revolutie. Daarom ben ik ook nu voorzichtig optimistisch.’

Ik vraag Keen hoe hij in dit kader kijkt naar Facebook’s Cambridge Analytica-schandaal. Vooralsnog lijken Facebook-gebruikers niet massaal te zijn weggelopen. Hij begint weer te kijken op zijn smartphone. Op de automatische piloot antwoordt hij: ‘Dit was geen beslissende gebeurtenis. Mensen waren niet echt geshockt. Ik denk dat er in de toekomst grotere dingen gaan gebeuren die mensen wel ontmoedigen dat platform te gebruiken. Een oorlog die wordt uitgelokt door nep-informatie. Iets dat mensen nu helemaal niet verwachten.’ Hij bromt: ‘Maar ik ben helemaal niet geïnteresseerd in deze vraag.’

Het onderwijs dan. Keen draagt zijn boek op ‘Aan onze kinderen’ en het onderwijs ziet Keen als een krachtig instrument en als de grootste uitdaging. ‘Het gaat mij om humanistische educatie, niet om technologische educatie. We moeten mensen die dingen leren die computers niet kunnen: creativiteit, empathie, verantwoordelijkheid. Een algoritme kan een diagnose stellen maar niet met een patiënt praten. Een algoritme kan niet empatisch zijn. Een algoritme kan geen boek schrijven zoals How to fix the future. Een algoritme heeft geen eigen wil.’

Dan maakt Keens lichte optimisme weer plaats voor een pessimisme waarin hij zich beter lijkt thuis te voelen: ‘Toch denk ik dat de echte problemen van de digitale revolutie nu pas beginnen. En we zullen een generatie nodig hebben om de problemen op te lossen. We moeten wel, anders kunnen we over 25 jaar de toekomst niet meer repareren.’ Hij kijkt weer op zijn smartphone. ‘Ik moet gaan. Dankjewel. Wat een vreselijk weer is het toch.’ En weg is hij.

Boekinformatie:Andrew Keen. How to fix the future − Staying human in the digital age. Atlantic Books London, 2018.

Sunday, June 17, 2018

Wordt CLAIRE het CERN voor kunstmatige intelligentie?


Ruim 130 Europese onderzoekers op het terrein van kunstmatige intelligentie (artificial intelligence - AI) roepen op tot een nieuw Europees top-instituut als antwoord op Amerikaanse en Chinese AI-initiatieven. 

Het nieuw op te richten instituut moet CLAIRE gaan heten: Confederation of Laboratories for Artificial Intelligence in Europe. Motto: “Excellence across all of AI. For all of Europe. With a Human-Centered Focus”. 

De onderzoekers vinden dat de Europese investeringen in talent, onderzoek, technologie en innovatie achterliggen bij die van landen als de VS, China en Canada. Ze schrijven in hun oproep: "Kunstmatige intelligentie is cruciaal voor Europa om allerlei complexe uitdagingen aan te gaan en om Europa en haar landen een goede positie op de wereldmarkt te bezorgen."

Een van de drie hoofdopstellers van de oproep is hoogleraar machine learning Holger Hoos van de Universiteit Leiden. Daarnaast ondertekenden nog ruim tien andere Nederlandse AI-onderzoekers de oproep.

In april van dit jaar riepen 25 Europese landen al op tot meer investeringen in AI en tot een Europese aanpak. Het voorstel voor het nieuwe top-instituut CLAIRE sluit hierbij aan.

Lees het hele CLAIRE-voorstel hier.

In oktober 2017 interviewde ik voor NRC Handelsblad hoogleraar Gary Marcus. Hij riep toen al op tot een soort CERN voor AI. Lees het interview hier.





Wednesday, May 30, 2018

‘Alleen al om Wikipedia is het web de moeite waard’

Tim Berners-Lee, de uitvinder van het world wide web, was op dinsdag 29 mei in Amsterdam voor de Turing Award-lezing. „In 29 jaar tijd is het web van Utopia naar Dystopia gegaan.”

Dit artikel is gepubliceerd op de website van NRC Handelsblad op dinsdag 29 mei

Vorig jaar won sir Tim Berners-Lee de Turing Award − het equivalent van de Nobelprijs voor de informatica − voor ‘het uitvinden van het world wide web, de eerste webbrowser en de fundamentele protocollen en algoritmen waardoor het web kon groeien’. Hij ontving 1 miljoen dollar aan prijzengeld, met als enige verplichting het houden van de Turing Award-lezing. Die lezing gaf hij dinsdag, tijdens de WebSci’18-conferentie in Amsterdam.

Waar het internet een netwerk van computernetwerken is, is het world wide web de informatieruimte die we met z’n allen in de loop van drie decennia hebben gebouwd op het internet als medium. Een informatieruimte die we dankzij Berners-Lee snel en gemakkelijk kunnen exploreren. Hij vertelt hoe hij het web in 1989 bouwde bij CERN in Genève als een bijna utopische droom van een open platform waarop iedereen, door alle culturen heen, over alle grenzen heen, vrij informatie kon delen en creativiteit zou bloeien.

De afgelopen jaren is die droom volgens Berners-Lee ruw verstoord door fenomenen die niemand begin jaren negentig van de vorige eeuw nog had vermoed: centralisering van informatie-uitwisseling op een aantal dominante platforms, de gemakkelijke verspreiding van nep-nieuws, het verlies van controle over persoonlijke gegevens, het gericht op de persoon sturen van politieke boodschappen. Berners-Lee: „In 29 jaar tijd is het web van Utopia naar Dystopia gegaan. De vraag is hoe we weer terug kunnen keren naar Utopia.”

Lees het hele artikel op de website van NRC Handelsblad.

-------------------------------------------------------------------------------------------------



For the Association for Computing Machinery (ACM) I have written a different version of my interview with Tim Berners-Lee. You can read it on the website of the ACM.

Tuesday, May 15, 2018

A New Sense for Underwater Robots

This article has been published on the website of the ACM.


Traditionally, underwater robots/drones are bulky, unintelligent, and sluggish; they sense their environment with sound via sonaror by sight via a camera, but that often gives them only a limited underwater view.

Maarja Kruusmaa, founder and director of the Center for Biorobotics at the Tallinn University of Technology in Estonia, has endowed underwater robots with a completely new sense: the artificial lateral line, an electronic organ that enables her lab's underwater robots to extract information from the water around it, and to act on it. "Just like robots on the land can map a landscape, our robots map a flowscape underwater," says Kruusmaa. "The flowscape gives the robot precise information about the pressure, pressure differences, and the acceleration of the flow."

Read the complete article on the website of the ACM.

Tuesday, May 1, 2018

Deep learning is zeer succesvol, maar maakt van computers nog lang geen mensen

Lerende computers stapelen al vijf jaar lang succes op succes. Maar hun beperkingen worden ook steeds duidelijker.

Dit artikel is gepubliceerd in het mei-nummer van De Ingenieur 

Wie de afgelopen jaren het nieuws over kunstmatige intelligentie ook maar een beetje heeft gevolgd, ontkwam niet aan de schijnbare magie van ‘deep learning’, een techniek waarmee computers nieuwe dingen leren (zie kader). Dankzij deep learning versloeg een go-computer de menselijke wereldkampioen. Apple gebruikt de techniek in de spraakherkenning van telefoonhulpje Siri, Facebook tagt er automatisch foto’s mee en Google Translate vertaalt er teksten mee. Vorig jaar ontdekten sterrenkundigen mede dankzij hun lerende computers twee nieuwe exoplaneten in de data van de Keplertelescoop.

So far so good. Hoe breder deep learning echter wordt uitgerold, hoe vaker ook haar beperkingen komen bovendrijven. Begin dit jaar publiceerde de Amerikaanse hoogleraar psychologie Gary Marcus een artikel dat inzoomt op precies die beperkingen (https://arxiv.org/abs/1801.00631). Het artikel leidde tot duizenden reacties op Twitter en een levendig inhoudelijk debat. Marcus is niet zomaar iemand die vanaf de zijlijn commentaar geeft. Hij richtte in 2015 zijn eigen bedrijf Geometric Intelligence op, dat computers efficiënter wilde laten leren. Eind 2016 verkocht hij het aan Uber.

Marcus weet waar hij het over heeft, en hij kreeg behalve kritiek (onder andere dat hij te weinig de successen vierde) ook veel bijval. Zelfs de vader van deep learning, de Britse cognitief psycholoog en informaticus Geoffrey Hinton, zei dat er waarschijnlijk geheel nieuwe methodes uitgevonden moeten worden om computers echt mensachtige intelligentie te laten vertonen.

Het gevaar van het succes van deep learning is dat al te veel mensen zijn gaan geloven dat zulke kunstmatige mensachtige intelligentie om de hoek ligt. Dat leidt weer om de haverklap tot zwaar overtrokken nieuwskoppen als deze van CNN: “Computers are getting better than humans at reading” (http://money.cnn.com/2018/01/15/technology/reading-robot-alibaba-microsoft-stanford/index.html). Wie iets dieper graaft, ziet meteen dat de computer helemaal geen leesbegrip heeft ontwikkeld, maar wel op bepaalde vragen over Wikipedia-teksten de relevante tekstpassages kan markeren. Best knap, best nuttig, maar het is maar een klein onderdeel van wat het betekent om begrijpend te lezen.

De Canadese hoogleraar en deep-learning-expert Yoshua Bengio zei over zulke overdrijvingen vorig jaar: “We zijn nog steeds heel ver van kunstmatige intelligentie op menselijk niveau.”

Datahonger

Van alle wetenschappers heeft Marcus tot nu toe het meest zijn best gedaan om ook de beperkingen van deep learning expliciet te maken en voorstellen te doen voor verbeteringen.

Eerst de beperkingen. Deep learning heeft een onverzadigbare honger naar data. Hoe meer data, hoe beter de techniek werkt. Maar met weinig data staat deep learning met de mond vol tanden. En dat is in de echte wereld een probleem, omdat er voortdurend situaties opduiken die niet eerder zijn gebeurd. Een baby leert uit slechts enkele voorbeelden het gezicht van zijn moeder of vader te herkennen. Op een of andere manier kan het menselijk brein uitgaande van weinig voorbeelden abstraheren en generaliseren. Informaticahoogleraar Stuart Russell van de Universiteit van Berkeley (VS) zei over de datahonger: “Voor de meeste toepassingen, zoals in de gezondheidszorg of het onderwijs, hebben we modellen nodig en niet alleen veel data.”

Daarnaast ontdekt deep learning weliswaar correlaties in data, maar niet automatisch de oorzakelijke verbanden. Uit de data van het aantal verdrinkingen per seizoen en de ijsjesverkoop per seizoen zou de techniek concluderen dat er een sterk verband is tussen het aantal verdrinkingen en het aantal verkochte ijsjes. Dat die twee geen oorzakelijk verband met elkaar hebben, maar veroorzaakt worden door hoge of lage temperaturen, komt er niet uit rollen.

Dit probleem heeft op haar beurt weer een dieper liggende oorzaak: deep learning-systemen beschikken tot nu toe niet over wat we vaak ‘gezond verstand’ noemen: de grote hoeveelheid alledaagse, impliciete achtergrondkennis die mensen van jongs af aan hebben opgebouwd en voortdurend blijven uitbreiden. In de zestigjarige geschiedenis van kunstmatige intelligentie is er maar weinig vooruitgang geboekt om computers te voorzien van dit soort ‘gezond verstand’-kennis. Zoals Marcus schrijft: “Deep learning loopt vast in nieuwe problemen die een open einde hebben. Wat is de beste manier om een fiets te repareren waarbij een stuk touw tussen de spaken is gekomen? Geen bestaande trainingsset gaat ons dat vertellen.”

Deep learning werkt heel goed wanneer computers spellen zoals go spelen, omdat de spelregels exact bekend zijn en nooit veranderen. Maar de echte wereld verandert voortdurend en ook dat is een probleem. Bij elke verandering moet de computer eerst wachten tot er miljoenen nieuwe voorbeelden beschikbaar zijn om van te leren. Deep learning werkt goed in een statische maar niet in een dynamische wereld.

Deep learning kan vaak ook gemakkelijk en op bizarre manieren voor de gek worden gehouden. Onderzoekers van Google ontwikkelden vorig jaar een psychedelische sticker die beeldherkennende computers fopte. De computers herkennen normaal gesproken prima een banaan of een pen. Maar plak de psychedelische sticker naast een banaan of een pen, en de computers zien ze allebei voor een broodrooster aan. Dat zou een vierjarig kind nooit gebeuren. Wanneer een zelfrijdende auto straks net zo gemakkelijk te foppen is, kan dat desastreuze gevolgen hebben.

Ten slotte is een probleem van alle beslissingen die met deep learning worden genomen dat ze niet transparant zijn. Waarom heeft de computer precies die en niet een andere beslissing genomen? Zelfs de programmeurs kunnen dat zelden uitvogelen omdat de informatie op een diffuse manier verspreid ligt in het neurale netwerk. In dit opzicht zijn deep-learning algoritmen zwarte dozen. En als ze dat al voor programmeurs zijn, zijn ze dat zeker voor burgers, politici en rechters.

Voor het gebruik van bijvoorbeeld Google Translate mag dat black-box-karakter dan nauwelijks een probleem zijn, dat geldt niet zodra deep learning-algoritmen worden gebruikt om te bepalen wie wel of niet een bepaalde lening krijgt, of een medische scan wel of niet een bepaalde tumor toont, of iemand wel of niet op de no fly-lijst van een vliegtuigmaatschappij hoort en of een medewerker zodanig onderpresteert dat hij ontslagen mag worden. Van al deze toepassingen zijn in de afgelopen jaren praktijkvoorbeelden opgedoken waarin computers de verkeerde beslissingen over mensen namen.

Uitgangspunt zou daarom moeten zijn dat hoe groter de potentiële gevolgen van een computerbeslissing voor burgers of consumenten zijn, hoe beter uitgelegd moet kunnen worden waarom de computer die beslissing heeft genomen. Dat principe staat ook aan de basis van een nieuwe Europese wet die op 25 mei 2018 van kracht wordt: de General Data Protection Regulation (GDPR). Werk aan de winkel dus voor overheidsinstanties en bedrijven die hun deep learning-algoritme belangrijke beslissingen over mensen willen laten nemen.

Intelligentie is meer dan perceptie
Deep learning is een prachtige techniek en we gaan er nog vele jaren plezier aan beleven, maar de toepassingen zijn beperkter dan de meeste media tot nu toe hebben gemeld. Om tot kunstmatige mensachtige intelligentie te komen hebben we andere technieken en nieuwe inzichten nodig, daarover zijn de meeste onderzoekers binnen de kunstmatige intelligentie het wel eens. Marcus vat dat als volgt samen: “Deep learning is goed in sommige aspecten van perceptie, vooral categoriseren. Maar perceptie is meer dan categoriseren en intelligentie is meer dan perceptie. Tot intelligentie behoren ook taal, redeneren, analogieën leggen, plannen en gezond verstand.”

Marcus doet een aantal voorstellen om kunstmatige intelligentie een volgende stap te laten zetten richting mensachtige intelligentie. De eerste is dat lerende computers minder door mensen bij de hand genomen moeten worden en meer op eigen houtje moeten kunnen leren. De meeste toepassingen van deep learning gebruiken nu nog data die door mensen van een label zijn voorzien. Computers die objecten op foto’s herkennen, zijn getraind aan de hand van losse foto’s van objecten als handen, honden en huizen. Hierbij hebben mensen handmatig van te voren al hebben aangegeven: ‘dit is een voorbeeld van een hand, dit van een hond en dit van een huis’.

Mensen leren ook deels zo, maar kunnen daarnaast ook nieuwe dingen leren zonder dat iemand ze bij de hand neemt. Marcus: “Kinderen creëren soms voor zichzelf een nieuwe taak, zoals een toren van lego-blokjes bouwen of door een kleine opening klimmen, zoals mijn dochter recent deed toen ze door de open ruimte tussen de zitting en de rug van een stoel wilde kruipen. Dit soort exploratieve probleemoplossing vereist het zelfstandig stellen van doelen en het integreren van abstracte kennis, zoals hoe lichamen en voorwerpen zich gedragen en welke verschillende soorten openingen er zijn.”

De tweede uitbreiding die volgens Marcus nodig is, is het oppoetsen van de klassieke manier waarop de kunstmatige intelligentie eind jaren vijftig begon: het redeneren op basis van expliciet geprogrammeerde regels. Marcus: “Met de tweede wet van Newton − kracht = massa × versnelling − kunnen we krachten berekenen voor alle mogelijke massa’s en versnellingen, niet alleen voor massa’s en versnellingen die eerder al eens in een dataset zijn voorgekomen. De juiste manier om vooruit te komen zou kunnen zijn om deep learning, dat uitblinkt in classificeren, te integreren met symbolische systemen, die uitblinken in redeneren en abstraheren.”

Marcus trekt een vergelijking met wat we weten over de werking van het menselijk brein. Het hersengedeelte dat waarnemingen verwerkt, doet dat ongeveer op de manier van deep learning. Maar andere gebieden in het brein, zoals het gebied dat spraak produceert of het gebied dat zich met planning van handelingen bezig houdt, lijken op een veel hoger abstractieniveau te werken.

Er is geen enkele noodzaak om het menselijk brein een-op-een op een computer na te bootsen om tot kunstmatige mensachtige intelligentie te komen, maar het gebruiken van inzichten uit onder andere de psychologie, de linguïstiek, de neurowetenschappen en de filosofie ziet Marcus wel als een noodzaak − en met hem een groeiend aantal andere wetenschappers. Geoffrey Hinton, de vader van deep learning, zei vorig jaar: “De wetenschap schrijdt met één begrafenis per keer voort. De toekomst hangt af van een student die alles wat ik heb gezegd betwijfelt.”

---------------------------------------------------------------------------------

Kader - Wat is Deep Learning?

Deep learning is de nieuwe naam voor wat al decennialang bekend staat onder de naam ‘neurale netwerken’. In essentie is deep learning een statische methode die patronen herkent in grote hoeveelheden data. En die data kunnen van alles zijn: getallen, tekst, geluid of beeld. De manier waarop dat leren gebeurt is een sterk vereenvoudigde versie van de manier waarop het menselijk brein leert. Een netwerk van kunstmatige neuronen wordt verdeeld in lagen. De neuronen worden met elkaar verbonden en de sterkte van die verbindingen verandert tijdens het leerproces. Elke laag neemt een deel van de patroonherkenning voor zijn rekening. Stel dat een netwerk getraind wordt om beelden te herkennen, dan detecteren diepere lagen de meest basale beeldeigenschappen, bijvoorbeeld randen. Hogere lagen detecteren complexere vormen. En de hoogste lagen herkennen uiteindelijk complete voorwerpen. De term ‘deep’ slaat op het aantal lagen van het neurale netwerk. Traditionele neurale netwerken bestonden slechts uit een handvol lagen. Diepe neurale netwerken tellen tientallen tot soms zelfs honderden lagen. Deep learning kon pas een succes worden met de beschikbaarheid van grote hoeveelheden data om van te leren, en met voldoende grote computerkracht en efficiënte algoritmen.

Update dd 27 maart 2019: drie grondleggers van Deep Learning, Yoshua Bengio, Geoffrey Hinton en Yann LeCun, krijgen de Turing Award toegekend voor hun baanbrekende werk. De Turing Award is de hoogste onderscheiding in de informatica, vergelijkbaar met de Nobelprijs in natuurkunde, scheikunde of geneeskunde.  

Thursday, April 26, 2018

Succes kent vele mislukkingen

"Ever tried, ever failed? No matter. Try again, fail again." - Samuel Beckett

Succesverhalen horen we te over. Verhalen van mislukkingen worden meestal weggestopt uit schaamte. Maar juist van die mislukkingen - op welk terrein dan ook - kunnen we vaak veel leren. Om uiteindelijk succes te hebben, zijn mislukkingen juist essentieel.

Reinhold Messner, een van de beste en meest succesvolle bergbeklimmers aller tijden (en de eerste die de Mount Everest solo en zonder extra zuurstof beklom), zegt dat hij al zijn successen nooit had kunnen behalen zonder eerst heel vaak te falen: 

"Failure itself is not important. It's what happens immediately after that counts - the inner feelings, the turmoil and self-doubt - and how you deal with it. It can mean a new start, an opportunity to experience your limitations and to grow as a result. My mind-set and my attitudes have changed over the years, and this is largely due to my frequent failures."

[Uit het boek Reinhold Messner - My Life at the Limit.]

Mislukkingen waarvan we veel kunnen leren staan centraal in het vandaag verschenen boek "Instituut voor briljante mislukkingen" van Paul Iske, hoogleraar Open Innovatie & Business Venturing aan de Universiteit Maastricht. 

                                                

Waarom is mislukken belangrijk? Hoe open staat de omgeving waarin we leven en werken voor mislukkingen? Wat kun je er van leren? Iske analyseert in het boek verschillende soorten van mislukkingen en laat experts aan het woord over mislukkingen op hun expertiseterrein. Zo komen onder andere aan het woord hoogleraar organisatiekunde Mathieu Weggeman, voetbaltrainer Foppe de Haan, futuroloog Wim de Ridder en de directeur van het CBS Tjark Tjin-a-Tsoi.

Op verzoek van Paul Iske heb ik zelf onderstaande bijdrage in het boek geschreven, een verhaal over een briljante mislukking in de wetenschap. Een verhaal ook over een wetenschapper die op goede gronden niet wenste mee te doen aan overdreven verwachtingen rondom kunstmatig intelligente computers, een thema dat vandaag de dag actueler is dan ooit tevoren.

-----------------------------------------------------------------------------------------------------------------

Meedoen met het wensdenken of verstoten worden

Joseph Weizenbaum was een dertienjarig Joods jongetje in Berlijn toen zijn ouders in 1936 besloten om voor de nazi’s te vluchten. Het gezin liet Duitsland achter zich, voer per boot naar New York en stapte daar op de trein naar Detroit. Na de oorlog studeerde Joseph Weizenbaum af in de wiskunde en kreeg hij al snel de drang om iets nuttigs voor de wereld te doen. ‘Dan moet je iets met computers gaan doen’, zei een collega begin jaren vijftig tegen hem − een tijd waarin het aantal computers in de wereld nog op de vingers van twee handen te tellen was.

Weizenbaum leerde de kracht maar ook de zwakte van de computer van binnenuit kennen door zelf te bouwen, zelf te programmeren en zelf te experimenteren. In 1963 werd hij hoogleraar informatica aan het Massachusetts Institute of Technology (MIT). Hij kreeg al snel een idee voor baanbrekend onderzoek. Tot dan toe schreven computerprogrammeurs hun programma eerst op papier, verwerkten het programma vervolgens in ponskaarten en schoven die in de computer. Die programma’s werden steeds langer en ingewikkelder. Wat nou, dacht Weizenbaum, als we een computer kunnen programmeren door er in natuurlijke taal mee te ‘praten’, alsof we een kind onderwijzen? Het programma zou dan stukje bij beetje slimmer kunnen worden.

Maar waarover zou je dan met een computer kunnen praten? Weizenbaum realiseerde zich dat een computer in beginsel niks weet over de wereld en hij verzon een eenvoudig script om die handicap te verbloemen: laat de computer de rol van een psychotherapeut spelen die de patiënt een spiegel voorhoudt door terug te kaatsen wat de patiënt vertelt. Hij bedacht een manier om Engelstalige zinnen te analyseren en een verzameling regels om de computer op basis van steekwoorden uit die zinnen te laten antwoorden. Hij noemde zijn programma ELIZA. De dialoog tussen de gebruiker en de computer verliep geheel in geschreven tekst, en zo werd ELIZA de eerste chatbot ter wereld.

Weizenbaums chatbot stond een aantal jaren lang open voor gesprekken met iedereen die het maar wilde aan de universiteit. Hier is een fragment van een chat tussen een tienermeisje en ELIZA:

Tiener: Men are all alike

ELIZA: In what way

Tiener: They’re always bugging us about something or other

ELIZA: Can you think of a specific example?

Tiener: Well, my boyfriend made me come here

ELIZA: Your boyfriend made you come here

Tiener: He says I’m depressed much of the time

ELIZA: I’m sorry to hear that you are depressed

Tiener: It’s true that I am unhappy

ELIZA: Do you think coming here will help you not to be unhappy?


In 1966 publiceerde Weizenbaum zijn wetenschappelijke artikel ELIZA − A computer program for the study of natural language communication between man and machine. Hij legde uit hoe het programma werkte en benadrukte dat “ELIZA laat zien hoe gemakkelijk het is om de illusie van begrip te wekken en in stand te houden”.

Het oorspronkelijke doel om een computer in een dialoogvorm te programmeren was mislukt. Eigenlijk leerde Weizenbaums experiment ons überhaupt weinig over computers, maar des te meer over mensen. Mensen vallen snel ten prooi aan het ELIZA-effect: het effect dat de computer de illusie creëert dat hij mensen begrijpt. In de kern ontstaat dit omdat het menselijk brein een sterke neiging tot antropomorfiseren heeft. We zien al snel een menselijk gezicht in een vreemd gevormde wolk, van een computer die hapert vinden we dat hij zijn dag niet heeft en we denken dat een robot die alleen maar voorgeprogrammeerde bewegingen uitvoert een eigen wil heeft.

Het briljante van het ELIZA-experiment zit in de radicale manier waarop het Weizenbaums kijk op de interactie tussen mens en computer veranderde. Weizenbaum was geschokt door de reacties op ELIZA. Allereerst geloofde een aantal serieuze psychiaters dat ELIZA de opmaat zou zijn naar volledig geautomatiseerde psychotherapie. Weizenbaum verafschuwde het idee dat psychotherapie mogelijk zou zijn zonder diep-menselijke, emotionele betrokkenheid en met alleen maar digitale informatieverwerking.

Ten tweede was hij geschokt over hoe makkelijk mensen hun intiemste zielenroerselen aan een computer toevertrouwden. Zelfs zijn eigen secretaresse, die als geen ander wist dat ELIZA gewoon een computerprogramma was, wilde graag met de chatbot praten en vroeg haar baas op een gegeven moment zelfs om de kamer te verlaten omdat ze in een persoonlijk gesprek met ELIZA was verwikkeld. Jaren later schreef Weizenbaum: “Ik had me niet gerealiseerd dat zelfs een extreem korte blootstelling aan een relatief simpel computerprogramma zulke krachtige wanen kon opwekken in normale mensen.”

Tenslotte was hij geschokt door de reacties van zijn vakbroeders op zijn werk. Waar hij zelf vond dat hij niets nieuws had ontdekt over computers, vonden de meeste van zijn collega’s dat ELIZA de weg opende naar computers die met mensen kunnen praten en die mensen begrijpen. Een van Weizenbaums MIT-collega’s zei in 1970 tegen het tijdschrift Life: “Binnen drie tot acht jaar hebben we een machine met de algemene intelligentie van een gemiddeld mens.”

Weizenbaum weigerde mee te gaan in dit soort voortdurend terugkerende wensdenken en ging zich richten op het bestuderen van de rol die de computer in onze maatschappij speelt. Meer en meer werd hij verstoten door zijn voormalige collega’s. Zo zei Marvin Minsky, decennialang de hogepriester in de wereld van de kunstmatige intelligentie: “Het zou fijn zijn wanneer Joe zou weten hoe een computer werkt.”

Het verhaal van Weizenbaum legt een dieper probleem in de wetenschap bloot. Om onderzoeksgeld binnen te slepen helpt het om grote beloften te doen, bijvoorbeeld dat kunstmatige intelligentie spoedig veel beter is dan menselijke intelligentie. Wie, zoals Weizenbaum, een serieus experiment doet en de eerlijke conclusie trekt dat die belofte veel te hoog gegrepen is (of dat een experiment is mislukt), maakt het niet alleen zichzelf maar ook zijn collega’s moeilijker om aan onderzoeksgeld te komen.

In de afgelopen decennia is de druk op wetenschappers om veel te beloven alleen maar groter geworden. Zo ontdekten Nederlandse onderzoekers dat tegenwoordig woorden als novel en outstanding in de samenvattingen van wetenschappelijke artikelen vier keer zo vaak voorkomen als in de jaren zeventig. Te veel beloven en vervolgens te weinig presteren zijn op de lange termijn een serieus gevaar voor de wetenschap omdat dit het publieke vertrouwen ondermijnt. Nobelprijswinnaar natuurkunde Richard Feynman heeft dit mechanisme perfect verwoord toen hij het onderzoeksrapport naar de ramp met de space shuttle Challenger in 1986 besloot met de woorden: “For a successful technology, reality must take precedence over public relations, for nature cannot be fooled.”

Meer informatie:
Over Joseph Weizenbaum is de interessante documentaire Rebel at Work gemaakt.
Het oorspronkelijke ELIZA-artikel
New York Times-artikel na het overlijden van Weizenbaum in 2008