Artificial intelligenceSmart Industries

15 min

Pieter Ballon over leven met AI

AI-systemen worden onze collega’s. Collega’s die we begrijpen en vertrouwen.

Scroll

Artificiële intelligentie of AI is weer helemaal hot. Voor sommigen – meestal de technologen onder ons – is het iets waarnaar we uitkijken om bepaalde problemen te kunnen oplossen, voor anderen boezemt het angst in. Hoe kunnen we ervoor zorgen dat AI-systemen, zoals robots, ons echt gaan helpen en niet de wereld en onze jobs gaan overnemen? Pieter Ballon, directeur bij SMIT (een imec-onderzoeksgroep aan de VUB) benadrukt dat ingenieurs en sociale wetenschappers moeten samenwerken rond AI omdat deze technologische innovatie noodzakelijkerwijs samengaat met grote economische en maatschappelijke verschuivingen.

AI is een evolutie, geen revolutie

Sciencefiction-films met robots of intelligente machines in de hoofdrol (denk aan Blade Runner, Real Humans, Westworld enz.) hebben ervoor gezorgd dat we ietwat angstig kijken naar een toekomst met AI aan onze zijde. Maar we zullen tijd hebben om ons aan te passen aan het idee, en om AI-systemen bij te sturen daar waar nodig, omdat het een geleidelijke evolutie zal zijn. Een evolutie die trouwens nu al bezig is.

Harvard-professor Michael Porter beschrijft vier stadia naar slimme objecten en systemen. Het eerste is ‘Monitoring’: dankzij sensoren registreert een slim product zijn eigen situatie en die van de wereld rondom hem. Denk bv. aan de Medtronic glucosemeter die met een onderhuidse sensor het bloedglucoseniveau van de patiënt opmeet en de patiënt verwittigt 30 minuten voordat een alarmerend niveau wordt bereikt. 

Het tweede stadium is ‘Controle’: dankzij ingebouwde algoritmes zal het product een actie uitvoeren op basis van zijn metingen. Bijvoorbeeld: als de slimme camera een auto detecteert met een bepaalde nummerplaat, gaat de slagboom open. 

Vervolgens evolueren systemen naar het stadium van ‘Optimalisatie’. Op basis van alle data die het systeem verzamelde tijdens zijn werking, kunnen ingebouwde algoritmes analyses gaan uitvoeren om te bepalen wat de beste manier van werken is. Het systeem ‘leert’ als het ware om efficiënter te werken. Bijvoorbeeld: windturbines die bij elke omwenteling hun wieken zo kunnen aanpassen dat ze een maximum aan windenergie capteren én dat ze de naburige windturbines zo min mogelijk ‘storen’. 

image

De windmolens van vandaag zien er niet alleen helemaal anders uit dan hun voorgangers, ze zijn ook veel slimmer: ze kunnen de positie van hun wieken bij elke omwenteling aanpassen aan de windrichting zodat ze zo veel mogelijk windenergie kunnen omzetten, en zodat ze de naburige windturbines zo weinig mogelijk 'storen. 

Tenslotte evolueren slimme systemen naar ‘Autonomie’. Als een product in staat is om te monitoren, een actie uit te voeren, en deze actie zo optimaal mogelijk te maken, kan het op een autonome manier gaan werken. Denk hierbij bijvoorbeeld aan de iRobot stofzuigrobot die allerlei oppervlakken in huis kan reinigen, vuil detecteert, meubels en trappen ontwijkt, de lay-out van een kamer opslaat in zijn geheugen voor de volgende keer, en terug naar het laadstation rijdt indien nodig. 

Bovendien kunnen slimme systemen met elkaar verbonden worden om samen acties uit te voeren, om te leren van elkaar, enz. Denk hierbij aan het idee van zelfrijdende auto’s en weginfrastructuur die samenwerken als ergens een ongeval gebeurt, om ook auto’s verder weg te verwittigen en gepast te laten reageren. 

Zoals duidelijk blijkt uit de voorbeelden zullen we geleidelijk evolueren naar systemen die leren, en zelf beslissingen nemen. En geleidelijk aan zullen wij, mensen, de monitoring, controle, en optimalisatie deels of geheel uit handen geven aan machines. En in sommige sectoren zal dit sneller gaan dan in andere, om verschillende redenen. In de mijnbouw wordt bv. het Joy Global’s Longwall Mining System gebruikt om praktisch volledig automatisch te delven onder de grond. Personeel in het controlecentrum boven de grond houdt alles nauwgezet in de gaten en stuurt indien nodig technici naar beneden. 

Omwille van de veiligheid van mensen is men in de mijnbouw dus al tot het laatste stadium van autonomie geëvolueerd, weliswaar met nog steeds een cruciale functie voor mensen. 

Mens en AI-systemen worden collega’s

Human-like AI, human-centric AI, human-in-the-loop AI, het zijn allemaal termen om aan te geven dat de mens centraal blijft staan in het verhaal. De robots en machines moeten zo gemaakt worden dat mensen hen kunnen begrijpen, dat mensen met hen kunnen communiceren en efficiënt samenwerken, en dat opdrachten worden uitgevoerd die ten dienste staan van mensen. 

Een mooi voorbeeld is de Cobot of collaboratieve robot die ontwikkeld werd om Audi-personeel bij te staan bij de assemblage van de auto’s. Waar dit soort machines vroeger in veiligheidskooien gezet werd, kan deze robot op een veilige manier, naast en met de hulp van zijn menselijke collega, bepaalde handelingen overnemen. Het lijmen gebeurt dan bv. veel nauwkeuriger en steeds op dezelfde manier, en de menselijke werknemer kan de cobot aansturen via handgebaren. 

image

De cobot die ontwikkeld werd voor Audi kan bediend worden via handgebaren en heeft een scherm in de vorm van een gezicht om te communiceren met de arbeider. 

Er zijn nog veel uitdagingen op het vlak van robot-mens communicatie. Zal een robot bv. ooit in staat zijn om onze intenties te identificeren? 

Zeggen we iets op een angstige of zelfverzekerde manier? Dat kan belangrijk zijn in sommige situaties. Of als we een actie uitvoeren, wat zegt dat dan over onze intenties? Het blijkt bv. niet eenvoudig om een zelfrijdende auto te laten herkennen of een voetganger de intentie heeft om over te steken of gewoon stilstaat langs de weg. Wij zullen typisch oogcontact zoeken met de bestuurder van de auto om aan te geven dat we willen oversteken. Maar dit soort ‘ongeschreven wetten’ in mens-mens communicatie zijn niet eenvoudig over te dragen op AI-systemen. 

De samenwerking tussen mens en cobot op de werkvloer kan de vorm aannemen van de mens die iets voordoet, en de cobot die daarvan leert om uiteindelijk een bepaalde actie perfect uit te voeren. In een eenvormig proces kan het zijn dat de menselijke collega maar een paar keer iets moet aanleren aan de robot en dat de robot dan alleen verder kan.

Maar in complexere situaties kan het zijn dat de cobot steeds een menselijke collega zal nodig hebben om instructies te geven en om hem dingen aan te leren. Denk bv. aan vuilnis ophalen in een stad. Het is best complex om te weten wat afval is en wat niet, en hoe te reageren als iemand nog snel roept naar de vuilniswagen dat hij/zij snel naar boven loopt om zijn vuilniszak te halen. Een robot zou niet weten hoe te reageren, een mens weet dat hij vriendelijk even wacht.

In sommige situaties zullen mens en robot dus altijd moeten samenwerken en kan de robot de meer lastige taken voor zijn rekening nemen terwijl de menselijke collega meer tijd heeft voor interactie met andere mensen, en om juist te reageren op onverwachte situaties. 

AI-systemen moeten regelmatig examen afleggen

Zoals eerder gezegd, moet de mens steeds begrijpen hoe een robot tot een bepaalde conclusie of actie komt, en moet de mens ook steeds kunnen bijsturen. En dat zal ook nodig zijn, blijkt uit recente voorbeelden van problemen met artificiële systemen. 

Zo is er het voorbeeld van de chatbot Tay die op Twitter racistische boodschappen begon te posten nadat bepaalde Twitter-gebruikers politiek incorrecte posts deden. De chatbot had geen instructies meegekregen om dit soort uitspraken te herkennen als ongepast.

Ook kwam ‘Norman’ in 2018 in het nieuws, een AI-systeem dat psychopathische karaktertrekken vertoonde bij het uitvoeren van de bekende test met de Rorschach-inktvlekken. Dit kwam doordat hij voordien voornamelijk sensationale en gewelddadige beelden van Reddit te zien kreeg en op basis hiervan een beeld opbouwde over de wereld. MIT-onderzoekers wilden zo het gevaar van ‘foute data’ als input voor AI-systemen aantonen.

En ten slotte is er ook het bekende voorbeeld van het Compas-algoritme dat gebruikt werd door Amerikaanse rechtbanken om voorspellingen te doen over het recidiveren van veroordeelden. Wat bleek? Op basis van de historische data die als input werden gebruikt voor het algoritme, kwam die tot de conclusie dat zwarte mensen meer kans hadden om te recidiveren dan blanke mensen. 

image

Dit is Norman, het ‘psychopatische’ AI-algorithme dat MIT-wetenschappers trainden om het gevaar van AI aan te tonen wanneer ‘foute’ data als input worden gebruikt. (copyright “Thunderbrush on Fiverr”, https://www.fiverr.com/thunderbrush). Rechts een van de Rorschach-inktvlekken die Norman kreeg voorgeschoteld. Hij zag er een man in die werd doodgereden door een snelle auto, terwijl standaard AI-systemen er een close-up van een bruidstaart op een tafel in zagen.

Uit dit alles hebben we ondertussen al geleerd dat er met grote zorg moet gekeken worden naar de data die als input gebruikt worden voor AI-systemen en dat het belangrijk is dat we ten alle tijden begrijpen hoe een algoritme tot een bepaalde conclusie komt, en we het kunnen  bijsturen. Het AI-systeem mag geen ‘black box’ zijn. Nieuwe procedures en checks zijn nodig om ervoor te zorgen dat data en algoritmische transparantie gewaarborgd is.

Toch zal het waarschijnlijk niet mogelijk zijn om alle data-input en algoritmes transparant te maken en zullen we soms niet weten waarom het AI-systeem tot een bepaalde conclusie gekomen is. Daarom is het belangrijk om op regelmatige tijdstippen ‘examens’ in te voeren voor het AI-systeem, met o.a. veel aandacht voor ethische kwesties, zodat problemen snel herkend worden. 

Zijn ‘ze’ wel te vertrouwen?

Hoe kunnen we ervoor zorgen dat iedereen het AI-systeem op de werkvloer, bij de dokter, in het verkeer vertrouwt? Allereerst door een soort certificaat toe te kennen, op basis van een regelmatige audit van het systeem. Denk vandaag aan de liften die we gebruiken. We kennen niets van hun technologie, maar we vertrouwen er wel op dat ze veilig en efficiënt hun werk doen (omdat ze regelmatig gecheckt worden door mensen die er wel iets van kennen). 

Ook de manier van communiceren tussen mens en AI-systeem en hun voorspelbaarheid kan bijdragen tot een vertrouwensrelatie. Denk aan de verkeerslichten die we bv. als voetganger gebruiken: er is een knop voorzien waardoor we zelf een input kunnen geven (terwijl een camera de voetganger ook zou kunnen detecteren); we krijgen een signaal dat onze input geregistreerd is; we wachten geduldig want weten dat het een voorspelbaar systeem is dat binnen max. 2 minuten op groen zal springen; eventueel geeft het systeem zelfs aan hoe lang we nog moeten wachten. 

image

Hetzelfde vertrouwen dat we vandaag hebben in slimme verkeerslichten, moeten we proberen te bereiken in AI-systemen. 

Hebben we nog een job in 2035?

De kans is groot dat jobs met veel routine zullen overgenomen worden door AI-systemen en robots. Dat kan gaan om bandwerk in fabrieken, maar evengoed om bepaalde medische diagnostiek, accountant en legal jobs.

Zelfs taken waar iets meer creativiteit komt bij kijken, kunnen worden uitgevoerd door AI-systemen. De bekende historicus Yuval Harari geeft het voorbeeld van AlphaZero van Google die zichzelf leerde schaken in amper 4 uur tijd, waarna hij de beste schaakcomputer – door mensen getraind – versloeg. Niet door te leren uit historische data, maar wel door zichzelf middels machine learning te leren schaken. Het gaat zelfs al zo ver dat als spelers in een schaaktornooi een zet doen die opvallend creatief en origineel is, de jury die speler zal verdenken van het gebruik van een schaakcomputer. 

Dus: zowel routinejobs als jobs waarin nieuwe mogelijkheden moeten geëxploreerd worden, kunnen uitgevoerd worden door AI-systemen. En of ze echt ooit zo creatief gaan kunnen zijn als mensen, zullen we moeten afwachten.

image

Schaakcomputers zijn een prachtig voorbeeld van wat mogelijk is met AI. Ze staan al zo ver, dat spelers verdacht worden van het gebruik van schaakcomputers als hun zet opvallend origineel en creatief is. 

Sowieso zal de jobinhoud van vele jobs veranderen, door de komst van AI. We zullen samenwerken met AI-systemen en ons continu moeten aanpassen aan nieuwe mogelijkheden. Lifelong learning wordt heel belangrijk, zowel voor laaggeschoolde als voor hooggeschoolde jobs. Er zullen ook nieuwe jobs ontstaan, die we vandaag nog niet kunnen voorspellen. Typisch zullen jobs waar menselijk contact heel belangrijk is – bv. verzorging – wel nog vooral door mensen worden uitgevoerd, ook al kunnen robots hier ook ter ondersteuning ingezet worden. 

Maar de impact gaat verder dan onze jobinhoud. Er zullen ook andere economische modellen moeten komen. Waarin we minder werken, en waarin job, inkomen en consumptie worden losgekoppeld van elkaar.

Misschien hoef je niet (fulltime) te gaan werken om een volledig inkomen te hebben, en misschien hoef je geen volledig inkomen te hebben om in je basisbehoeften te voorzien. 

Kijk bv. naar de huidige digitale economie van apps en digitale diensten. Veel diensten kan je gratis gebruiken, soms (met of zonder dat je dit goed beseft) in ruil voor toegang tot je data. Ook in dit systeem zal data een nieuw ruilmiddel zijn, en we kunnen er dus maar beter voor zorgen dat het ons eigendom is en dat we het transparant kunnen inzetten waar we willen. 

 

Hoe werkt imec mee aan deze toekomst?

Imec werkt aan neuromorfische chips die op een zuinige en efficiënte manier complexe algoritmes kunnen ondersteunen. Het zuinig zijn is bv. belangrijk als je AI wil inbouwen in sensoren. Daarnaast werkt imec ook mee in het ExaScience Life Lab om supercomputers te bouwen voor belangrijke medische problemen (ontwikkeling van nieuwe medicatie, inzichten in ziektes, ...).

De imec-onderzoeksgroep SMIT zette het interne DANDA-project op om AI meer ‘transparant’ te maken en de algoritmes begrijpbaar te maken voor verschillende partijen. Er werden methodes uitgewerkt voor imecs AI-ontwikkelaars zoals post-it data flow mapping en een beschrijving van het data preparation process. Daarnaast is er het project DELICIOS dat in 2018 tot stand kwam. In dit vierjaardurende project zullen onderzoekers bekijken welke complexe taken mensen onder welke voorwaarden willen overdragen aan autonome systemen, en hoe comfortabel ze zich hierbij voelen. Ook zal het vertrouwen in deze systemen centraal staan in de studie.

Een technologie als AI kan niet ontwikkeld worden zonder van bij het begin rekening te houden met de maatschappelijke en economische implicaties. Daarom zal imec in 2019 dit multidisciplinaire onderzoek versterken.

Dit artikel is onderdeel van een speciale editie van imec magazine. Naar aanleiding van imecs 35-jarig bestaan vormen we ons een visie van hoe technologie onze maatschappij zal beïnvloeden in 2035.

Over Pieter Ballon

Professor Pieter Ballon behaalde zijn masterdiploma Moderne Geschiedenis aan de KU Leuven en zijn doctoraatsdiploma Communicatiewetenschappen aan de VUB. Sinds 2009 doceert hij Communicatiewetenschappen aan de VUB. Sinds 2016 is hij directeur van SMIT, een imec onderzoeksgroep aan de VUB die zich bezighoudt met ‘Studies in Media, Innovation and Technology’. Pieter Ballon werd benoemd tot de eerste Brusselse Smart City Ambassadeur en is ook de Internationale Secretaris van het Europese Netwerk van Living Labs. Hij publiceerde o.m. het boek “Smart Cities : hoe technologie onze steden leefbaar houdt en slimmer maakt”.

Deze website maakt gebruik van cookies met als enige doel het analyseren van surfgedrag, zonder enige commerciële insteek. Lees er hier meer over. Lees ook ons privacy statement. Sommige inhoud (video's, iframes, formulieren,...) op deze website zal pas zichtbaar zijn na het accepteren van de cookies.

Accepteer cookies