Algoritmisering, wen er maar aan

Jim Stolze (Aigency) is keynote spreker tijdens High-Tech Systems 2018.

13 maart 2018

Canada investeerde vorig jaar 127 miljoen dollar te investeren in een nieuw kennisinstituut. Het Vector Institute in Toronto gaat zich volledig richten op deep learning, neurale netwerken en andere vormen van kunstmatige intelligentie. ‘Wij zijn de thuisbasis voor toptalent op het gebied van kunstmatige intelligentie. We kunnen het ons niet veroorloven die voorsprong te verliezen en zodoende nieuwe banen mislopen’, zei de Canadese minister-president Justin Trudeau.

Canada is niet de enige economie die zich voorbereid op de algoritmisering van de samenleving. Zuid-Korea lanceerde in 2016 een fonds van 860 miljoen dollar voor nieuw onderzoek nadat wereldkampioen Go, Lee Sedol, van het bord was geveegd door Alphago. En het Verenigd Koninkrijk heeft door Accenture laten voorrekenen dat een investering van 17 miljoen pond nu, zo’n 654 miljard pond aan de economie in 2035 zou toe kunnen voegen.

En Nederland? Nederland doet nog even niets. Wetenschappers van verschillende universiteiten bundelen hun krachten in de hoop samen meer kans te maken op nieuwe onderzoeksgelden. Een voorstel in het kader van responsible data science werd door NWO afgewezen. Een gemiste kans! Kunstmatige intelligentie is geen toekomstmuziek, het zit reeds in alle aspecten van ons leven verstopt. Toen u afgelopen week in uw auto stapte en de navigatie instelde, maakte u gebruik van een algoritme. Het rekensommetje bepaalde niet alleen de kortste route van A naar B, maar hield ook rekening met andere kastjes in de buurt, de actuele verkeerssituatie en – voor de Tesla-rijders onder ons – voorzag in uw persoonlijke laadbehoefte. Of toen u vanmorgen online ging. Weinig mensen zijn er zich van bewust dat zo’n een miljard mensen op de wereld voor hun blik op de buitenwereld vertrouwen op één specifiek algoritme. De newsfeed van Facebook is een vorm van kunstmatige intelligentie die – ook als u niet klikt of scrollt – continu leert van uw surfgedrag.

Toen Alan Turing in de jaren 30 voor het eerst publiceerde over een ‘denkende machine’ was hij visionair en ambitieus. Hij ging zo voortvarend aan de slag dat zijn machine al snel beter kon puzzelen dan de beste Britse cryptografen. Zijn Turing Machine brak de Duitse enigmacode en luidde zo het einde van de Tweede Wereldoorlog in. Sinds die ontdekking zijn wetenschappers over de hele wereld op zoek naar de heilige graal: een computer die de Turing Test kan doorstaan. Die test is een simpele methode waarbij een proefpersoon op basis van zijn interactie met een onzichtbaar iemand moet beoordelen of hij te maken heeft met een mens of machine.

Misschien goed om drie termen uit elkaar te houden. Om te beginnen artificial intelligence, de verzamelnaam voor machines die worden geprogrammeerd om intelligent te lijken. Bijvoorbeeld Deep Blue (de schaakcomputer van IBM) of Siri (de spraakassistent van Apple). Het begint ergens op te lijken, maar er is nog veel voor nodig om de Turing Test te doorstaan.

 advertorial 
Daan Meijsen

Ingredients enabling carbon neutrality of warehouse systems

5 oktober 2023 vindt de INCOSE-NL workshop 2023 plaats, met spreker Daan Meijsen van Vanderlande. Tijdens de workshop krijg je inzicht in de verschillende cross-cutting duurzaamheidsperspectieven voor hightech systemen. Bekijk het volledige programma online en registreer nu!

Dan heb je robotica. Deze vorm van kunstmatige intelligentie houdt zich vooral bezig met planning en navigatie. Denk aan drones en robots. Autonome voertuigen zijn feitelijk algoritmes op wielen, of met propellers en grijphanden.

En tot slot: Machine learning, een verzameling algoritmes die zelf kunnen ontdekken en onthouden. Tot kort geleden werkte het spamfilter van Google nog met regels zoals: ‘Als het bericht het woord ‘v!agra’ bevat, verplaats het dan naar de junkfolder.’ Het hoeft nauwelijks uitleg dat zo’n filter erg moeilijk af te stellen was omdat spammers steeds nieuwe manieren vonden om tussen de mazen van het filter door te glippen. Machine learning werkt gelukkig anders; het algoritme dat Google nu gebruikt, is zelf lerend. Eerst laat je het honderdduizend e-mails zien die ‘schoon’ zijn. En vervolgens honderdduizend berichten die in de categorie ‘spam’ thuis horen. Het algoritme is nu een spier geworden die je kunt gaan trainen. Geef het ongeveer een miljoen voorbeelden (push-ups) en het zal met een nauwkeurigheid van meer dan 95 procent je inbox kunnen schoonhouden.

Machine learning is de reden dat onze collega’s steeds vaker een beroep zullen doen op kunstmatige intelligentie. Net als dat we liever de calculator pakken in plaats van een som uit het hoofd te maken, zullen we onze ideeën steeds vaker laten onderbouwen en laten inspireren door computerlogica. Het gaat dan om kleine deeltaken die een algoritme duizend keer beter of sneller kan uitvoeren dan een mens. Zo lanceerde zakenbank JP Morgan nog een eigen algoritme met de naam Coin, een samentrekking van Contract en Intelligence. De software kan in no-time duizenden contracten doorlezen en komt dan met een advies waar voorheen driehonderdduizend uren voor nodig waren van gewone advocaten.

Ethische aspecten

Overal waar data wordt gebruikt (en waar is dat nu niet?) zal de vraag om analyse op duiken. Veel organisaties zijn vergeten door te pakken. Ze hebben alleen getracht om bestaande processen te digitaliseren en voelen zich nu data rich, information poor. Dat is precies de reden dat er in korte tijd twee nieuwe datascholen in Nederland zijn gestart. De Jheronimus Bosch Academy for Data Science (Jads) en de Amsterdam School of Datascience. Op de datascholen wordt geleerd hoe je met data moet omgaan en welke methodes er zijn om inzichten en nieuwe verbanden te ontdekken. Specialisten in dit vakgebied zijn erg gewild en naar verwachting is er dit jaar een tekort van achtduizend zogenoemde datawetenschappers.

Algoritmisering is feitelijk het uitbesteden van processen – en daarmee ook gedeeltes van beslissingen – aan machines die lijken te denken. En daar wringt volgens sommigen de schoen. Want als mensen beslissingen nemen of afwegingen maken, doen we dat vaak door middel van een combinatie van harde factoren (feiten, cijfers, jurisprudentie) en zachte factoren (buikgevoel, compassie, omstandigheden). In haar boek ‘Weapons of math destruction’ betoogt Cathy O’Neil dat algoritmes daarin heel slecht zijn en zo discriminatie en structurele ongelijkheid versterken.

De vraag van deze tijd is dus niet óf we big data-modellen gebruiken, maar of we het op de juiste manier doen. Wie zorgt ervoor dat de algoritmes niet onbedoeld tot ongelijkheid leiden? Bij wie kun je aankloppen als je je gediscrimineerd voelt door een it-systeem? Moeten we erop vertrouwen dat grote bedrijven per definitie onze privacy zullen respecteren?

Technologie ontwikkelt zich sneller dan het menselijke aanpassingsvermogen, dat is niets nieuws. De parachute werd ook pas als nuttig ervaren nadat het eerste vliegtuig was opgestegen. Daarom zal er naast een tekort aan datawetenschappers ook een tekort aan data-ethici ontstaan. Kunnen wij in Nederland leren van de Canadezen? Als zij zo investeren in de harde kant van kunstmatige intelligentie, misschien moeten wij dan anticiperen op de volgende trend: Nederland voorop als thuisbasis voor vrijdenkers op het gebied van ethiek en technologie. Haast is geboden, want de toekomst wacht niet op iedereen.

Deze column is oorspronkelijk gepubliceerd in het FD van zaterdag 15 april 2017.