Terug

AI: technische (on)mogelijkheden
Nanda van der Stap

03 februari 2020

AI: technische (on)mogelijkheden

Publicaties

Je kunt er niet meer omheen: kunstmatige of artificiële intelligentie (KI of AI) is overal, en zeker ook in de medische wereld. Of het nu overduidelijk aanwezig is (Mascagni et al., 2019) of meer verborgen onder de oppervlakte (Jacobs, 2019), we worden er al door omgeven. Met de opkomst van de AI-hype (is het een hype? Zie Deibel, 2019) komen ook een veelvoud aan vragen op. Wat kan deze technologie nu eigenlijk? En, wat kan het niet? Oftewel: waar moeten we mee oppassen? Gaat het echt al onze problemen oplossen, of juist onze banen overnemen? Deze vragen zijn niet afdoende te beantwoorden in één artikel van MT Integraal, maar we kunnen voor de geïnteresseerde lezer wel wat licht schijnen in de duisternis van de werking van deze technologie.

Begrip

Artificiële intelligentie (AI) is een breed begrip dat meerdere technologieën omvat. Het bestaat ook al lang; in 1956 werd de term voor het eerst geïntroduceerd tijdens de Dartmouth Summer Research Project (Moor, 2006). De technologieën hebben gemeen dat zij allen statistische methoden zijn om patronen uit data te halen. AI omvat machine learning, een technologie die beter wordt als er meer data wordt toegevoegd, en machine learning omvat deep learning. Dat AI nu overal en nergens genoemd wordt, is met name te wijten aan de opkomst van deep learning algoritmes. Ook deze technologie bestaat al langer, al was het eerder ‘shallow learning’ en werd het nog neurale netwerken of artificial neural networks (ANNs) genoemd. 

Artificiele neurale netwerken

ANNs bestaan uit reken-nodes die neuronen worden genoemd. Er bestaan verschillende soorten van deze wiskundige neuronen (zoals bijvoorbeeld het perceptron, zie ook Loiseau, 2019). Een van de oudste varianten werkt volgens het wiskundige principe dat het een gewogen som neemt van de signalen van alle andere neuronen waar het mee verbonden is. Vervolgens wordt de uitkomst doorgestuurd naar een verzamelpunt waar het getest wordt tegen een drempelwaarde. Als de uitkomst de drempelwaarde overstijgt, geeft het neuron een signaal af richting de neuronen waar het mee verbonden is via de output. Zoniet, dan blijft het in rust. Dit principe zal niet geheel onbekend klinken voor de kenners van neuronale anatomie onder ons!    

Succesfactoren

Maar waarom werkt dit wiskundige rekenmodel nu zo goed? Vanwaar de explosieve deep learning opkomst? Er zijn in ieder geval drie hoofdfactoren te benoemen die hiermee te maken hebben. Allereerst is rekenkracht veel kleiner en goedkoper geworden. Waar de eerste supercomputer een hele kamer besloeg, hebben mobiele telefoons nu een veelvoud van die rekenkracht, en ze zijn ook nog eens een veelvoud goedkoper. Ten tweede is er met de opkomst van het internet overal en van alles data beschikbaar. Je kunt het zo gek niet bedenken of het wordt vastgelegd; een goudmijn voor de deep learning netwerken, die met name leren door datavoorbeelden. Ten derde zorgt ditzelfde internet voor een ander interessant fenomeen: het delen van kennis is explosief gegroeid. Programmeurs en wetenschappers stellen hun software en data beschikbaar (open source), en zorgen er zo voor dat een persoon aan de andere kant van de wereld verder kan met waar zij zijn gebleven. De ontwikkelingen gaan zo razendsnel, en vinden overal tegelijk plaats.

Deep learning in soorten en maten

Er zijn verschillende soorten algoritmes in de deep learning wereld, en het voert te ver om ze allemaal te bespreken. Net zoals bijvoorbeeld geluidsdata een ander formaat heeft dan beelddata, moeten er andere connecties gemaakt worden om patronen in de verschillende soorten data te ontdekken. Er zijn hele industrieen bezig om nieuwe soorten netwerken te ontwikkelen die steeds een beetje beter de problemen oplossen.

 

Het is wel interessant om te weten dat er een grof onderscheid bestaat in methoden. Er bestaan een ‘supervised’ en een ‘unsupervised’ learning aanpak. Voor de supervised variant is veel gelabelde data nodig. Deze algoritmes krijgen een datavoorbeeld, met daarbij wat de verwachte uitkomst is. Een voorbeeld kan zijn: een plaatje van een tumor. Je verwacht dan van het algoritme dat het alle volgende plaatjes van tumoren gaat herkennen als ‘tumor’, mits het maar genoeg voorbeelden heeft gezien.

 

De unsupervised variant is eigenlijk ontworpen om te leren wat de regels zijn van een bepaalde dataset. Deze algoritmes proberen vaak een dataset in te delen in groepen, waarvan soms bekend is hoeveel groepen dit moeten worden, zonder dat er voorbeelden worden gegeven. Een voordeel van deze variant is dat het tijd scheelt in het labelen van data; er zijn immers geen voorbeelden nodig. Een nadeel is dat het lang kan duren voordat een passende oplossing wordt gevonden, of dat de gevonden oplossing het originele probleem niet oplost.

 

Tot slot zijn er, je raadt het al, semi-supervised methoden. Deze variant maakt bijvoorbeeld gebruik van minder voorbeelden of probeert door middel van modellen te extrapoleren naar een oplossing. Deze modellen zijn natuurlijk ook een vorm van voorkennis, wat de leertijd van een systeem erg kan verkorten. Een voorbeeld kan zijn dat je een robot wilt leren lopen, maar dat je hem wel als voorkennis meegeeft dat er altijd een voet op de grond moet staan. Er is aangetoond dat het gebruiken van voorkennis de prestatie van lerende systemen kan verbeteren (Pearl, 2018). 

Beperkingen

In het algemeen zijn de beperkingen van de complexere AI algoritmes, zoals deep learning, vergelijkbaar, ook al zijn er veel soorten en maten. Complexe berekeningen vragen allereerst veel rekenkracht van de computer. Dit komt, afhankelijk van de gemaakte hardware keuzes, neer op veel rekentijd en/of veel energieverbruik.

 

Een andere (mogelijke) beperking is dat de supervised methoden veel, heel veel, voorbeelden nodig hebben. Qua aantallen gaat het vaak minstens om duizenden, maar vaker gaat het richting de miljoenen. Tot slot is een veelgehoorde beperking dat de algoritmen niet goed kunnen aangeven hoe zij tot een oplossing komen, zoals bijvoorbeeld wat de reden is dat een afbeelding volgens het algoritme een tumor is, en geen gezond weefsel.

AI in de kliniek

De theoretische mogelijkheden van AI zijn groot; in theorie zou de ervaring van artsen en data van ziekenhuizen van over de hele wereld kunnen worden samengevoegd in AI modellen. Deze zouden daarmee betrouwbaarder kunnen gaan werken dan een enkele arts. Dit fenomeen is iets waar bijvoorbeeld een groep Amerikaanse techbedrijven op inzet (Zonneveld, 2019). Hiervoor moeten bijvoorbeeld ook nieuwe datastandaarden worden ontwikkeld.

 

De expliciete AI toepassingen die al in de kliniek te vinden zijn, zijn er echter slechts een handjevol. Veel van deze zijn gericht op het efficienter maken van de klinische workflow of op zorg op maat voor de patient. Your.MD is een voorbeeld; het is een chatbot die AI gebruikt om mensen informatie te bieden rondom hun gezondheid, maar ook over andere producten en diensten. Via verschillende platformen, waaronder Facebook Messenger en Skype, kunnen gebruikers hun symptomen beschrijven. De reactie van de chatbot bestaat uit gerelateerde aandoeningen, en daarop kan de gebruiker weer reageren. De chatbot doet zijn uitspraken op basis van een training waarbij medische literatuur is gebruikt.

 

Deep learning is zeer succesvol in het herkennen van patronen in beelden. Niet zo gek dus, dat er veelbelovend onderzoek wordt gedaan in de radiologie. Zo bestaat er een algoritme dat 14 verschillende longziekten kan herkennen op thorax röntgenfoto’s, waarbij het voor pneumonie zelfs beter presteert dan de mens (Rajpurkar, 2017). Het netwerk bestaat uit maar liefst 121 lagen, en is getraind op een gelabelde dataset van 100.000 röntgenfoto’s. En dit is een willekeurig voorbeeld, hoewel het een zeer elegant voorbeeld is van een effectieve deep learning methode.    

Beter dan de mens?

De vraag blijft echter of deep learning qua diagnostische waarde wel uitstijgt boven de mens (Liu, 2019). Een grote systematische review in The Lancet toonde vooral aan dat de meeste gepubliceerde studies over AI algoritmes niet extern gevalideerd zijn, en daarmee is hun klinische waarde beperkt.

 

Dat AI niet alomtegenwoordig is in de kliniek heeft nog andere redenen. Mensen vertrouwen AI niet zonder meer, en met reden. De huidige state of the art algoritmen zijn niet tot slechts zeer beperkt in staat uit te leggen waarom ze een bepaalde uitkomst laten zien. Het interessante is echter dat de reden die professionals opgeven niet de beperkingen van de algoritmen zijn, maar hun eigen gebrek aan technologische vaardigheden (aldus 63% van de respondenten in IBM executive report, 2018).    

Ethiek en vooringenomenheid

Ook ethische bezwaren worden vaak genoemd als drempel tot implementatie van AI. In de medische praktijk gaat het niet alleen om bijvoorbeeld bescherming van persoonsgegevens en andere data, maar ook om andere ethische afwegingen. Nu wordt er vaak in een multidisciplinair overleg vergaderd over het wel of niet (door)behandelen van een ernstig zieke patiënt. Maar hoe gaat dat als een algoritme mag meedenken? En volgens welk ethisch kader wordt dit algoritme dan geprogrammeerd?

 

Daarnaast is bias, het best te vertalen met ‘vooringenomenheid’, een veelgenoemd probleem (Nyst, 2019). Omdat AI algoritmes bij uitstek in staat zijn om patronen in data te ontdekken, is het geen verrassing dat zij ook patronen zien als dit niet gewenst is. De beschikbaarheid van data speelt hierbij een belangrijke rol: in Europa verzamelde data is vaak slecht van toepassing op de Aziatische populatie, en bij een oververtegenwoordiging van bijvoorbeeld mannelijke patiënten in de beschikbare dataset, zouden vrouwen wel eens een voor hun niet geschikte behandeling kunnen krijgen. Een kritisch lezer zou kunnen beweren dat artsen op dezelfde manier ervaring opdoen en dus ook een bias zouden kunnen ontwikkelen. Het verschil blijft wel dat artsen hun bevindingen toetsen aan de complexe werkelijkheid en een moreel kader, al dan niet met hulp van collega’s. 

Aansprakelijkheid

Een grote vraag blijft vooralsnog eveneens bestaan rondom juridische aansprakelijkheid. Als een systeem dat AI bevat delen inderdaad zelf leert, wie is dan verantwoordelijk voor eventuele fouten of andere incidenten die met het systeem optreden? Is de arts nog wel verantwoordelijk als het systeem de diagnose heeft gesteld? En zonee, wie dan? De programmeur die het systeem heeft gemaakt? Of zal er eerst gewerkt worden volgens een manier vergelijkbaar als nu de ‘verlengde arm constructie’? Deze discussie wordt op dit moment wereldwijd levendig gevoerd; momenteel heeft niemand nog een sluitend antwoord. Een uitgebreider artikel dat de veelbesproken uitdagingen rondom AI bespreekt stond onlangs in Medisch Contact (Nyst, 2019).    

Hoe nu verder?

Hoewel AI technisch best complex kan zijn, is er online ontzettend veel informatie te vinden over hoe het werkt en kan een beginner prima een eerste programmeertest doen met tekstherkenning (bijvoorbeeld op de MNIST dataset, leuk om te googelen voor de nieuwsgierige lezer). Ondanks de genoemde beperkingen en barrieres zijn er wel degelijke grote voordelen, en kan een simpele AI oplossing wellicht helpen met die tijdrovende administratieve taken die het dagelijks werk nu zo onaangenaam kunnen maken. Simone Cammel schreef hier een leuke blog over (Cammel, 2019). Ze beveelt aan om met de middelen die ons nu al ter beschikking staan, gewoon eens te gaan experimenteren – iets waar ondergetekende helemaal achter staat. Al is het maar om de eigen technologische kennis te vergroten, en zo een van de grootst genoemde drempels te verlagen. De grote vragen blijven, maar ze zijn een stuk makkelijker te beantwoorden als we beter weten waar we over praten.    

  • Cammel, S. (2019). Komt een algoritme bij de dokter. Skipr – Springer Nature. https://www.skipr.nl/blog/komt-een-algoritme-bij-de-dokter/
  • Deibel, Job (2019). Machine learning: hype of here to stay? Frankwatching – online trends, tips & tricks. 7 november 2018. www.frankwatching.com/archive/2018/11/07/machine-learning-hype-of-here-to-stay/.
  • IBM executive report (2018). Shifting towards enterprise-grade AI – resolving data and skills gap to realize value. https://www.ibm.com/downloads/cas/QQ5KZLEL.
  • Jacobs, Anna (2019). Jeroen Tas (Philips): “Oncologen kunnen niet meer zonder AI”. Smarthealth, 19 februari 2019. www.smarthealth.nl/2019/02/19/jeroen-tas-philips-oncologen-kunnen-niet-meer-zonder-ai/.
  • Liu, Xiaoxuan. With: Livia Faes, Aditya U Kale, Siegfried K Wagner, Dun Jack Fu, Alice Bruynseels, Thushika Mahendiran, Gabriella Moraes, Mohith Shamdas, Christoph Kern, Joseph R Ledsam, Martin K Schmid, Konstantinos Balaskas, Eric J Topol, Lucas M Bachmann, Pearse A Keane, Alastair K Denniston, (2019). A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. Lancet Digital Health 2019; 1: e271–97 Published Online September 24, 2019 https://doi.org/10.1016/ S2589-7500(19)30123-2
  • Loiseau, J-C. B. (2019). Rosenblatt’s perceptron, the first modern neural network - A quick introduction to deep learning for beginners. Towards Data Science. https://towardsdatascience.com/rosenblatts-perceptron-the-very-first-neural-network-37a3ec09038a.
  • Maassen, H. (2019). De computer als dokter. Medisch Contact 74(26), pp. 18-23.
  • Mascagni, P., Fiorillo, C., Urade, T., Emre, T., Yu, T., Wakabayashi, T., Felli, E., Perretta, S., Swanstrom, L., Mutter, D., Marescaux, J., Pessaux, P., Costamagna, G., Padoy, N., Dallemagne, B. (2019). Formalizing video documentation of the Critical View of Safety in laparoscopic cholecystectomy: a step towards artificial intelligence assistance to improve surgical safety. Surgical Endoscopy. https://doi.org/10.1007/s00464-019-07149-3.
  • Moor, J. (2006). The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years. AI magazine, 27(4). https://doi.org/10.1609/aimag.v27i4.1911.
  • Nyst, E. (2019). Kunstmatige intelligentie in zeven kritische aandachtspunten. Medisch Contact 74(26), pp. 27-29.
  • Pearl, J. (2018). Theoretical Impediments to Machine Learning with Seven Sparks from the Causal Revolution, 1-8. https://doi.org/10.1145/3159652.3176182
  • Rajpurkar, Pranav (2017). With: Jeremy Irvin, Kaylie Zhu, Brandon Yang, Hershel Mehta, Tony Duan, Daisy Ding, Aarti Bagul, Curtis Langlotz, Katie Shpanskaya, Matthew P. Lungren, Andrew Y. Ng.  CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning. Computer Vision and Pattern Recognition (CVPR’17). https://arxiv.org/abs/1711.05225
  • Zonneveld, B. van (2019). Echte AI in medische wereld nog ver weg. Technisch Weekblad. https://www.technischweekblad.nl/artikelen/tech-achtergrond/echte-ai-in-medische-wereld-nog-ver-weg
Toon alle referenties

Auteur