1 00:00:00,000 --> 00:00:18,080 *Muziek speelt* 2 00:00:18,160 --> 00:00:21,120 In de vorige twee afleveringen verkenden we met experts... 3 00:00:21,240 --> 00:00:24,120 hoe AI zich zal ontwikkelen de aankomende jaren... 4 00:00:24,240 --> 00:00:29,680 en stonden we stil bij belangrijke kansen en vraagstukken die daarbij horen voor de zorg. 5 00:00:29,800 --> 00:00:33,720 We lieten zien wat het belang is van een samenwerking tussen mens en AI... 6 00:00:33,840 --> 00:00:38,040 en kwamen erachter dat robots de mens nog niet zó snel zullen overnemen. 7 00:00:38,160 --> 00:00:44,400 Kortom, het is aan onszelf om te bepalen hoe een toekomst met AI eruit zal zien in de zorg. 8 00:00:44,520 --> 00:00:49,480 Daarom staan we in deze derde en voorlopig laatste aflevering stil bij de vraag... 9 00:00:49,600 --> 00:00:54,480 hoe patiënten en zorgprofessionals zich kunnen voorbereiden op deze toekomst. 10 00:00:54,600 --> 00:00:56,760 Welke vragen heb jij daarbij? 11 00:00:56,880 --> 00:01:01,080 We vroegen het weer aan een aantal jonge patiënten en zorgprofessionals. 12 00:01:01,200 --> 00:01:02,680 Als ziekenhuisarts ben ik benieuwd: 13 00:01:02,800 --> 00:01:06,880 Welke tips hebben jullie om me voor te bereiden op een toekomst met AI in de zorg? 14 00:01:07,000 --> 00:01:10,080 Op welke manier gaat AI mijn werk als zorgprofessional... 15 00:01:10,200 --> 00:01:13,920 in de toekomst verbeteren, versnellen of veranderen? 16 00:01:14,040 --> 00:01:15,520 Hoe kan ik, als patiënt... 17 00:01:15,640 --> 00:01:20,120 met artificial intelligence mijn gezondheid verbeteren of in de gaten houden? 18 00:01:20,320 --> 00:01:28,080 *Muziek speelt* 19 00:01:28,520 --> 00:01:34,880 Van iedere burger zou ik verwachten dat hij een minimale basiskennis heeft... 20 00:01:35,000 --> 00:01:40,880 van de technologie en hoe het wordt ingezet, wat het kan, wat de gevaren zijn... 21 00:01:41,000 --> 00:01:46,360 net zoals we weten dat röntgenstraling schadelijk is... 22 00:01:46,480 --> 00:01:48,960 of kernafval. -Mooi. 23 00:01:49,080 --> 00:01:51,880 Dus er een klein beetje iets van weten... 24 00:01:52,000 --> 00:01:55,680 ik denk dat dat waardevol is. -Ja. 25 00:01:55,800 --> 00:02:00,520 Er is niet iemand als dé patiënt. Sommige patiënten willen alles weten... 26 00:02:00,640 --> 00:02:08,080 en gaan zelf onderzoek doen en stellen heel veel vragen, zijn heel kritisch. 27 00:02:08,200 --> 00:02:10,720 Andere patiënten zullen... 28 00:02:10,840 --> 00:02:16,680 op het advies van de arts vertrouwen en dat volgen. 29 00:02:16,800 --> 00:02:20,280 Als zo'n algoritme vooral een logistiek effect heeft... 30 00:02:20,400 --> 00:02:26,560 dan zal die patiënt vermoedelijk niet eens doorhebben dat dat algoritme gebruikt wordt. 31 00:02:26,680 --> 00:02:33,440 Als het algoritmes zijn die bijvoorbeeld herkennen of een patiënt ernstig ziek is... 32 00:02:33,560 --> 00:02:41,160 om daar iets mee te doen, ook dan vraag ik me af wat die patiënt er direct van merkt. 33 00:02:41,280 --> 00:02:45,000 Het zou kunnen dat patiënten in de loop der tijd gewend raken... 34 00:02:45,120 --> 00:02:47,960 aan alle AI die ze in het dagelijks leven meemaken... 35 00:02:48,080 --> 00:02:51,120 en steeds een beetje bij de zorg-IT het gevoel houden... 36 00:02:51,240 --> 00:02:53,560 dat het allemaal wat archaïsch is. -Kijk. 37 00:02:53,680 --> 00:02:57,280 Omdat het gewoon op dat vlak wat meer ontwikkeltijd nodig heeft. 38 00:02:57,400 --> 00:03:00,200 Het belangrijkst is: die patiënt wil de beste zorg krijgen. 39 00:03:00,320 --> 00:03:03,480 Een van de belangrijke dingen die eraan komen, zijn de wearables... 40 00:03:03,600 --> 00:03:08,760 dus de sensoren dicht bij jouw lijf die in de gaten houden hoe je conditie is. 41 00:03:08,880 --> 00:03:12,200 Je kan zo veel dingen tegenwoordig vrij eenvoudig meten. 42 00:03:12,320 --> 00:03:16,080 Dat heeft met voeding te maken, met je hartslag, met zweten... 43 00:03:16,200 --> 00:03:19,880 met of je valt of niet, dat kan je allemaal detecteren met wearables. 44 00:03:20,000 --> 00:03:24,560 Dus dingen die je draagt op je lijf worden, denk ik, de komende tien jaar heel belangrijk... 45 00:03:24,680 --> 00:03:29,880 met name ook om de situatie te hebben dat je als cliënt je eigen leven in handen hebt... 46 00:03:30,000 --> 00:03:34,320 dat je lekker kan blijven wonen waar je woont en dat er remote voor jou aandacht is... 47 00:03:34,440 --> 00:03:37,920 dat er mensen op afstand reageren als er iets aan de knikker is met jou. 48 00:03:38,040 --> 00:03:44,560 Gedreven door data die verzameld wordt op een privacyongevoelige manier... 49 00:03:44,680 --> 00:03:50,640 en dat er remote aandacht is, een valnet is, dat als er iets mis is er snel ingegrepen kan worden. 50 00:03:50,760 --> 00:03:56,160 Daarmee houden we die zorg ook houdbaar op langere termijn... 51 00:03:56,280 --> 00:04:00,480 terwijl we aan het vergrijzen zijn en veel te weinig zorgprofessionals hebben. 52 00:04:00,600 --> 00:04:07,760 Je moet je realiseren dat het denk ik belangrijk is om het gesprek aan te gaan met jouw arts... 53 00:04:07,880 --> 00:04:12,800 en hem of haar te vragen: Gebruiken jullie deze zaken al? 54 00:04:12,920 --> 00:04:18,280 Want ik heb begrepen dat dat misschien soms kan bijdragen aan betere beslissingen. 55 00:04:18,400 --> 00:04:23,600 Het zou heel fijn zijn als het al gebeurt, maar zo niet, dan kan dat misschien gaan gebeuren. 56 00:04:23,720 --> 00:04:27,280 Als het wel gebeurt, dan is het belangrijk om samen in gesprek te gaan. 57 00:04:27,400 --> 00:04:30,720 Op intensive care is het zo, zoals ik al uitlegde... 58 00:04:30,840 --> 00:04:34,080 dat we vaak niet met de patiënt direct communiceren... 59 00:04:34,200 --> 00:04:37,440 omdat die vaak te ziek is en niet in staat is om te praten. 60 00:04:37,560 --> 00:04:42,800 Vaak liggen de patiënten aan de beademing. Dan gaat het over de familie, maar... 61 00:04:42,920 --> 00:04:45,800 naar analogie van wat ik net vertelde... 62 00:04:45,920 --> 00:04:52,960 kun je met de familie in gesprek gaan over welke beslissingen er aangedragen worden... 63 00:04:53,080 --> 00:04:58,640 en welke adviezen er gegeven zijn, om daar samen de beste weg in te vinden. 64 00:04:58,760 --> 00:05:01,960 Zijn er... 65 00:05:02,080 --> 00:05:08,720 skills of kennis die zorgprofessionals zich echt eigen moeten maken om met AI te gaan werken? 66 00:05:08,840 --> 00:05:13,400 Vraagt dat iets van ze en wat is dat? -Ja. Ik denk dat dat van twee kanten moet komen. 67 00:05:13,520 --> 00:05:18,040 We komen er niet als die community's... 68 00:05:18,160 --> 00:05:23,520 de gemeenschappen van de AI-onderzoekers en de zorgprofessionals gescheiden blijven. 69 00:05:23,640 --> 00:05:28,320 Wat is heel specifiek een onderwerp of iets wat je moet leren als je met AI aan de slag gaat... 70 00:05:28,440 --> 00:05:33,280 ten opzichte van het werken met een iPad of andere vormen van digitale ondersteuning? 71 00:05:33,400 --> 00:05:36,440 Ja, ik denk dat het nodig is... 72 00:05:36,560 --> 00:05:42,480 dat een AI-professional zich bewust is van de mogelijkheden en onmogelijkheden van de AI. 73 00:05:42,600 --> 00:05:46,240 Je ziet soms nu dat het doorslaat naar de extremen. 74 00:05:46,360 --> 00:05:48,600 Of mensen zijn extreem sceptisch en zeggen: 75 00:05:48,720 --> 00:05:54,480 Nee, wat ik in mijn tienjarige medische opleiding geleerd heb, kunnen jullie nooit verbeteren met AI. 76 00:05:54,600 --> 00:05:57,200 Dus een extreem negatieve houding tegenover AI. 77 00:05:57,320 --> 00:06:01,800 Of een extreem positieve houding over AI, van: O, het komt uit een AI-programma... 78 00:06:01,920 --> 00:06:04,160 dus het zal wel goed zijn. -Blind vertrouwen. 79 00:06:04,280 --> 00:06:05,840 Allebei zijn onzinnig. 80 00:06:05,960 --> 00:06:10,560 Maar voor een verstandig oordeel, om er op een verstandige manier mee om te gaan... 81 00:06:10,680 --> 00:06:16,880 moeten AI-professionals iets meer begrijpen van wat er wel en wat er niet kan met de huidige AI. 82 00:06:17,000 --> 00:06:22,000 Ik zeg tegen m'n collega's: Bereid je voor, want het komt eraan. 83 00:06:22,120 --> 00:06:24,840 Dus je kunt je er maar beter nu in verdiepen. -Ja. 84 00:06:24,960 --> 00:06:27,960 Dat moet eigenlijk op twee niveaus: 85 00:06:28,080 --> 00:06:32,360 Het niveau van de individuele zorgverlener, artsen en verpleegkundigen. 86 00:06:32,480 --> 00:06:38,240 Ze moeten geschoold worden in de mogelijkheden en de onmogelijkheden van deze techniek. 87 00:06:38,360 --> 00:06:41,480 En dat begint, denk ik, bij de geneeskundeopleiding. 88 00:06:41,600 --> 00:06:46,560 Dus ik denk dat dokters ook geschoold moeten worden in de datawetenschappen... 89 00:06:46,680 --> 00:06:50,640 al was het maar op een niveau dat ze dat kunnen toepassen. 90 00:06:50,760 --> 00:06:56,000 Ik denk ook dat we toe moeten, net zoals we rijbewijzen hebben, naar robotbewijzen. 91 00:06:56,120 --> 00:07:01,640 Zoals je niet met een auto de weg op mag zonder eerst theorie- en praktijkervaring te hebben... 92 00:07:01,760 --> 00:07:04,480 dat dat ook niet mag met dit soort systemen. -Nee. 93 00:07:04,600 --> 00:07:09,640 Dat je echt even moet nadenken over de macht, de power die in dat soort systemen zit... 94 00:07:09,760 --> 00:07:13,320 en de schade die je daarmee kunt berokkenen bij ondeskundig gebruik. 95 00:07:13,440 --> 00:07:17,720 De vraag is of we de situatie weer wat kunnen omdraaien... 96 00:07:17,840 --> 00:07:21,440 in de zin van dat wij ons niet hoeven aan te passen aan de technologie... 97 00:07:21,560 --> 00:07:25,480 maar dat de technologie zich aanpast aan ons. -Mooie. 98 00:07:25,600 --> 00:07:29,400 Als we dat wat kunnen omdraaien, kunnen we al heel veel bereiken. 99 00:07:29,520 --> 00:07:35,320 Robots, of AI, gaan inderdaad een stukje van ons leven veranderen. 100 00:07:35,440 --> 00:07:40,120 Dat is echt eng en we weten niet zo goed hoe dat gaat. Aan de andere kant zijn we er altijd bij. 101 00:07:40,240 --> 00:07:46,200 De robot gaat ons niet overwinnen, dat is onzin, want mens en technologie zijn echt verbonden. 102 00:07:46,320 --> 00:07:51,440 Dus we gaan met z'n tweeën. Ik noem het vaak een dans, een beetje positief, of een worsteling... 103 00:07:51,560 --> 00:07:55,920 waarbij mens en machine samen dansen en samen worstelen, maar nooit alleen. 104 00:07:56,040 --> 00:08:01,760 Ik denk, voor patiënten... Die technologie komt, maar die moet zichzelf nog deels aanpassen. 105 00:08:01,880 --> 00:08:06,760 Dus het is heel belangrijk dat je als patiënt benoemt: Dit is voor mij wel fijn of niet. 106 00:08:06,880 --> 00:08:10,080 Deels moet je ook een beetje leren: Hoe kan ik hiermee omgaan? 107 00:08:10,200 --> 00:08:13,360 Net zoals we dat met een iPhone of met een computer moeten doen. 108 00:08:13,480 --> 00:08:17,080 Je zult digitaal gevoel krijgen, maar je mag ook wel terugduwen... 109 00:08:17,200 --> 00:08:21,680 want die waarden die wij hebben, of die patiënten hebben, zijn heel belangrijk. 110 00:08:21,800 --> 00:08:24,400 En patiënten zijn ook heel verschillend. -Ja. 111 00:08:24,520 --> 00:08:28,920 Dus de een springt een gat in de lucht bij een bepaalde toepassing: 112 00:08:29,040 --> 00:08:31,320 Fijn, nu kan ik alles meten en weet ik alles. 113 00:08:31,440 --> 00:08:34,000 Anderen worden daar zenuwachtig van. 114 00:08:34,120 --> 00:08:36,480 Ja. -Die willen misschien iets anders. 115 00:08:36,600 --> 00:08:41,680 Die willen een ander soort ondersteuning. Dat is steeds meer mogelijk, ook door die technologie... 116 00:08:41,800 --> 00:08:44,920 maar dan moet je wel zorgen dat dat teruggegeven wordt. 117 00:08:45,040 --> 00:08:51,480 Zorgprofessionals weten eigenlijk heel veel. Die kennen hun werk het best van iedereen. 118 00:08:51,600 --> 00:08:56,320 Dus de vraag aan hen is altijd: Waar helpt het je werk? Hoe moeten we die AI inrichten? 119 00:08:56,440 --> 00:08:58,000 Ze hebben ook heel veel power. 120 00:08:58,120 --> 00:09:02,560 Je ziet nu ook die scheiding van: O jee, technologie is eng en vervelend. 121 00:09:02,680 --> 00:09:06,720 Dat is extra geworden doordat de computer voor een deel van de zorgverleners... 122 00:09:06,840 --> 00:09:10,280 vertaald is in een soort administratieplicht, wat heel jammer is... 123 00:09:10,400 --> 00:09:13,160 want volgens gesprekken die we gehad hebben... 124 00:09:13,280 --> 00:09:17,440 werkt de nieuwe technologie best goed en zijn ze er ook wel enthousiast over... 125 00:09:17,560 --> 00:09:19,680 als ze maar weten waar het om gaat. -Ja. 126 00:09:19,800 --> 00:09:23,400 Maar ze moeten erin meegenomen worden, ze moeten serieus genomen worden. 127 00:09:23,520 --> 00:09:26,720 Hun signalen zijn, naast die van de patiënten, heel belangrijk. 128 00:09:26,840 --> 00:09:30,600 Hoe een toekomst met AI eruit zal zien voor de zorg, staat niet vast. 129 00:09:30,720 --> 00:09:33,400 Eenduidige conclusies hebben we daar ook niet over. 130 00:09:33,520 --> 00:09:37,880 Maar gelukkig zijn er wel een hoop mogelijkheden om hiermee aan de slag te gaan. 131 00:09:38,000 --> 00:09:42,800 Daarom vroeg ik tot slot alle negen experts naar hun belangrijkste tip aan jou. 132 00:09:42,920 --> 00:09:46,600 Ik zou zeggen tegen patiënten en ook tegen zorgverleners: 133 00:09:46,720 --> 00:09:50,840 Wees niet te bang voor kunstmatige intelligentie. Beschouw het als de vriend... 134 00:09:50,960 --> 00:09:54,760 die over je schouder meekijkt, over de schouder van de arts... 135 00:09:54,880 --> 00:10:00,480 maar ook over de schouder van de patiënt om de behandeling voor jou als patiënt beter te maken. 136 00:10:00,600 --> 00:10:04,720 En ga dus ook het gesprek aan met de artsen van: 137 00:10:04,840 --> 00:10:10,280 Waarom gebruik je kunstmatige intelligentie en hoe? Maar vooral: Waarom gebruik je 't nog niet? 138 00:10:10,400 --> 00:10:15,320 Want er zijn zoveel mogelijkheden en ik denk dat het de wereld een stukje beter kan maken. 139 00:10:15,440 --> 00:10:21,440 Verdiep je een klein beetje in deze technologie, want dit is een systeemtechnologie. 140 00:10:21,560 --> 00:10:27,520 Daar ga je mee te maken hebben op alle terreinen in het leven, in deze maatschappij. 141 00:10:27,640 --> 00:10:30,960 En voor patiëntenvertegenwoordigers zou ik zeggen: 142 00:10:31,080 --> 00:10:37,960 Volg een cursus. Verdiep je ook en ga aan de slag in de praktijk... 143 00:10:38,080 --> 00:10:41,840 samen met alle stakeholders, om het een plek te geven in de zorg. 144 00:10:41,960 --> 00:10:46,200 Ik denk dat het heel belangrijk is dat we elkaars taal beter gaan leren spreken... 145 00:10:46,320 --> 00:10:48,720 en dat we dus heel veel met elkaar praten... 146 00:10:48,840 --> 00:10:52,680 over hoe dit op een goede manier te implementeren is in de praktijk... 147 00:10:52,800 --> 00:10:56,720 voor de cliënt, de zorgprofessional en de ontwikkelaar van de technologie. 148 00:10:56,840 --> 00:11:02,640 Er zijn ongelooflijk veel cursussen en webinars en alles, op internet voorhanden... 149 00:11:02,760 --> 00:11:07,560 om je te verdiepen in AI, ook helemaal specifiek gericht op zorgverleners. 150 00:11:07,680 --> 00:11:13,240 Mijn advies is om die gewoon... om er daar één of twee van uit te kiezen en dat eens te volgen. 151 00:11:13,360 --> 00:11:17,800 Verdiep je in hoe AI gemaakt wordt, zonder te veel in de diepte te gaan... 152 00:11:17,920 --> 00:11:24,480 en wat dat voor vragen kan beantwoorden en wat het vooral ook niet kan. 153 00:11:24,600 --> 00:11:26,600 En kijk hoe jij er je voordeel mee kan doen.