1 00:00:00,040 --> 00:00:04,640 ♪ VROLIJKE INTROMUZIEK ♪ 2 00:00:06,560 --> 00:00:11,360 Welkom bij het RADIO-webinar: Werken met generatieve AI als collega. 3 00:00:11,480 --> 00:00:12,840 Mijn naam is Lykle de Vries... 4 00:00:12,960 --> 00:00:14,400 en ik ben werkzaam bij RADIO: 5 00:00:14,520 --> 00:00:16,000 de RijksAcademie voor Digitalisering... 6 00:00:16,120 --> 00:00:17,840 en Informatisering Overheid. 7 00:00:17,960 --> 00:00:22,560 En ons streven is om zoveel mogelijk van onze collega's in alle overheden... 8 00:00:22,680 --> 00:00:25,120 digitaal fitter, vaardiger en kundiger te maken. 9 00:00:25,240 --> 00:00:27,800 Daarom vinden we het heel leuk om nu het tweede webinar... 10 00:00:27,920 --> 00:00:32,920 in de reeks over generatieve AI voor medeoverheden te presenteren aan jullie. 11 00:00:33,040 --> 00:00:34,600 We zijn benieuwd wat het gaat brengen. 12 00:00:34,720 --> 00:00:39,640 Ik heb daarvoor vandaag drie gasten, waarvan een in de studio, Saskia Nijs. 13 00:00:39,760 --> 00:00:40,560 Welkom. -Dankjewel. 14 00:00:40,680 --> 00:00:44,560 LYKLE: Jij bent adviseur, onderzoeker en bestuurder van 'Future of Work'. 15 00:00:44,680 --> 00:00:46,360 We komen daar straks vast nog op terug. 16 00:00:46,480 --> 00:00:50,720 En online hebben we ook klaarzitten Thimo Poortvliet... 17 00:00:50,840 --> 00:00:54,440 beleidsmedewerker AI bij het ministerie van Economische Zaken... 18 00:00:54,560 --> 00:00:56,240 en Christa Bouwens... 19 00:00:56,360 --> 00:01:00,080 organisatieadviseur op het gebied van digitale transformatie en Future Work Skills... 20 00:01:00,200 --> 00:01:03,040 bij de gemeente Rotterdam, en ze is ook digicoach. 21 00:01:03,160 --> 00:01:05,640 Het is een hele mond vol. We komen er allemaal op terug. 22 00:01:05,760 --> 00:01:09,920 Van harte welkom alle drie. Leuk dat jullie er bij kunnen zijn. 23 00:01:10,040 --> 00:01:14,400 Wanneer je dit webinar live kijkt, heb je de mogelijkheid om via de chat... 24 00:01:14,520 --> 00:01:17,640 je vragen en opmerkingen op ons af te sturen. 25 00:01:17,760 --> 00:01:19,880 Ik heb een team met collega's klaarzitten... 26 00:01:20,000 --> 00:01:22,360 om te kijken of ze je meteen al een antwoord kunnen geven... 27 00:01:22,480 --> 00:01:26,200 of dat de vraag wellicht aan ons doorgespeeld kan worden hier aan tafel. 28 00:01:26,320 --> 00:01:29,960 Dat zijn de collega's Femke, Marijke, Damiët en Roy. 29 00:01:30,080 --> 00:01:34,320 Dus wees lief voor ze en geef ze leuke vragen te doen. 30 00:01:35,360 --> 00:01:40,160 En ik wou eigenlijk jullie ook meteen aan het werk zetten met de eerste poll. 31 00:01:40,280 --> 00:01:42,880 Ook om een beetje af te trappen. 32 00:01:44,240 --> 00:01:50,960 De poll is: gaat generatieve AI mijn baan volledig overbodig maken, ja of nee. 33 00:01:52,000 --> 00:01:56,800 We hangen 'm er gewoon makkelijk in. Eventjes lekker zwart-wit beginnen. 34 00:01:56,920 --> 00:01:59,920 Maar het is wel concreet een vraag waar mensen zich druk over kunnen maken. 35 00:02:00,040 --> 00:02:03,920 'Jemig, als het dat allemaal kan, hoe zit het dan met mijn baan?' 36 00:02:04,040 --> 00:02:07,480 We zijn benieuwd naar de poll. Ik kijk mee... 37 00:02:08,440 --> 00:02:13,840 en de meerderheid maakt zich nog niet heel veel zorgen. 38 00:02:14,920 --> 00:02:17,920 Oh, wacht even. Naarmate er meer stemmen bij komen, verandert het. 39 00:02:18,040 --> 00:02:20,520 Zo is het vaker. 40 00:02:20,640 --> 00:02:22,560 LYKLE: Zo is het vaker. 41 00:02:24,560 --> 00:02:26,400 SASKIA: Je moet er wat langer over nadenken. 42 00:02:26,520 --> 00:02:29,280 LYKLE: Mensen hebben ook tijd nodig om het knopje te vinden. 43 00:02:29,400 --> 00:02:33,920 Maar de meerderheid, 90 procent op dit moment, zegt nog steeds: 44 00:02:34,040 --> 00:02:37,200 'Nee, mijn baan wordt niet overbodig.' 45 00:02:37,320 --> 00:02:40,000 Een klein percentage zegt van wel. 46 00:02:40,120 --> 00:02:43,520 En dat is niet onredelijk, denk ik. -SASKIA: Nee. 47 00:02:43,640 --> 00:02:47,720 Want laten we wel wezen: als jouw baan is om in een Excel-spreadsheet... 48 00:02:47,840 --> 00:02:51,320 getallen in te vullen, door te kopiëren, enzovoort... 49 00:02:51,440 --> 00:02:54,040 is het ook niet echt een baan voor mensen. 50 00:02:54,160 --> 00:02:56,840 Dat zou je beter aan een machine laten. 51 00:02:56,960 --> 00:02:57,680 Dat klopt. 52 00:02:57,800 --> 00:03:00,600 Hoewel we ook wel al uit onderzoek zien... 53 00:03:00,720 --> 00:03:02,080 Waar we denken: 'Dan kunnen wij... 54 00:03:02,200 --> 00:03:03,840 de ingewikkelde klussen doen'... 55 00:03:03,960 --> 00:03:05,720 bijvoorbeeld bij callcenters... 56 00:03:05,840 --> 00:03:10,480 waar de toegangspoort allemaal met AI en chatbots wordt gedaan... 57 00:03:10,600 --> 00:03:12,960 en de mensen daarachter de moeilijke klussen... 58 00:03:13,080 --> 00:03:16,080 dat het aantal burn-outs daar verdrievoudigt. 59 00:03:16,200 --> 00:03:18,600 Dus we moeten ons ook wel realiseren... 60 00:03:18,720 --> 00:03:21,560 dat die makkelijke klusjes of de to-do-lijstjes afvinken... 61 00:03:21,680 --> 00:03:25,520 kennelijk ook iets voor ons doen qua... -LYKLE: ...rust. 62 00:03:25,640 --> 00:03:29,520 SASKIA: Rust, of dat je een lekkere dag hebt gehad, dingen hebt afgemaakt. 63 00:03:29,640 --> 00:03:31,720 Dus dat vind ik nog wel een spannende. 64 00:03:31,840 --> 00:03:33,080 LYKLE: Dat zal je vaker meemaken. 65 00:03:33,200 --> 00:03:37,040 Het is allemaal genuanceerder dan een enkele ja-nee/zwart-wit-stelling. 66 00:03:37,160 --> 00:03:39,080 Dank voor jullie reacties. 67 00:03:39,200 --> 00:03:41,720 De meerderheid maakt zich niet zoveel zorgen. Een deel wel. 68 00:03:41,840 --> 00:03:45,760 Ik denk dat het een redelijke reflectie is van hoe we er met z'n allen naar kijken. 69 00:03:45,880 --> 00:03:49,600 Maar laten we daar eerst eens eventjes een beetje voor terugzoomen... 70 00:03:49,720 --> 00:03:53,720 want we hebben het over generatieve AI als een collega op je werk. 71 00:03:53,840 --> 00:03:57,840 Binnen de context van de Rijksoverheid denk je dan misschien wel heel snel... 72 00:03:57,960 --> 00:04:00,400 aan bureaumedewerkers, mensen op kantoor... 73 00:04:00,520 --> 00:04:04,120 maar je hebt ook genoeg mensen die op straat hun werk doen... 74 00:04:04,240 --> 00:04:05,760 als overheidsmedewerker. 75 00:04:05,880 --> 00:04:08,480 Hoe zit het eigenlijk met dat werk en technologie? 76 00:04:08,600 --> 00:04:11,360 Saskia, jij hebt daar meer verstand van. 77 00:04:11,480 --> 00:04:15,080 LYKLE: Om naar de toekomst te kijken, moeten we iets weten van de geschiedenis. 78 00:04:15,200 --> 00:04:19,280 Technologie wordt altijd met een bepaalde gedachte gemaakt. 79 00:04:19,400 --> 00:04:21,440 En het effect op werk is soms heel anders... 80 00:04:21,560 --> 00:04:29,120 of heeft bijeffecten waar we nu nog steeds mee werken eigenlijk. 81 00:04:29,240 --> 00:04:31,520 Dat begon al met de fabrieken die kwamen. 82 00:04:31,640 --> 00:04:34,840 Dat was lekker efficiënt. We konden allemaal achter elkaar gaan werken... 83 00:04:34,960 --> 00:04:40,400 waar we daarvoor vaak in en om ons huis werk hadden en dingen ruilden met elkaar. 84 00:04:40,520 --> 00:04:43,720 Daar is eigenlijk de 9-tot-5 ontstaan. 85 00:04:43,840 --> 00:04:46,920 Want hoe ga je dat dan doen in shifts met fabrieken? 86 00:04:47,040 --> 00:04:49,480 Henry Ford had daar een heel bewuste visie van: 87 00:04:49,600 --> 00:04:52,920 'Als die mensen in die fabrieken werken, moeten ze ook in mijn auto rijden... 88 00:04:53,040 --> 00:04:56,080 want het zijn ook mijn consumenten. Dus daar moeten ze tijd voor hebben.' 89 00:04:56,200 --> 00:04:57,560 En die 9-tot-5... 90 00:04:57,680 --> 00:04:59,400 Ik weet niet hoe het bij jullie zit. 91 00:04:59,520 --> 00:05:03,520 Ik heb best een flexibele baan en werk soms in de avonden of in weekenden... 92 00:05:03,640 --> 00:05:09,000 maar om 09.00 uur gaat er toch bij mij altijd iets aan dat ik denk: Ik moet aan het werk. 93 00:05:09,120 --> 00:05:11,200 Dus dat zit er nog steeds in. 94 00:05:11,320 --> 00:05:12,520 Vervolgens kwam de computer. 95 00:05:12,640 --> 00:05:16,680 En eigenlijk als je nu kijkt naar alles over de angst en wat je in krantenkoppen ziet... 96 00:05:16,800 --> 00:05:19,920 was bij de komst van de computer, was bij de komst van internet. 97 00:05:20,040 --> 00:05:23,440 Daar zijn we meester kenniswerker in geworden. 98 00:05:23,560 --> 00:05:27,120 Van die kennis die we via computers krijgen. 99 00:05:28,160 --> 00:05:29,840 Toen kwam het internet. 100 00:05:29,960 --> 00:05:34,200 Dat was eigenlijk bedoeld om over bedrijfsgrenzen en landsgrenzen... 101 00:05:34,320 --> 00:05:35,320 met elkaar te communiceren. 102 00:05:35,440 --> 00:05:38,440 De wereld zou plat worden. Dat is-ie ook wel geworden. 103 00:05:38,560 --> 00:05:41,920 Maar 98 procent van de mailtjes zijn intern. 104 00:05:42,040 --> 00:05:43,680 LYKLE (VERBAASD): 98 procent? 105 00:05:43,800 --> 00:05:48,480 En mensen geven elkaar werk via e-mail, maar beoordelen elkaar ook. 106 00:05:48,600 --> 00:05:50,960 'Die reageert altijd lekker snel. Die vind ik fijn.' 107 00:05:51,080 --> 00:05:55,400 Maar de werkdruk is ook door e-mail en Teams echt enorm gegroeid. 108 00:05:55,520 --> 00:05:59,160 LYKLE: Je inbox is een beetje de to-do-lijst waar anderen van alles opkrabbelen. 109 00:05:59,280 --> 00:06:01,600 SASKIA: Als ik vraag aan mensen 'heb je een goede dag gehad?'... 110 00:06:01,720 --> 00:06:05,960 zegt 9 van de 10 ofwel: 'Ik heb een goede dag, want m'n inbox is vrijwel leeg'... 111 00:06:06,080 --> 00:06:09,720 of: 'Ik moet vanavond nog even door, want ik heb nog mailtjes onbeantwoord.' 112 00:06:09,840 --> 00:06:12,400 In hoeverre is dat ook generationeel anders? 113 00:06:12,520 --> 00:06:16,840 Want ik hoor ook verhalen dat jongere generaties veel minder van de mail zijn... 114 00:06:16,960 --> 00:06:18,520 en veel liever andere manieren gebruiken. 115 00:06:18,640 --> 00:06:21,120 Ja, maar die zijn nog steeds van informatie delen. 116 00:06:21,240 --> 00:06:23,200 Communicatie met elkaar. 117 00:06:23,320 --> 00:06:31,720 Dus die doen niet mail, maar die doen dat via Snapchat, TikTok en WhatsApp. 118 00:06:31,840 --> 00:06:34,240 Dat is hetzelfde, alleen is het een ander middel. 119 00:06:34,360 --> 00:06:37,080 En we hebben dus heel veel van die vormen. 120 00:06:37,200 --> 00:06:39,360 Dus dat is op zich niet zo veranderd. 121 00:06:39,480 --> 00:06:41,680 Toen kwam de cloud. De work-life balance. 122 00:06:41,800 --> 00:06:44,400 Ik was toen een jaar of 32. Ik werkte toen bij Microsoft. 123 00:06:44,520 --> 00:06:48,040 Wij gingen toen 'het nieuwe werken' zelf ervaren. 124 00:06:50,120 --> 00:06:53,240 Toen werd ineens een discussie: wanneer ga je werken en wanneer stop je? 125 00:06:53,360 --> 00:06:57,160 Ik ging ook aan mijn teams vragen: wanneer stop je met werken? Wanneer werk je wel? 126 00:06:57,280 --> 00:06:59,720 Work-life balance werd belangrijk. 127 00:06:59,840 --> 00:07:03,680 Heel veel bedrijven worstelen daar nog steeds mee. 128 00:07:03,800 --> 00:07:07,200 Mijn generatie... Tot m'n 32e was dat nooit een thema. 129 00:07:07,320 --> 00:07:08,520 Dus ik heb ook soms dat ik denk: 130 00:07:08,640 --> 00:07:12,280 'Eerst even je best doen en verdienen en dan mag je aan je work-life balance.' 131 00:07:12,400 --> 00:07:16,280 Maar er komt nu een generatie die dat heel normaal vindt. 132 00:07:16,400 --> 00:07:19,760 Die ziet dat bij hun ouders of in de maatschappij. 133 00:07:19,880 --> 00:07:22,440 LYKLE: Je ouders zie je dan ook je eigen tijd indelen. 134 00:07:22,560 --> 00:07:25,200 SASKIA: Dus die gaan echt niet dan ineens weer vijf dagen naar kantoor. 135 00:07:25,320 --> 00:07:27,000 Ze willen prima hard werken, maar... 136 00:07:27,120 --> 00:07:30,000 Dus daar worstelen we mee. 137 00:07:31,280 --> 00:07:34,840 Hybride werken hebben we met corona laten zien dat we dat allemaal kunnen. 138 00:07:34,960 --> 00:07:40,200 En nu met AI gaan we dus naar hybride werken 2.0. 139 00:07:40,320 --> 00:07:43,720 In die zin dat je niet alleen kijkt welk device je gebruikt. 140 00:07:43,840 --> 00:07:46,920 Doe je het op je telefoon, op je iPad, op je computer? 141 00:07:47,040 --> 00:07:48,360 Maar ook nog: met wie doe je dat? 142 00:07:48,480 --> 00:07:51,960 Doe je dat met collega's, doe je dat zelf of doe je dat met AI? 143 00:07:52,080 --> 00:07:54,520 Dat is gewoon een collega van je geworden. 144 00:07:54,640 --> 00:07:56,920 Dus in de keuzes die je maakt van: wat ga ik doen? 145 00:07:57,040 --> 00:08:00,240 Dat doe ik zelf ook, met een ChatGPT wat ik gebruik. 146 00:08:00,360 --> 00:08:02,160 Ga ik het nou zelf doen? Waarom wil het zelf doen? 147 00:08:02,280 --> 00:08:06,760 Vind ik dat dat mijn kernwaarden naar buiten brengt? 148 00:08:06,880 --> 00:08:09,040 Of denk ik: Dit is goed genoeg met ChatGPT? 149 00:08:09,160 --> 00:08:14,760 Ik vind wel dat dat meestal 80 procent is. Geen 100 en zeker geen 120. 150 00:08:14,880 --> 00:08:16,760 Die keuzes moet je gaan maken. 151 00:08:16,880 --> 00:08:19,160 Je ziet bijvoorbeeld in Amerika al... 152 00:08:19,280 --> 00:08:22,320 In de coronatijd zijn heel veel mensen uit de steden gegaan... 153 00:08:22,440 --> 00:08:23,800 omdat dat goedkoper wonen was. 154 00:08:23,920 --> 00:08:27,120 En die werken nu volledig met AI, zonder collega's. 155 00:08:27,240 --> 00:08:29,440 Dus die hebben helemaal geen contact meer. 156 00:08:29,560 --> 00:08:33,280 Daar zit ook zo'n aspect, want wat opviel na corona... 157 00:08:33,400 --> 00:08:36,520 was dat er ook heel veel mensen heel graag weer teruggingen... 158 00:08:36,640 --> 00:08:43,280 naar de sociale context van op kantoor zijn, op het bedrijf zijn, je collega's daar zien. 159 00:08:43,400 --> 00:08:47,680 Ik denk dat we dat als mens, als sociale wezens, ook nodig hebben. 160 00:08:47,800 --> 00:08:51,240 En tegelijkertijd: als ik terugdenk aan... 161 00:08:52,240 --> 00:08:57,480 Ik herinner me een tijd met Microsoft Office en Clippy, de assistent. 162 00:08:57,600 --> 00:09:02,680 Die probeerde vriendelijk met je te praten en ook de rol van collega in te nemen. 163 00:09:02,800 --> 00:09:04,920 'Ik kan je wel helpen om dat makkelijk te doen.' 164 00:09:05,040 --> 00:09:09,440 Daar moeten we een beetje om grinniken, van: dat is nooit echt goed gelukt. 165 00:09:09,560 --> 00:09:13,960 Het is nu met generatieve AI totaal anders. Waar zit hem dat in? 166 00:09:14,080 --> 00:09:15,440 Dat zit vooral in... 167 00:09:15,560 --> 00:09:20,440 Ik had wat slides die erbij staan over hybride werken. 168 00:09:20,560 --> 00:09:27,280 Dat zit eigenlijk vooral in dat AI natuurlijk een taalmodel is. 169 00:09:28,640 --> 00:09:31,800 Bij Clippy moest je nog iets vragen, kwam-ie terug met een antwoord... 170 00:09:31,920 --> 00:09:34,480 maar kon je niet echt interactie hebben. 171 00:09:34,600 --> 00:09:38,200 Als je ChatGPT gebruikt, ga je zeggen: Ik wil het toch liever zo. 172 00:09:38,320 --> 00:09:42,080 Of die vraagt aan je: Vind je dit goed genoeg of zal ik dit nog voor je doen? 173 00:09:42,200 --> 00:09:48,040 Taal is in interactie van mensen heel belangrijk geweest, en nog steeds... 174 00:09:48,160 --> 00:09:53,160 waar we religies, boeken, kernwaarden van organisaties in hebben gezet. 175 00:09:53,280 --> 00:09:54,640 Dus het komt zo dichtbij. 176 00:09:54,760 --> 00:09:58,800 Ik ken heel veel mensen die ChatGPT gebruiken als coach. 177 00:09:58,920 --> 00:10:00,240 Ik vind dat gevaarlijk. 178 00:10:00,360 --> 00:10:03,360 Je hebt ook het voorbeeld van iemand die zelfmoord heeft gepleegd. 179 00:10:03,480 --> 00:10:06,080 ChatGPT praat altijd wel met je mee. 180 00:10:06,200 --> 00:10:08,720 Er is ook iemand getrouwd. Ik begrijp dat wel... 181 00:10:08,840 --> 00:10:11,720 LYKLE: Iemand is getrouwd met een generatieve AI? 182 00:10:11,840 --> 00:10:15,800 SASKIA: Ja, want die spreekt nooit tegen. Best interessant. 183 00:10:15,920 --> 00:10:19,560 SASKIA: Dus het taaleffect, het interactieve effect... 184 00:10:19,680 --> 00:10:22,120 en daarmee het gevoel van menselijkheid... 185 00:10:22,240 --> 00:10:26,280 Want het is natuurlijk heel raar dat we dankjewel zeggen tegen een AI-model. 186 00:10:26,400 --> 00:10:29,800 Maar volgens mij doet 9 van de 10 mensen dat. 187 00:10:29,920 --> 00:10:32,040 LYKLE: Ik weet niet zeker of het een fabeltje is... 188 00:10:32,160 --> 00:10:33,800 maar ik heb ook een keer gehoord... 189 00:10:33,920 --> 00:10:38,120 dat wanneer je op vrijdagmiddag iets aan de eerste versies van ChatGPT vroeg... 190 00:10:38,240 --> 00:10:42,400 dat er een soort knorriger antwoord kwam... 191 00:10:42,520 --> 00:10:47,520 omdat het zich modelleerde naar wat wij als voorbeelden hebben gegeven... 192 00:10:47,640 --> 00:10:51,680 in al die informatie die we online hebben gezet in allerlei vormen... 193 00:10:51,800 --> 00:10:53,640 waarin wij ons als mens wel erg laten zien. 194 00:10:53,760 --> 00:10:56,480 Terwijl we ook weten van langer geleden... 195 00:10:56,600 --> 00:11:01,160 experimenten van IBM met wat we toen nog gewoon AI noemden... 196 00:11:01,280 --> 00:11:04,760 Daar was het grote voordeel juist: daar moet je wetsteksten in doen... 197 00:11:04,880 --> 00:11:08,920 want dat zou je een rechter opleveren die geen maandagochtendhumeur heeft. 198 00:11:09,040 --> 00:11:10,400 Dat is een veel beter idee. 199 00:11:10,520 --> 00:11:15,960 Aan de ene kant kan het heel objectief zijn... 200 00:11:16,800 --> 00:11:21,000 maar aan de andere kant zie je ook dat het heel menselijk wordt... 201 00:11:21,120 --> 00:11:22,360 omdat wij er menselijk mee omgaan. 202 00:11:22,480 --> 00:11:26,520 Het is niet alleen wat we erin stoppen, maar ook hoe we er zelf mee omgaan. 203 00:11:28,480 --> 00:11:35,360 De oud-technisch verantwoordelijke van Google, Mo Gawdat... 204 00:11:35,480 --> 00:11:39,440 is alleen maar op een missie van: wees lief naar elkaar en naar technologie. 205 00:11:39,560 --> 00:11:41,520 Bij Twitter hebben ze ook een aantal tests gedaan. 206 00:11:41,640 --> 00:11:44,160 Binnen no-time zat-ie iedereen vol te schelden. 207 00:11:44,280 --> 00:11:46,560 Dus die kopieert wel ons gedrag. 208 00:11:46,680 --> 00:11:54,120 ChatGPT 4.0 vonden ze ook bij OpenAI wel een beetje té lief. 209 00:11:54,240 --> 00:11:59,160 Dus daar zijn ze ook mee gaan experimenteren van: hoever ga je daarin? 210 00:12:00,720 --> 00:12:03,800 Als we dat bij onze kinderen zouden doen, zouden we dat heel eng vinden... 211 00:12:03,920 --> 00:12:08,120 maar misschien dat het voor gereedschap als dit wel de moeite waard is. 212 00:12:08,240 --> 00:12:11,440 Die persoonlijke noot wil ik even oppakken. 213 00:12:12,280 --> 00:12:16,600 Fijn om met jou te kletsen, maar we hebben Christa en Thimo ook zitten. 214 00:12:16,720 --> 00:12:20,320 Thimo, kom er even bij. 215 00:12:21,720 --> 00:12:27,960 Kun jij iets meer vertellen over hoe jij in de wereld van generatieve AI gerold bent... 216 00:12:28,920 --> 00:12:31,960 en hoe zich dat verhoudt tot jouw functie nu? 217 00:12:32,080 --> 00:12:33,040 Uiteraard. 218 00:12:33,160 --> 00:12:35,560 Ik ben ergens in 2017 begonnen... 219 00:12:35,680 --> 00:12:37,040 met de bachelor Kunstmatige intelligentie... 220 00:12:37,160 --> 00:12:37,760 in Utrecht... 221 00:12:37,880 --> 00:12:39,880 en aan de master AI, ook in Utrecht. 222 00:12:40,000 --> 00:12:40,840 Zo ben ik beland... 223 00:12:40,960 --> 00:12:42,880 bij het ministerie van Economische Zaken... 224 00:12:43,000 --> 00:12:45,520 en ben ik nu beleidsmedewerker op AI. 225 00:12:45,640 --> 00:12:50,320 Dit heeft ervoor gezorgd dat ik een redelijk bijzonder perspectief heb op AI. 226 00:12:50,440 --> 00:12:51,840 Zeker binnen de overheid. 227 00:12:51,960 --> 00:12:54,440 (ONVERSTAANBAAR) 228 00:12:55,240 --> 00:12:58,600 Ik heb gezien hoe snel die vooruitgang is gegaan tijdens mijn studie. 229 00:12:58,720 --> 00:13:01,760 Waar je eerst nog bezig was met classificeren... 230 00:13:01,880 --> 00:13:05,480 het herkennen van katten en honden bijvoorbeeld in je opdracht... 231 00:13:05,600 --> 00:13:09,480 kwam bij het laatste moment, mijn scriptie, ChatGPT uit. 232 00:13:09,600 --> 00:13:13,200 Dat hielp niet alleen met de scriptie, maar ook met m'n baankansen. 233 00:13:14,000 --> 00:13:18,120 Op die manier ben ik er ingerold binnen AI, en ben ik nog steeds bezig daarin. 234 00:13:18,240 --> 00:13:21,680 LYKLE: Dankjewel. Wat maakte dat je AI ging studeren? 235 00:13:21,800 --> 00:13:24,520 O, god. Dat kan een lang verhaal worden. 236 00:13:24,640 --> 00:13:28,840 Toen ik jonger was en begon met gamen, kwam ik in aanraking met AI. 237 00:13:28,960 --> 00:13:33,440 Dan speel je tegen de computer, en de computer probeert van jou te winnen. 238 00:13:33,560 --> 00:13:37,920 Zo ben ik eigenlijk voor het eerst m'n enthousiasme voor AI tegengekomen. 239 00:13:38,040 --> 00:13:40,040 Daarnaast kwam ik op de middelbare school erachter... 240 00:13:40,160 --> 00:13:43,160 dat ik zowel een technische als niet-technische achtergrond had. 241 00:13:43,280 --> 00:13:45,520 En de studie in Utrecht is zo ingericht... 242 00:13:45,640 --> 00:13:49,200 dat je zowel een technisch perspectief op AI krijgt, als ook een... 243 00:13:50,360 --> 00:13:52,600 ethisch en filosofisch perspectief op AI krijgt. 244 00:13:52,720 --> 00:13:54,600 Daarom was het de perfecte studie voor mij. 245 00:13:54,720 --> 00:13:56,600 LYKLE: Super. Dankjewel. 246 00:13:56,720 --> 00:14:00,760 Christa, hoe was dat voor jou? Wat was jouw introductie met AI? 247 00:14:02,000 --> 00:14:05,600 CHRISTA: Eigenlijk een ChatGPT... 248 00:14:05,720 --> 00:14:07,480 voorbij zien komen en denken: 249 00:14:07,600 --> 00:14:09,680 wat zou ik daarmee kunnen? 250 00:14:09,800 --> 00:14:12,160 Ik herken me ook in het verhaal van Saskia. 251 00:14:12,280 --> 00:14:13,440 Ik werk al 30 jaar... 252 00:14:13,560 --> 00:14:15,200 voor de gemeente Rotterdam. 253 00:14:15,320 --> 00:14:21,040 Dus ik ben nog van het tijdperk carbonpapier, en zeker ook Clippy. 254 00:14:21,160 --> 00:14:25,120 En inmiddels doe ik een deel van mijn werk met AI. 255 00:14:25,240 --> 00:14:29,720 Ik vind het leuk om te experimenteren en was er nieuwsgierig naar. 256 00:14:29,840 --> 00:14:31,920 En dan lukt het ook nog. 257 00:14:32,040 --> 00:14:34,520 En dan denk je: Maar als het mij lukt... 258 00:14:34,640 --> 00:14:39,600 misschien kan ik dan collega's helpen om het ook te gaan gebruiken. 259 00:14:40,880 --> 00:14:46,040 Dank jullie wel daarvoor. Daarmee hebben we wat mij betreft dat persoonlijke... 260 00:14:46,160 --> 00:14:50,440 en de relatie die je ermee kunt hebben wat verder uitgediept. 261 00:14:50,960 --> 00:14:55,200 Wat weten we daar nu ondertussen van? Daar gaat dit denk ik over. 262 00:14:55,320 --> 00:14:59,720 We weten nog niet zoveel. Er zijn heel veel onderzoeken gaande. 263 00:14:59,840 --> 00:15:04,240 Zelf werk ik met de VU in Amsterdam. 264 00:15:04,360 --> 00:15:08,440 Daar gaat het heel erg over betekenisvol werk met technologie. 265 00:15:08,560 --> 00:15:10,560 Hou houd je dat? 266 00:15:10,680 --> 00:15:13,160 Een ander onderzoek gaat over AI en werkgeluk. 267 00:15:13,280 --> 00:15:16,560 Er zijn een tweetal richtingen. 268 00:15:16,680 --> 00:15:18,400 Het is leuk wat Thimo ook zegt. 269 00:15:18,520 --> 00:15:20,280 De een is veel meer vanuit de technologie... 270 00:15:20,400 --> 00:15:24,960 en de ander vanuit filosofisch of ethisch perspectief. 271 00:15:25,080 --> 00:15:29,760 Er zijn wel positieve berichten over de productiviteit. 272 00:15:29,880 --> 00:15:36,160 Dus mensen geven aan dat ze vinden dat ze tijdswinst hebben. 273 00:15:36,280 --> 00:15:39,400 Ik ben zelf in sommige manieren kritisch, want iedereen roept 20 procent. 274 00:15:39,520 --> 00:15:41,560 Dan denk ik: Dat klopt volgens mij ook niet. 275 00:15:41,680 --> 00:15:44,880 Maar er zijn wel experimenten waarbij je echt kan zien... 276 00:15:45,000 --> 00:15:47,120 dat het wat tijdswinst oplevert. 277 00:15:47,240 --> 00:15:51,000 Alleen zijn we nog niet bewust van: wat doen we met die tijdswinst? 278 00:15:51,120 --> 00:15:54,640 Daarnaast gaan dus heel veel mensen heel veel taken uitvoeren. 279 00:15:55,960 --> 00:15:59,800 De zorg is dan dat een aantal mensen die met AI om kunnen gaan hard werken... 280 00:15:59,920 --> 00:16:03,960 en mensen die daar niet mee om kunnen gaan misschien wat minder. 281 00:16:04,080 --> 00:16:07,480 Dus op productiviteit, maar ook op kwaliteit. 282 00:16:09,320 --> 00:16:13,920 Senior, dus mensen die al langer in werk zitten met generatieve AI... 283 00:16:14,040 --> 00:16:16,280 daar zit het vooral op productiviteit. 284 00:16:16,400 --> 00:16:19,240 Mensen die nog niet zo lang in de werkomgeving zijn... 285 00:16:19,360 --> 00:16:20,480 daar zit het meer op kwaliteit. 286 00:16:20,600 --> 00:16:22,640 Ik zat laatst met journalisten bijvoorbeeld. 287 00:16:22,760 --> 00:16:27,000 Die zeiden: Junior journalisten leveren echt beter werk af. 288 00:16:27,120 --> 00:16:30,840 Of een HR-medewerker die ik sprak, zei: 'Ik krijg tien cv's. 289 00:16:30,960 --> 00:16:33,200 Negen zijn met ChatGPT gemaakt. Die vind ik hartstikke goed. 290 00:16:33,320 --> 00:16:35,680 Die ene vind ik niet goed.' 291 00:16:35,800 --> 00:16:37,680 Daar is wat van te zeggen. 292 00:16:37,800 --> 00:16:43,120 Tegelijkertijd zie je dat de MIT een studie heeft gedaan naar onze hersenen... 293 00:16:43,240 --> 00:16:47,560 waarin we zien dat onze hersenactiviteit naar beneden gaat... 294 00:16:47,680 --> 00:16:49,160 zelfs als we het niet gebruiken. 295 00:16:49,280 --> 00:16:54,880 Dus het is een schade aan je hersenen die ook in de tijd daarna... 296 00:16:55,000 --> 00:16:59,640 als je andere werkzaamheden of andere dingen doet, nog te zien is. 297 00:17:01,000 --> 00:17:04,440 Harvard heeft ook een onderzoek gedaan. 298 00:17:04,560 --> 00:17:10,080 En die zei: 'Als je iets oplevert met generatieve AI... 299 00:17:10,200 --> 00:17:14,240 is volgens mij 90 procent ongeveer al na vijf minuten vergeten... 300 00:17:14,360 --> 00:17:17,200 wat hij of zij heeft opgeleverd.' 301 00:17:17,320 --> 00:17:20,800 En ook een effect daarvan is dat mensen denken: 'Het is niet van mij. 302 00:17:20,920 --> 00:17:27,080 Ik ben daar niet trots op. Ik kan niet zeggen: Kijk eens hoe goed ik dat heb gedaan.' 303 00:17:27,200 --> 00:17:31,840 Dus daar zie je dat de verhouding tussen hoe wij met technologie omgaan... 304 00:17:31,960 --> 00:17:35,800 natuurlijk heel duaal is. 305 00:17:35,920 --> 00:17:37,320 Excuus. 306 00:17:37,440 --> 00:17:41,200 Economisch gezien wordt er heel erg naar productiviteit en kwaliteit gekeken... 307 00:17:41,320 --> 00:17:46,960 maar als ik kijk naar gedrag en hoe mensen zich betrokken voelen bij hun werk... 308 00:17:47,080 --> 00:17:49,680 vind ik het best een hele spannende. 309 00:17:49,800 --> 00:17:54,120 Waarbij je natuurlijk wel heel erg vooral eerst kijkt: 310 00:17:54,240 --> 00:17:56,440 wat is jouw toegevoegde waarde als mens? 311 00:17:56,560 --> 00:17:59,840 Mensen in het onderwijs, beleidsmedewerkers... 312 00:17:59,960 --> 00:18:03,480 We hebben bij Economische Zaken ook een aantal workshops gedaan... 313 00:18:03,600 --> 00:18:07,120 waarbij mensen zeggen: 'Ik wil veel meer af kunnen stemmen met de stakeholders. 314 00:18:07,240 --> 00:18:12,960 Ik hoef niet al die documenten samen te voegen of in allerlei templates te gieten.' 315 00:18:13,080 --> 00:18:16,440 Die toegevoegde waarde is juist met je omgeving... 316 00:18:16,560 --> 00:18:19,320 dat wat buiten een ministerie gebeurt, daar contact te hebben. 317 00:18:19,440 --> 00:18:22,040 Dus dat is voor mij altijd de eerste vraag. 318 00:18:22,160 --> 00:18:28,160 Maar daarna, als je werkt met generatieve AI, zou ik ook heel bewust kijken naar: 319 00:18:28,280 --> 00:18:30,520 maar wat voor effect heeft het op mij? 320 00:18:30,640 --> 00:18:34,440 Ik schrijf veel artikelen ook en blogs. 321 00:18:34,560 --> 00:18:38,480 Ik ben daar wel mee gestopt, want het is allemaal één pot nat aan het worden. 322 00:18:38,600 --> 00:18:42,240 En ik wil juist die sparkle hebben. Dus daar gebruik ik het niet voor. 323 00:18:42,360 --> 00:18:44,920 Maar dat is mijn keuze. Zo moet iedereen z'n eigen keuze maken. 324 00:18:45,040 --> 00:18:48,440 En daar kwam je ook pas nadat je het wel geprobeerd had. 325 00:18:48,560 --> 00:18:53,440 Ik denk dat dat wel vaak een advies is dat veel mensen kan verder helpen. 326 00:18:53,560 --> 00:18:58,480 Dat als er ruimte is om het uit te proberen, dat je er meer eigen ervaring mee opdoet. 327 00:18:59,480 --> 00:19:00,920 Christa. 328 00:19:02,480 --> 00:19:09,160 Ik ben benieuwd hoe dat bij jullie als gemeente Rotterdam tot nu toe gegaan is. 329 00:19:09,280 --> 00:19:12,240 Zijn jullie allemaal over op de generatieve AI? 330 00:19:13,640 --> 00:19:16,480 Niet allemaal. We hebben een aantal koplopers... 331 00:19:16,600 --> 00:19:20,880 en een aantal mensen die het heel erg spannend vinden. 332 00:19:21,000 --> 00:19:24,640 En juist daar probeer ik te bewegen. 333 00:19:24,760 --> 00:19:29,160 Dus ik ben geen organisatieadviseur die een groots meerjarenplan opstelt... 334 00:19:29,280 --> 00:19:31,800 en dan zegt: Veel succes. 335 00:19:31,920 --> 00:19:36,400 Ik ben vooral wel fan van een groene veranderstrategie van De Caluwé... 336 00:19:36,520 --> 00:19:37,640 voor wie dat kent. 337 00:19:37,760 --> 00:19:41,560 Maar ik heb er ook een sheet bij die in beeld kan worden gebracht. 338 00:19:41,680 --> 00:19:42,920 LYKLE: Zeker. 339 00:19:44,400 --> 00:19:46,840 CHRISTA: Die groene veranderstrategie gaat er vanuit... 340 00:19:46,960 --> 00:19:51,840 dat mensen veranderen door samen te leren en te experimenteren... 341 00:19:51,960 --> 00:19:56,600 zodat je eigenlijk daarna zelf begrijpt waarom en hoe het anders moet. 342 00:19:56,720 --> 00:20:00,640 Wat we vaak zien: organisaties hebben een nieuw systeem... 343 00:20:00,760 --> 00:20:03,280 en een kleine handleiding erbij, een e-learning. 344 00:20:03,400 --> 00:20:05,840 Vervolgens gaan mensen door die e-learning heen en denken: 345 00:20:05,960 --> 00:20:08,320 Mooi, ik ga weer verder met m'n werk. 346 00:20:08,440 --> 00:20:13,840 Wat deze strategie laat zien is ook echt dat je vooral begint met bewustwording. 347 00:20:13,960 --> 00:20:18,320 De 'why'. Waarom moet er iets anders? 348 00:20:18,440 --> 00:20:22,480 Daar zie je dan vervolgens: Hé, maar wat betekent dat voor mij? 349 00:20:22,600 --> 00:20:25,040 Wat betekent het voor mijn werk? 350 00:20:25,160 --> 00:20:27,480 Eigenlijk op het moment dat je daar zit... 351 00:20:27,600 --> 00:20:30,120 Je hebt de nieuwsgierigheid aangewakkerd... 352 00:20:30,240 --> 00:20:34,640 en mensen krijgen dan zo'n gevoel: Misschien wil ik dit wel. 353 00:20:34,760 --> 00:20:37,400 Dan komen ze ook met: hoe ga ik dit leren? 354 00:20:37,520 --> 00:20:44,360 Welke e-learning kan ik dan volgen of welke handleiding moet ik lezen? 355 00:20:45,160 --> 00:20:48,880 Dat hebben wij een beetje gevormd in een programma. 356 00:20:49,000 --> 00:20:51,360 Dat kan je op de volgende sheet zien. 357 00:20:51,480 --> 00:20:57,400 Wij hebben het programma in Rotterdam, Future Work Skills, in 2019 al gestart. 358 00:20:57,520 --> 00:21:02,720 Toen kwamen toekomstige vaardigheden, '21st century skills'. 359 00:21:02,840 --> 00:21:04,920 Die hebben wij toen verrotterdamst. 360 00:21:05,040 --> 00:21:07,600 Die zie je ook aan de, voor mij, linkerkant. 361 00:21:07,720 --> 00:21:09,840 Ik weet niet of het voor jullie ook aan de linkerkant is. 362 00:21:09,960 --> 00:21:12,400 LYKLE: Ik hoop het wel, anders kunnen we ze niet lezen. 363 00:21:12,520 --> 00:21:13,640 (GELACH) 364 00:21:13,760 --> 00:21:19,240 CHRISTA: Daarin gaat het om de buitenste ring, de 'hard skills'. 365 00:21:19,360 --> 00:21:23,320 Daar zie je ook ICT-basisvaardigheden staan en datagedreven werken. 366 00:21:23,440 --> 00:21:25,560 Daarbinnen gaat het over de werkstijl. 367 00:21:25,680 --> 00:21:27,920 Maar in het midden staat ook 'mindset'. 368 00:21:28,040 --> 00:21:30,400 Die mindset is precies waar het over gaat. 369 00:21:30,520 --> 00:21:33,800 Zorg dat je nieuwsgierig wordt naar die ontwikkelingen. 370 00:21:33,920 --> 00:21:38,000 Dat hebben we in 2023 vertaald naar Digitale Fitheid. 371 00:21:38,120 --> 00:21:41,560 Eigenlijk die ICT-basisvaardigheden. 372 00:21:41,680 --> 00:21:45,960 De wereld om ons heen, de digitale wereld, verandert vrij snel. 373 00:21:46,080 --> 00:21:48,080 Daar hebben we onderscheid gemaakt... 374 00:21:48,200 --> 00:21:51,000 tussen de buitenste ring, nog steeds die vaardigheden... 375 00:21:51,120 --> 00:21:54,640 bijvoorbeeld ook je digitale werkomgeving, omgaan met Teams... 376 00:21:54,760 --> 00:21:56,480 maar daarbinnen de nieuwsgierigheid. 377 00:21:56,600 --> 00:22:00,640 Daar zien we dan bijvoorbeeld ook kunstmatige intelligentie staan. 378 00:22:00,760 --> 00:22:03,400 Dat is waar we nu mee bezig zijn: 379 00:22:03,520 --> 00:22:08,040 om medewerkers mee te nemen in deze nieuwe wereld. 380 00:22:08,160 --> 00:22:11,640 LYKLE: Eigenlijk aantakken op een heel menselijk aspect. 381 00:22:11,760 --> 00:22:14,840 En wat er dan allemaal aan technische vermogens achter liggen... 382 00:22:14,960 --> 00:22:19,320 is in dat verhaal niet per se heel erg leidend? 383 00:22:20,200 --> 00:22:23,160 Christa. Sorry, dat was een vraag. (GELACH) 384 00:22:23,280 --> 00:22:26,520 Nee, leidend is nieuwsgierig worden. 385 00:22:26,640 --> 00:22:32,120 Ik ben altijd in de overtuiging dat als er iets nieuws om je heen gebeurt... 386 00:22:32,240 --> 00:22:37,760 dan ga je zonder nieuwsgierigheid ook niet willen ontwikkelen. 387 00:22:37,880 --> 00:22:41,880 Nieuwsgierigheid aanwakkeren, bewustzijn vergroten. 388 00:22:42,000 --> 00:22:46,640 Dat zorgt er wat mij betreft voor dat mensen in deze wereld om zich heen gaan kijken... 389 00:22:46,760 --> 00:22:52,080 en er dan inderdaad achterkomen dat er een hele wereld te ontdekken is. 390 00:22:53,440 --> 00:22:56,160 Ik vind dat een mooi moment om naar Thimo te schakelen... 391 00:22:56,280 --> 00:23:01,080 want Thimo zit natuurlijk in de rol van beleidsmaker. Advies op dat vlak. 392 00:23:02,840 --> 00:23:08,000 Want de organisatie wil ook iets, maakt zich zorgen... 393 00:23:08,120 --> 00:23:10,200 wil dingen voor elkaar krijgen. 394 00:23:10,320 --> 00:23:14,240 Dus misschien denkt de organisatie wel: Leuk al dat persoonlijke enthousiasme... 395 00:23:14,360 --> 00:23:16,960 maar we hebben wel kaders nodig. 396 00:23:17,080 --> 00:23:19,560 Thimo, hoe zien jullie dat? 397 00:23:19,680 --> 00:23:21,000 Klopt. 398 00:23:21,120 --> 00:23:23,920 Het enthousiasme, zeker van bovenaf, maar ook van onderaf... 399 00:23:24,040 --> 00:23:27,840 zowel op MT-niveau als op medewerkerniveau als op DG-niveau: 400 00:23:27,960 --> 00:23:30,560 iedereen is enthousiast om dit te gebruiken en te proberen. 401 00:23:30,680 --> 00:23:32,480 De vorm van is een stukje moeilijker. 402 00:23:32,600 --> 00:23:34,800 Dat is iets waar we merken dat er... 403 00:23:34,920 --> 00:23:38,520 Er is veel enthousiasme, maar soms is het moeilijk om geld vrij te krijgen... 404 00:23:38,640 --> 00:23:41,600 en de eerste vormen van experimenteren vrij te krijgen. 405 00:23:43,080 --> 00:23:47,040 We merken voornamelijk dat de oudere bestuursstructuren... 406 00:23:47,160 --> 00:23:50,640 op het gebied van experimenteren met nieuwe technologie, zeker iets als AI... 407 00:23:50,760 --> 00:23:53,880 het heel erg moeilijk maken om hierop te experimenteren. 408 00:23:54,000 --> 00:23:56,000 We worden wel aangemoedigd om te experimenteren. 409 00:23:56,120 --> 00:24:00,160 Dan moet je denken aan Mistral of ChatGPT dat dan wordt aangespoord. 410 00:24:00,280 --> 00:24:03,600 Maar structureel gebruik is tot nu toe nog niet mogelijk geweest. 411 00:24:07,160 --> 00:24:10,000 Volgens mij horen we vaker in grotere organisaties... 412 00:24:10,120 --> 00:24:13,520 dat innoveren überhaupt wel moeilijk is. 413 00:24:13,640 --> 00:24:18,960 Zijn er, omdat het om generatieve AI gaat, ook andere aspecten aan... 414 00:24:19,080 --> 00:24:24,320 die het nu anders maken dan dat het moeilijk is om te innoveren? 415 00:24:25,200 --> 00:24:29,960 Zeker, maar dat is vooral afhankelijk van hoe je AI wilt implementeren en integreren. 416 00:24:30,080 --> 00:24:32,680 Je kan AI een heleboel toegang geven tot je computer... 417 00:24:32,800 --> 00:24:36,000 tot en met het besturen van je computer zelf aan toe. 418 00:24:36,120 --> 00:24:40,600 En als je het meest effectief AI wilt hebben, wil je die toestemming geven. 419 00:24:40,720 --> 00:24:43,600 Als je alleen nadenkt over de afhankelijkheid die dat creëert... 420 00:24:43,720 --> 00:24:44,880 van Amerikaanse partijen... 421 00:24:45,000 --> 00:24:51,000 Er was een moment dat er binnen het International Court in Den Haag... 422 00:24:51,120 --> 00:24:55,200 de Outlook of Gmail van iemand was afgesloten. 423 00:24:55,320 --> 00:24:59,240 Dan ben je toch een stuk minder geneigd om die volledige integratie mee te geven. 424 00:25:01,280 --> 00:25:06,200 Dus daarover nadenken en de juiste keuze maken is een stukje moeilijker... 425 00:25:06,320 --> 00:25:10,000 dan je misschien op eerste oogopslag zou zien. 426 00:25:10,120 --> 00:25:14,720 LYKLE: Vat ik het goed samen dat als je het volle effect van GenAI wilt hebben... 427 00:25:14,840 --> 00:25:19,080 dat het eigenlijk zoveel mogelijk toegang moet hebben in al je systemen... 428 00:25:19,200 --> 00:25:22,160 maar dat de keerzijde daarvan is dat je jezelf heel afhankelijk maakt... 429 00:25:22,280 --> 00:25:24,160 van die AI en de partij die dat levert... 430 00:25:24,280 --> 00:25:27,560 en dat we daar op dit moment anders over denken dan een tijdje terug. 431 00:25:27,680 --> 00:25:29,280 THIMO: Dat is heel goed samengevat. 432 00:25:29,400 --> 00:25:35,160 Dat maakt deze technologie ook heel anders dan iets als Excel of PowerPoint... 433 00:25:35,280 --> 00:25:37,840 ook al zijn we daar ook al afhankelijk van. 434 00:25:38,960 --> 00:25:43,800 Ik ben toe aan een nieuwe poll voor de deelnemers. De tweede. 435 00:25:45,560 --> 00:25:49,680 Die is: de ontwikkelingen gaan zo hard. Ik hou dat allemaal niet meer bij. 436 00:25:51,480 --> 00:25:56,480 Ik ben erg benieuwd hoe jullie daarop reageren, lieve kijkers. 437 00:25:57,320 --> 00:25:59,560 Want je kijkt hier omdat je nieuwsgierig bent. 438 00:25:59,680 --> 00:26:03,840 Misschien ben je wel een ontzettende voorloper en denk je: appeltje-eitje. 439 00:26:03,960 --> 00:26:06,480 Of denk je: Ik heb er de laatste jaren zoveel over gehoord. 440 00:26:06,600 --> 00:26:11,320 Ik moet nu maar aan de bak, maar het loopt me over de schoenen. 441 00:26:13,840 --> 00:26:16,160 Nou, in dit geval... 442 00:26:16,280 --> 00:26:18,680 Maar we moeten even wachten totdat het er iets meer zijn. 443 00:26:18,800 --> 00:26:21,200 Ik denk dat dit... 444 00:26:21,320 --> 00:26:28,160 Zoals we er nu praten is het een probleem voor grote organisaties om te innoveren. 445 00:26:28,280 --> 00:26:31,440 Maar dat is natuurlijk niet per se waar. 446 00:26:31,560 --> 00:26:36,320 Er zijn ook hele grote bedrijven die wel vaak koers veranderen... 447 00:26:36,440 --> 00:26:40,000 maar dat zijn vaak commerciële bedrijven, niet overheidsinstanties. 448 00:26:42,760 --> 00:26:48,280 Thimo, is het wat jullie betreft ook echt een aspect van het beleid dat je zegt: 449 00:26:48,400 --> 00:26:54,560 'Wij moeten betrouwbaar kunnen zijn als overheid, want we zijn de overheid.' 450 00:26:55,440 --> 00:26:56,760 Daar heb ik zelf minder zicht op. 451 00:26:56,880 --> 00:27:00,200 Ik ben zelf niet een beleidsmedewerker die beleid maakt voor bedrijfsvoering... 452 00:27:00,320 --> 00:27:02,840 van ons kerndepartement. 453 00:27:02,960 --> 00:27:08,960 Ik weet wel dat die betrouwbaarheid, dat risicoaverse zit, tot nu toe integraal... 454 00:27:09,080 --> 00:27:12,880 in het kerndepartement van wat ik heb meegekregen. 455 00:27:13,000 --> 00:27:14,360 LYKLE: Oké. 456 00:27:14,480 --> 00:27:16,040 Hoe ervaar jij dat, Saskia? 457 00:27:16,160 --> 00:27:21,680 Ik denk dat we commerciële bedrijven ook overschatten in hoe snel dit gaat. 458 00:27:21,800 --> 00:27:25,920 Er zijn heel veel experimenten gaande en heel veel mensen gebruiken het. 459 00:27:27,080 --> 00:27:32,400 Zelfs was er een onderzoek waarbij getoond werd... 460 00:27:32,520 --> 00:27:36,800 dat mensen liever hun eigen tools gebruiken dan van een organisatie. 461 00:27:37,800 --> 00:27:41,040 Maar even terug naar die poll. 462 00:27:41,160 --> 00:27:46,480 Daar hebben we de uitslag nog niet van, maar dit gaat zo hard... 463 00:27:46,600 --> 00:27:49,680 en er worden zoveel nieuwe tooltjes en dingen gebruikt. 464 00:27:50,960 --> 00:27:55,320 Heel veel mensen denken: Ik moet het eerst begrijpen voor ik aan de slag ga. 465 00:27:55,440 --> 00:27:58,560 En dat is bij deze technologie echt heel anders... 466 00:27:58,680 --> 00:28:02,400 want iedereen kan al ChatGPT gebruiken. Het is zo intuïtief. 467 00:28:02,520 --> 00:28:06,200 Net als met de telefoon. Daar hebben we ook geen training voor gekregen. 468 00:28:06,320 --> 00:28:08,440 Maar ik zie wel... 469 00:28:08,560 --> 00:28:10,400 Ik vind het zelf ook een grote zorg. 470 00:28:10,520 --> 00:28:12,480 Daarom vind ik zo'n studie die Thimo heeft gedaan... 471 00:28:12,600 --> 00:28:15,320 waarbij ook ethiek en filosofie belangrijk is... 472 00:28:15,440 --> 00:28:20,200 Mensen roepen altijd tegen mij: Ik heb niet zoveel te verbergen, ook met social media. 473 00:28:20,320 --> 00:28:23,480 Dat klopt als je in een democratie zit. Als die er niet meer is... 474 00:28:23,600 --> 00:28:26,640 Vanuit een overheid is het om dat te bewaken... 475 00:28:26,760 --> 00:28:30,120 dat die democratie doet wat voor de burgers goed is. 476 00:28:30,240 --> 00:28:33,320 We zitten gelukkig in Europa met de EU Act... 477 00:28:33,440 --> 00:28:37,480 die ervoor zorgt dat we de burgers daarin beschermen. 478 00:28:37,600 --> 00:28:40,520 LYKLE: De AI Act. -SASKIA: Ja, de EU Act. 479 00:28:42,160 --> 00:28:46,000 Microsoft heeft nu best een probleem waarvan ze zeggen... 480 00:28:46,120 --> 00:28:50,720 De overheid in Amerika vindt dat zij de data die wij hier hebben... 481 00:28:50,840 --> 00:28:52,680 te allen tijde mogen inzien. 482 00:28:52,800 --> 00:28:56,200 Dat 'sovereign AI' om een aparte cloud te gaan maken... 483 00:28:56,320 --> 00:28:58,400 daar zie je nu heel veel ontwikkelingen. 484 00:28:58,520 --> 00:29:01,440 Of specifieke cloud. 485 00:29:01,560 --> 00:29:04,880 Met het EZ werken we met ClimateGPT... 486 00:29:05,000 --> 00:29:09,720 wat echt alleen maar informatie is die getoetst is over klimaat... 487 00:29:09,840 --> 00:29:12,640 waardoor als je daar mee werkt, dat je ook zeker weet dat het klopt. 488 00:29:12,760 --> 00:29:17,640 Dus die kaders zijn nieuw, maar die moet je natuurlijk schetsen... 489 00:29:17,760 --> 00:29:25,840 wil je in alle organisaties, vooral in overheid, gereguleerd kunnen experimenteren. 490 00:29:25,960 --> 00:29:27,560 Dus je moet niet risicomijdend zijn. 491 00:29:27,680 --> 00:29:30,760 Wel experimenteren, maar binnen bepaalde afspraken. 492 00:29:30,880 --> 00:29:36,000 60 procent van de kijkers zegt: Ik hou het niet bij. Het gaat me te snel. 493 00:29:36,120 --> 00:29:41,920 40 procent, toch een flink aantal, zegt: Ik red het wel. 494 00:29:42,040 --> 00:29:46,240 Ik herinner me een tijd dat als je een videorecorder kocht... 495 00:29:46,360 --> 00:29:48,320 dan kwam er zo'n boekje bij. 496 00:29:48,440 --> 00:29:53,480 Dat gooide iedereen natuurlijk achterover, want niemand ging dat uit z'n hoofd leren. 497 00:29:53,600 --> 00:29:58,440 En tegelijkertijd is de technologie achter een Large Language Model... 498 00:29:58,560 --> 00:30:02,320 fenomenaal verbijsterend ingewikkeld. 499 00:30:02,440 --> 00:30:07,040 Maar de interactie die je ermee hebt, lijkt heel menselijk. 500 00:30:07,160 --> 00:30:10,080 Dus daar kan makkelijk een misverstand ontstaan. 501 00:30:10,200 --> 00:30:14,000 En tegelijkertijd, doordat we misschien ook in grote woorden erover gepraat hebben... 502 00:30:14,120 --> 00:30:16,680 in jouw laatste voorbeeld... 503 00:30:16,800 --> 00:30:21,240 Je kunt dus, als je daarvoor kiest, heel specifiek beheren... 504 00:30:21,360 --> 00:30:25,600 waarmee je zo'n generatieve AI voedt, met welke informatie. 505 00:30:25,720 --> 00:30:28,040 De ChatGPT's en de OpenAI's van deze wereld... 506 00:30:28,160 --> 00:30:31,600 hebben zowat het hele internet leeggetrokken... 507 00:30:31,720 --> 00:30:33,320 zonder rekening te houden met auteursrecht. 508 00:30:33,440 --> 00:30:34,840 En dat zit er allemaal in. 509 00:30:34,960 --> 00:30:37,720 Maar als je zegt: 'Nee, het moet alleen over dit ene onderwerp gaan'... 510 00:30:37,840 --> 00:30:43,360 dan kun je ook een generatieve AI maken die alleen maar de documenten leest... 511 00:30:43,480 --> 00:30:45,320 die jij daarvoor geselecteerd hebt. 512 00:30:45,440 --> 00:30:49,080 Dan heb je een heel ander soort inhoudelijke kwaliteit. 513 00:30:49,200 --> 00:30:53,120 Dat kan je aan de voorkant inregelen, waarbij mijn advies wel is... 514 00:30:53,240 --> 00:30:56,680 Want ik zie dat mensen nog steeds dingen uploaden... 515 00:30:56,800 --> 00:31:02,480 waarvan je niet zou willen dat het in ChatGPT staat, maar dat kan je aangeven. 516 00:31:02,600 --> 00:31:05,480 En dan wel bepalen of je daar externe informatie... 517 00:31:05,600 --> 00:31:07,560 Maar ChatGPT maakt ook z'n eigen bronnen. 518 00:31:07,680 --> 00:31:11,560 Die geeft ook af en toe verwijzingen die helemaal niet kloppen. 519 00:31:11,680 --> 00:31:13,120 LYKLE: Nee, precies. 520 00:31:13,240 --> 00:31:15,520 SASKIA: Je moet het samen doen. 521 00:31:15,640 --> 00:31:19,040 LYKLE: Je moet het leren gebruiken. Daar komt dat oefenen weer terug. 522 00:31:19,160 --> 00:31:21,920 Hoe ziet het er nou uit? Hoe kijk je naar de toekomst? 523 00:31:22,040 --> 00:31:25,120 Ik heb ook daar een slide van. 524 00:31:25,920 --> 00:31:29,960 Want wat ik al aan het begin zei: het wordt heel spannend: wat doe ik met wie? 525 00:31:30,080 --> 00:31:34,000 Dus dat hybride werken 2.0 gaat heel erg over: 526 00:31:34,120 --> 00:31:37,040 we hebben allemaal eigenlijk een soort persoonlijke assistent... 527 00:31:37,160 --> 00:31:38,280 die met ons samenwerkt. 528 00:31:38,400 --> 00:31:41,400 Dat hebben we al langer, want dat hadden we ook met de telefoon. 529 00:31:41,520 --> 00:31:45,800 Ga jij nog ergens zonder Google Maps naartoe waar je nog nooit geweest bent? 530 00:31:45,920 --> 00:31:48,160 LYKLE: Niet Google Maps, maar met een navigatieapp. 531 00:31:48,280 --> 00:31:49,760 (GELACH) 532 00:31:49,880 --> 00:31:52,880 SASKIA: Daar zijn we ook afhankelijk van. En onze agenda. 533 00:31:53,000 --> 00:31:55,640 LYKLE: Dan kom ik aan en vragen ze: nog last van de wegwerkzaamheden? 534 00:31:55,760 --> 00:31:58,160 Dan zeg ik: welke wegwerkzaamheden? Dat weet-ie ook. 535 00:31:58,280 --> 00:32:00,040 Daar heeft-ie me omheen gestuurd. 536 00:32:00,160 --> 00:32:04,120 Dus we zijn daar al wel meer mee bezig dan we denken... 537 00:32:04,240 --> 00:32:06,720 maar nu zien we het heel erg op de werkplek. 538 00:32:06,840 --> 00:32:09,080 Dus het is nu nog heel veel. 539 00:32:09,200 --> 00:32:12,760 Daarom begrijp ik ook dat mensen zeggen: Het gaat mijn werk echt niet veranderen. 540 00:32:12,880 --> 00:32:14,960 Want je doet het samen. 541 00:32:17,280 --> 00:32:21,440 Wat dat verandert in organisaties of als je werkt met collega's... 542 00:32:21,560 --> 00:32:23,280 of mensen in je team... 543 00:32:23,400 --> 00:32:27,560 Als iets gemaakt is samen met generatieve AI... 544 00:32:27,680 --> 00:32:29,640 hoe ga je daarover met elkaar communiceren? 545 00:32:29,760 --> 00:32:33,400 Heel veel mensen zeggen het vaak niet eens dat iets met GenAI is gemaakt. 546 00:32:33,520 --> 00:32:37,320 Of als iemand zegt: 'Ik heb het uit ChatGPT, dus ik denk dat het wel klopt.' 547 00:32:37,440 --> 00:32:39,760 Je krijgt hele andere gesprekken. 548 00:32:39,880 --> 00:32:43,160 Maar daarnaast, en vandaag gaat het vooral over generatieve AI... 549 00:32:43,280 --> 00:32:47,360 maar de toekomst gaat over AI-agents. 550 00:32:47,480 --> 00:32:53,840 Dat zijn eigenlijk AI-processen die helemaal alleen werken. 551 00:32:53,960 --> 00:32:57,960 LYKLE: Assistenten die echt ook beslissingen nemen. 552 00:32:58,080 --> 00:33:00,560 Die de juiste informatie hebben, die daarvan leren. 553 00:33:00,680 --> 00:33:05,840 Die dus ook vaak snel slimmer worden dan dat wij zijn... 554 00:33:05,960 --> 00:33:09,760 want die kunnen over heel veel informatie beschikken die wij niet gebruiken. 555 00:33:09,880 --> 00:33:11,880 En dat vind ik het leuke aan dit plaatje. 556 00:33:12,000 --> 00:33:15,560 Dan moet je ook gaan nadenken over: hoe zit je team in elkaar? 557 00:33:15,680 --> 00:33:21,360 Of, bijvoorbeeld bij een Uber, is een AI-agent al jouw baas. 558 00:33:21,480 --> 00:33:24,040 Want die stuurt eigenlijk al aan waar jij naartoe gaat. 559 00:33:24,160 --> 00:33:28,320 LYKLE: Je bedoelt de chauffeurs die op pad worden gestuurd door een AI-agent? 560 00:33:28,440 --> 00:33:33,960 SASKIA: Ja. Maar dat geeft natuurlijk een hele andere dynamiek. 561 00:33:34,080 --> 00:33:38,840 Dus het wordt in hoe we leidinggeven, hoe we samenwerken... 562 00:33:38,960 --> 00:33:42,880 Er zijn organisaties die daarmee experimenteren. 563 00:33:43,000 --> 00:33:47,880 Die werken dan agile en doen in de scrum ook de AI-agent erbij, of bij de borrel. 564 00:33:48,000 --> 00:33:51,680 En wat doet-ie dan? Hoe gaat-ie zich ontwikkelen? 565 00:33:51,800 --> 00:33:55,560 Het is heel raar, want het is niet fysiek, maar die kan je aan tafel zetten. 566 00:33:55,680 --> 00:34:01,200 Of directies die een AI-agent bij besluiten betrekken. 567 00:34:01,320 --> 00:34:04,400 En omdat het dus zo'n taalmodel is... 568 00:34:04,520 --> 00:34:07,680 zijn we ook heel snel geneigd: kom er gezellig bij. 569 00:34:07,800 --> 00:34:11,040 We gaan daar op een hele menselijke manier mee om... 570 00:34:11,160 --> 00:34:14,720 terwijl je eigenlijk tegen je computer praat. 571 00:34:16,520 --> 00:34:19,560 Dit hebben we niet voorbereid, dus misschien kan je geen antwoord geven. 572 00:34:19,680 --> 00:34:21,280 Maar wat me nou te binnen valt... 573 00:34:21,400 --> 00:34:25,240 We praten in de context van dit webinar over generatieve AI als collega... 574 00:34:25,360 --> 00:34:27,520 in onze werkomgeving. 575 00:34:28,320 --> 00:34:30,960 Maar wij doen ons werk voor de maatschappij. 576 00:34:31,080 --> 00:34:34,240 Die maatschappij is burgers en bedrijven... 577 00:34:34,360 --> 00:34:36,600 die datzelfde gereedschap ook tot hun beschikking hebben. 578 00:34:36,720 --> 00:34:39,720 Dit stelt natuurlijk ook een burger in staat... 579 00:34:39,840 --> 00:34:43,720 Je gaf net het voorbeeld van een cv die er fantastisch uitziet. 580 00:34:43,840 --> 00:34:45,920 Maar dit stelt een burger ook in staat... 581 00:34:46,040 --> 00:34:52,080 om een kwalitatief veel betere vraag aan de gemeente te stellen bijvoorbeeld. 582 00:34:52,200 --> 00:34:55,800 Moeten gemeenten zich druk maken over dat ze overvraagd worden? 583 00:34:55,920 --> 00:34:58,560 Overvraagd weet ik niet, maar je komt met hele andere vragen. 584 00:34:58,680 --> 00:35:02,840 Met het internet was het al bij de huisarts dat iedereen kwam: Ik heb dit of dat. 585 00:35:02,960 --> 00:35:04,040 Nu gaat dat een stap verder. 586 00:35:04,160 --> 00:35:09,360 Ik hoorde laatst iemand die leiding geeft aan een aantal verzorgingstehuizen. 587 00:35:09,480 --> 00:35:14,280 Die krijgt van met name familie van cliënten al brieven... 588 00:35:14,400 --> 00:35:17,600 waarin ze het patiëntdossier hebben geüpload in generatieve AI... 589 00:35:17,720 --> 00:35:19,880 en gevraagd hebben: 590 00:35:20,000 --> 00:35:26,720 het zorgsysteem dat nu aangeboden wordt, klopt dat bij wat mijn moeder/vader heeft? 591 00:35:26,840 --> 00:35:32,760 En zo niet, welke juridische stappen kan ik ondernemen om daar iets tegen te doen? 592 00:35:32,880 --> 00:35:36,680 Dus die zien dat daar al, in deze context. 593 00:35:36,800 --> 00:35:40,360 Maar dat zal voor een overheid ook zijn. 594 00:35:40,480 --> 00:35:43,760 Je hebt heel makkelijk toegang tot juridische informatie... 595 00:35:43,880 --> 00:35:45,760 dus je kan makkelijk een juridische brief maken. 596 00:35:45,880 --> 00:35:50,280 Dus ik geloof wel dat de manier waarop er dus... 597 00:35:50,400 --> 00:35:54,520 vanuit die informatie vragen worden gesteld, dat ze daarop in moeten spelen. 598 00:35:55,440 --> 00:35:57,760 Christa, even naar jou. 599 00:35:57,880 --> 00:36:03,680 Is dit ook een onderdeel van hoe de gemeente Rotterdam ermee oefent? 600 00:36:06,280 --> 00:36:09,240 Eigenlijk wel. 601 00:36:09,360 --> 00:36:14,800 Terugkomend: die betrouwbare overheid is ook voor Rotterdam belangrijk. 602 00:36:14,920 --> 00:36:21,160 Daarom ben ik ook in 2023 gestart met een workshop om veilig te experimenteren. 603 00:36:21,280 --> 00:36:24,400 Toen nog ChatGPT. Inmiddels is dat dan Copilot. 604 00:36:24,520 --> 00:36:27,240 Dat deden we echt op een laagdrempelige en veilige manier. 605 00:36:27,360 --> 00:36:31,680 Dus nog geen gebruik van vertrouwelijke informatie. 606 00:36:31,800 --> 00:36:36,880 En dat draagt ook eigenlijk bij aan het verminderen van die AI-schaamte. 607 00:36:37,000 --> 00:36:39,640 Dus, ja. 608 00:36:39,760 --> 00:36:45,720 LYKLE: Oké, en zoeken jullie ook burgers en bedrijven op die AI inzetten... 609 00:36:45,840 --> 00:36:48,120 wanneer ze vragen aan jullie stellen? 610 00:36:50,320 --> 00:36:55,680 Als ik het goed heb wordt eind deze maand... 611 00:36:55,800 --> 00:37:00,320 het nieuwe Rotterdam Social AI Lab geopend. 612 00:37:00,440 --> 00:37:03,320 Dat is in de stad, met de stad, voor de stad. 613 00:37:03,440 --> 00:37:07,000 Daar kunnen bedrijven en burgers naar binnen lopen... 614 00:37:07,120 --> 00:37:13,800 en vragen over AI, experimenteren met AI, samenwerken met de gemeente over AI. 615 00:37:13,920 --> 00:37:16,160 Daar ben ik zelf niet bij betrokken. 616 00:37:16,280 --> 00:37:20,120 Maar ik weet wel dat die gelanceerd wordt aan het eind van de maand. 617 00:37:20,240 --> 00:37:21,480 Dank. 618 00:37:22,680 --> 00:37:25,120 We hebben nu een beeld gekregen van hoe het was... 619 00:37:25,240 --> 00:37:28,800 en een zicht naar de toekomst van hoe het zou kunnen zijn. 620 00:37:28,920 --> 00:37:32,040 Nou ben ik benieuwd, beste kijkers, hoe jullie erover denken. 621 00:37:32,160 --> 00:37:36,440 Ik heb een rondje eens/oneens voorbereid. 622 00:37:36,560 --> 00:37:39,760 De stelling is: straks hoef ik niet meer na te denken, want AI doet alles voor mij. 623 00:37:39,880 --> 00:37:45,640 Je mag reageren in hoeverre je het daarmee eens of oneens bent. 624 00:37:45,760 --> 00:37:48,440 Je mag mee laten wegen wat je net allemaal gehoord hebt. 625 00:37:48,560 --> 00:37:49,680 Dat zou ik doen. 626 00:37:49,800 --> 00:37:54,120 Maar ik kan me voorstellen dat je zelf ook nog gedachten hebt. 627 00:37:55,080 --> 00:37:59,440 SASKIA: Ik vind daarin het mooie... We kijken zo lang al naar IQ. 628 00:37:59,560 --> 00:38:02,720 Ons IQ is zo bepalend voor wat we op school doen... 629 00:38:02,840 --> 00:38:04,480 wat we op werk doen. 630 00:38:04,600 --> 00:38:09,040 Daar zit ook veel van de angst en de sciencefiction van: hij wordt slimmer dan ik. 631 00:38:09,160 --> 00:38:12,640 Waar ik naar kijk, is eigenlijk de cirkel. 632 00:38:12,760 --> 00:38:16,320 Je moet dat vakmanschap natuurlijk wel hebben in relatie tot AI. 633 00:38:16,440 --> 00:38:20,520 Maar het gaat ook over je empathie, dus je EQ... 634 00:38:20,640 --> 00:38:22,800 en je morele quotiënt. 635 00:38:22,920 --> 00:38:26,880 Dus: hoe ga je met ethische vraagstukken om? 636 00:38:27,000 --> 00:38:32,360 Is het ethisch als je het dossier van je moeder even op een andere manier... 637 00:38:32,480 --> 00:38:37,680 En een van de grootste pijlers is wendbaarheid. 638 00:38:37,800 --> 00:38:39,880 Adaptiviteit. 639 00:38:40,000 --> 00:38:45,240 Als we vooral in die EQ, MQ en AQ ontwikkelen... 640 00:38:45,360 --> 00:38:48,720 dan wordt IQ misschien wel minder relevant. 641 00:38:49,520 --> 00:38:56,040 En met die wendbaarheid zijn we in de coronatijd wat mij betreft goed geslaagd... 642 00:38:56,160 --> 00:38:59,120 want dat hebben we heel goed gedaan. Dus ik geloof dat dat in ons zit als mens. 643 00:38:59,240 --> 00:39:01,400 Maar dan zit je wel met systemen... 644 00:39:01,520 --> 00:39:05,360 wat Thimo ook zegt en waar Christa misschien ook tegenaan loopt, van: 645 00:39:05,480 --> 00:39:09,040 wat mag er wel en wat mag er niet? Wat is er al en hoe gaan we naar de toekomst? 646 00:39:09,160 --> 00:39:11,600 LYKLE: En misschien ook wel: wat kan er wel of niet? 647 00:39:11,720 --> 00:39:16,560 Een organisatie heeft geïnvesteerd in allerlei systemen en software... 648 00:39:16,680 --> 00:39:19,920 die misschien wel niet zo makkelijk te ontsluiten is of mee te bewegen valt... 649 00:39:20,040 --> 00:39:22,840 of waarvan ze zeggen: 'Daar hebben we net zoveel geld aan uitgegeven. 650 00:39:22,960 --> 00:39:25,360 Dat moet eerst nog een paar jaar z'n rendement opleveren... 651 00:39:25,480 --> 00:39:27,680 voordat we eraan gaan lopen morrelen.' 652 00:39:27,800 --> 00:39:29,200 Dat levert ook traagheid op. 653 00:39:29,320 --> 00:39:30,760 Waarbij ik wel zie... 654 00:39:30,880 --> 00:39:33,520 Als mensen zeggen: 'Waar moet ik dan beginnen? Ik weet het niet.' 655 00:39:33,640 --> 00:39:37,080 Sowieso met generatieve AI gewoon experimenteren. 656 00:39:37,200 --> 00:39:40,560 Maar heel veel van de grote softwarebedrijven... 657 00:39:40,680 --> 00:39:43,360 zijn allemaal AI-tools erop aan het bouwen. 658 00:39:43,480 --> 00:39:46,360 Ik zeg altijd: Ga nou niet hele andere dingen doen... 659 00:39:46,480 --> 00:39:50,080 maar kijk binnen dat wat je nu al doet hoe dat toegevoegd wordt. 660 00:39:50,200 --> 00:39:53,960 Wat Christa ook zei. Copilot van Microsoft. 661 00:39:54,080 --> 00:39:56,000 Microsoft is niet altijd de meest innovatieve... 662 00:39:56,120 --> 00:39:59,240 maar wel de eerste die het degelijk probeert neer te zetten... 663 00:39:59,360 --> 00:40:02,880 en er geld mee verdient. 664 00:40:05,560 --> 00:40:07,080 Of als je andere systemen gebruikt. 665 00:40:07,200 --> 00:40:10,120 Die zijn allemaal al met die AI-ontwikkeling bezig. 666 00:40:10,240 --> 00:40:12,440 Dus ik vind juist het leuke eraan... 667 00:40:12,560 --> 00:40:15,120 dat je niet weer een heel ander systeem hoeft te gebruiken. 668 00:40:15,240 --> 00:40:15,920 Oké. 669 00:40:16,040 --> 00:40:19,560 En overigens, over dat voorbeeld dat je gaf: ik denk niet dat het een goed idee is... 670 00:40:19,680 --> 00:40:23,080 om een medische dossier van een mens, met naam en toenaam... 671 00:40:23,200 --> 00:40:26,160 in een openbare generatieve AI-tool te stoppen. 672 00:40:26,280 --> 00:40:27,360 Helemaal mee eens. 673 00:40:27,480 --> 00:40:30,560 LYKLE: Allerlei privacygevoelige informatie die vervolgens wel... 674 00:40:30,680 --> 00:40:32,880 in de training meegenomen wordt. 675 00:40:33,000 --> 00:40:34,520 SASKIA: Eens. 676 00:40:34,640 --> 00:40:36,320 Even voor de zekerheid zeggen. (GELACH) 677 00:40:36,440 --> 00:40:37,400 Voor de kijkers thuis. 678 00:40:37,520 --> 00:40:39,040 LYKLE: Het rondje eens of oneens. 679 00:40:39,160 --> 00:40:41,880 Straks hoef ik niet meer na te denken. AI doet alles voor mij. 680 00:40:42,000 --> 00:40:46,640 37 procent... 39 procent zegt: Daar ben ik het helemaal mee oneens. 681 00:40:46,760 --> 00:40:50,200 Dat gaat niet gebeuren. Dat matcht een beetje met wat jij zegt. 682 00:40:51,400 --> 00:40:56,120 55 procent zegt ook: Mee oneens. Best een grote groep: gaat niet gebeuren. 683 00:40:57,280 --> 00:40:58,600 4 procent is neutraal. 684 00:40:58,720 --> 00:41:04,200 En 1 procent denkt dat het wel stopt, dat ze niet meer hoeven na te denken. 685 00:41:07,080 --> 00:41:12,600 Maar dan komen we terug op wat je net zei over: heeft het effect op onze hersenen? 686 00:41:13,840 --> 00:41:17,000 Het is een beetje een conservatieve inschatting... 687 00:41:17,120 --> 00:41:19,440 maar 'use it or lose it' geldt voor ons hele lichaam. 688 00:41:19,560 --> 00:41:22,440 Als je te lang stilzit, dan... 689 00:41:22,560 --> 00:41:24,880 Als je gaat liggen in een bed, neemt je spiermassa af. 690 00:41:25,000 --> 00:41:31,640 Als je je hoofd niet actief gebruikt, slibben er neurologische paadjes dicht. 691 00:41:33,960 --> 00:41:38,320 Aan de andere kant: als ik spar met een collega of met een stagiair... 692 00:41:38,440 --> 00:41:40,960 kan ik daar veel slimmer van worden. 693 00:41:41,080 --> 00:41:44,240 Zo'n rol kan een generatieve AI wel hebben, toch? 694 00:41:44,360 --> 00:41:46,560 Of hoop ik dat alleen maar? 695 00:41:46,680 --> 00:41:49,160 Welke rol bedoel je dan? 696 00:41:49,280 --> 00:41:54,360 Doordat ik ermee spar, dat er toch bij mij ook kennis en creativiteit beklijft. 697 00:41:54,480 --> 00:41:58,800 SASKIA: Ja, want je hebt toegang tot weet ik hoeveel documenten... 698 00:41:58,920 --> 00:42:02,160 dus je komt makkelijker in aanraking met informatie... 699 00:42:02,280 --> 00:42:06,600 waar je normaal niet zo snel mee in aanraking komt. 700 00:42:06,720 --> 00:42:08,720 Dus dat geloof ik zeker. 701 00:42:09,760 --> 00:42:15,440 En ik denk, en dat vind ik nog een hele interessante om te zien... 702 00:42:16,560 --> 00:42:20,400 Het gaat over kritisch kunnen omgaan met de informatie die je erin zet... 703 00:42:20,520 --> 00:42:23,840 dus de vragen aan de voorkant, en dat wat eruit komt. 704 00:42:23,960 --> 00:42:27,160 Vind ik dat goed genoeg of niet? Daar ga je dan mee tweaken. 705 00:42:27,280 --> 00:42:30,040 Er komt een hele generatie die nog niet die ervaring heeft. 706 00:42:30,160 --> 00:42:34,240 Dus voor mij is dat makkelijker dan voor iemand die net op de werkvloer komt. 707 00:42:34,360 --> 00:42:36,400 Dus die kan wel iets produceren... 708 00:42:36,520 --> 00:42:41,480 maar hebben we die ook opgeleid dat die zoveel kennis en kunde heeft... 709 00:42:41,600 --> 00:42:44,360 om te kunnen bepalen of iets goed is of niet? 710 00:42:44,480 --> 00:42:47,560 Als het gaat van 'ik hoef er niet meer over na te denken'... 711 00:42:47,680 --> 00:42:50,400 en we daar te klakkeloos in worden... 712 00:42:50,520 --> 00:42:54,200 dan worden we gewone middelmaat. 713 00:42:56,200 --> 00:42:57,560 Dat moeten we niet willen. 714 00:42:57,680 --> 00:42:59,600 En iedereen wil ook gewoon. 715 00:42:59,720 --> 00:43:01,840 Wat Christa zegt. Ik denk dat nieuwsgierigheid... 716 00:43:01,960 --> 00:43:05,920 een van de belangrijkste factoren is voor deze fase. 717 00:43:06,040 --> 00:43:10,040 We zijn allemaal nieuwsgierig, anders was je nooit van baby tot hier gekomen. 718 00:43:10,160 --> 00:43:12,360 Je bent nieuwsgierig om dingen te leren. 719 00:43:12,480 --> 00:43:15,080 Maar het bewust... 720 00:43:15,200 --> 00:43:19,640 Ik hoop dat iedereen het bewust doet, dus gewoon af en toe reflecteert zelf: 721 00:43:19,760 --> 00:43:23,680 wat heeft dit mij nou gebracht? Wat werkte er wel, wat werkte er niet? 722 00:43:23,800 --> 00:43:29,000 En niet omdat het snel is en snel output levert... 723 00:43:29,120 --> 00:43:31,720 dat je denkt: Lekker makkelijk, ik heb het af. 724 00:43:31,840 --> 00:43:33,280 LYKLE: Christa. 725 00:43:33,400 --> 00:43:38,840 Zien jullie al van dat soort dingen in jullie oefenen en nieuwsgierigheid? 726 00:43:38,960 --> 00:43:42,880 Krijgen jullie al ervaringen terug waarmee jullie kunnen inschatten: 727 00:43:43,000 --> 00:43:45,320 op deze manier is het waardevol. 728 00:43:46,720 --> 00:43:49,280 Nou, wat Saskia zei over die nieuwsgierigheid: 729 00:43:49,400 --> 00:43:51,760 daar worden we inderdaad mee geboren. 730 00:43:51,880 --> 00:43:55,640 En toch merk ik dat dat vervaagt naarmate we ouder worden... 731 00:43:55,760 --> 00:43:59,120 en vooral hoe langer je in hetzelfde werk zit. 732 00:43:59,240 --> 00:44:01,600 Want we zijn ook gewoontedieren. 733 00:44:01,720 --> 00:44:06,640 Die nieuwsgierigheid sluipt er uit op het moment dat je in een organisatie komt... 734 00:44:06,760 --> 00:44:08,920 en dat je nog nieuwsgierig bent naar: 735 00:44:09,040 --> 00:44:12,120 waarom doen jullie het zo of waarom doen jullie niet dit? 736 00:44:12,240 --> 00:44:15,400 En dat je dan in een soort stramien terechtkomt... 737 00:44:15,520 --> 00:44:18,720 en dan je werkprocessen 20 jaar misschien op dezelfde manier uitvoert. 738 00:44:18,840 --> 00:44:21,920 En dan komt ineens AI om de hoek kijken... 739 00:44:22,040 --> 00:44:25,400 die zegt dat je je werk ineens anders zou kunnen doen. 740 00:44:25,520 --> 00:44:29,800 Dus die nieuwsgierigheid is geen vanzelfsprekendheid voor mij. 741 00:44:29,920 --> 00:44:33,760 En dat is wel waarom wij dat juist weer aanwakkeren. 742 00:44:33,880 --> 00:44:37,800 Ik krijg een kijkersvraag voor jou, Christa, van Ellen. 743 00:44:37,920 --> 00:44:42,920 Hoe kan de gemeente Rotterdam veilig werken met Copilot? 744 00:44:44,560 --> 00:44:46,120 Hoe kan het veilig? 745 00:44:46,240 --> 00:44:50,040 We hebben niet een betaalde licentie die bij onze data kan. 746 00:44:50,160 --> 00:44:55,320 Dus wij zitten ook aan die gratis versie. Copilot Chat is dat. 747 00:44:55,440 --> 00:44:59,440 Wat ik eigenlijk meegeef in al mijn workshops is: 748 00:44:59,560 --> 00:45:04,360 door nu te gaan oefenen/experimenteren met gegevens die wel openbaar zijn... 749 00:45:04,480 --> 00:45:07,360 of fictief, geanonimiseerd... 750 00:45:07,480 --> 00:45:10,520 kunnen ze zich wel alvast voorbereiden naar het moment... 751 00:45:10,640 --> 00:45:14,800 waarop we echt met een licentie zouden gaan werken... 752 00:45:14,920 --> 00:45:20,440 zodat je wel al dat experimenteren en die nieuwsgierigheid kunt oefenen... 753 00:45:20,560 --> 00:45:22,560 of kunt versterken... 754 00:45:22,680 --> 00:45:26,120 voor het moment dat het wel voor het echie kan. 755 00:45:26,240 --> 00:45:30,640 Dus wij doen het nu veilig door vooral spelregels mee te geven. 756 00:45:30,760 --> 00:45:33,280 Experimenteren en leren is prima... 757 00:45:33,400 --> 00:45:39,640 maar gooi er geen persoonsgegevens en vertrouwelijke, geheime documenten in. 758 00:45:39,760 --> 00:45:42,440 Maar als je het als een sparringspartner gebruikt.... 759 00:45:42,560 --> 00:45:49,160 of vraagt: 'hoe zou je dit aanpakken?' of 'stel een beleidsstuk op over dit thema'... 760 00:45:49,280 --> 00:45:51,680 kom je nu al een heel eind. 761 00:45:52,440 --> 00:46:00,080 En Thimo, je zit niet in de club die het beleid voor de uitvoering maakt. 762 00:46:01,720 --> 00:46:05,760 Dat is een interessant onderscheid bij onze overheden. 763 00:46:05,880 --> 00:46:11,000 Maar dan nog: in hoe jullie jullie beleid vormgeven... 764 00:46:11,120 --> 00:46:15,360 hebben jullie daar een idee, wens of gedachte over... 765 00:46:16,440 --> 00:46:20,480 op welke manieren de inzet van AI en generatieve AI betekenisvol gaat zijn... 766 00:46:20,600 --> 00:46:22,440 voor de overheid? 767 00:46:25,200 --> 00:46:29,040 Vanuit ons AI-beleid hebben we daar niet direct een beeld bij. 768 00:46:29,160 --> 00:46:32,920 Ik zelf persoonlijk wel. Ik merk dat er taken zijn die ik doe... 769 00:46:33,040 --> 00:46:36,720 die lijken op deskresearch waarbij ik openbare bronnen gebruik. 770 00:46:37,560 --> 00:46:40,080 Normaal in een halve dag tot een dag maak ik een rapport over iets... 771 00:46:40,200 --> 00:46:43,520 en nu kan ik dat terugbrengen naar een halfuur tot een uur. 772 00:46:44,440 --> 00:46:49,280 Ik zie ook andere mensen die aan de hand van eerder uitgestuurde Kamerbrieven... 773 00:46:49,400 --> 00:46:52,040 een begin maken van een nieuwe Kamerbrief... 774 00:46:52,160 --> 00:46:54,400 en op die manier het proces met 80 procent verminderen. 775 00:46:54,520 --> 00:46:56,440 Dus er zijn zeker mogelijkheden. 776 00:46:57,680 --> 00:47:01,200 Maar dat is allemaal nog niet structureel. 777 00:47:02,160 --> 00:47:05,120 Kun je nog iets meer vertellen over wat het voor jou zelf uitmaakt? 778 00:47:05,240 --> 00:47:08,560 Want je zegt net: 'Het scheelt me een hoop tijd.' Zo vat ik het samen. 779 00:47:08,680 --> 00:47:11,400 Wat doe je dan met de rest van die tijd? 780 00:47:11,520 --> 00:47:13,280 (GELACH) 781 00:47:13,400 --> 00:47:15,800 Meer van hetzelfde zou ik zeggen. 782 00:47:15,920 --> 00:47:19,480 Een van de taken die ik heb is het monitoren van data over AI. 783 00:47:19,600 --> 00:47:22,760 Dus hoe gaat het met AI binnen het Nederlandse ecosysteem. 784 00:47:22,880 --> 00:47:29,720 Waar ik normaal een rapport schreef, dat komt dan neer op één per week... 785 00:47:29,840 --> 00:47:31,720 zou ik er nu twee of drie per week kunnen doen... 786 00:47:31,840 --> 00:47:34,280 en zou ik daarnaast nog extra werk naar me toe kunnen trekken... 787 00:47:34,400 --> 00:47:38,640 voor bijvoorbeeld Kamervragen of vragen vanuit de ministerkant. 788 00:47:38,760 --> 00:47:41,880 Dus meer van hetzelfde in mijn ervaring. 789 00:47:42,000 --> 00:47:49,080 LYKLE: Maar je ziet dus een verhoging van de productiviteit en efficiëntie van je werk? 790 00:47:49,200 --> 00:47:50,960 Bij mij zeker, absoluut. 791 00:47:51,080 --> 00:47:55,120 Maar het helpt ook dat ik redelijk thuis ben in de onderwerpen. 792 00:47:55,240 --> 00:47:57,600 Dus dan is die efficiëntieslag snel gemaakt. 793 00:47:57,720 --> 00:48:03,760 Ik kan heel snel doorhebben of ChatGPT tegen me liegt, hallucineert... 794 00:48:03,880 --> 00:48:07,280 of dat het de juiste informatie is. 795 00:48:07,400 --> 00:48:10,320 Ik blijf zelf altijd een beetje worstelen met 'hallucineren'... 796 00:48:10,440 --> 00:48:16,680 want het is een algoritme dat gewoon probeert uit te spugen: 797 00:48:16,800 --> 00:48:19,120 dit is waarschijnlijk het antwoord dat het beste werkt. 798 00:48:19,240 --> 00:48:23,600 Dus het is een soort wiskundig sommetje. Statistiek is het. 799 00:48:23,720 --> 00:48:29,040 Wij denken dan 'hij hallucineert'. Het/zij/dinges. 800 00:48:29,160 --> 00:48:32,240 Het blijft ingewikkeld, want het is een apparaat wat dat betreft. 801 00:48:32,360 --> 00:48:34,080 SASKIA: Het enige wat ik daarin... 802 00:48:34,200 --> 00:48:37,920 Heel veel mensen vinden het spannend. 803 00:48:38,040 --> 00:48:42,560 Wat eigenlijk niemand precies weet, is hoe AI leert. 804 00:48:42,680 --> 00:48:49,840 Het is een statistiekmodel. Het kijkt: wat zijn de kansen en wat is het antwoord. 805 00:48:49,960 --> 00:48:51,680 Maar het leert ondertussen... 806 00:48:51,800 --> 00:48:57,120 Want Thimo geeft wel aan, en ik vind het belangrijk dat hij dat toevoegt: 807 00:48:57,240 --> 00:49:01,280 Ik weet waar het over gaat, dus ik kan zien dat-ie hallucineert. 808 00:49:01,400 --> 00:49:05,480 Dat vakmanschap van waar hij in is opgeleid... 809 00:49:05,600 --> 00:49:11,920 maar ook wat hij leert in de werkcontext bepaalt of hij daar goed mee om kan gaan. 810 00:49:12,040 --> 00:49:18,280 En als je nou een language model traint op een hele specifieke set data... 811 00:49:18,400 --> 00:49:20,120 dan zou het ook in staat moeten kunnen zijn... 812 00:49:20,240 --> 00:49:22,600 om iemand die nieuw is in het vakgebied juist te helpen... 813 00:49:22,720 --> 00:49:24,800 om sneller op een hoger kennisniveau te komen. 814 00:49:24,920 --> 00:49:26,760 Maar dan moet je dat wel expliciet zo inrichten. 815 00:49:26,880 --> 00:49:28,160 Ja, daarom zie je dat er... 816 00:49:28,280 --> 00:49:34,760 Radiologie is al heel lang een voorbeeld waarbij AI slimmer is dan de radioloog. 817 00:49:34,880 --> 00:49:36,840 Dus daar worden omgevingen gemaakt... 818 00:49:36,960 --> 00:49:40,400 waarbij alleen maar de kennis die radiologen ook hebben... 819 00:49:40,520 --> 00:49:42,120 in die omgeving staat. 820 00:49:42,240 --> 00:49:44,600 Dus dat is een afgescheiden omgeving. 821 00:49:44,720 --> 00:49:50,440 Dus ik verwacht dat je zo allerlei onderwerpen gaat krijgen... 822 00:49:50,560 --> 00:49:53,120 waar je ook als beleidsmedewerker zegt: 823 00:49:53,240 --> 00:49:56,040 Oké, ik moet nu iets weten over klimaat. Dan ga ik daarnaartoe. 824 00:49:56,160 --> 00:49:57,680 Ik moet nu iets weten de economie... 825 00:49:57,800 --> 00:50:01,880 LYKLE: Die AI-assistenten uit jouw plaatje hebben dan specifieke kennis. 826 00:50:02,000 --> 00:50:03,880 SASKIA: Ja. Daar waar wij ons vakmanschap hebben... 827 00:50:04,000 --> 00:50:10,000 zal AI dat ook gaan doen en gecontroleerd vanuit: klopt deze informatie? 828 00:50:10,120 --> 00:50:16,120 Maar daar zit ook wel heel veel werk en energie achter... 829 00:50:16,240 --> 00:50:20,000 want het is niet dat AI dat zomaar zelf ook weer bedenkt. 830 00:50:20,960 --> 00:50:23,840 Maar dat maakt het wel voor ons als maatschappij belangrijk... 831 00:50:23,960 --> 00:50:26,080 dat we het juiste doen. 832 00:50:27,280 --> 00:50:32,400 Christa, je liet het net al even vallen. Er komt een mooi AI-lab bij jullie. 833 00:50:32,520 --> 00:50:37,120 Wat doen jullie nog meer om de medewerkers AI... 834 00:50:37,240 --> 00:50:40,920 Hoe noemen we dat ook alweer. 'Literate' is de Engelse term. 835 00:50:41,040 --> 00:50:42,520 SASKIA: Geletterdheid. 836 00:50:42,640 --> 00:50:47,080 De AI-geletterdheid verhogen van jouw collega's. Hoe doen jullie dat? 837 00:50:47,720 --> 00:50:52,040 Nou, daar hebben we best veel interventies voor. 838 00:50:52,160 --> 00:50:55,640 Want ook ik gebruik AI als sparringspartner. 839 00:50:55,760 --> 00:50:58,280 LYKLE: Dus je bent ook megaproductief? (GELACH) 840 00:50:58,400 --> 00:51:02,280 Ja. Ik krijg er zeker geen minder werk door, maar wel meer energie... 841 00:51:02,400 --> 00:51:06,920 omdat het toch ook best wel lucratieve dingen kan bedenken. 842 00:51:07,040 --> 00:51:12,200 En een daarvan, dat is wel interessant, is een stripboekje. 843 00:51:12,320 --> 00:51:15,640 Het avontuur van de digicoach naar AI-geletterdheid. 844 00:51:15,760 --> 00:51:18,520 En voor alle duidelijkheid: dit ben ik. 845 00:51:18,640 --> 00:51:21,880 Maar dan gestripfiguurd. 846 00:51:22,000 --> 00:51:23,640 LYKLE: Goede schoenen. (GELACH) 847 00:51:23,760 --> 00:51:27,520 Die schoenen zijn nu uit beeld. 848 00:51:27,640 --> 00:51:30,520 Maar ik zocht een laagdrempelige manier om... 849 00:51:30,640 --> 00:51:32,120 De AI Act zegt het ook. 850 00:51:32,240 --> 00:51:35,240 Vanaf begin dit jaar moeten we iets doen aan AI-geletterdheid... 851 00:51:35,360 --> 00:51:37,600 als we met AI willen werken. 852 00:51:37,720 --> 00:51:42,760 En ik dacht: Hoe ga ik nou 17.000 medewerkers bereiken? 853 00:51:42,880 --> 00:51:48,840 Dus ik heb, in dat geval nog ChatGPT, gevraagd: Help. 854 00:51:48,960 --> 00:51:51,520 En toen kwam net inderdaad... 855 00:51:51,640 --> 00:51:54,280 Op LinkedIn werd je overspoeld met die stripfiguren. 856 00:51:54,400 --> 00:51:56,680 Toen dacht ik: O, zou dat wat zijn? 857 00:51:56,800 --> 00:51:59,800 Zo hebben we een stripboekje gemaakt. 858 00:51:59,920 --> 00:52:04,200 En daar staat van alles in: hoe herken je het? 859 00:52:04,320 --> 00:52:09,960 Ook bijvoorbeeld dat het niet altijd even slim is. 860 00:52:10,080 --> 00:52:12,560 Oftewel: de bias zit erin. 861 00:52:13,480 --> 00:52:18,040 En die hebben we aan 17.000 medewerkers per post verstuurd. 862 00:52:18,160 --> 00:52:21,840 Van plantsoenmedewerker tot aan directeur. 863 00:52:21,960 --> 00:52:26,160 En zelfs de gemeenteraad had interesse om een boekje te ontvangen. 864 00:52:26,280 --> 00:52:30,040 En inmiddels ook de sociale werkvoorziening, Rotterdam Inclusief. 865 00:52:30,160 --> 00:52:32,240 Daar hoor je toch eerste signalen van: 866 00:52:32,360 --> 00:52:35,680 wij willen misschien ook wel wat meer weten over AI. 867 00:52:37,000 --> 00:52:41,960 Ik heb een kleine sheet met een paar van die interventies die we doen. 868 00:52:42,960 --> 00:52:46,840 Want met Future Work Skills hadden we al een escaperoom. 869 00:52:46,960 --> 00:52:49,680 Die hebben we inmiddels doorontwikkeld. 870 00:52:49,800 --> 00:52:53,360 Dat was eerst op locatie. Een echte live escaperoom. 871 00:52:53,480 --> 00:52:56,200 Toen kwam de coronacrisis en hebben we die gedigitaliseerd. 872 00:52:56,320 --> 00:53:00,320 Toen hebben we ook een doorontwikkeling gemaakt naar Digitale Fitheid. 873 00:53:00,440 --> 00:53:03,520 En zo doen we inspiratiesessies, workshops. 874 00:53:03,640 --> 00:53:08,280 Inmiddels is een workshop 'promptvaardigheden' erbij gekomen. 875 00:53:09,200 --> 00:53:15,280 En de escaperoom is per 1 november gelanceerd, dus vorige week. 876 00:53:15,400 --> 00:53:18,080 De escaperoom 'Het geheim van AI'... 877 00:53:18,200 --> 00:53:22,720 waarin deelnemers met elkaar gaan puzzelen en samenwerken... 878 00:53:22,840 --> 00:53:27,280 om te ondervinden wat AI wel of niet is. 879 00:53:27,400 --> 00:53:33,360 En aan het einde heb je een aantal leerdoelen volbracht. 880 00:53:33,480 --> 00:53:37,720 LYKLE: Ik neem aan dat die escaperoom dus ook meteen volgeboekt zit? 881 00:53:39,240 --> 00:53:43,160 Ja, ik heb net gecommuniceerd, dus de eerste aanmeldingen zijn binnen. 882 00:53:43,280 --> 00:53:49,240 December komt eraan, dus het zal niet heel druk worden in de escaperooms. 883 00:53:49,360 --> 00:53:53,280 Maar de eerste aanmeldingen voor januari zijn inderdaad ook al binnen. 884 00:53:53,400 --> 00:53:54,760 Dus ik heb er zin in. 885 00:53:54,880 --> 00:53:59,400 Ik begeleid dat ook zelf, omdat daar ook het gesprek met elkaar wordt gevoerd. 886 00:53:59,520 --> 00:54:02,040 Niet zozeer tijdens het puzzelen zelf. 887 00:54:02,160 --> 00:54:05,080 Maar we hebben ook dan een aansluitend gesprek... 888 00:54:05,200 --> 00:54:09,360 waarin we gaan kijken: wat zegt dit nou allemaal voor jullie? 889 00:54:09,480 --> 00:54:14,320 En daarin willen we een 'teamvisie AI' gaan opstellen. 890 00:54:14,440 --> 00:54:20,520 Dat komt uit het boek van Kim Pot, Werk hand in hand met AI. 891 00:54:20,640 --> 00:54:25,640 Daar heb ik een webinar van gevolgd en zij had het over een teamkompas. 892 00:54:25,760 --> 00:54:27,720 Toen dacht ik: Dat is misschien wel handig... 893 00:54:27,840 --> 00:54:31,880 om als team met elkaar te gaan bespreken: 894 00:54:32,000 --> 00:54:34,440 wat heb je opgestoken van die escaperoom? 895 00:54:34,560 --> 00:54:37,240 Wat betekent het voor jullie werk? Wat zijn jullie normen en waarden? 896 00:54:37,360 --> 00:54:41,120 Waar wil je AI in gaan toepassen? En wat heb je dan nodig? 897 00:54:41,240 --> 00:54:47,600 Welke vaardigheden en kennis heb je nodig om het echt in je werk te gaan toepassen? 898 00:54:47,720 --> 00:54:48,920 LYKLE: Goed zo. 899 00:54:49,040 --> 00:54:52,440 Voor de kijkers. We zullen zoveel mogelijk van dat soort zaken... 900 00:54:52,560 --> 00:54:55,040 als linkjes bij elkaar vegen in een digitale goodiebag... 901 00:54:55,160 --> 00:55:01,400 zodat je ook later nog op zoek kunt gaan en de dingen voor jezelf kunt bekijken. 902 00:55:01,520 --> 00:55:07,520 Thimo, er blijft voor grotere organisaties nog steeds het aspect van governance. 903 00:55:07,640 --> 00:55:12,160 We kunnen wel leuk gaan uitproberen, maar Christa zegt niet voor niets: 904 00:55:12,280 --> 00:55:16,960 We gebruiken voorlopig de gratis versie van Copilot. Dan kan-ie nergens anders bij. 905 00:55:17,760 --> 00:55:20,560 Op welke manier gaat een organisatie straks besluiten... 906 00:55:20,680 --> 00:55:24,400 om data wel toegankelijk te maken voor dit soort toepassingen? 907 00:55:26,160 --> 00:55:28,200 Daar zijn verschillende antwoorden op te geven. 908 00:55:28,320 --> 00:55:30,400 Het is ook meer een vraag voor bedrijfsvoering... 909 00:55:30,520 --> 00:55:32,640 dan voor een beleidsmedewerker als ik. 910 00:55:32,760 --> 00:55:34,080 Wat ik wel weet... 911 00:55:34,200 --> 00:55:38,600 We zijn bezig met een traject om een chatfunctionaliteit te ontwikkelen... 912 00:55:38,720 --> 00:55:41,320 die zou moeten helpen met nota's schrijven. 913 00:55:41,440 --> 00:55:46,920 En daar heb je ook gewoon nota's nodig die je als goed beschouwt... 914 00:55:47,040 --> 00:55:53,160 om zo een andere chatbot weer te trainen hierop en goede nota's te helpen schrijven. 915 00:55:53,280 --> 00:55:54,600 Dan moet je heel simpel denken. 916 00:55:54,720 --> 00:55:59,440 Dit is voor beleidsmedewerkers, zeker bij EZ, KGG en LVVN... 917 00:55:59,560 --> 00:56:00,720 herkenbaar waarschijnlijk. 918 00:56:00,840 --> 00:56:08,080 De nota's gaan SIRIS in en je zorgt dat die goed bewaard worden. 919 00:56:08,200 --> 00:56:12,120 Af en toe vraag je je af waarvoor dat gebeurt, maar voor zo'n ontwikkeltraject... 920 00:56:12,240 --> 00:56:20,040 is het goed segmenteren en opslaan van deze data erg belangrijk. 921 00:56:21,200 --> 00:56:22,120 Dus dat. 922 00:56:22,240 --> 00:56:24,240 Yvonne geeft via de chat aan... 923 00:56:24,360 --> 00:56:27,480 dat binnen de Rijksoverheid, maar ook bij andere overheden... 924 00:56:27,600 --> 00:56:33,280 elke organisatie zo ongeveer z'n eigen AI-regels lijkt te hebben voor AI-gebruik. 925 00:56:33,400 --> 00:56:35,320 Heb jij daar een visie op? 926 00:56:36,840 --> 00:56:38,880 Zeker. 927 00:56:39,000 --> 00:56:44,040 Vanuit BZK wordt er vaak gekeken om dit iets meer te centraliseren. 928 00:56:44,160 --> 00:56:46,480 Daar zijn ze ook mee bezig. 929 00:56:46,600 --> 00:56:49,800 Ik weet bij EZ, ik weet niet hoe het zit bij de andere departementen... 930 00:56:49,920 --> 00:56:54,720 naast KGG, LVVN en EZ, dat er veel wordt besproken... 931 00:56:54,840 --> 00:57:02,040 maar dat nog steeds het beleid op AI niet hetzelfde is overal... 932 00:57:02,160 --> 00:57:05,720 en dat het ook nog niet zo zal zijn tot waarschijnlijk nog een paar maanden. 933 00:57:05,840 --> 00:57:07,360 Ik weet het niet precies. 934 00:57:07,480 --> 00:57:11,840 Maar het is ook afhankelijk van hoe snel we technisch vooruitgang kunnen boeken... 935 00:57:11,960 --> 00:57:14,440 want er zijn wel plannen om dit echt te centraliseren. 936 00:57:14,560 --> 00:57:15,440 LYKLE: Oké. 937 00:57:15,560 --> 00:57:18,960 En op het niveau van de Rijksoverheid lukt dat misschien ook wel. 938 00:57:19,080 --> 00:57:21,640 Kunnen gemeentes dat ook? 939 00:57:21,760 --> 00:57:24,560 Doen ze dat via de VNG? Hebben jullie daar idee van? 940 00:57:25,640 --> 00:57:27,040 THIMO: Dat weet ik niet. 941 00:57:27,160 --> 00:57:29,640 LYKLE: Dat moet ik ook niet aan jou vragen. Sorry, Thimo. 942 00:57:30,600 --> 00:57:35,040 Algemenere vraag van Kathleen aan ons allemaal. 943 00:57:35,160 --> 00:57:39,920 Delen jullie de zorg dat de kwaliteit van ChatGPT en andere AI-tools... 944 00:57:40,040 --> 00:57:41,920 langzaam zal afnemen... 945 00:57:42,040 --> 00:57:45,400 omdat de foute opties herhaald en daardoor versterkt worden? 946 00:57:45,520 --> 00:57:47,000 Wat denk jij, Saskia? 947 00:57:47,960 --> 00:57:50,160 Dat zie je nu wel al gebeuren. 948 00:57:50,280 --> 00:57:53,600 Er was een neergaande trend. 949 00:57:53,720 --> 00:57:55,520 Maar dat zie je toch wel weer toenemen... 950 00:57:55,640 --> 00:57:59,520 omdat wij zelf dus veel beter worden in die samenwerking... 951 00:57:59,640 --> 00:58:02,720 dus ook kritischer worden. 952 00:58:02,840 --> 00:58:08,480 Dat hallucineren was voorheen heel vaak aan de orde. Dat wordt veel minder... 953 00:58:08,600 --> 00:58:11,280 omdat wij het dus aan het opvoeden zijn. 954 00:58:12,280 --> 00:58:18,440 Maar nogmaals: het belangrijkste is dat wij zelf onze kennis daarvoor gebruiken... 955 00:58:18,560 --> 00:58:20,280 om dat te doen. 956 00:58:20,400 --> 00:58:21,440 Maar het zou kunnen. 957 00:58:21,560 --> 00:58:26,000 Als we allemaal denken 'het zal wel' en we doen allemaal de middelmaat. 958 00:58:26,120 --> 00:58:29,440 LYKLE: Dan is dat wat we krijgen. 959 00:58:29,560 --> 00:58:33,520 Het wordt bijna tijd om naar een afsluiting te gaan. 960 00:58:33,640 --> 00:58:36,920 AI is volop in ontwikkeling nog. 961 00:58:39,880 --> 00:58:44,600 Jouw en eigenlijk jullie advies is: probeer gewoon zoveel mogelijk uit. 962 00:58:44,720 --> 00:58:50,240 Pas het toe en creëer voor jezelf feedback- en reflectiemomenten... 963 00:58:50,360 --> 00:58:54,160 waarop je kunt zien: wat werkt wel, wat niet, hoe kan ik daarmee verder? 964 00:58:54,280 --> 00:58:59,760 Laat het niet gebeuren. Wees actief binnen de mogelijkheden die je hebt. 965 00:58:59,880 --> 00:59:05,160 Christa, heb jij een afsluitende tip voor de kijkers? 966 00:59:07,200 --> 00:59:11,320 Ja, ik denk dat het heel belangrijk is om te onthouden... 967 00:59:11,440 --> 00:59:15,200 dat de mens in dit geval de sleutel is tot succes. 968 00:59:15,320 --> 00:59:18,000 Het gaat wel hand in hand met AI... 969 00:59:18,120 --> 00:59:23,160 maar zonder de mens, het menselijk kritisch denken... 970 00:59:23,280 --> 00:59:25,440 denk ik dat we nog heel wat te doen hebben. 971 00:59:25,560 --> 00:59:28,080 Dus de mens is de sleutel tot succes. 972 00:59:28,200 --> 00:59:31,920 LYKLE: Dankjewel. Thimo, wat zou jouw tip zijn? 973 00:59:32,040 --> 00:59:36,200 THIMO: Ik zou dan toch in m'n eigen beleidsdomein een tip willen geven. 974 00:59:36,320 --> 00:59:37,640 Qua economische veiligheid... 975 00:59:37,760 --> 00:59:42,080 en in hoeverre zijn we afhankelijk van andere partijen op het gebied van AI? 976 00:59:42,200 --> 00:59:45,080 ChatGPT wordt heel vaak genoemd. Gemini van Google natuurlijk. 977 00:59:45,200 --> 00:59:48,080 Voornamelijk Amerikaanse chatbots worden genoemd. 978 00:59:48,200 --> 00:59:51,960 Ik zou mensen willen aansporen om Mistral te gebruiken, een Frans bedrijf. 979 00:59:52,080 --> 00:59:57,560 Een Franse chatbot. Die doet echt niet onder voor de Amerikaanse partijen. 980 00:59:57,680 --> 01:00:01,000 Dus dat zou mijn tip zijn. Daar zou ik iedereen voor willen aansporen. 981 01:00:01,120 --> 01:00:03,840 Koop het lokale waar, soort van. 982 01:00:03,960 --> 01:00:05,680 Sandra, jouw... -SASKIA: Saskia. 983 01:00:05,800 --> 01:00:08,200 Sorry, zei ik dat echt? SASKIA: Geeft niet. 984 01:00:08,320 --> 01:00:10,240 (GELACH) 985 01:00:10,360 --> 01:00:13,200 Voor mij, een beetje wat Christa zegt: de mens staat voorop. 986 01:00:13,320 --> 01:00:15,960 Dus betekenisvol werk is voor mij... 987 01:00:16,080 --> 01:00:21,080 De vraag zou voor mij niet zijn 'wat gaat AI doen?'... 988 01:00:21,200 --> 01:00:23,480 maar 'wat wil ik doen en hoe gaat AI mee daarin ondersteunen?' 989 01:00:23,600 --> 01:00:28,960 Dus als je nu een bepaald vakmanschap hebt, of je bent beleidsmedewerker... 990 01:00:29,080 --> 01:00:34,280 denk dan eerst na: wat is naar de toekomst toe beleidswerk... 991 01:00:34,400 --> 01:00:40,320 waar ik waarde toevoeg of waar mijn collega's waarde toevoegen? 992 01:00:40,440 --> 01:00:44,640 En dan vervolgens kijken: wat kan met AI? Want het mooie met deze technologie is... 993 01:00:44,760 --> 01:00:51,280 dat eigenlijk alles wel te bedenken valt en uit te voeren valt. Niet allemaal direct. 994 01:00:51,400 --> 01:00:54,200 Dus ga niet zitten wachten of denken: Ik begrijp het niet. 995 01:00:54,320 --> 01:00:59,360 Maar ga proactief nadenken over je vak en over je werk. 996 01:01:00,600 --> 01:01:03,520 En omdat ik toch in het hol van de leeuw zit: 997 01:01:03,640 --> 01:01:07,600 ik denk dat we sowieso met elkaar moeten nadenken wat werken nog is... 998 01:01:07,720 --> 01:01:09,080 naar de toekomst toe. 999 01:01:09,200 --> 01:01:13,560 Ik heb altijd een pleidooi voor een soort AI-taks. 1000 01:01:14,600 --> 01:01:17,400 Want als we straks, wat Thimo zegt... 1001 01:01:17,520 --> 01:01:20,920 in plaats van vijf dagen er twee dagen over doen... 1002 01:01:21,040 --> 01:01:23,840 gaan we dan straks allemaal dubbele banen krijgen? 1003 01:01:23,960 --> 01:01:25,320 Is dat dan de vraag? 1004 01:01:25,440 --> 01:01:28,400 Dus daarover nadenken voor jezelf, maar ook in de context van je werk. 1005 01:01:28,520 --> 01:01:31,800 Ik denk dat dat het uitgangspunt zou moeten zijn. 1006 01:01:31,920 --> 01:01:36,600 Dankjewel. Daarmee zijn we gekomen aan het einde van dit webinar. 1007 01:01:36,720 --> 01:01:38,800 Er komt nog één webinar aan in deze reeks. 1008 01:01:38,920 --> 01:01:43,120 Op 27 november hebben we het webinar over de reis naar resultaat met GenAI. 1009 01:01:43,240 --> 01:01:45,800 Dan gaan we heel concreet kijken naar dingen die gerealiseerd zijn... 1010 01:01:45,920 --> 01:01:47,680 en hoe dat gelukt is. 1011 01:01:47,800 --> 01:01:49,520 Eerder deden we al een webinar... 1012 01:01:49,640 --> 01:01:53,280 over het ethisch kompas bij de inzet van generatieve AI. 1013 01:01:53,400 --> 01:01:57,200 De link om dat terug te kunnen kijken zul je vinden in de digitale goodiebag... 1014 01:01:57,320 --> 01:02:00,080 die je gaat krijgen via de mail... 1015 01:02:00,200 --> 01:02:06,360 en die we later ook zullen ontsluiten bij de video's wanneer je die kunt terugkijken. 1016 01:02:06,480 --> 01:02:09,840 Rest mij om ICTU heel erg te bedanken dat we deze studio mochten gebruiken... 1017 01:02:09,960 --> 01:02:14,360 Joost en Elvin van Kraats AV te bedanken voor het bedienen van alle techniek... 1018 01:02:14,480 --> 01:02:17,000 mijn collega's Femke, Marijke, Damiët en Roy te bedanken... 1019 01:02:17,120 --> 01:02:19,320 voor het in de gaten houden van de chat... 1020 01:02:19,440 --> 01:02:22,840 en natuurlijk onze gasten: Saskia, Thimo, Christa. 1021 01:02:22,960 --> 01:02:25,160 Superfijn dat jullie de tijd hadden... 1022 01:02:25,280 --> 01:02:28,280 en dat jullie je kennis en ervaring wilden delen. 1023 01:02:28,400 --> 01:02:32,200 Wil je meer weten, lieve kijker, of de ervaringen van andere mensen horen... 1024 01:02:32,320 --> 01:02:36,560 dan kun je terecht op de website van RADIO in dit geval: 1025 01:02:36,680 --> 01:02:41,120 it-academieoverheid.nl. Maar de linkjes krijg je in de mail. 1026 01:02:41,240 --> 01:02:46,080 En daar zul je een pagina gaan vinden waar alles over deze webinars staat. 1027 01:02:46,200 --> 01:02:49,560 Heel erg bedankt. Jullie ook erg bedankt voor het kijken en alle vragen en reacties. 1028 01:02:49,680 --> 01:02:51,960 We hopen dat jullie er wijzer van geworden zijn. 1029 01:02:52,080 --> 01:02:55,560 En veel succes met het uitproberen en inzetten van generatieve AI. 1030 01:02:55,680 --> 01:02:59,640 En tot de volgende keer bij het volgende webinar. Dag. 1031 01:03:02,800 --> 01:03:13,960 ♪ RUSTIGE MUZIEK ♪