1 00:00:04,080 --> 00:00:05,880 Van harte welkom bij dit RADIO-webinar: 2 00:00:06,000 --> 00:00:09,000 Ethisch kompas bij de inzet van generatieve AI. 3 00:00:09,120 --> 00:00:11,520 Mijn naam is Lykle de Vries, en ik ben werkzaam bij RADIO... 4 00:00:11,640 --> 00:00:13,280 RijksAcademie voor Digitalisering... 5 00:00:13,400 --> 00:00:15,320 en Informatisering Overheid. 6 00:00:15,440 --> 00:00:16,760 En ons doel is om alle collega's... 7 00:00:16,880 --> 00:00:17,800 zonder IT-achtergrond... 8 00:00:17,920 --> 00:00:19,240 een beetje digitaal fitter... 9 00:00:19,360 --> 00:00:21,080 vaardiger en kundiger te krijgen. 10 00:00:21,200 --> 00:00:23,880 We hopen dat ook dit webinar daar weer een beetje bij helpt. 11 00:00:24,000 --> 00:00:25,320 Ik doe dat natuurlijk niet alleen... 12 00:00:25,440 --> 00:00:28,600 want ik zit in dit webinar met mensen met verstand van zaken. 13 00:00:28,720 --> 00:00:31,080 In dit geval zijn dat Daniël Tijink... 14 00:00:31,200 --> 00:00:33,960 programmamanager Ethiek en Digitalisering... 15 00:00:34,080 --> 00:00:36,200 bij het ECP, Platform voor de InformatieSamenleving... 16 00:00:36,320 --> 00:00:39,560 en auteur van 'De techniek staat voor iets'. 17 00:00:39,680 --> 00:00:41,800 Welkom, Daniël. Leuk dat je er bent. -Dankjewel. 18 00:00:41,920 --> 00:00:44,680 LYKLE: En Joris Krijger, AI-ethicus en ook auteur. 19 00:00:44,800 --> 00:00:48,040 Jij hebt ook een prachtig boek: Onze kunstmatige toekomst. 20 00:00:49,040 --> 00:00:53,240 Jullie gaan met mij praten over ethiek, de inzet van generatieve AI... 21 00:00:53,360 --> 00:00:55,560 en hoe dat handig kan. 22 00:00:55,680 --> 00:00:58,280 En jullie, beste kijkers, hopen er wat van op te steken... 23 00:00:58,400 --> 00:01:02,480 maar je bent ook van harte uitgenodigd om je vragen in de chat te stellen. 24 00:01:02,600 --> 00:01:05,440 Mijn collega's Femke, Damiët en Titus zitten daar klaar. 25 00:01:05,560 --> 00:01:08,680 Die zullen proberen om zoveel mogelijk van jullie vragen te beantwoorden... 26 00:01:08,800 --> 00:01:11,960 maar ze filteren ook de leukste en meest uitdagende vragen... 27 00:01:12,080 --> 00:01:16,760 die ik dan hier in de studio nog aan Daniël en Joris kan stellen. 28 00:01:18,200 --> 00:01:20,920 Uiteraard kun je dit webinar ook op een later moment nog terugkijken... 29 00:01:21,040 --> 00:01:23,960 maar dan lukt het je niet meer om in de chat vragen te stellen. 30 00:01:24,080 --> 00:01:26,400 Maar dat is maar even voor de volledigheid. 31 00:01:27,280 --> 00:01:29,360 Wij zijn eigenlijk wel benieuwd... 32 00:01:30,320 --> 00:01:32,080 waar jullie mee bezig zijn, lieve kijkers. 33 00:01:32,200 --> 00:01:34,920 Dus we hebben als eerste een vraag voor jullie. 34 00:01:35,040 --> 00:01:39,560 De eerste vraag is: heb jij al gebruikgemaakt van generatieve AI... 35 00:01:39,680 --> 00:01:41,960 in jouw werk voor de overheid? 36 00:01:44,240 --> 00:01:46,760 Als het goed is krijg je die nu in de interactie te zien... 37 00:01:46,880 --> 00:01:51,560 en dan krijgen wij zo de resultaten van jullie antwoorden te zien. 38 00:01:53,400 --> 00:01:56,360 Want het is natuurlijk ondertussen al lang niet meer nieuw. 39 00:01:56,480 --> 00:02:00,520 Het wordt al lang gebruikt. Daardoor kunnen we er met ervaring over praten vandaag. 40 00:02:00,640 --> 00:02:02,600 Maar wat zegt ons publiek? 41 00:02:02,720 --> 00:02:06,360 (STILTE) 42 00:02:06,480 --> 00:02:09,320 Hij loopt natuurlijk anderhalve minuut en dan zien we de resultaten. 43 00:02:09,440 --> 00:02:13,760 Dus we hebben ruim de tijd om jullie antwoorden te verzamelen. 44 00:02:14,720 --> 00:02:19,680 Wanneer was jouw moment, Daniël, dat je voor het eerste generatieve AI gebruikte? 45 00:02:19,800 --> 00:02:21,520 Niet per se voor de overheid. 46 00:02:21,640 --> 00:02:26,560 DANIËL: Ik denk bijna twee jaar geleden. 47 00:02:26,680 --> 00:02:27,880 Ik heb wel wat gebruikt... 48 00:02:28,000 --> 00:02:29,240 maar het was voor mij belangrijker... 49 00:02:29,360 --> 00:02:30,200 dat ik gevraagd werd... 50 00:02:30,320 --> 00:02:31,800 om bij anderen te kijken... 51 00:02:31,920 --> 00:02:32,720 hoe zij het gebruikten. 52 00:02:32,840 --> 00:02:36,560 Dus de overheid vroeg mij hoe dat ging in andere sectoren. Dus niet bij zichzelf. 53 00:02:36,680 --> 00:02:41,040 Toen ben ik bij de media geweest, RTL bijvoorbeeld, of bij een school... 54 00:02:41,160 --> 00:02:43,520 en toen hebben we gekeken: hoe wordt het daar gebruikt? 55 00:02:43,640 --> 00:02:45,320 LYKLE: Wel recent, hè? -Ja. 56 00:02:45,440 --> 00:02:47,400 LYKLE: Nou... 57 00:02:47,520 --> 00:02:50,160 70 procent van de mensen zegt: 'Ja hoor, dat heb ik al gedaan. 58 00:02:50,280 --> 00:02:54,120 Ik heb al generatieve AI gebruikt in mijn werk voor de overheid.' 59 00:02:54,240 --> 00:02:57,040 23 procent zegt: 'Nee, dat mag ik niet.' 60 00:02:57,160 --> 00:03:02,360 En de laatste groep van 7 procent zegt: 'Nee, dat durf ik nog niet.' 61 00:03:02,480 --> 00:03:06,800 Allebei twee hele voorspelbare en voorstelbare sentimenten. 62 00:03:06,920 --> 00:03:10,160 Er komt meteen een tweede vraag achteraan, lieve kijkers. 63 00:03:10,280 --> 00:03:13,360 Zou je de vorige vraag eigenlijk wel eerlijk beantwoorden? 64 00:03:15,560 --> 00:03:18,720 Want ik heb genoeg mensen om me heen gehoord... 65 00:03:18,840 --> 00:03:22,240 die de afgelopen jaren dachten: 'Ja, maar dat mag toch helemaal niet?' 66 00:03:22,360 --> 00:03:25,080 En als ze begrepen dat het wel mocht, maar onder voorwaarden... 67 00:03:25,200 --> 00:03:28,480 dat ze dachten: 'Ja, maar dat is allemaal zoveel werk, zo ingewikkeld. 68 00:03:28,600 --> 00:03:31,080 Dat kan ik niet overzien. 69 00:03:31,200 --> 00:03:33,840 Misschien dat ik het maar even niet aan de grote klok hang.' 70 00:03:35,520 --> 00:03:37,200 Ik zie nu de reacties lopen. 71 00:03:37,320 --> 00:03:42,520 De meerderheid van de mensen zegt: 'Ja hoor, ik zou hem eerlijk beantwoorden.' 72 00:03:43,520 --> 00:03:46,880 Ik had voor de zekerheid de optie 'Wat denk je zelf?' toegevoegd. 73 00:03:47,000 --> 00:03:49,600 Die wordt door 4 procent gebruikt. 74 00:03:49,720 --> 00:03:52,160 En 2 procent van de mensen is heel eerlijk... 75 00:03:52,280 --> 00:03:54,640 dat ze de vorige vraag niet eerlijk zouden beantwoorden: Nee. 76 00:03:54,760 --> 00:03:56,840 (GELACH) 77 00:03:56,960 --> 00:03:57,920 Voor wat het waard is. 78 00:03:58,040 --> 00:04:01,880 Want dat is het hele punt met ethiek, Daniël. 79 00:04:02,000 --> 00:04:06,200 Het gaat over wat je belangrijk vindt, wat je normen en waarden zijn... 80 00:04:06,320 --> 00:04:11,160 maar dit is ook nieuw en hip en iedereen heeft het erover. 81 00:04:11,280 --> 00:04:13,840 Er worden allerlei vergezichten bij geschetst. 82 00:04:15,000 --> 00:04:17,800 Hoe doen we dat eigenlijk: 83 00:04:17,920 --> 00:04:22,320 ethisch goed handelen bij inzet van technologie in z'n algemeenheid? 84 00:04:22,440 --> 00:04:23,880 Kun je een voorbeeld geven? 85 00:04:24,000 --> 00:04:27,720 We hebben voor dit webinar, misschien ook voor de drie als geheel, bedacht: 86 00:04:27,840 --> 00:04:31,320 'We gaan gewoon beginnen met een case, zodat we daar gevoel voor krijgen.' 87 00:04:31,440 --> 00:04:34,280 Want de vraag die je stelde is enorm. 88 00:04:34,400 --> 00:04:37,240 Daar proberen wij wat over te zeggen in dit webinar. 89 00:04:37,360 --> 00:04:40,760 Maar het is ook goed om te beginnen met iets dat er gewoon is. 90 00:04:40,880 --> 00:04:45,880 Zelf ben ik de maker van een bepaalde methode: de Aanpak Begeleidingsethiek. 91 00:04:46,000 --> 00:04:49,360 Ik wil eigenlijk die twee tegelijkertijd met jullie behandelen. 92 00:04:49,480 --> 00:04:52,400 Als het goed is komt zo een sheet in beeld van die methode. 93 00:04:52,520 --> 00:04:54,360 Die begint eigenlijk heel erg in de praktijk. 94 00:04:54,480 --> 00:04:56,600 De grote vragen laten we even de grote vragen. 95 00:04:56,720 --> 00:04:59,080 Maar we gaan toe naar een case. 96 00:04:59,200 --> 00:05:03,640 De case die ik heb, daar hebben we echt een sessie mee gehad. 97 00:05:03,760 --> 00:05:06,480 De sessie over begeleidingsethiek duurt ongeveer een dagdeel. 98 00:05:06,600 --> 00:05:08,600 Dus een middag of een ochtend. 99 00:05:08,720 --> 00:05:13,920 We waren te gast bij de Nederlandse Arbeidsinspectie... 100 00:05:14,040 --> 00:05:16,280 en die hadden een generieke AI-toepassing gemaakt... 101 00:05:16,400 --> 00:05:18,160 voor het ongevallen-handboek. 102 00:05:18,280 --> 00:05:24,000 Zij, de professionals, de inspecteurs, gebruiken een ongevallen-handboek... 103 00:05:24,120 --> 00:05:27,320 om te inspecteren wat er gebeurt bij een arbeidsongeval. 104 00:05:27,440 --> 00:05:30,800 Daarin staan dan adviezen, richtlijnen, wettelijke kaders. 105 00:05:30,920 --> 00:05:34,400 Tot nu toe was dat via een document. Dat kon je doorzoeken. 106 00:05:35,560 --> 00:05:37,080 Op het intranet stond dat ook. 107 00:05:37,200 --> 00:05:41,480 En nu hebben ze een demo gemaakt. Daar hebben we over gesproken. 108 00:05:41,600 --> 00:05:45,800 We merkten vanaf het begin: die is niet alleen te gebruiken voor ongevallen... 109 00:05:45,920 --> 00:05:48,800 maar ook voor allerlei andere dingen die ze daar doen, bijvoorbeeld: 110 00:05:48,920 --> 00:05:52,320 het beoordelen van inspectieformulieren of het schrijven van adviezen. 111 00:05:52,440 --> 00:05:56,800 Er is gekozen om deze case te maken omdat het helder en duidelijk was... 112 00:05:56,920 --> 00:05:59,880 maar ook als de meest veilige. 113 00:06:00,000 --> 00:06:03,240 Een relatief eenvoudige en veilige toepassing. 114 00:06:03,360 --> 00:06:04,480 Wat was er aan de hand? 115 00:06:04,600 --> 00:06:07,520 Er was een 'large language model', LLM, gebruikt... 116 00:06:07,640 --> 00:06:11,040 en daar was een toevoeging op gemaakt door de Nederlandse Arbeidsinspectie... 117 00:06:11,160 --> 00:06:12,920 op basis van dat handboek. 118 00:06:13,040 --> 00:06:15,360 Die werd ook gepresenteerd, van: hoe werkt dat? 119 00:06:15,480 --> 00:06:17,640 Je kunt een vraag intypen en je krijgt een antwoord terug. 120 00:06:17,760 --> 00:06:21,200 Dus aan de hand van een prompt krijg je antwoorden in het Nederlands... 121 00:06:21,320 --> 00:06:23,640 op basis van de kennis van dat handboek. 122 00:06:23,760 --> 00:06:26,960 Dat is waar we over gesproken hebben. 123 00:06:27,080 --> 00:06:30,640 Jullie zien nu een plaatje. Dat is de begeleidingsethiek. 124 00:06:30,760 --> 00:06:32,200 In principe is het altijd drie delen. 125 00:06:32,320 --> 00:06:35,680 We kijken naar de casus. Die heb ik net toegelicht. 126 00:06:35,800 --> 00:06:38,320 Daar kom ik zo nog op terug. Dan gaan we de dialoog aan met elkaar. 127 00:06:38,440 --> 00:06:41,960 En dan gaan we kijken: wat kunnen we doen? Wat zijn de handelingsopties? 128 00:06:42,080 --> 00:06:43,120 Nog even naar de case. 129 00:06:43,240 --> 00:06:47,040 Wat we hier zien, heel klein: er staat een technologie. 130 00:06:47,160 --> 00:06:51,600 Dat is die LLM, gemaakt met extra's vanuit het handboek door de NLA. 131 00:06:51,720 --> 00:06:55,880 En de context is de arbeidsinspectie en de mensen die ermee aan de slag moeten. 132 00:06:56,000 --> 00:06:58,640 Dus dat is dan voor nu helder. 133 00:06:58,760 --> 00:07:03,120 Normaal wordt dan toegelicht hoe het precies werkt. Dat laat ik nu even gaan. 134 00:07:03,240 --> 00:07:08,120 Tweede fase. Wie wordt er dan geraakt en wie is er betrokken? 135 00:07:08,240 --> 00:07:12,960 We hebben in de afgelopen jaren meer dan 100 van dit soort sessies gedaan... 136 00:07:13,080 --> 00:07:15,040 en geleerd dat er vier groepen zijn. 137 00:07:15,160 --> 00:07:20,600 De groep die op de een of andere manier daar last van heeft of blij van wordt... 138 00:07:20,720 --> 00:07:22,160 als eindgebruiker. 139 00:07:22,280 --> 00:07:24,320 Dat zijn misschien de geïnspecteerden hier... 140 00:07:24,440 --> 00:07:28,600 of de professionals, hier de inspecteurs. 141 00:07:28,720 --> 00:07:32,400 Dat kan ergens anders een politieman zijn of een verpleegster. 142 00:07:32,520 --> 00:07:34,640 Dat zijn de mensen die juist met die data bezig zijn. 143 00:07:34,760 --> 00:07:39,840 Hier heet dat Data Science Lab. Die heeft dat gemaakt in deze case. 144 00:07:39,960 --> 00:07:44,280 En alles rondom bestuur. De bestuurder, bijvoorbeeld de directeur-generaal... 145 00:07:44,400 --> 00:07:45,400 de hoogste bestuurder. 146 00:07:45,520 --> 00:07:48,040 Maar ook mensen die daaromheen in de staf zitten, over privacy... 147 00:07:48,160 --> 00:07:49,360 en dat soort partijen. 148 00:07:49,480 --> 00:07:55,080 Dus die zitten allemaal aan tafel, zodat we allemaal verschillende beelden krijgen. 149 00:07:55,200 --> 00:07:57,280 De volgende stap is: effecten. 150 00:07:57,400 --> 00:07:59,280 De vraag is: wat maakt het uit? 151 00:07:59,400 --> 00:08:05,400 Wat is het effect dat je dat ongevallen- handboek nu via een LLM hebt? 152 00:08:05,520 --> 00:08:06,960 Welke effecten heeft dat? 153 00:08:07,080 --> 00:08:09,840 Het heeft verschillende effecten op verschillende personen. 154 00:08:09,960 --> 00:08:12,440 We stellen die vraag altijd dubbel in de zin van: 155 00:08:12,560 --> 00:08:16,440 wat zijn de positieve effecten, hoe helpt dat, en wat zijn de negatieve effecten? 156 00:08:16,560 --> 00:08:21,040 Ik noem er een paar om het beeld te schetsen. 157 00:08:21,160 --> 00:08:25,560 Positieve effecten werden benoemd als: het maakt het werk makkelijker. 158 00:08:25,680 --> 00:08:27,840 Een concrete vraag leidt direct tot een concreet antwoord. 159 00:08:27,960 --> 00:08:31,040 Je hoeft niet te scrollen, dingen uit te zoeken. Je krijgt een antwoord. 160 00:08:31,160 --> 00:08:34,640 Ook werd gezegd: 'Dit levert een hele goede samenwerking op. 161 00:08:34,760 --> 00:08:37,080 Ik kan mijn dingen als inspecteur doen... 162 00:08:37,200 --> 00:08:40,520 en de generatieve AI pakt de dingen op waar generatieve AI goed in is.' 163 00:08:40,640 --> 00:08:42,840 En een laatste voorbeeld: 164 00:08:42,960 --> 00:08:45,640 Zo'n generatieve AI kan heel mooi laten zien hoe hij aan het antwoord komt. 165 00:08:45,760 --> 00:08:48,480 Welke wet er eigenlijk achter zit, enzovoort. 166 00:08:48,600 --> 00:08:53,600 Het leuke is dat dit antwoord ook op de negatieve lijst terechtkwam... 167 00:08:53,720 --> 00:08:56,640 want soms laat generatieve AI helemaal niet zien hoe hij dat doet... 168 00:08:56,760 --> 00:09:00,520 en hallucineert hij een beetje. Dus dat is een negatief effect. 169 00:09:00,640 --> 00:09:05,280 Sowieso is de vraag: hoe goed is generatieve AI? Hoe betrouwbaar? 170 00:09:05,400 --> 00:09:08,040 Maakt hij de onderscheiden die we willen maken? 171 00:09:08,160 --> 00:09:11,840 En ook: hoe raakt dat de Arbeidsinspectie? 172 00:09:11,960 --> 00:09:16,160 Als je weet dat je misschien door een AI wordt beoordeeld... 173 00:09:16,280 --> 00:09:19,880 ga je er dan anders naar kijken? Vind je het dan nog een betrouwbare organisatie? 174 00:09:20,000 --> 00:09:25,280 Tot slot, nog een laatste voorbeeld: het gebrek aan eigenaarschap. 175 00:09:25,400 --> 00:09:27,040 Dus je bent inspecteur. 176 00:09:27,160 --> 00:09:30,240 Wie gaat er nou eigenlijk over? Jij of dat ding? 177 00:09:30,360 --> 00:09:33,400 Voel jij je nog wel verbonden met het oordeel dat eruit komt? 178 00:09:33,520 --> 00:09:37,720 Dat is dan de input uit die effecten. Dat zijn er veel meer nog. 179 00:09:37,840 --> 00:09:41,480 Daarna vragen we ons af: wat zijn de waarden die erachter zitten? 180 00:09:41,600 --> 00:09:46,240 Dan is dit een hele bewuste, heldere stap tussen die effecten. 181 00:09:47,400 --> 00:09:52,520 Eigenlijk achter elk effect zit wel een waarde. 182 00:09:52,640 --> 00:09:56,040 Bijvoorbeeld als mensen zeggen 'Ik voel me gevolgd', dan is privacy een waarde... 183 00:09:56,160 --> 00:09:59,280 of 'Dat is niet eerlijk', dan is de waarde rechtvaardigheid. 184 00:09:59,400 --> 00:10:03,920 In dit geval zijn er vijf hoofdwaardes naar boven gekomen, van de 18. 185 00:10:04,040 --> 00:10:07,120 Arbeidsvreugde werd genoemd. Kan ik m'n werk nog wel met lol doen? 186 00:10:07,240 --> 00:10:09,640 De kwaliteit van de handhaving. Doen we het nog wel goed? 187 00:10:09,760 --> 00:10:12,480 Efficiëntie. Scheelt het geld, gaat het sneller? 188 00:10:12,600 --> 00:10:14,640 Vakmanschap. In hoeverre kunnen we dat vasthouden... 189 00:10:14,760 --> 00:10:17,960 ook als er niet meer geleerd wordt of anders geleerd wordt? 190 00:10:18,080 --> 00:10:20,360 En betrouwbaarheid. In hoeverre is dat model betrouwbaar... 191 00:10:20,480 --> 00:10:24,320 en in hoeverre zijn wij daarmee, als Arbeidsinspectie, betrouwbaar? 192 00:10:24,440 --> 00:10:26,040 Dan heb je dat. 193 00:10:26,160 --> 00:10:30,040 Dan gaan we naar de volgende fase. We hebben 'dialoog' gehad. 194 00:10:30,160 --> 00:10:33,840 LYKLE: Je vat het kort samen, maar dit zullen heel uitgebreide sessie zijn... 195 00:10:33,960 --> 00:10:35,840 omdat je ook afhankelijk van de context... 196 00:10:35,960 --> 00:10:39,000 heel veel verschillende mensen daarbij aan tafel wilt hebben. 197 00:10:39,120 --> 00:10:43,240 DANIËL: Het is echt belangrijk dat je goede, verschillende mensen krijgt. 198 00:10:43,360 --> 00:10:45,080 Er zijn allemaal trucs die we doen... 199 00:10:45,200 --> 00:10:49,120 maar onder andere dat iedereen de tijd krijgt om zijn ding te vertellen... 200 00:10:49,240 --> 00:10:54,160 dat iedereen gehoord wordt. Niet alleen zeggen, maar ook luisteren. 201 00:10:54,280 --> 00:10:56,840 Dat is ook belangrijk. Dat zal ik straks nog toelichten. 202 00:10:56,960 --> 00:10:59,440 Het is belangrijk dat je juist als manager ook hoort: 203 00:10:59,560 --> 00:11:02,640 wat is er bij de Inspectie of wat is er bij de geïnspecteerde? 204 00:11:02,760 --> 00:11:05,560 En daar komen altijd verrassingen uit. 205 00:11:05,680 --> 00:11:08,080 Ook dingen die je verwacht, maar ook altijd verrassingen. 206 00:11:08,200 --> 00:11:10,040 Dat is heel waardevol. 207 00:11:11,280 --> 00:11:16,520 In mijn hele simpele definitie van ethiek, is ethiek 'het goede doen'. 208 00:11:16,640 --> 00:11:19,200 In deze fase hebben we het goede voor elkaar. 209 00:11:19,320 --> 00:11:22,120 We weten welke waarden we in dit geval belangrijk vinden. 210 00:11:22,240 --> 00:11:23,480 Hoe gaan we dat nou doen? 211 00:11:23,600 --> 00:11:27,040 Daar hebben we een driedeling gemaakt. Je hebt ethische ruimte bij de technologie. 212 00:11:27,160 --> 00:11:29,360 Je kunt dat LLM op een bepaalde manier maken. 213 00:11:29,480 --> 00:11:30,720 Je kunt hem anders maken. 214 00:11:30,840 --> 00:11:34,240 Je kunt hem meer maken naar de waarden die wij belangrijk vinden. 215 00:11:34,360 --> 00:11:37,560 En je maakt afspraken. Ik heb het de omgeving van de technologie genoemd. 216 00:11:37,680 --> 00:11:41,320 Je maakt afspraken met elkaar dat je zegt: Hoe gaan we dat dan doen met elkaar? 217 00:11:41,440 --> 00:11:45,040 Dat kun je ook op een goede manier doen, volgens die waarden. 218 00:11:45,160 --> 00:11:48,040 Tot slot kun je nog als individu het wel of niet goed doen. 219 00:11:48,160 --> 00:11:50,400 Dan kun je denken aan opleiding en training... 220 00:11:50,520 --> 00:11:53,200 maar ook aan goed gedrag, bewustzijn. 221 00:11:53,320 --> 00:11:57,480 Je kunt de boel vernachelen, maar je kunt iets ook netjes behandelen. 222 00:11:57,600 --> 00:12:00,720 Dus op die drie terreinen zijn er handelingsopties. 223 00:12:00,840 --> 00:12:02,640 En ook die zijn genoemd. 224 00:12:02,760 --> 00:12:07,120 LYKLE: En is de groep in dialoog ook betrokken bij de handelingsopties? 225 00:12:07,240 --> 00:12:08,760 Ja, we splitsen dan de groep. 226 00:12:08,880 --> 00:12:11,840 We hebben een groep van 15 tot 20 mensen normaal gesproken. 227 00:12:11,960 --> 00:12:14,600 We splitsen dan per onderwerp, dus per technologie. 228 00:12:14,720 --> 00:12:16,320 Als ik hem even pak. 229 00:12:16,440 --> 00:12:20,440 In de technologie is bijvoorbeeld gezegd: 'Integreer ook voice. 230 00:12:20,560 --> 00:12:23,960 Dat is handig. Dan kan ik ook praten in plaats van dat ik steeds moet lezen.' 231 00:12:24,080 --> 00:12:26,480 Maar ook: doe een test onder inspecteurs. 232 00:12:26,600 --> 00:12:30,160 De helft gebruikt het wel, de ander gebruikt het niet: de A/B-test. 233 00:12:30,280 --> 00:12:32,960 En hoe werkt-ie dan en wat maakt dat goed? 234 00:12:33,080 --> 00:12:36,600 En eigenlijk ook: pak het uitgangspunt dat het een assistent is... 235 00:12:36,720 --> 00:12:38,000 en niet de inspecteur zelf. 236 00:12:38,120 --> 00:12:40,240 Dat het een hulp is en niet iets anders. 237 00:12:40,360 --> 00:12:43,120 Dat kwam bijvoorbeeld uit die technologiegroep. 238 00:12:43,240 --> 00:12:45,520 En die omgevingsgroep zei: 239 00:12:46,360 --> 00:12:49,320 'Mensen zijn anders, dus mensen zullen ook anders prompten.' 240 00:12:49,440 --> 00:12:52,080 Hoe gaan we daarmee om? Is dat juist de bedoeling of niet? 241 00:12:52,200 --> 00:12:55,360 En hoe gaat die AI zich daar dan weer op aanpassen, of niet? 242 00:12:56,800 --> 00:12:58,600 En zorg ook dat je checkt op echte efficiëntie. 243 00:12:58,720 --> 00:13:02,800 Niet 'is die vraag sneller beantwoord?', maar 'wat doet het met het hele systeem?' 244 00:13:03,760 --> 00:13:06,120 En ook werd nog gezegd: 245 00:13:07,880 --> 00:13:10,480 Zorg ook dat je heel goed een feedbacksysteem maakt. 246 00:13:10,600 --> 00:13:11,800 Wat doet het nou met inspecteurs? 247 00:13:11,920 --> 00:13:15,000 Maakt het mensen gelukkig? Welke wel en welke niet? 248 00:13:15,120 --> 00:13:17,080 Hoe gaat dat en wat doet dat met het werk? 249 00:13:17,200 --> 00:13:20,760 Dat zijn bijvoorbeeld dingen die uit die tweede groep kwamen. 250 00:13:20,880 --> 00:13:22,120 Nog even naar de derde. 251 00:13:22,240 --> 00:13:25,800 Dan is ook de basisvraag: wat maakt wie nou blij? 252 00:13:25,920 --> 00:13:30,520 Wat is nou de behoefte van de gebruiker of verschillende soorten gebruikers? 253 00:13:30,640 --> 00:13:34,600 Ook werd gezegd: Als je het doet, maak het onderdeel van opleidingstrajecten. 254 00:13:34,720 --> 00:13:37,560 Zorg dat het vanzelfsprekend erbij hoort. 255 00:13:37,680 --> 00:13:39,120 En ook nog wel een aardige: 256 00:13:39,240 --> 00:13:42,000 Als je dat echt wil doen, zorg dan ook dat je ambassadeurs hebt... 257 00:13:42,120 --> 00:13:45,400 want geen enkele technologie gaat vanzelf, niet alle mensen zijn even snel. 258 00:13:45,520 --> 00:13:50,000 Dus als je het netjes doet, zorg dan dat die ambassadeurs snappen waar het om gaat... 259 00:13:50,120 --> 00:13:51,320 weten waar we naartoe willen... 260 00:13:51,440 --> 00:13:55,240 en laat die helpen om het project een succes te maken. 261 00:13:55,360 --> 00:13:56,920 En tot slot: de menselijke maat. 262 00:13:57,040 --> 00:14:00,760 Altijd. Laat de mens uiteindelijk oordelen over wat er gebeurt. 263 00:14:00,880 --> 00:14:03,720 Dat is heel snel. Overal heb ik iets uit geplukt. 264 00:14:03,840 --> 00:14:06,040 Er is veel meer gezegd in al die groepen. 265 00:14:06,160 --> 00:14:10,120 Maar zo loopt zo'n Aanpak Begeleidingsethiek-sessie. 266 00:14:10,240 --> 00:14:12,120 LYKLE: Precies. Dat is een korte samenvatting. 267 00:14:12,240 --> 00:14:16,520 In de digitale goodiebag die jullie als kijkers ook krijgen... 268 00:14:16,640 --> 00:14:19,520 zit een linkje naar het hele verslag van deze workshop... 269 00:14:19,640 --> 00:14:21,440 waar alle details ook in staan. 270 00:14:21,560 --> 00:14:23,680 Maar in de basis is het: 271 00:14:25,000 --> 00:14:29,320 Niet hard in je eentje vooruitrennen, maar pauzeren en bedenken: 272 00:14:29,440 --> 00:14:35,400 Wie zijn hierbij betrokken? En met die mensen een open gesprek aangaan. 273 00:14:35,520 --> 00:14:38,120 Grotendeels helemaal eens. 274 00:14:39,160 --> 00:14:42,240 DANIËL: Ik mag er straks nog iets meer overkoepelend over zeggen... 275 00:14:42,360 --> 00:14:44,240 maar het is deels wel weer een manier... 276 00:14:44,360 --> 00:14:46,400 om dat wel wat sneller te doen dan we gewend zijn. 277 00:14:46,520 --> 00:14:49,520 Dus als je zegt: 'We maken een pas op de plaats.' Uitstekend. 278 00:14:49,640 --> 00:14:51,960 Maar sommige passen op de plaats zijn voor mij zo lang geworden... 279 00:14:52,080 --> 00:14:55,840 dat je de plaats verloren bent. 280 00:14:55,960 --> 00:14:58,640 Ik zoek een betere metafoor, maar in ieder geval: 281 00:14:58,760 --> 00:15:01,120 dit is niet een heel juridisch traject dat je doorgaat. 282 00:15:01,240 --> 00:15:04,000 Dus het is wel een pas op de plaats, maar met elkaar en relatief vlot... 283 00:15:04,120 --> 00:15:07,520 en dat kun je dus nog een keer doen, en nog een keer, zonder heel veel gedoe. 284 00:15:07,640 --> 00:15:10,920 LYKLE: Iemand die zegt: 'We hebben hier geen tijd voor, want de ander gaat zo snel'... 285 00:15:11,040 --> 00:15:14,320 daar kun je zeggen: 'Dit is in de tijd best een compacte manier... 286 00:15:14,440 --> 00:15:20,840 om toch veel beter alle aspecten die aan de orde horen te komen... 287 00:15:20,960 --> 00:15:21,840 een podium te geven.' 288 00:15:21,960 --> 00:15:24,960 En als laatste: ik heb ook wel een keer teruggekregen van iemand: 289 00:15:25,080 --> 00:15:26,600 'Dit scheelt ons acht overleggen... 290 00:15:26,720 --> 00:15:30,400 want nu zitten we met z'n allen bij elkaar en in één keer is dat heel snel gedaan.' 291 00:15:30,520 --> 00:15:32,920 Dus dat tijdsargument is hier eigenlijk... 292 00:15:33,040 --> 00:15:37,920 LYKLE: Tijd, en dan hoor ik ook geld en de kosten die het allemaal heeft. 293 00:15:38,040 --> 00:15:42,800 Fijn, dank. We komen straks nog in wat meer detail terug op dat model. 294 00:15:42,920 --> 00:15:44,360 Joris, ik ga bijna naar jou toe... 295 00:15:44,480 --> 00:15:49,360 maar eigenlijk wil ik dan eerst het publiek een stelling laten beantwoorden. 296 00:15:49,480 --> 00:15:52,800 De eerste stelling die ik voor jullie heb... 297 00:15:52,920 --> 00:15:58,920 is: verantwoorde AI is voldoende geborgd in mijn organisatie. 298 00:15:59,040 --> 00:16:01,720 Ben je het daarmee eens, oneens... 299 00:16:02,600 --> 00:16:04,960 of kies je voor de derde optie? 300 00:16:08,360 --> 00:16:13,600 Ik was niet zo lang geleden bij de Tweede Kamer over AI en het gebruik daarvan. 301 00:16:13,720 --> 00:16:19,000 En de griffier zei: 'Vorig jaar, 2024, won Nederland op Europees niveau... 302 00:16:19,120 --> 00:16:22,480 de prijs voor het beste beleid op het gebied van AI. 303 00:16:23,480 --> 00:16:27,040 Maar we bungelen achteraan in de daadwerkelijke toepassing.' 304 00:16:27,160 --> 00:16:30,040 Dat is misschien een voorbeeld van die pas op de plaats die uit de hand loopt. 305 00:16:30,160 --> 00:16:34,640 Dat je alles probeert door te denken voordat je de volgende stap zet. 306 00:16:34,760 --> 00:16:36,360 DANIËL: Dat denk ik ook. 307 00:16:36,480 --> 00:16:38,400 Je kijkt naar mij, dus ik beantwoord hem. 308 00:16:38,520 --> 00:16:42,440 Ik denk dat we inderdaad heel vroeg begonnen zijn en heel goed. 309 00:16:42,560 --> 00:16:48,440 We hebben ook daaraan mogen bijdragen, gekeken naar een praktische wijsheid. 310 00:16:48,560 --> 00:16:51,920 Maar inderdaad, soms zet het een rem op dingen terwijl dat ook weer niet nodig is... 311 00:16:52,040 --> 00:16:54,760 en dat dat zonde is. 312 00:16:54,880 --> 00:16:56,800 De antwoorden zijn binnen. 313 00:16:56,920 --> 00:17:01,520 Er is een groep van 8 procent die zegt: 'Ja, het is bij ons wel geborgd.' 314 00:17:01,640 --> 00:17:04,760 Maar de andere twee groepen, die 'Nee' en 'Weet ik niet' zeggen... 315 00:17:04,880 --> 00:17:07,800 die zijn samen toch wel significant groot. 316 00:17:08,800 --> 00:17:16,000 Joris, is dit wat jouw betreft een accurate weergave voor de stand van zaken... 317 00:17:16,120 --> 00:17:18,440 in besturend en ondernemend Nederland? 318 00:17:18,560 --> 00:17:21,080 Dat durf ik niet te zeggen, maar het is niet raar. 319 00:17:21,200 --> 00:17:22,360 Ik kom dat vaker tegen. 320 00:17:22,480 --> 00:17:24,920 En het is ook helemaal niet gek. 321 00:17:25,040 --> 00:17:26,240 Wat je ziet in de onderzoeken... 322 00:17:26,360 --> 00:17:27,440 naar verantwoorde AI... 323 00:17:27,560 --> 00:17:31,120 en hoe breng je dat nou in de praktijk, we hebben het hier over ethiek en GenAI... 324 00:17:31,240 --> 00:17:36,000 is dat er heel veel hoog-over frameworks zijn en uitgangspunten voor principes... 325 00:17:36,120 --> 00:17:38,560 maar in elk onderzoek zie je dat die heel lastig hun weg vinden... 326 00:17:38,680 --> 00:17:41,920 naar daadwerkelijk de organisatiepraktijk. 327 00:17:42,040 --> 00:17:47,040 En dat is iets wat mij intrigeerde, waar mijn onderzoek en boek over gaat: 328 00:17:47,160 --> 00:17:51,240 hoe zorgen we nou dat we van die kloof af komen tussen de principes... 329 00:17:51,360 --> 00:17:53,800 waarin we allemaal uitspreken het goede te willen doen... 330 00:17:53,920 --> 00:17:57,400 naar daadwerkelijk ook die systemen op een verantwoorde manier gebruiken. 331 00:17:57,520 --> 00:17:59,760 Deze bevindingen zitten helemaal in de lijn waar we nu op zitten. 332 00:17:59,880 --> 00:18:01,280 Er is wel een soort bewustzijn... 333 00:18:01,400 --> 00:18:04,040 maar als je vraagt: 'Heb je het goed geregeld in je organisatie?'... 334 00:18:04,160 --> 00:18:07,880 dan zeggen mensen: 'Dat denk ik toch niet.' Dat zie je hier ook terug. 335 00:18:08,000 --> 00:18:10,760 En is dat dan omdat ze het ook nog niet geregeld hebben... 336 00:18:10,880 --> 00:18:14,560 of omdat het binnen de organisatie nog niet genoeg bekend is? 337 00:18:14,680 --> 00:18:19,640 Mijn lezing daarvan, en daar kunnen we de slide ook voor op het scherm zetten... 338 00:18:19,760 --> 00:18:24,960 is dat we heel vaak naar die technologie kijken... 339 00:18:25,080 --> 00:18:28,840 en dat als we daarnaar kijken ofwel nadenken over... 340 00:18:28,960 --> 00:18:33,240 het stukje techniek en ontwerp waar Daniël het over had. 341 00:18:33,360 --> 00:18:35,240 Ik zie dat de slides een beetje achterblijven. 342 00:18:35,360 --> 00:18:39,320 LYKLE: Ik doe het zelf verkeerd, maar ik wou hier zijn. Dankjewel. 343 00:18:39,440 --> 00:18:41,560 Ja, perfect. 344 00:18:41,680 --> 00:18:44,120 Dat we ofwel naar de techniek kijken... 345 00:18:44,240 --> 00:18:46,880 ofwel kijken naar de context en de waarden die we mee willen geven. 346 00:18:47,000 --> 00:18:49,120 Dan hebben we een mooi beleidskader of een manifest. 347 00:18:49,240 --> 00:18:53,080 Maar wat we eigenlijk vergeten in die stappen is de organisatie daaromheen. 348 00:18:53,200 --> 00:18:56,600 Ik werk nu zes jaar voor ASN Bank. Ik doe zes jaar onderzoek bij organisaties: 349 00:18:56,720 --> 00:18:58,960 hoe gaan ze om met verantwoorde AI? 350 00:18:59,080 --> 00:19:02,200 Ik heb gemerkt dat die organisatie een cruciale link is... 351 00:19:02,320 --> 00:19:04,480 tussen de waarden die je met elkaar ambieert... 352 00:19:04,600 --> 00:19:06,400 en de manier waarop je die technologie inzet. 353 00:19:06,520 --> 00:19:09,640 Zo'n ontwerpsessie als begeleidingsethiek is hartstikke belangrijk om te hebben... 354 00:19:09,760 --> 00:19:12,600 maar wat je wilt, is dat het goede gesprek structureel gevoerd wordt... 355 00:19:12,720 --> 00:19:16,080 en dat iedereen die daar iets in te zeggen heeft of iets in te doen heeft... 356 00:19:16,200 --> 00:19:17,960 ook betrokken is en een stem heeft. 357 00:19:18,080 --> 00:19:20,160 En dat organiseren, daar zijn we vaak nog niet. 358 00:19:20,280 --> 00:19:22,640 Dus we hebben het bewustzijn van: die technologie komt eraan. 359 00:19:22,760 --> 00:19:25,240 Aan het begin zeiden mensen ook: 'Ik gebruik het wel'... 360 00:19:25,360 --> 00:19:27,080 of 'Ik vind het toch te spannend'. 361 00:19:27,200 --> 00:19:28,640 Dat gevoel hebben we allemaal wel. 362 00:19:28,760 --> 00:19:31,080 Maar om dat op organisatieniveau vorm te geven... 363 00:19:31,200 --> 00:19:33,520 daar moeten we nog een stap voor zetten. 364 00:19:33,640 --> 00:19:37,800 Als je dat hebt onderzocht, heb je ook ideeën over hoe dat beter kan. 365 00:19:37,920 --> 00:19:41,160 JORIS: Absoluut. En waar wij op uit zijn gekomen, dat is de volgende slide. 366 00:19:41,280 --> 00:19:44,720 Fingers crossed dat hij gewoon normaal op het scherm komt. 367 00:19:44,840 --> 00:19:46,600 LYKLE: Ik laat het aan de techniek. 368 00:19:46,720 --> 00:19:51,200 Wat wij gezegd hebben, is als je kijkt naar organisaties die dit goed doen... 369 00:19:51,320 --> 00:19:54,320 dat hebben we 'ethische volwassenheid' rond AI genoemd... 370 00:19:54,440 --> 00:19:56,400 dan zie je dat ze dingen hebben ingeregeld. 371 00:19:56,520 --> 00:19:59,280 Dit is helemaal vanuit organisatieperspectief bedacht... 372 00:19:59,400 --> 00:20:00,520 dus het gaat niet over: 373 00:20:00,640 --> 00:20:04,360 heb je privacy als waarde wel meegenomen, of fairness of bias? 374 00:20:04,480 --> 00:20:07,040 Dit gaat over: welke bouwstenen heb je in je organisatie... 375 00:20:07,160 --> 00:20:11,080 om te zorgen dat je op structurele manier over die ethiek van AI nadenkt. 376 00:20:11,200 --> 00:20:13,360 Dan kom je bij thema's als awareness en culture. 377 00:20:13,480 --> 00:20:16,960 Wordt er ruimte voor gemaakt in je organisatie of is het heel gefragmenteerd? 378 00:20:17,080 --> 00:20:19,000 Zijn er een paar mensen die hier iets van weten... 379 00:20:19,120 --> 00:20:21,160 maar die weten niet van elkaar dat ze hiermee bezig zijn? 380 00:20:21,280 --> 00:20:23,720 Het management geeft er geen ruimte voor, enzovoort. 381 00:20:23,840 --> 00:20:25,560 Dan heb je het over beleid en kaders. 382 00:20:25,680 --> 00:20:29,360 Heb je goede uitgangspunten, goede waarden geformuleerd? 383 00:20:29,480 --> 00:20:30,800 Dan heb je het over governance. 384 00:20:30,920 --> 00:20:35,120 Dus heb je toetsmomenten bijvoorbeeld? Daar kan begeleidingsethiek een van zijn. 385 00:20:35,240 --> 00:20:37,960 Heb je een goed toetsmoment om te kijken: hoe gaan we hiermee verder? 386 00:20:38,080 --> 00:20:40,920 Dan heb je het stuk communicatie en training. 387 00:20:41,040 --> 00:20:43,400 Communiceren we intern dat we ook de maatschappelijke aspecten... 388 00:20:43,520 --> 00:20:45,320 van deze technologie belangrijk vinden? 389 00:20:45,440 --> 00:20:47,680 Leiden we niet alleen de mensen in de uitvoering goed op... 390 00:20:47,800 --> 00:20:50,760 maar ook bijvoorbeeld de managers of het bestuur? 391 00:20:50,880 --> 00:20:52,880 Zodat ze weten: Als we met deze technologie aan de slag gaan... 392 00:20:53,000 --> 00:20:55,800 komen er dilemma's op ons bord waar we iets van moeten gaan vinden. 393 00:20:55,920 --> 00:20:58,640 Dan heb je het stukje ontwikkel- en inkoopprocessen. 394 00:20:58,760 --> 00:21:01,640 Hoe zorg je ervoor dat zo'n ethische reflectie... 395 00:21:01,760 --> 00:21:04,400 niet een soort ad hoc, eenmalige toets is, helemaal aan het einde... 396 00:21:04,520 --> 00:21:07,000 voordat je iets gaat inkopen of iets gaat gebruiken... 397 00:21:07,120 --> 00:21:10,480 maar dat in het hele proces de hele levenscyclus van zo'n model... 398 00:21:10,600 --> 00:21:12,720 je de vraag blijft stellen: Past dit bij onze waarden? 399 00:21:12,840 --> 00:21:15,080 En de laatste is instrumenten of tooling. 400 00:21:15,200 --> 00:21:17,320 Daar kan begeleidingsethiek ook een onderdeel van zijn. 401 00:21:17,440 --> 00:21:22,160 Heb je methodieken, Mensenrechten Impact Assessment, een bias-toets... 402 00:21:22,280 --> 00:21:25,280 om dit ook bespreekbaar te maken en op tafel te krijgen? 403 00:21:25,400 --> 00:21:27,840 Misschien nog een laatste puntje. 404 00:21:27,960 --> 00:21:31,640 Wat ik heel vaak zie bij organisaties is dat ze op een aantal dimensies... 405 00:21:31,760 --> 00:21:33,160 goede stappen aan het zetten zijn... 406 00:21:33,280 --> 00:21:35,640 maar dat ook een aantal dimensies nog blinde vlekken zijn. 407 00:21:35,760 --> 00:21:38,240 Het verhaal is: je moet het holistisch aanpakken. 408 00:21:38,360 --> 00:21:41,200 Dus wil je volwassen worden, moet je op alle zes dimensies stappen zetten. 409 00:21:41,320 --> 00:21:44,000 LYKLE: Ik hoor je van alles noemen wat op het niveau van de overheid... 410 00:21:44,120 --> 00:21:45,600 al wat langer voorhanden is. 411 00:21:45,720 --> 00:21:50,520 We hebben allerlei soorten assessments op het gebied van privacy en dergelijke... 412 00:21:50,640 --> 00:21:51,840 al langer. 413 00:21:51,960 --> 00:21:58,520 Toen de AI-tools zich aandienden, waren er vrij vlot assessments op dat vlak. 414 00:21:59,320 --> 00:22:01,920 Maar dat zijn meer de losse onderdelen... 415 00:22:02,040 --> 00:22:07,520 en in de praktijk voelt het misschien nog wel te vaak als: 416 00:22:07,640 --> 00:22:11,640 'Laten we dan deze keer begeleidingsethiek doen.' 417 00:22:11,760 --> 00:22:12,720 Als een soort extra... 418 00:22:12,840 --> 00:22:17,600 in plaats van dat het meer fundamenteel onderdeel is van het handelen dat je zegt: 419 00:22:17,720 --> 00:22:21,920 'Over dit nieuwe idee moeten we met mensen een goed gesprek voeren.' 420 00:22:22,040 --> 00:22:24,960 Exact. Proportionaliteit is daarin heel belangrijk. 421 00:22:25,080 --> 00:22:29,400 Ik denk dat elke organisatie herkent dat er nu allerlei AI-toepassingen verschijnen. 422 00:22:29,520 --> 00:22:32,160 Ook bestaande producten en services die ze gebruiken... 423 00:22:32,280 --> 00:22:35,800 waar ineens Copilot in zit als je met Microsoft werkt. 424 00:22:35,920 --> 00:22:40,040 Dus om te zorgen dat je voor de juiste toepassingen de juiste afwegingen maakt... 425 00:22:40,160 --> 00:22:42,400 moet je zorgen dat die ethiek structureel is ingebed... 426 00:22:42,520 --> 00:22:46,440 en niet: 'Laten we nu eens een mensenrechtentoets doen.' 427 00:22:46,560 --> 00:22:50,160 Maar zorgen dat naast die toetsen je een goed proces hebt, goed beleid hebt. 428 00:22:50,280 --> 00:22:52,520 Dus dat je alles in samenhang benadert... 429 00:22:52,640 --> 00:22:55,280 in plaats van losse onderdeeltjes waar je wat op doet. 430 00:22:56,760 --> 00:23:00,000 LYKLE: Hoe weet een organisatie of ze dat al een beetje kunnen? 431 00:23:00,120 --> 00:23:05,240 Hoe kan een organisatie een medewerker vertellen hoe goed ze er al in zijn? 432 00:23:05,360 --> 00:23:08,560 Je kunt dit toetsen. Dit is onderdeel van een volwassenheidsmodel. 433 00:23:08,680 --> 00:23:10,000 Dus je kunt kijken: waar staan we? 434 00:23:10,120 --> 00:23:12,680 Van niveau 1, volledig gefragmenteerd, niks aanwezig... 435 00:23:12,800 --> 00:23:15,640 tot 5, volledig geïntegreerd en business as usual. 436 00:23:15,760 --> 00:23:18,080 Dan kun je op die manier niet alleen toetsen waar je staat... 437 00:23:18,200 --> 00:23:21,240 maar ook bepalen: waar zouden we moeten zijn volgend jaar? 438 00:23:21,360 --> 00:23:24,600 Het is ook een soort strategisch middel om te kijken: waar moeten we op inzetten... 439 00:23:24,720 --> 00:23:27,160 eigenaarschap aan gaan toekennen, enzovoort. 440 00:23:27,880 --> 00:23:31,440 Wordt dat volwassenheidsmodel al toegepast? Zie je dat al gebruikt worden? 441 00:23:31,560 --> 00:23:34,840 We hebben vorig jaar een mooie pilot gedaan met elf onderwijsinstellingen. 442 00:23:34,960 --> 00:23:39,440 Met SURF samen was dat. Met mbo's, hbo's en wo's. 443 00:23:39,560 --> 00:23:41,440 En onderwijs is een interessante sector... 444 00:23:41,560 --> 00:23:44,720 want die worden op allerlei manieren geraakt door kunstmatige intelligentie. 445 00:23:44,840 --> 00:23:47,760 Studenten die hun thesissen en essays ermee schrijven... 446 00:23:47,880 --> 00:23:51,960 maar ook docenten die het willen inzetten voor lesvoorbereiding. 447 00:23:52,080 --> 00:23:54,880 Daar hebben we gekeken: is dit model geschikt... 448 00:23:55,000 --> 00:23:58,120 om onderwijsinstellingen inzicht te geven in waar ze staan? 449 00:23:58,240 --> 00:23:59,800 En waar staan ze daadwerkelijk? 450 00:23:59,920 --> 00:24:03,480 Daar kwam uit dat het heel goed helpt bij het verbinden van mensen intern... 451 00:24:03,600 --> 00:24:08,040 en het schetsen van de prioriteiten die de organisatie zou moeten hebben. 452 00:24:08,160 --> 00:24:12,160 En ook dat onderwijsinstellingen nog niet heel ver zijn in die volwassenheid... 453 00:24:12,280 --> 00:24:15,160 wat niet gek is gegeven de complexiteit van het onderwerp. 454 00:24:15,280 --> 00:24:17,880 Daar komt heel duidelijk uit: werk aan de winkel. 455 00:24:18,000 --> 00:24:23,120 LYKLE: Daniël, herken jij dit in de praktijk? Zijn er 'clubs' waar je langskomt... 456 00:24:23,240 --> 00:24:28,200 waarvan je merkt: hier gaat het makkelijker en zijn ze veel meer eraan gewend. 457 00:24:28,320 --> 00:24:30,880 DANIËL: Jazeker, dat herken ik wel. 458 00:24:33,080 --> 00:24:36,600 Soms doen we een eenmalige actie, een sessie. 459 00:24:36,720 --> 00:24:39,880 Soms doen we dingen op overheidsniveau, maar ook op organisatieniveau. 460 00:24:40,000 --> 00:24:42,320 Dan merk ik dat we een aantal partijen hebben die zeggen: 461 00:24:42,440 --> 00:24:44,920 'Die begeleidingsethiek omarmen wij. Dat willen wij wel doen.' 462 00:24:45,040 --> 00:24:47,720 Twee ziekenhuizen hebben dat gedaan en een provincie. 463 00:24:47,840 --> 00:24:49,760 Dan merk je: voor de een is dat makkelijker... 464 00:24:49,880 --> 00:24:54,040 want die hebben al op orde dat ze weten waar misschien iets aan de hand is. 465 00:24:54,160 --> 00:24:57,840 Dan gaan we ook die stapjes maken. Stukje awareness. 466 00:24:57,960 --> 00:24:59,840 Zo valt het makkelijker. 467 00:24:59,960 --> 00:25:02,440 Bij een ander is dat meer: 'Leuk, gaan we doen.' 468 00:25:02,560 --> 00:25:04,840 Even enthousiasme en dan valt het weer weg. 469 00:25:04,960 --> 00:25:09,400 Dat is best een struggle waar we ook nog echt van elkaar kunnen leren. 470 00:25:09,520 --> 00:25:14,560 Wij komen heel dichtbij in zo'n organisatie... 471 00:25:14,680 --> 00:25:20,240 maar het is niet zo dat je daarmee direct een organisatieoverkoepelend beeld hebt. 472 00:25:20,360 --> 00:25:24,360 En zo'n volwassenheidsmodel bestaat op allerlei vlakken. 473 00:25:24,480 --> 00:25:27,920 Is er voor dit volwassenheidsmodel een specifieke naam? 474 00:25:28,040 --> 00:25:30,880 JORIS: Het AI Ethics Maturity Model heet het. 475 00:25:31,000 --> 00:25:33,880 Of het AI-ethiek volwassenheidsmodel. 476 00:25:34,000 --> 00:25:37,520 Ik stel voor dat we hem in de goodiebag doen voor degenen bij dit webinar. 477 00:25:37,640 --> 00:25:39,040 Prima. 478 00:25:40,000 --> 00:25:44,080 Ik ben wel toe aan de derde vraag voor de deelnemers. 479 00:25:44,200 --> 00:25:47,200 Dat is een open vraag. Die mogen jullie in de chat beantwoorden. 480 00:25:47,320 --> 00:25:49,240 Hij komt zo op het scherm. 481 00:25:50,160 --> 00:25:51,480 Als je dit nu hoort... 482 00:25:51,600 --> 00:25:57,400 en je kijkt naar de praktijk die je in je eigen organisatie op dit vlak al hebt gezien... 483 00:25:58,400 --> 00:26:01,360 wat zijn dan volgens jou belangrijke ethische acties... 484 00:26:01,480 --> 00:26:07,920 bij de introductie of het toepassen van AI en andere digitale nieuwe toepassingen? 485 00:26:08,040 --> 00:26:11,920 Welke ethische actie vind je belangrijk bij digitale of AI-toepassingen? 486 00:26:12,040 --> 00:26:13,640 Probeer het antwoord in de chat te geven. 487 00:26:13,760 --> 00:26:17,080 Dan gaan mijn collega's die als een haas bij elkaar vegen... 488 00:26:17,200 --> 00:26:20,160 en kijken wat ze daarin opvalt. 489 00:26:22,960 --> 00:26:27,600 Ik was nog wel even aan het kauwen op ethische actie. 490 00:26:28,520 --> 00:26:32,640 DANIËL: We hebben het gehad over ethische waarde of ethische actie. 491 00:26:32,760 --> 00:26:34,920 Toen heb ik gezegd 'ethische actie'... 492 00:26:35,040 --> 00:26:38,360 omdat ethische waarde noemen is niet zo heel moeilijk. 493 00:26:38,480 --> 00:26:42,040 Dat is ook een van de redenen waarom begeleidingsethiek ontstaan is. 494 00:26:42,160 --> 00:26:46,520 We willen niet alleen maar een waarde hebben en 'zet hem op met die waarde'. 495 00:26:46,640 --> 00:26:51,200 De stap naar actie is heel belangrijk. 496 00:26:51,320 --> 00:26:54,000 Het gaat over het doen. En het moet waardegedreven doen zijn. 497 00:26:54,120 --> 00:26:58,640 Dat is belangrijk. Daarom heb ik net ook allerlei handelingsopties... 498 00:26:58,760 --> 00:27:01,040 in principe betekent dat 'ethische acties', benoemd... 499 00:27:01,160 --> 00:27:03,120 die in zo'n geval naar voren zijn gekomen. 500 00:27:03,240 --> 00:27:05,440 Dus ik ben heel benieuwd hoe dat in andere organisaties is... 501 00:27:05,560 --> 00:27:09,840 en of mensen die slag kunnen maken tussen 'ik vind het heel belangrijk dat...' 502 00:27:09,960 --> 00:27:11,640 Rechtvaardigheid, noem maar op. 503 00:27:11,760 --> 00:27:14,640 Maar dit betekent dus wat we gaan doen. 504 00:27:14,760 --> 00:27:18,040 LYKLE: Het toetsen van grondrechten wordt genoemd. 505 00:27:18,680 --> 00:27:21,360 Zoals het verbod op discriminatie. 506 00:27:21,480 --> 00:27:24,160 Iets toetsen is een actie... 507 00:27:25,320 --> 00:27:30,680 maar in de context van de casus die jij noemde aan het begin... 508 00:27:31,640 --> 00:27:35,520 is toetsen aan de grondwet een actie zoals jij hem bedoelt? 509 00:27:35,640 --> 00:27:40,720 DANIËL: Nee, eigenlijk niet. Eigenlijk is het een fantastische opening voor mijn verhaal. 510 00:27:40,840 --> 00:27:43,360 Wat ik net al zei... 511 00:27:43,480 --> 00:27:47,800 De Aanpak Begeleidingsethiek bestaat nu een jaar of zes, zeven... 512 00:27:47,920 --> 00:27:52,480 en is begonnen omdat verschillende partijen zeiden: 513 00:27:52,600 --> 00:27:56,960 'Er is echt wel wat aan de hand met die ethiek en die technologie... 514 00:27:57,080 --> 00:28:01,880 dus we moeten daar wat mee.' Ook techbedrijven, overheden, enzovoort. 515 00:28:02,000 --> 00:28:05,200 Die hebben gezegd: 'Kunnen we daar nog iets meer mee doen? 516 00:28:05,320 --> 00:28:09,680 Nu lijkt het een beetje een stopzetmachine, of we komen er niet goed uit. 517 00:28:09,800 --> 00:28:11,320 Laten we daar samen over nadenken.' 518 00:28:11,440 --> 00:28:17,040 Toen hebben we Peter-Paul Verbeek, hoogleraar Techniekfilosofie, erbij gehaald. 519 00:28:17,160 --> 00:28:19,120 Daar komt de term begeleidingsethiek vandaan. 520 00:28:19,240 --> 00:28:23,800 Hij zegt: 'Het is geen poortwachtersethiek, maar hoe begeleiden we die technologie?' 521 00:28:23,920 --> 00:28:25,520 Daar zit weer het idee achter: 522 00:28:25,640 --> 00:28:28,800 mens en techniek, samenleving en techniek, altijd samenwerken. 523 00:28:28,920 --> 00:28:33,760 Dus niet: de mens gaat over de techniek of we worden platgeslagen door de techniek. 524 00:28:33,880 --> 00:28:35,400 Er zit iets tussen. 525 00:28:35,520 --> 00:28:37,640 Ik zeg altijd: We dansen samen of we worstelen samen. 526 00:28:37,760 --> 00:28:42,720 Het hangt ervan af hoe het gaat, maar in principe doe je dat niet met een ander. 527 00:28:47,560 --> 00:28:50,200 Wat er vaak was, waren veel waardenkaders. 528 00:28:50,320 --> 00:28:53,360 Eigenlijk is 'grondrechten' ook een waardenkader. 529 00:28:53,480 --> 00:28:54,960 Meer juridisch, maar toch. 530 00:28:55,080 --> 00:29:00,920 En steeds duidelijker werd dat het maken van een kader relatief makkelijk is. 531 00:29:01,040 --> 00:29:03,440 Er is ook echt onderzoek naar gedaan of dat werkt. Het werkt niet. 532 00:29:03,560 --> 00:29:05,240 Het geeft wel een fijn gevoel. 533 00:29:05,360 --> 00:29:08,040 En er is een heel specifieke groep die dat kader maakt. 534 00:29:08,160 --> 00:29:14,080 Dat zijn experts en mensen die boven in organisaties werken, of juristen. 535 00:29:14,200 --> 00:29:18,200 Dat is allemaal prachtig voor een deel. Het recht van de mens is niemand tegen. 536 00:29:18,320 --> 00:29:22,800 Maar vertaal die maar eens naar zo'n case. Dat is heel ingewikkeld. Dat is al een punt. 537 00:29:22,920 --> 00:29:25,560 En dat is bijna niet te doen, want ze zijn generiek. 538 00:29:25,680 --> 00:29:27,000 Dat kan haast niet anders. 539 00:29:27,120 --> 00:29:31,120 Wij hebben gedacht: Die route is er, maar er is ook een andere route: bottom-up. 540 00:29:31,240 --> 00:29:37,800 Dus je begint met een case met mensen die daar iets van weten en iets bij voelen. 541 00:29:37,920 --> 00:29:41,960 Dat zijn niet mensen die ergens veraf grote rechten hebben bedacht. 542 00:29:42,080 --> 00:29:44,840 Nee, die voelen en merken daar direct iets van. 543 00:29:44,960 --> 00:29:46,640 En we hebben ook geleerd: 544 00:29:46,760 --> 00:29:50,400 die groep weet eigenlijk verdomd veel. 545 00:29:50,520 --> 00:29:53,400 Dus het is heel vervelend als jij werkt en je bent met een project bezig... 546 00:29:53,520 --> 00:29:57,960 en die mensen hebben ook ethische waarden. 547 00:29:58,080 --> 00:29:59,960 Bijna elk vakman heeft dat. 548 00:30:00,080 --> 00:30:02,760 Dat er dan van bovenaf iets opkomt waar jij in één keer aan moet denken. 549 00:30:02,880 --> 00:30:06,520 Daar denk je al aan en waarschijnlijk ook aan andere dingen die daar niet in staan... 550 00:30:06,640 --> 00:30:10,280 maar wel belangrijk zijn. Anders krijg je op je kop of vind je het zelf niet goed. 551 00:30:10,400 --> 00:30:13,800 Dat is eigenlijk een beetje arrogant zou je kunnen zeggen. 552 00:30:13,920 --> 00:30:15,760 Het werkt soms wel, maar het is ook een beetje... 553 00:30:15,880 --> 00:30:19,320 Dus als je die nou de stem geeft en dat op een nette manier doet... 554 00:30:19,440 --> 00:30:20,680 kom je eigenlijk veel verder. 555 00:30:20,800 --> 00:30:22,680 Mensen samen hun issues brengen. 556 00:30:22,800 --> 00:30:28,080 Ik heb meer dan 100 van dit soort sessies gezien. 557 00:30:28,200 --> 00:30:30,520 En als je ziet welke waarden daar benoemd worden... 558 00:30:30,640 --> 00:30:32,600 dan scheelt het heel weinig van die officiële waarden. 559 00:30:32,720 --> 00:30:34,040 Dus dat heb je nauwelijks nodig. 560 00:30:34,160 --> 00:30:36,800 Je kunt nog een keer checken, maar dat hoeft niet eens. 561 00:30:36,920 --> 00:30:38,760 Dan zit er direct veel meer power in. 562 00:30:38,880 --> 00:30:42,120 En zij zijn de mensen die het wel kunnen vertalen naar iets concreets. 563 00:30:42,240 --> 00:30:44,480 Daarom is het ook interessant... 564 00:30:44,600 --> 00:30:47,960 want die mensen komen soms met hele simpele, waar je nooit op zou komen. 565 00:30:48,080 --> 00:30:51,080 Als voorbeeld: als er iets in de zorg is waarvan mensen zeggen: 566 00:30:51,200 --> 00:30:54,720 Kun je daar een aan- en uitknop op zetten, want ik wil hem ook uit kunnen zetten? 567 00:30:54,840 --> 00:30:57,520 Dat is niet moeilijk, maar wel een enorm ethisch ding dat je oplost. 568 00:30:57,640 --> 00:30:59,400 Dat ding geeft autonomie. 569 00:30:59,520 --> 00:31:03,200 Soms is het ook wel moeilijk, maar het gaat erom... 570 00:31:03,320 --> 00:31:07,280 Daar zit heel veel energie die we gemist hebben en naar boven proberen te krijgen. 571 00:31:07,400 --> 00:31:10,240 Ik zie in de reacties ook... Er wordt gezegd: 572 00:31:10,360 --> 00:31:12,800 Check of er geen auteursrechten worden geschonden. 573 00:31:12,920 --> 00:31:15,520 Het bepalen van de verantwoordelijkheid. 574 00:31:16,400 --> 00:31:19,640 In het beleid opnemen om altijd uit te leggen hoe je het toepast... 575 00:31:19,760 --> 00:31:22,160 of je het gebruikt hebt en in welke vorm. 576 00:31:23,040 --> 00:31:27,080 Maar dat zijn allemaal reacties die toch een beetje tegen die bovenkant aan hangen. 577 00:31:27,200 --> 00:31:29,160 Meer beleidsmatig. 578 00:31:29,280 --> 00:31:32,960 Dus de uitdaging en uitnodiging is om het heel concreet te maken... 579 00:31:33,080 --> 00:31:37,320 naar bij wijze van spreken het niveau van knopjes of handelingen. 580 00:31:37,440 --> 00:31:40,560 DANIËL: Precies. Probeer het maar naar je eigen werk te vertalen. 581 00:31:40,680 --> 00:31:42,600 Van wie wil je dat hij tegen jou zegt... 582 00:31:42,720 --> 00:31:44,840 met welke waarden je meer rekening moet houden? 583 00:31:44,960 --> 00:31:45,720 Dat is moeilijk. 584 00:31:45,840 --> 00:31:48,840 Terwijl als je samen nadenkt, dan kom je op concrete... 585 00:31:48,960 --> 00:31:52,480 Ik heb ze ook genoemd in de case. 586 00:31:52,600 --> 00:31:56,760 Daar komen dingen naar voren. Soms wat abstracter, maar ook heel concreet. 587 00:31:56,880 --> 00:31:58,480 En dat is de dynamiek die je zoekt... 588 00:31:58,600 --> 00:32:03,240 want volgens mij is elke technologie, ook AI, een worsteling met ons. 589 00:32:03,360 --> 00:32:06,160 Wij moeten samen bepalen: hoe gaan we daarmee om? 590 00:32:06,280 --> 00:32:09,360 En dat doe je dus ook op het moment dat het gebeurt. 591 00:32:09,480 --> 00:32:13,960 En dan het liefst met een groep, samen en verstandig, en je gaat dat delen. 592 00:32:14,080 --> 00:32:16,680 Misschien goed om even te zeggen van begeleidingsethiek: 593 00:32:16,800 --> 00:32:19,280 Het is een methode, maar het is ook een soort platform. 594 00:32:19,400 --> 00:32:24,920 Dus we delen alle resultaten en verslagen van sessies. 595 00:32:25,040 --> 00:32:29,120 We proberen echt te delen en dat we daar samen slimmer van worden. 596 00:32:29,240 --> 00:32:30,880 We proberen ook samen te leren... 597 00:32:31,000 --> 00:32:34,360 dus mensen kunnen zelf die begeleidingsethiek gaan doen... 598 00:32:34,480 --> 00:32:35,720 na een opleiding. 599 00:32:35,840 --> 00:32:37,720 En dan samen proberen we ook te kijken: 600 00:32:37,840 --> 00:32:39,800 hoe kunnen we dit beter doen? Hoe werkt dat? 601 00:32:39,920 --> 00:32:41,360 LYKLE: Dat is dan ook een manier... 602 00:32:41,480 --> 00:32:43,960 om het meer in de cultuur van de organisatie te krijgen. 603 00:32:44,080 --> 00:32:46,240 Je laat getrainde mensen achter die het zelf kunnen... 604 00:32:46,360 --> 00:32:48,840 dus die hoeven jou niet de volgende keer weer te bellen. 605 00:32:48,960 --> 00:32:51,520 Precies. Het kan zich verspreiden. We hebben zelfs nog geleerd... 606 00:32:51,640 --> 00:32:55,200 Er hebben 300 mensen dat al gedaan. We hebben een soort basistraining. 607 00:32:55,320 --> 00:32:56,800 Een deel wil graag moderator worden... 608 00:32:56,920 --> 00:32:58,920 maar een deel heeft een andere functie in die organisatie. 609 00:32:59,040 --> 00:33:00,840 Die moet zorgen dat die sessies ontstaan... 610 00:33:00,960 --> 00:33:03,560 of die moet coördineren dat ze op de goede plek terechtkomen. 611 00:33:03,680 --> 00:33:08,280 Dus dat hebben wij als onderdeel gemaakt van die opleiding. 612 00:33:08,400 --> 00:33:11,760 En wat we ook doen, dat past ook heel goed bij het verhaal van Joris... 613 00:33:11,880 --> 00:33:14,200 is dat we soms samenwerken met anderen. 614 00:33:14,320 --> 00:33:16,680 En als mooiste voorbeeld... Ik zit bij de ICTU. 615 00:33:16,800 --> 00:33:22,000 We werken ook samen met de IBDS, de Interbestuurlijke Datastrategie... 616 00:33:22,120 --> 00:33:25,720 en die wilde ook een wat minder statische vorm van ethiek. 617 00:33:25,840 --> 00:33:28,200 Toen zijn ze bij ons uitgekomen. 618 00:33:28,320 --> 00:33:31,320 Dus hebben we iets gemaakt, de Datadialoog in jargon... 619 00:33:31,440 --> 00:33:34,000 met een paar hele belangrijke elementen uit de begeleidingsethiek. 620 00:33:34,120 --> 00:33:37,640 Ook nog iets aan toegevoegd over een waardenkader van de WAR. 621 00:33:37,760 --> 00:33:40,880 Maar het is een heel mooi product geworden in hun taal... 622 00:33:41,000 --> 00:33:43,840 dat precies past bij wat zij doen, namelijk over data praten. 623 00:33:43,960 --> 00:33:47,120 Hetzelfde hebben we met kwantum. 624 00:33:47,240 --> 00:33:49,800 Kwantumtechnologie is een heel ander veld. 625 00:33:49,920 --> 00:33:55,600 Die hebben een EQTA gemaakt, een technology assessment voor kwantum. 626 00:33:55,720 --> 00:33:57,760 Daar in het hart zit die begeleidingsethiek. 627 00:33:57,880 --> 00:33:59,440 Dus dan ga je in gesprek... 628 00:33:59,560 --> 00:34:04,600 en ga je kijken of je samen iets kan doen wat past bij die organisatie of sector. 629 00:34:04,720 --> 00:34:08,200 LYKLE: Misschien kunnen we er nog een bij pakken. Sandra zegt: 630 00:34:08,320 --> 00:34:11,920 'Door bij de basis te beginnen. Maak duidelijk welke GenAI-tools... 631 00:34:12,040 --> 00:34:14,040 medewerkers mogen gebruiken en hoe. 632 00:34:14,160 --> 00:34:18,680 Dus spelregels met focus op de kwaliteit van de output... 633 00:34:18,800 --> 00:34:23,080 en die kan je beoordelen, en niet op de euro's in relatie tot de taakstelling.' 634 00:34:23,200 --> 00:34:26,360 Ik snap dit, ik vind het allemaal best heel logisch... 635 00:34:26,480 --> 00:34:29,760 maar kwalificeert het nou als ethische actie? 636 00:34:29,880 --> 00:34:33,160 Welke handeling zou hier wat jou betreft uit voortvloeien? 637 00:34:33,280 --> 00:34:34,880 DANIËL: Daarom... 638 00:34:37,440 --> 00:34:41,560 Ik zou beginnen omgekeerd. Heel aardig wat Sandra zegt. 639 00:34:41,680 --> 00:34:43,400 Ze bedoelt de tooling. 640 00:34:43,520 --> 00:34:46,040 En dan lijkt het alsof iemand zegt welke tooling. 641 00:34:46,160 --> 00:34:49,640 Bijvoorbeeld twee, drie weken geleden... 642 00:34:49,760 --> 00:34:52,960 hadden we een sessie met AZ, de communicatieafdeling. 643 00:34:53,080 --> 00:34:56,920 Die wilde een tool gaan gebruiken. 644 00:34:57,040 --> 00:34:59,360 Gewoon een schrijfhulp. Simpel. 645 00:34:59,480 --> 00:35:01,720 Dan heb je een verhaal. 646 00:35:01,840 --> 00:35:04,720 Voor hen zitten daar allerlei haken en ogen aan voor hun eigen baan... 647 00:35:04,840 --> 00:35:10,240 maar ook voor de communicatie voor de hele overheid. 648 00:35:10,360 --> 00:35:12,400 Wat kunnen we dan doen, wat niet, wat helpt het ons? 649 00:35:12,520 --> 00:35:15,600 Dan krijg je dat gesprek. En dan krijg je direct daarna... 650 00:35:15,720 --> 00:35:19,720 Eén anekdote daarover nog is leuk. Ze had dus ook een naam, Iris. 651 00:35:19,840 --> 00:35:23,480 Ten eerste: waarom weer een vrouwennaam? Dat was al de vraag. 652 00:35:23,600 --> 00:35:26,800 Eigenlijk hebben we toen bedacht: Het moet gewoon schrijfhulp heten. 653 00:35:26,920 --> 00:35:29,240 Eventueel AI-schrijfhulp. Maar dat is het dan ook. 654 00:35:29,360 --> 00:35:32,040 Dat is een van de kleinste oplossingen, maar dat is een concreet ding. 655 00:35:32,160 --> 00:35:35,800 Blijkbaar wil je het niet een leuke vrouwennaam of mannennaam noemen. 656 00:35:35,920 --> 00:35:37,800 Nee, je moet het noemen wat het is. 657 00:35:37,920 --> 00:35:39,320 Heel minimaal. 658 00:35:39,440 --> 00:35:42,080 Voor dat gesprek was dat een belangrijke uitkomst. 659 00:35:42,200 --> 00:35:44,960 Er waren er nog veel meer. 660 00:35:45,080 --> 00:35:47,200 Dus dat is... 661 00:35:47,320 --> 00:35:49,840 Dan wordt het echt precies. -LYKLE: Dankjewel. 662 00:35:50,920 --> 00:35:54,840 We hebben nog een stelling voor jullie. De tweede stelling. 663 00:35:56,160 --> 00:35:58,320 Die kun je ongetwijfeld wel beantwoorden... 664 00:35:58,440 --> 00:36:00,160 op basis van wat je net allemaal gehoord hebt. 665 00:36:00,280 --> 00:36:04,080 Onze inzet van AI, dus in de organisatie waar jij werkt... 666 00:36:04,200 --> 00:36:08,800 sluit aan bij de bredere toekomstvisie en koers van de organisatie waar ik werk. 667 00:36:10,280 --> 00:36:13,280 Ja, nee of weet ik niet zijn weer de opties. 668 00:36:16,360 --> 00:36:20,200 Dit is op papier snel bij elkaar geveegd. 669 00:36:20,320 --> 00:36:21,600 Op enig moment denkt een directie: 670 00:36:21,720 --> 00:36:25,080 'Dit onderwerp is zo belangrijk. We moeten er in onze visie iets over zeggen... 671 00:36:25,200 --> 00:36:29,960 of we moeten er een visie aan wijden, of het moet een plek in onze missie krijgen.' 672 00:36:30,080 --> 00:36:33,000 Maar dan is het weer boven in de boom. 673 00:36:33,120 --> 00:36:35,440 Dit gaat natuurlijk ook letterlijk over: 674 00:36:35,560 --> 00:36:37,720 hoe wordt het daadwerkelijk in de organisatie ingezet? 675 00:36:37,840 --> 00:36:40,880 Welke mogelijkheden zijn er wel en niet? 676 00:36:41,000 --> 00:36:44,080 En de antwoorden geven dat wel een beetje weer. 677 00:36:44,200 --> 00:36:47,600 31 procent zegt 'Ja'. Ik vind dat al best een hoog percentage... 678 00:36:47,720 --> 00:36:49,760 voor zoiets wat nog zo jong is. 679 00:36:49,880 --> 00:36:53,280 Maar een derde zegt ook 'Nee, dat is nog zeker niet aan de hand.' 680 00:36:53,400 --> 00:36:57,840 En misschien nog wel veel erger, 35 procent zegt: 'Dat weet ik eigenlijk niet.' 681 00:36:57,960 --> 00:36:59,240 Dit gaat weer over wat jij ook zei. 682 00:36:59,360 --> 00:37:02,920 De communicatie en het in de organisatie rond laten gaan.. 683 00:37:03,040 --> 00:37:07,320 van het gesprek over nieuwe technologie en onderwerpen die daarbij horen. 684 00:37:07,440 --> 00:37:10,160 Klopt, dat gaat over visie. 685 00:37:10,280 --> 00:37:14,240 Ik had het over ethische volwassenheid. Dat is: hoe regel je het in? 686 00:37:14,360 --> 00:37:18,000 Maar daar zit de discussie onder van: waar willen we met deze technologie naartoe? 687 00:37:18,120 --> 00:37:20,920 Wat voor skills hebben onze werknemers nodig... 688 00:37:21,040 --> 00:37:24,200 om over vijf jaar relevant werk te blijven doen? 689 00:37:24,320 --> 00:37:26,600 Hoe zien onze werkzaamheden eruit over vijf jaar... 690 00:37:26,720 --> 00:37:28,920 gegeven wat die technologie nu al kan? 691 00:37:29,040 --> 00:37:32,960 Ik merk dat dat bij veel organisaties ontbreekt. 692 00:37:33,080 --> 00:37:36,720 Dat het toch is van: dit is er en het kan me helpen met een mailtje. 693 00:37:36,840 --> 00:37:39,720 Maar als je vervolgens vraagt: 'Wie profiteert daar dan van?' 694 00:37:39,840 --> 00:37:40,920 'Eigenlijk geen idee.' 695 00:37:41,040 --> 00:37:44,640 We gaan steeds meer taken uitbesteden aan dit soort systemen. 696 00:37:44,760 --> 00:37:45,840 Dat klinkt natuurlijk goed. 697 00:37:45,960 --> 00:37:48,960 Maar zonder de keuzes, en dat stipte Daniël ook aan... 698 00:37:49,080 --> 00:37:50,720 zonder die keuzes weloverwogen te maken. 699 00:37:50,840 --> 00:37:55,960 Ik denk dat je naast zo'n ethische infrastructuur waar ik het over had... 700 00:37:56,080 --> 00:37:58,880 dus hoe richt je je organisatie in, welke mechanismen heb je... 701 00:37:59,000 --> 00:38:01,240 ook een plan moet hebben van: waar gaan we naartoe? 702 00:38:01,360 --> 00:38:04,400 Wat betekenen die publieke waarden in het AI-tijdperk... 703 00:38:04,520 --> 00:38:08,320 en hoe zorgen we dat we daar op een goede manier invulling aan blijven geven? 704 00:38:08,440 --> 00:38:11,600 Omdat je anders steeds van hype naar hype rent. 705 00:38:11,720 --> 00:38:15,080 Nu kan het weer dit, dan komt er agentic AI en dan kan dat ineens ook. 706 00:38:15,200 --> 00:38:17,600 Als daar geen doordachte visie achter zit... 707 00:38:17,720 --> 00:38:21,880 dan is de ethiek ook heel lastig, want dan regeert de waan van de dag. 708 00:38:22,000 --> 00:38:27,000 En beluister ik dan bij jullie allebei een soort van omkering... 709 00:38:27,120 --> 00:38:32,080 dat je in die benadering misschien beter kunt vertrekken vanuit... 710 00:38:32,200 --> 00:38:36,160 'wat doen we, wat maken we, wat leveren we, wat is onze dagelijkse praktijk... 711 00:38:36,280 --> 00:38:39,520 en hoe kan een nieuwe technologie daarin verschil maken?' 712 00:38:39,640 --> 00:38:42,760 Versus: wat is onze verantwoordelijkheid als organisatie... 713 00:38:42,880 --> 00:38:45,720 welke aansprakelijkheid hebben we... 714 00:38:45,840 --> 00:38:49,280 en welke Sustainable Development Goals streven we na? 715 00:38:50,160 --> 00:38:51,640 LYKLE: Of is het een van allebei? 716 00:38:51,760 --> 00:38:54,440 Nee, dat klopt. Verantwoordelijkheid vind ik ook al... 717 00:38:54,560 --> 00:38:56,600 De echte verantwoordelijkheid is de mensen die het doen. 718 00:38:56,720 --> 00:38:58,160 In die zin ligt die ook daar. 719 00:38:58,280 --> 00:39:01,440 En verder helemaal eens. Ik noem het zelf weleens praktische wijsheid. 720 00:39:01,560 --> 00:39:03,560 Dat is een term van Aristoteles. 721 00:39:03,680 --> 00:39:08,040 Die heeft ook gezegd... Verschillende soorten kennis zette hij op een rij. 722 00:39:08,160 --> 00:39:11,720 Er is maar een die echt met wijsheid en moreel te maken heeft: de praktijk. 723 00:39:11,840 --> 00:39:15,520 Filosofie, zei hij, en wetenschap is allemaal prachtig... 724 00:39:15,640 --> 00:39:17,880 maar dat is meer kennis. En dit is wijsheid. 725 00:39:18,000 --> 00:39:20,840 Ik probeer hier dus praktische wijsheid te maken... 726 00:39:20,960 --> 00:39:25,280 die naar boven doorborrelt of naar boven stijgt. 727 00:39:25,400 --> 00:39:29,040 Natuurlijk wil je zo nu en dan een algemene regel maken... 728 00:39:29,160 --> 00:39:33,920 of het in je strategie opnemen, maar wel met die link naar boven dus. 729 00:39:34,040 --> 00:39:35,360 Echt voor praktische wijsheid. 730 00:39:35,480 --> 00:39:37,600 JORIS: Misschien om nog aan te vullen. 731 00:39:37,720 --> 00:39:40,800 We hebben het heel vaak over AI en heel vaak voelt dat als iets abstracts... 732 00:39:40,920 --> 00:39:44,760 als een soort natuurkracht die over ons heen komt van: het is ineens overal. 733 00:39:44,880 --> 00:39:47,360 Maar wat ik vooral uit mijn onderzoek heb gehaald... 734 00:39:47,480 --> 00:39:51,160 is dat 90 procent van hoe AI ons leven gaat beïnvloeden... 735 00:39:51,280 --> 00:39:53,280 is via de organisaties die het gaan inzetten. 736 00:39:53,400 --> 00:39:57,040 Via je verzekeraar die het gaat gebruiken, je lokale gemeente, de overheid. 737 00:39:57,160 --> 00:39:58,680 De keuzes die daar gemaakt worden... 738 00:39:58,800 --> 00:40:02,480 bepalen uiteindelijk de rol die AI speelt in onze samenleving. 739 00:40:02,600 --> 00:40:04,560 Daarom hamer ik ook zo op dat organisatiestuk. 740 00:40:04,680 --> 00:40:06,560 Ik denk dat we daar heel veel kunnen winnen. 741 00:40:06,680 --> 00:40:09,040 Daar ethiek een plek geven betekent dat we veel meer grip houden... 742 00:40:09,160 --> 00:40:11,240 op de keuzes die we maken met deze technologie. 743 00:40:11,360 --> 00:40:15,320 Daarin is ook dit webinar, en het publiek van dit webinar aanspreken op... 744 00:40:15,440 --> 00:40:16,440 niet hun burgerschap... 745 00:40:16,560 --> 00:40:20,440 maar juist op hun rol in een overheids- organisatie die dat gaat doen... 746 00:40:20,560 --> 00:40:23,920 of van plan is te gaan doen of daar openheid over moet geven. 747 00:40:24,040 --> 00:40:27,400 De boodschap is ook dat je geen datascience gestudeerd hoeft te hebben... 748 00:40:27,520 --> 00:40:29,120 om deze thema's op de agenda te zetten. 749 00:40:29,240 --> 00:40:31,800 Dit is iets wat het werk van iedereen gaat beïnvloeden. 750 00:40:31,920 --> 00:40:33,920 Als je kijkt naar de prognoses rond automatisering... 751 00:40:34,040 --> 00:40:35,920 en de rol van AI in organisaties... 752 00:40:36,040 --> 00:40:38,200 dan gaat iedereen hiermee te maken krijgen in een vorm. 753 00:40:38,320 --> 00:40:40,480 Ofwel omdat het een deel van jouw taken gaat doen... 754 00:40:40,600 --> 00:40:43,680 ofwel omdat je veel meer gaat samenwerken met AI-systemen. 755 00:40:43,800 --> 00:40:46,200 Dus het is heel zinvol om nu al na te denken over: 756 00:40:46,320 --> 00:40:49,520 wat vind ik daarvan, hoe zorg ik dat mijn werk betekenisvol blijft? 757 00:40:49,640 --> 00:40:53,000 En dat je dat op organisatieniveau goed bespreekt met elkaar. 758 00:40:53,800 --> 00:40:58,440 Heb je de indruk dat organisaties door beginnen te krijgen of doorhebben? 759 00:40:58,560 --> 00:41:01,240 Steeds meer, ja. En daar ben ik ook heel blij om. 760 00:41:01,360 --> 00:41:05,840 Je merkt op een gegeven moment: met die waardenkaders loop je tegen een muur aan. 761 00:41:05,960 --> 00:41:07,720 Maar ook als je zegt: We hebben deze impact assessments... 762 00:41:07,840 --> 00:41:12,720 maar we gaan niet op de 20 toepassingen die deze maand weer live staan... 763 00:41:12,840 --> 00:41:15,840 Dat houden we niet bij. Dus je merkt dat dat praktisch een enorm vraagstuk is. 764 00:41:15,960 --> 00:41:19,680 En daarin merk je echt van een ontwikkeling dat organisaties doorkrijgen: 765 00:41:19,800 --> 00:41:21,720 'We moeten dit groter aanpakken... 766 00:41:21,840 --> 00:41:25,280 en we willen ons ook echt focussen op die ethische infrastructuur.' 767 00:41:25,400 --> 00:41:29,280 En wat doen ze dan? 768 00:41:29,400 --> 00:41:32,840 Wat doen organisaties dan als ze dat belangrijk gaan vinden? 769 00:41:32,960 --> 00:41:35,920 JORIS: Stap 1 is organiseren. 770 00:41:36,040 --> 00:41:38,600 Breng de mensen bij elkaar voor wie dit relevant is. 771 00:41:38,720 --> 00:41:41,520 Soms zie je dat de privacy officers of de FG's... 772 00:41:41,640 --> 00:41:43,400 dit onderwerp op hun bord hebben gekregen... 773 00:41:43,520 --> 00:41:46,480 en die lopen ermee te lurven van: wat moeten we hiermee? 774 00:41:46,600 --> 00:41:50,160 Maar dit raakt alle aspecten van de organisatie, dus breng die bij elkaar. 775 00:41:50,280 --> 00:41:52,800 Zorg dat je met elkaar ook een plan maakt voor: hoe gaan we hiermee om? 776 00:41:52,920 --> 00:41:56,040 En vanuit daar kun je ook de mechanismen gaan bedenken van: 777 00:41:56,160 --> 00:41:59,120 hoe zorgen we dat de keuzes die we maken aan blijven sluiten... 778 00:41:59,240 --> 00:42:01,360 bij waar wij voor staan als organisatie? 779 00:42:01,480 --> 00:42:03,720 Dat is een beetje... 780 00:42:03,840 --> 00:42:05,480 Als je het hebt over het goede gesprek... 781 00:42:05,600 --> 00:42:08,880 ik ben iets meer van een soort realisme van machtsverhoudingen. 782 00:42:09,000 --> 00:42:12,160 Wie heeft er een stem? Wie mag er daadwerkelijk beslissen? 783 00:42:12,280 --> 00:42:15,880 En ik denk dat je daar heel goed moet kijken: wie laten we nou meebeslissen... 784 00:42:16,000 --> 00:42:17,400 bij de inzet van deze technologie? 785 00:42:17,520 --> 00:42:21,480 Is dat uiteindelijk altijd dezelfde bestuurder of zijn we dat met z'n allen? 786 00:42:21,600 --> 00:42:24,320 En hoe zien die mechanismes eruit om uiteindelijk die keuzes te maken? 787 00:42:24,440 --> 00:42:29,640 Daar moet een organisatie een soort van zelfbewustzijn en zelfreflectie ontwikkelen... 788 00:42:29,760 --> 00:42:32,600 van: heb je alleen maar ja-zeggers om de leidinggevende heen... 789 00:42:32,720 --> 00:42:34,800 of is er echt een dialoog? 790 00:42:34,920 --> 00:42:37,040 DANIËL: Ik kan nog een voorbeeld geven. 791 00:42:37,160 --> 00:42:40,240 Ik zit zelf in de ethische commissie van de gemeente Eindhoven. 792 00:42:40,360 --> 00:42:44,760 Daar komen nog een paar gemeentes bij, zoals Den Bosch en Helmond. 793 00:42:44,880 --> 00:42:48,840 Maar waar het om gaat: daar hebben ze een ethische commissie gemaakt... 794 00:42:48,960 --> 00:42:50,640 waarbij we proberen op proces te sturen. 795 00:42:50,760 --> 00:42:54,560 Niet van 'wij weten het wel', maar 'hoe zorg je dat het in die organisatie werkt?' 796 00:42:54,680 --> 00:42:58,360 Iemand die verantwoordelijk is voor de ethiek bij de gemeente die dat ook zo doet. 797 00:42:58,480 --> 00:43:00,800 Dus er is een ethisch team gevormd de afgelopen jaren... 798 00:43:00,920 --> 00:43:04,720 van mensen die daar iets mee wilden, op allerlei afdelingen. 799 00:43:04,840 --> 00:43:09,120 Dus er zitten nu zelfs twee teams van 15 tot 20 mensen... 800 00:43:09,240 --> 00:43:12,040 die ergens in die organisatie zitten en zeggen: 801 00:43:12,160 --> 00:43:15,240 'Ik wil wel meepraten over de ethische kant van de zaak.' 802 00:43:15,360 --> 00:43:18,000 Dat is een heel mooi voorbeeld. Dat kan vast nog anders. 803 00:43:18,120 --> 00:43:20,200 Maar een mooi voorbeeld waarin dat heel goed gelukt is. 804 00:43:20,320 --> 00:43:22,000 Aan de ene kant heb je iets... 805 00:43:22,120 --> 00:43:25,920 De commissie is om ervoor te zorgen dat je op het niveau van de gemeenteraad... 806 00:43:26,040 --> 00:43:28,680 of het gemeentebestuur zo nu en dan wat kan zeggen... 807 00:43:28,800 --> 00:43:30,240 maar hier heb je ook... 808 00:43:30,360 --> 00:43:34,320 Eigenlijk wil je dat alleen maar, dat er ethische teams zijn bijvoorbeeld... 809 00:43:34,440 --> 00:43:38,160 die dus met elkaar hierover in gesprek gaan. 810 00:43:39,400 --> 00:43:42,120 En wat een organisatie op dat vlak te doen heeft en doet... 811 00:43:42,240 --> 00:43:44,720 is dat uniek voor iedere organisatie... 812 00:43:44,840 --> 00:43:48,360 of zitten daar heel veel overeenkomsten tussen organisaties? 813 00:43:48,480 --> 00:43:52,440 Hele goede vraag. Ik denk dat er best veel gemeenschappelijke delers zijn. 814 00:43:52,560 --> 00:43:55,880 De dimensies die we net op het scherm lieten zien... 815 00:43:56,000 --> 00:43:59,560 zijn dingen die allemaal in organisaties aanwezig zijn. 816 00:43:59,680 --> 00:44:00,720 Alleen denk ik dat je wel... 817 00:44:00,840 --> 00:44:04,680 om het goed aan te laten sluiten op je eigen organisatie, waarden, je team... 818 00:44:04,800 --> 00:44:07,440 dat die vertaalslag naar een concrete context belangrijk is. 819 00:44:07,560 --> 00:44:09,320 Er zit een stuk aan dat uniek is. 820 00:44:09,440 --> 00:44:11,400 Maar ik denk dat de gemeenschappelijke deler, van: 821 00:44:11,520 --> 00:44:16,000 hoe ga je dat fundament om die ethiek in je organisatie te krijgen aanleggen... 822 00:44:16,120 --> 00:44:18,520 dat dat voor veel organisaties gelijk is. 823 00:44:18,640 --> 00:44:22,520 In de voorbereiding op dit webinar is het ook ter sprake gekomen. 824 00:44:22,640 --> 00:44:23,800 Er hebben zich her en der... 825 00:44:23,920 --> 00:44:26,960 allerlei gemeenschapjes, platforms en community's gevormd... 826 00:44:27,080 --> 00:44:30,280 en daar zijn eigenlijk heel veel van de voorbeeldtoepassingen... 827 00:44:30,400 --> 00:44:32,280 van de dingen die goed gelukt zijn voortgekomen... 828 00:44:32,400 --> 00:44:34,360 daar waar mensen elkaar opzochten. 829 00:44:34,480 --> 00:44:38,200 Dat is zich nu aan het verzamelen in het Platform AI & Overheid. 830 00:44:38,320 --> 00:44:40,880 Dus, kijkers, Platform AI & Overheid is een plek... 831 00:44:41,000 --> 00:44:43,200 waar je je eigen ervaringen kwijt kunt... 832 00:44:43,320 --> 00:44:46,120 maar vooral ook: je kunt laven aan de ervaringen van anderen. 833 00:44:46,240 --> 00:44:49,680 Want daar zit die overlap. Daar kun je je voordeel doen met die overlap. 834 00:44:49,800 --> 00:44:53,440 Ja, en wat wij hebben gemerkt, want we doen dat volwassenheidsmeten... 835 00:44:53,560 --> 00:44:56,400 met publieke instellingen, private instellingen... 836 00:44:56,520 --> 00:45:00,040 En wat je merkt is, omdat die uitdagingen best veel op elkaar lijken... 837 00:45:00,160 --> 00:45:05,160 een bank heeft 'n fraudedetectiesysteem, maar een sociale verzekeringsbank ook... 838 00:45:05,280 --> 00:45:07,080 dat je ook veel kennis kunt uitwisselen. 839 00:45:07,200 --> 00:45:12,560 Sommige partijen zijn wat verder op risicomanagement en governance... 840 00:45:12,680 --> 00:45:15,920 maar de overheid is veel beter in inkoopvoorwaarden en de kaders. 841 00:45:16,040 --> 00:45:18,600 En daar kun je elkaar op vinden, ook als overheid en niet-overheid. 842 00:45:18,720 --> 00:45:22,040 Ik denk dat daar nog heel veel kennisdeling te doen is. 843 00:45:22,160 --> 00:45:25,320 DANIËL: Misschien nog ter aanvulling. Dus Platform AI & Overheid is interessant. 844 00:45:25,440 --> 00:45:27,680 Dat komt nu goed op. 845 00:45:27,800 --> 00:45:32,160 Maar we hebben ook een 'community of practice' op ethiek en digitalisering. 846 00:45:32,280 --> 00:45:33,840 Daar ben ik ook bij betrokken. 847 00:45:33,960 --> 00:45:39,120 Daar proberen we alle ethici in overheid Nederland bij elkaar te trekken. 848 00:45:39,240 --> 00:45:42,040 Niet alleen ethici, maar mensen die daarmee bezig zijn. 849 00:45:42,160 --> 00:45:45,280 Daar focussen we deels op instrumenten, deels op 'hoe doe je dat in je organisatie?' 850 00:45:45,400 --> 00:45:47,600 Dat gaan we zeker nog eens vragen aan Joris. 851 00:45:47,720 --> 00:45:51,960 Maar ook op moresprudentie, heb ik het maar genoemd. 852 00:45:52,080 --> 00:45:54,040 Wat leren we nou echt? Wat hebben we nou gedaan? 853 00:45:54,160 --> 00:45:58,360 Dus probeer van alle organisaties te kijken: jullie hebben een ethisch traject doorlopen. 854 00:45:58,480 --> 00:46:01,040 Wat heb je daarvan geleerd en wil je dat bij ons in de bibliotheek zetten? 855 00:46:01,160 --> 00:46:03,160 Dus dat zijn dingen die nu... 856 00:46:03,280 --> 00:46:06,080 En dat is algemeen dan alleen maar de ethische verantwoorde toepassing... 857 00:46:06,200 --> 00:46:07,720 van AI-technologie. 858 00:46:07,840 --> 00:46:11,520 Dat gaat eigenlijk over ethisch verantwoord handelen... 859 00:46:11,640 --> 00:46:15,880 of het ethisch verantwoord introduceren van nieuwe technologie. 860 00:46:16,000 --> 00:46:18,440 Ja, daar gaat het om. 861 00:46:18,560 --> 00:46:19,960 LYKLE: Mooi. 862 00:46:20,080 --> 00:46:23,720 Dan zijn we al een heel eind gekomen met een soort van overzicht. 863 00:46:25,520 --> 00:46:29,240 We hebben het al gehad over 'wat heeft een organisatie te doen?', Joris. 864 00:46:29,360 --> 00:46:32,240 Op welke manier moeten we dit met z'n allen verder richting geven. 865 00:46:32,360 --> 00:46:34,320 Wat kunnen we daaraan doen? 866 00:46:34,440 --> 00:46:37,280 Dat gesprek is enorm belangrijk. 867 00:46:37,400 --> 00:46:40,480 Maar wat mij op dit moment het meeste zorgen baart... 868 00:46:40,600 --> 00:46:44,560 is het kennisniveau over de technologie zelf. 869 00:46:44,680 --> 00:46:46,880 We hebben in dit webinar ook niet uitgebreid stilgestaan bij: 870 00:46:47,000 --> 00:46:49,320 hoe zit die technologie nou in elkaar? 871 00:46:49,440 --> 00:46:53,640 Maar het is heel belangrijk dat we zien: wat kan het daadwerkelijk wel en wat niet? 872 00:46:53,760 --> 00:46:56,880 En welke nieuwe problemen gaat het bij ons introduceren? 873 00:46:57,000 --> 00:47:00,200 Dat zijn de drie vragen die je moet stellen als je hiermee aan de slag gaat. 874 00:47:00,320 --> 00:47:02,840 Wat lost het op? Er zijn vaak hele goede oplossingen. 875 00:47:02,960 --> 00:47:06,640 Wat lost het niet op? Welke problemen blijven er welke nieuwe problemen krijg je? 876 00:47:06,760 --> 00:47:10,440 Vanuit dat perspectief moet je gaan kijken naar die technologie. 877 00:47:10,560 --> 00:47:12,960 Ik denk dat als we ons daar veel bewuster van zijn... 878 00:47:13,080 --> 00:47:16,600 dan kun je wat beter de lijn uittekenen van: wat gaat dit betekenen voor mijn functie... 879 00:47:16,720 --> 00:47:17,720 voor mijn organisatie? 880 00:47:17,840 --> 00:47:21,800 Maar belangrijker: wat gaat dit betekenen voor de wereld waarin ik mijn werk doe? 881 00:47:21,920 --> 00:47:24,760 Want AI is niet alleen binnen de overheid aan het opkomen... 882 00:47:24,880 --> 00:47:27,000 maar op allerlei plekken. Burgers gebruiken het ook. 883 00:47:27,120 --> 00:47:30,840 Die hebben ook verwachtingen van hoe de overheid opereert en hoe snel alles werkt. 884 00:47:30,960 --> 00:47:33,120 Dat zie je sowieso met digitalisering. 885 00:47:33,240 --> 00:47:37,400 Ik denk dat die vraag en dat basisbegrip heel belangrijk zijn om over na te denken. 886 00:47:37,520 --> 00:47:40,720 Heb je een voorbeeld van een nieuw probleem dat erbij komt... 887 00:47:40,840 --> 00:47:43,000 door het gebruik van generatieve AI-tools? 888 00:47:43,120 --> 00:47:46,560 Zeker. Wat je krijgt, is dat we zeker met agents... 889 00:47:46,680 --> 00:47:49,360 Agents zijn taalmodellen die ook dingen kunnen doen. 890 00:47:49,480 --> 00:47:52,640 Waar je voorheen vroeg: 'kun je voor mij een reis plannen naar Stockholm?'... 891 00:47:52,760 --> 00:47:55,080 kreeg je van ChatGPT een mooi reisprogramma. 892 00:47:55,200 --> 00:47:57,880 Een agent boekt ook de tickets, reserveert je hotel... 893 00:47:58,000 --> 00:48:00,360 reserveert het restaurant en geeft je dieetwensen door. 894 00:48:00,480 --> 00:48:02,600 Dus die kunnen daadwerkelijk dingen doen. 895 00:48:02,720 --> 00:48:06,560 Wat je merkt is dat we steeds meer taken gaan delegeren aan dit soort systemen... 896 00:48:06,680 --> 00:48:10,200 maar dat de verantwoordelijkheid voor die taakuitvoering steeds diffuser wordt. 897 00:48:10,320 --> 00:48:13,520 Dus je merkt dat het steeds lastiger is om te zeggen: Er gaat hier iets fout. 898 00:48:13,640 --> 00:48:15,760 De verkeerde dieetwensen doorgegeven. Ik noem maar wat. 899 00:48:15,880 --> 00:48:19,880 Maar wie is daar nou verantwoordelijk voor? Die agent heeft van alles zelf berekend. 900 00:48:20,000 --> 00:48:23,400 Jij hebt alleen maar een instructie gegeven. Jij weet niet precies hoe dat systeem werkt. 901 00:48:23,520 --> 00:48:27,600 Dit is nog betrekkelijk onschuldig, maar als het gaat over de zorg of een uitkering... 902 00:48:27,720 --> 00:48:29,680 Als er in dat soort processen iets misgaat... 903 00:48:29,800 --> 00:48:32,640 en de verantwoordelijkheidsmechanismen werken niet... 904 00:48:32,760 --> 00:48:36,000 dan is dat een enorme knauw in het vertrouwen voor de betreffende instelling. 905 00:48:36,120 --> 00:48:38,080 Ik denk dat we daar heel scherp op moeten zijn. 906 00:48:38,200 --> 00:48:39,160 Dat is een goed voorbeeld. 907 00:48:39,280 --> 00:48:42,240 DANIËL: Heel mooi voorbeeld. 908 00:48:42,360 --> 00:48:44,960 Jij noemt verantwoordelijkheid. Dat is natuurlijk belangrijk. 909 00:48:45,080 --> 00:48:47,960 Maar eigenlijk is nog belangrijker, soms: hoe los je dat snel op? 910 00:48:48,080 --> 00:48:50,840 Het gevaar bij verantwoordelijkheid is... 911 00:48:50,960 --> 00:48:53,920 dat je er een enorm juridisch systeem omheen gaat bouwen... 912 00:48:54,040 --> 00:48:56,080 door te zorgen: wie is er precies verantwoordelijk? 913 00:48:56,200 --> 00:48:59,280 Misschien verstandig. Maar aan de andere kant is het soms: 914 00:48:59,400 --> 00:49:02,880 lukt het om heel snel te zorgen dat je dat oplost? 915 00:49:03,000 --> 00:49:04,600 Heel oud voorbeeld, maar wel leuk. 916 00:49:04,720 --> 00:49:07,120 Dat was de creditcard. Een 'onveilige' technologie... 917 00:49:07,240 --> 00:49:09,080 want raak je hem kwijt, gaat een ander ermee shoppen. 918 00:49:09,200 --> 00:49:13,840 Maar er zat een polis achter waardoor je gecompenseerd werd. 919 00:49:13,960 --> 00:49:15,040 Dan is het niet zo erg meer. 920 00:49:15,160 --> 00:49:19,120 Dat soort spanningen... Dus hier ga je spelen met wat techniek kan en doet... 921 00:49:19,240 --> 00:49:23,360 wie precies verantwoordelijk is en hoe je die oplossingen gaat zien. 922 00:49:23,480 --> 00:49:28,040 Dat is volgens mij in deze fase heel belangrijk. 923 00:49:29,040 --> 00:49:34,280 Je benoemde aan het begin van het webinar de casus van... 924 00:49:34,400 --> 00:49:36,120 DANIËL: De Arbeidsinspectie. -Dankjewel. 925 00:49:36,240 --> 00:49:40,600 Ik raak altijd in de war van de afkortingen. Er zit een letter in die ik niet kan plaatsen. 926 00:49:41,280 --> 00:49:45,000 Maar iemand die zich aansluit bij jullie op het platform... 927 00:49:45,120 --> 00:49:50,560 krijgt dus ook toegang tot de lessen uit al die andere sessies? 928 00:49:50,680 --> 00:49:53,520 Gekker nog: we doen het zonder toegangscode. 929 00:49:53,640 --> 00:49:56,480 Als je naar de website begeleidingsethiek.nl gaat... 930 00:49:56,600 --> 00:50:01,080 dan klik je aan 'Verslagen' en staan ze allemaal op je te wachten. 931 00:50:01,200 --> 00:50:02,200 Dus dat is het idee. 932 00:50:02,320 --> 00:50:05,120 En we hopen dan ook... 933 00:50:06,800 --> 00:50:09,800 Niet alles, want sommige organisaties durven dat niet. 934 00:50:09,920 --> 00:50:12,240 Maar soms hebben ze daar een hele goede reden voor. 935 00:50:12,360 --> 00:50:17,840 We hebben bijvoorbeeld een sessie gedaan rondom de gevangenis in Vught... 936 00:50:17,960 --> 00:50:20,920 het zwaarste gevang in Nederland. Ik snap dat je die niet op de site zet. 937 00:50:21,040 --> 00:50:23,840 Soms vind ik overheden een beetje bangelijk... 938 00:50:23,960 --> 00:50:26,960 maar wij gaan er helemaal voor om het wel openbaar te doen... 939 00:50:27,080 --> 00:50:28,920 en we krijgen de meesten mee. 940 00:50:29,040 --> 00:50:32,520 Dus er staan zeker 70, 80, 90 op. 941 00:50:32,640 --> 00:50:34,040 LYKLE: Leuk. 942 00:50:35,120 --> 00:50:36,800 Ik zit ondertussen te scannen... 943 00:50:36,920 --> 00:50:42,480 want het wordt al bijna tijd om te checken of de kijkers nog afrondende vragen hebben. 944 00:50:44,000 --> 00:50:47,800 Sandra vraagt: wie zou het gesprek over technologie moeten voeren... 945 00:50:47,920 --> 00:50:50,280 in een organisatie? 946 00:50:50,400 --> 00:50:53,600 Ik vermoed dat ik jullie antwoord wel weet, maar ik hoor het graag jullie zelf zeggen. 947 00:50:53,720 --> 00:50:57,640 DANIËL: Zeg maar, wat is het antwoord? -JORIS: Iedereen. 948 00:50:57,760 --> 00:51:00,880 Dat is een beetje flauw, want iedereen is dan eigenlijk niemand. 949 00:51:01,000 --> 00:51:03,120 Maar het is belangrijk dat mensen doorhebben... 950 00:51:03,240 --> 00:51:08,360 dat iedereen dit op de agenda kan zetten, omdat je in een vorm met AI gaat werken. 951 00:51:08,480 --> 00:51:12,320 We hebben vaak zoiets van: GenAI is iets nieuws, iets technisch. 952 00:51:12,440 --> 00:51:14,160 Maar als je het zou vervangen voor het internet. 953 00:51:14,280 --> 00:51:16,600 Wie moet het gesprek daarover in een organisatie voeren? 954 00:51:16,720 --> 00:51:19,440 Daar hebben we allemaal iets van te vinden, allemaal mee te maken. 955 00:51:19,560 --> 00:51:21,960 Dat straalt af op iedereen die in die organisatie zit. 956 00:51:22,080 --> 00:51:23,840 Dat is voor AI niet anders. 957 00:51:23,960 --> 00:51:26,680 Ik zou je op dezelfde manier inspannen om te zorgen dat... 958 00:51:26,800 --> 00:51:29,520 als het niet al gevoerd wordt, dat je het op de agenda zet. 959 00:51:29,640 --> 00:51:33,920 DANIËL: Helemaal eens. Daarom vanuit begeleidingsethiek die vier groepen ook. 960 00:51:34,040 --> 00:51:35,280 En in m'n boek heb ik ook gezegd: 961 00:51:35,400 --> 00:51:37,920 Eigenlijk zou je aan een touwtje moeten kunnen trekken... 962 00:51:38,040 --> 00:51:42,240 of je nou patiënt bent, of een arts, of een manager, van: 963 00:51:42,360 --> 00:51:45,720 'Wacht even. Nu begin ik me ongemakkelijk te voelen. Nu is er iets aan de hand.' 964 00:51:45,840 --> 00:51:50,000 Ook juist techniekmensen, want heel vaak komt ethiek ineens op hun bordje. 965 00:51:50,120 --> 00:51:53,440 Dan moeten zij maar iets doen en een keuze maken. 966 00:51:53,560 --> 00:51:57,200 Dus dat die aan een touwtje kan trekken: Nu doen we 'n begeleidingsethiek-sessie. 967 00:51:57,320 --> 00:52:01,880 Want het is wel zo: je kunt niet in je eentje dat doen. 968 00:52:02,000 --> 00:52:03,880 Iedereen kan het gesprek aangaan... 969 00:52:04,000 --> 00:52:06,760 maar het is wel fijn als dat gesprek binnen je organisatie... 970 00:52:06,880 --> 00:52:08,040 goed georganiseerd wordt... 971 00:52:08,160 --> 00:52:10,560 zodat je er niet alleen voor staat, maar je dat echt gaat doen. 972 00:52:10,680 --> 00:52:12,680 Dat is waar een organisatie zich op kan inrichten. 973 00:52:12,800 --> 00:52:15,800 Dat dat beter gefaciliteerd wordt dan het misschien nu is. 974 00:52:15,920 --> 00:52:17,600 Latisha vraagt ook nog: 975 00:52:17,720 --> 00:52:21,360 Kun je het ethisch volwassenheidsmodel ook breder dan AI inzetten? 976 00:52:21,480 --> 00:52:24,280 Is er een digitale ethiek in het algemeen? 977 00:52:24,400 --> 00:52:27,800 Ik zeg dat weleens vaker, maar ik voel me soms het paard van Troje... 978 00:52:27,920 --> 00:52:30,160 want ik kom dan binnen voor ethiek en AI... 979 00:52:30,280 --> 00:52:34,040 maar je hebt het al gauw over de praktijk waarin dat AI-systeem wordt ingezet... 980 00:52:34,160 --> 00:52:35,560 en welke keuzes daarin gemaakt zijn. 981 00:52:35,680 --> 00:52:38,520 En dan gaat het over de strategie waar die werkpraktijk onderdeel van is. 982 00:52:38,640 --> 00:52:40,280 Dus je kunt hem absoluut breder trekken. 983 00:52:40,400 --> 00:52:43,440 LYKLE: Eigenlijk moet het wel vanzelf over meer dingen dan alleen AI gaan. 984 00:52:43,560 --> 00:52:46,320 Je kunt het niet in het luchtledige bespreken. 985 00:52:46,440 --> 00:52:47,560 Als je het goed doet wel, ja. 986 00:52:47,680 --> 00:52:51,200 Meestal de waarborg- of handelingsopties die eruit komen... 987 00:52:51,320 --> 00:52:55,520 gaan ook over meer dan alleen deze data wel, deze niet, dit model wel, dit niet... 988 00:52:55,640 --> 00:52:57,640 maar ook: hoe instrueren we onze medewerkers? 989 00:52:57,760 --> 00:53:01,120 Wat doen we met eventuele escalaties rond zo'n model? 990 00:53:01,240 --> 00:53:05,080 Dus je moet het over meer hebben en je kunt het zeker breder inzetten. 991 00:53:06,200 --> 00:53:08,760 De makkelijke 'ja, maar' die dan komt is: Ja, maar wanneer dan? 992 00:53:08,880 --> 00:53:10,960 Daar hebben we toch helemaal geen tijd voor? 993 00:53:11,080 --> 00:53:12,360 (INSTEMMEND): Ja... 994 00:53:12,480 --> 00:53:16,640 LYKLE: Jij gaf net al aan dat zo'n sessie begeleidingsethiek... 995 00:53:16,760 --> 00:53:19,320 niet echt even stilstaan en pauzeren is. 996 00:53:19,440 --> 00:53:22,720 Het is een hele effectieve manier om met weinig tijd... 997 00:53:22,840 --> 00:53:25,960 veel kwalitatief resultaat te verzamelen. 998 00:53:26,080 --> 00:53:28,000 Vanaf het begin hebben we daarop gestuurd. 999 00:53:28,120 --> 00:53:29,560 Dit moeten we proberen in een dagdeel. 1000 00:53:29,680 --> 00:53:32,440 En dat is hard werken, maar mensen vinden het ook leuk. 1001 00:53:32,560 --> 00:53:35,120 Dat was ook nog een doel eigenlijk. Dat is heel goed gelukt. 1002 00:53:35,240 --> 00:53:38,000 Ethiek is vaak (ZUCHT) moeilijk, zwaar, maar hier is het gewoon: 1003 00:53:38,120 --> 00:53:41,360 je bent fijn met elkaar bezig en je bent echt iets aan het doen. 1004 00:53:41,480 --> 00:53:44,440 En het is dus klein gehouden. Dat betekent: je kunt het vaker doen. 1005 00:53:44,560 --> 00:53:47,280 En de vraag wanneer, ik hoor hem heel vaak: 1006 00:53:47,400 --> 00:53:50,280 moet ik het aan het begin van het proces doen, of? 1007 00:53:50,400 --> 00:53:52,440 We hebben alles gedaan, dus het kan op alle momenten. 1008 00:53:52,560 --> 00:53:54,240 Het is goed om over na te denken. 1009 00:53:54,360 --> 00:53:58,960 Als je aan het begin zit, heb je iets meer fantasie van het scenario. 1010 00:53:59,080 --> 00:54:02,920 Zou dit soort toepassing het worden en daarom daar toepassen? 1011 00:54:03,040 --> 00:54:04,720 En verderop heb je meer ervaring. 1012 00:54:04,840 --> 00:54:08,800 Dan weet je: dit is het ding, daar zijn we al mee bezig en we merken zus of zo. 1013 00:54:08,920 --> 00:54:10,720 Dat is allebei heel interessant. 1014 00:54:10,840 --> 00:54:14,600 Misschien dat je het in een proces ook meer dan eens zou kunnen doen... 1015 00:54:14,720 --> 00:54:18,200 om goed het stuur in handen te houden. 1016 00:54:18,320 --> 00:54:20,600 Ja, want het verandert natuurlijk. Het is dynamisch. 1017 00:54:20,720 --> 00:54:23,520 Daarom is het misschien ook goed om nog even te benoemen: 1018 00:54:23,640 --> 00:54:27,160 Het is zo'n dynamische wereld. Ik vergeet het vaak omdat het zo gewoon is. 1019 00:54:27,280 --> 00:54:30,520 Heel veel beleid of wetgeving kan met die dynamiek heel weinig... 1020 00:54:30,640 --> 00:54:31,800 omdat het te snel gaat. 1021 00:54:31,920 --> 00:54:35,920 Dan heb je net iets afgerond, anderhalf jaar keurig mee bezig geweest... 1022 00:54:36,040 --> 00:54:38,560 en drie updates verder is het product niet meer hetzelfde... 1023 00:54:38,680 --> 00:54:40,080 en moet je opnieuw beginnen. 1024 00:54:40,200 --> 00:54:43,320 Je zoekt iets waar je om kunt gaan met de enorme dynamiek... 1025 00:54:43,440 --> 00:54:45,880 die de technologie geeft en die de mensen weer teruggeven. 1026 00:54:46,000 --> 00:54:47,520 Dus dat is ook belangrijk. 1027 00:54:47,640 --> 00:54:53,680 Nou horen we als mensen al best wel lang dat we een leven lang moeten leren. 1028 00:54:53,800 --> 00:54:55,480 Het is niet meer zo dat je een vak leert... 1029 00:54:55,600 --> 00:55:01,360 en dat je dat dan tot je pensioen ongewijzigd kunt blijven toepassen. 1030 00:55:01,480 --> 00:55:03,680 Dit is toch ook de nieuwe realiteit voor organisaties? 1031 00:55:03,800 --> 00:55:07,280 Dat eigenlijk juist ook dankzij digitalisering... 1032 00:55:08,680 --> 00:55:12,040 je van het ene op het andere jaar niet alles helemaal hetzelfde doet. 1033 00:55:12,160 --> 00:55:15,080 Dit zou toch eigenlijk een continu proces moeten zijn? 1034 00:55:15,200 --> 00:55:17,120 DANIËL: Ja, dat is het ook. -JORIS: Zeker. 1035 00:55:17,240 --> 00:55:20,480 En volgens mij had je eerst digitale vaardigheden... 1036 00:55:20,600 --> 00:55:23,680 en dan moesten mensen leren om een e-mail te maken en internet te gebruiken. 1037 00:55:23,800 --> 00:55:27,160 AI wordt... Het voelt misschien nog niet zo, omdat het nog nieuw is en onwennig... 1038 00:55:27,280 --> 00:55:30,200 maar het wordt de volgende systeemtechnologie. 1039 00:55:30,320 --> 00:55:32,560 Het wordt de volgende onmisbare vorm van technologie... 1040 00:55:32,680 --> 00:55:35,200 die een grote rol speelt in ons leven. 1041 00:55:35,320 --> 00:55:38,240 Dus net als dat je digitale vaardigheden aangeleerd krijgt... 1042 00:55:38,360 --> 00:55:41,160 ga je ook AI op die manier je eigen maken. 1043 00:55:41,280 --> 00:55:45,240 DANIËL: Ik heb ooit een programma 'Digitale vaardigheden in de zorg' opgezet. 1044 00:55:45,360 --> 00:55:46,480 Dat bestaat nog steeds. 1045 00:55:46,600 --> 00:55:48,400 Daar heb je meerdere categorieën: 1046 00:55:48,520 --> 00:55:51,600 de klassieke vaardigheden van leren typen... 1047 00:55:51,720 --> 00:55:53,320 tot aan innovatieachtige vaardigheden van: 1048 00:55:53,440 --> 00:55:56,400 wat betekent dit nou voor mijn plek, mijn organisatie, mijn afdeling? 1049 00:55:56,520 --> 00:55:58,920 Voor mij horen die vaardigheden er ook bij. 1050 00:55:59,040 --> 00:56:02,840 Snap ik hoe het werkt, weet ik wat de gevaren zijn, de voordelen... 1051 00:56:02,960 --> 00:56:04,480 maar ook: wat doet dit met ons? 1052 00:56:04,600 --> 00:56:10,120 Dat is een vaardigheid die bij AI nog belangrijker is dan in de vorige generatie. 1053 00:56:10,240 --> 00:56:16,680 Als je nou als medewerker van een overheid dit webinar bijwoont... 1054 00:56:16,800 --> 00:56:20,640 en je hebt misschien in het begin 'nee' geantwoord... 1055 00:56:20,760 --> 00:56:24,480 op de vraag: heb je het al toegepast? 'Nee, want ik durf het niet.' 1056 00:56:25,920 --> 00:56:28,880 Kan het advies dan zijn, op basis van wat we hier gezegd hebben: 1057 00:56:29,000 --> 00:56:33,000 Eigenlijk zou iedereen dit gesprek moeten kunnen beginnen in z'n organisatie. 1058 00:56:33,120 --> 00:56:37,280 Als-ie daar onzeker over is, pakt-ie de begeleidingsethiek als aanpak erbij. 1059 00:56:37,400 --> 00:56:39,720 'Kijk maar, dit wordt al langer gedaan. 1060 00:56:39,840 --> 00:56:43,880 Ik ben niet de enige die dit vindt, maar dit is een betrouwbare manier van werken. 1061 00:56:44,000 --> 00:56:45,280 En als we dit fijn vinden... 1062 00:56:45,400 --> 00:56:50,040 kunnen we zelfs met een volwassenheids- model een soort koers uitzetten... 1063 00:56:50,160 --> 00:56:51,880 om de komende jaren hierin te groeien.' 1064 00:56:52,000 --> 00:56:55,080 Zou dat een hele korte samenvatting van dit uur zijn? 1065 00:56:55,200 --> 00:56:57,240 JORIS: Ik zou zeggen 'moeten' in plaats van 'kunnen'. 1066 00:56:57,360 --> 00:56:59,000 LYKLE: Want het is onvermijdelijk. 1067 00:56:59,120 --> 00:57:02,760 Als jij zegt: het is een systeemtechnologie, dit gaat niet meer weg... 1068 00:57:02,880 --> 00:57:07,600 dan heeft een organisatie geen tijd meer om de boot af te houden. 1069 00:57:07,720 --> 00:57:09,200 Ik zou het onverstandig vinden. 1070 00:57:09,320 --> 00:57:14,120 Je wilt als overheid vertrouwen uitstralen, je wilt dat burgers je kunnen vertrouwen. 1071 00:57:14,240 --> 00:57:18,360 Dan is deze technologie, die nu al zo'n groot onderdeel van onze samenleving is... 1072 00:57:18,480 --> 00:57:21,560 essentieel en essentieel om het goed te doen. 1073 00:57:21,680 --> 00:57:24,440 Ik zie in de comments ook AI-geletterdheid nog ter sprake komen. 1074 00:57:24,560 --> 00:57:27,800 De Rijksoverheid heeft daar in ieder geval nu al iets over afgesproken. 1075 00:57:27,920 --> 00:57:30,280 We moeten AI-geletterd raken of worden. 1076 00:57:30,400 --> 00:57:33,240 Alleen er staat niet precies bij wat dat dan is. 1077 00:57:34,040 --> 00:57:36,960 Op basis van jullie eigen ervaring... 1078 00:57:37,080 --> 00:57:40,480 hoe zou je het invullen als je het mocht zeggen voor een organisatie? 1079 00:57:40,600 --> 00:57:42,960 Dit is een verplichting vanuit de AI Act. 1080 00:57:43,080 --> 00:57:48,080 Dus ik hoop dat sinds augustus vorig jaar de meeste mensen al AI-geletterd zijn. 1081 00:57:48,200 --> 00:57:50,680 Sinds februari dit jaar moet ik zeggen. 1082 00:57:50,800 --> 00:57:53,800 LYKLE: Maar is het dan een cursus over: hoe werkt een large language model... 1083 00:57:53,920 --> 00:57:56,280 of wat is een algoritme, of is het iets anders? 1084 00:57:56,400 --> 00:58:00,600 Het is een basisbegrip van: hoe zit die technologie in elkaar. 1085 00:58:00,720 --> 00:58:04,080 Maar wat je ziet, en dat is wat AP ook heeft aangegeven over AI-geletterdheid... 1086 00:58:04,200 --> 00:58:07,520 is dat je ook moet kijken naar: hoe raakt AI aan mijn werk... 1087 00:58:07,640 --> 00:58:10,040 en hoe kan ik me kritisch verhouden tot die technologie? 1088 00:58:10,160 --> 00:58:12,520 Het is niet alleen een basisbegrip van 'zo zit het in elkaar'... 1089 00:58:12,640 --> 00:58:16,720 maar, ik werk met fraudezaken, dan weet ik dat het systeem deze fouten kan maken... 1090 00:58:16,840 --> 00:58:19,320 dat ik op deze manier kritisch moet reflecteren op dat systeem. 1091 00:58:19,440 --> 00:58:24,080 Dus ook een soort gespecialiseerd begrip van die technologie in jouw context. 1092 00:58:24,200 --> 00:58:27,240 Moeten we ook meer ethiek-geletterd raken? 1093 00:58:27,360 --> 00:58:31,480 Goede vraag. Ik vind dat altijd dubieus, laat ik het zo zeggen. 1094 00:58:31,600 --> 00:58:36,120 Met dit soort vormen, die wij dan gemaakt hebben met begeleidingsethiek... 1095 00:58:36,240 --> 00:58:40,960 krijg je eigenlijk die AI-geletterdheid op een specifieke case. 1096 00:58:41,080 --> 00:58:43,160 Ik ben huiverig om te zeggen dat... 1097 00:58:43,280 --> 00:58:46,520 Ik vind mensen eigenlijk al heel ethisch, laat ik het zo zeggen. 1098 00:58:46,640 --> 00:58:51,760 Niet van: we moeten mensen leren om te weten welke waarden belangrijk zijn. 1099 00:58:51,880 --> 00:58:54,560 Daar kun je wel iets aan doen, maar ik heb heel veel vertrouwen... 1100 00:58:54,680 --> 00:58:57,280 in wat er is en wat we als organisaties hebben. 1101 00:58:57,400 --> 00:59:03,040 Dus we moeten leren die stap naar praktische ethiek te maken. 1102 00:59:03,160 --> 00:59:05,960 En dat is niet altijd hetzelfde als ethisch leren denken. 1103 00:59:06,080 --> 00:59:11,280 Ik heb allemaal mensen gezien aan tafel die geen ethische opleiding hebben... 1104 00:59:11,400 --> 00:59:13,360 maar die waanzinnig ethische uitspraken deden. 1105 00:59:13,480 --> 00:59:18,280 Ik zou dat vertrouwen meer teruggeven en meer daarop varen. 1106 00:59:18,400 --> 00:59:20,000 Dat zou ik het belangrijkste vinden. 1107 00:59:20,120 --> 00:59:21,920 Kom ik nog even terug op jouw casus. 1108 00:59:22,040 --> 00:59:29,880 Iemand wil nog graag weten: welke GenAI werd er dan gebruikt? 1109 00:59:30,960 --> 00:59:34,320 Weet je dat nog? Of staat dat in het verslag? 1110 00:59:34,440 --> 00:59:37,000 Het zal in het verslag staan. Ik weet het niet zeker. 1111 00:59:37,120 --> 00:59:40,480 De link naar het verslag van de workshop zit straks in de digitale goodiebag. 1112 00:59:40,600 --> 00:59:42,800 Daar kun je dat hopelijk in terugvinden. 1113 00:59:42,920 --> 00:59:47,840 Weer een interessante vraag: welk systeem gebruik je dan? Waar staat het? 1114 00:59:47,960 --> 00:59:52,800 Staat het in Nederland of binnen een EU-gebaseerde GPT-engine? 1115 00:59:52,920 --> 00:59:56,000 Het bewustzijn en de bewustwording op het gebied van... 1116 00:59:56,120 --> 00:59:57,720 'Dit is niet zomaar gereedschap... 1117 00:59:57,840 --> 01:00:00,920 maar het is gereedschap dat getraind is op een bepaalde manier... 1118 01:00:01,040 --> 01:00:04,280 wat bepaalde culturele implicaties heeft, privacy-implicaties'... 1119 01:00:04,400 --> 01:00:07,320 is dus klaarblijkelijk wel aan het groeien. 1120 01:00:07,440 --> 01:00:09,640 Daniël en Joris, ik moet naar de klok kijken... 1121 01:00:09,760 --> 01:00:12,440 en besluiten dat het voor vandaag voldoende is geweest. 1122 01:00:12,560 --> 01:00:17,720 Ik wil jullie heel erg bedanken voor alles wat jullie met ons gedeeld hebben. 1123 01:00:18,920 --> 01:00:21,520 Er komen nog twee webinars aan in deze reeks. 1124 01:00:21,640 --> 01:00:24,920 Op 13 november van het jaar 2025, zeg ik erbij... 1125 01:00:25,040 --> 01:00:27,440 want dit wordt opgenomen en ik weet niet wanneer je het terugkijkt... 1126 01:00:27,560 --> 01:00:30,920 is er het webinar over werken met generatieve AI als collega. 1127 01:00:31,040 --> 01:00:32,840 Dat kwam eigenlijk al een beetje ter sprake. 1128 01:00:32,960 --> 01:00:34,920 En wat voor collega is het dan? 1129 01:00:35,040 --> 01:00:38,680 En op 27 november 2025... 1130 01:00:38,800 --> 01:00:42,640 gaan we heel specifiek praten over concrete successen. 1131 01:00:42,760 --> 01:00:45,480 We hebben het genoemd: De reis naar resultaat met generatieve AI. 1132 01:00:45,600 --> 01:00:49,600 Daar ga je horen hoe bijvoorbeeld Sammie en de OmgevingsChat... 1133 01:00:49,720 --> 01:00:53,280 uiteindelijk werkelijkheid zijn geworden en wat daar de succesfactoren in waren. 1134 01:00:53,400 --> 01:00:57,240 Ik wil heel graag ICTU bedanken voor het mogen gebruiken van deze mooie studio. 1135 01:00:57,360 --> 01:01:02,240 Ik wil Joost en Chiel heel graag bedanken voor het faciliteren van alle techniek. 1136 01:01:02,360 --> 01:01:06,560 Mijn collega's Femke, Titus en Damiët voor het bewaken van de chat. 1137 01:01:06,680 --> 01:01:11,360 En natuurlijk heel veel dank aan jullie, Daniël Tijink en Joris Krijger... 1138 01:01:11,480 --> 01:01:12,920 om hier vandaag te zijn. 1139 01:01:13,040 --> 01:01:20,080 Wil je meer weten, of de ervaringen van vandaag nog eens zelf doornemen? 1140 01:01:20,200 --> 01:01:22,880 Er zijn plekken waar je heen kan gaan. Een aantal hebben we al genoemd. 1141 01:01:23,000 --> 01:01:25,840 Er is de website over bewegings... 1142 01:01:25,960 --> 01:01:28,720 Bewegingsethiek ging ik zeggen. Dat bestaat vast ook. 1143 01:01:28,840 --> 01:01:31,280 Begeleidingsethiek.nl. 1144 01:01:32,400 --> 01:01:35,480 Er is platformaioverheid.nl... 1145 01:01:35,600 --> 01:01:38,800 waar je veel collega's kunt vinden die al dingen gedaan hebben op dit vlak... 1146 01:01:38,920 --> 01:01:40,880 en waar je je hopelijk aan op kunt trekken... 1147 01:01:41,000 --> 01:01:44,040 maar mensen die ook heel benieuwd zijn naar wat je zelf ervaren hebt. 1148 01:01:45,760 --> 01:01:47,600 Daarmee zijn we aan het eind van dit webinar. 1149 01:01:47,720 --> 01:01:51,440 Voor nu heel erg bedankt voor het kijken en voor alle vragen en reacties. 1150 01:01:51,560 --> 01:01:53,320 We hopen dat jullie er wijzer van zijn geworden. 1151 01:01:53,440 --> 01:01:58,880 Veel succes met het uitproberen en inzetten van generatieve AI. 1152 01:01:59,000 --> 01:02:01,520 Tot de volgende keer. Bedankt.