"Parsed text" is een vooraf gedefinieerde eigenschap. Deze eigenschap is van te voren gedefinieerd (ook bekend als een speciale eigenschap) en komt met extra beheersprivileges, maar kan worden gebruikt net als elk andere door de gebruiker gedefinieerde eigenschap.
I
Imec ontstaat in 1984 als onafhankelijk onderzoekscentrum voor micro- en later nano-elektronica. Het doel is om alle academische kennis rond chiptechnologie in Vlaanderen te bundelen. Want die technologie is de motor voor de derde industriële revolutie – en daarmee voor de blijvende welvaart van de regio. Sinds 2016 is ook iMinds (voorheen IBBT), het strategische onderzoekscentrum van Vlaanderen op het gebied van digitale innovatie, onderdeel van imec. Daardoor vind je bij imec vandaag zowel soft- als hardware onder één dak, en ligt de focus zowel op het internationale als Vlaamse terrein. Imec start vanuit het geloof in duurzame innovatie die kan mogelijk gemaakt worden door gebruik te maken van technologie.
Meer informatie kan hier gevonden worden, alsook op de Wikipedia pagina . +
INSPIRE: Infrastructure for Spatial Information in Europe
[1]
De INSPIRE-richtlijn heeft tot doel een infrastructuur voor ruimtelijke gegevens in de Europese Unie tot stand te brengen ten behoeve van het milieubeleid en het beleid of de activiteiten van de EU die gevolgen kunnen hebben voor het milieu. Deze Europese infrastructuur voor ruimtelijke gegevens zal de uitwisseling van ruimtelijke milieu-informatie tussen overheids[[::Category:Organisaties| Organisaties]] mogelijk maken, de toegang van het publiek tot ruimtelijke informatie in heel Europa vergemakkelijken en helpen bij de beleidsvorming over de grenzen heen.
INSPIRE is gebaseerd op de infrastructuren voor ruimtelijke informatie die door de lidstaten van de Europese Unie zijn opgericht en worden beheerd. De richtlijn heeft betrekking op 34 thema's met betrekking tot ruimtelijke gegevens die nodig zijn voor milieutoepassingen.
De richtlijn is op 15 mei 2007 in werking getreden en zal in verschillende fasen ten uitvoer worden gelegd, waarbij de volledige tenuitvoerlegging tegen 2021 vereist is.
Geoportaal
Het INSPIRE Geoportaal [2] is het centrale Europese toegangspunt tot de gegevens die door de EU-lidstaten en verschillende EVA-landen in het kader van de INSPIRE-richtlijn worden verstrekt. Het Geoportaal maakt het mogelijk:
de beschikbaarheid van INSPIRE-gegevensreeksen te controleren;
het ontdekken van geschikte gegevensreeksen op basis van hun beschrijvingen (metagegevens);
toegang te krijgen tot de geselecteerde gegevensreeksen via hun raadpleeg- of downloaddiensten.
Referenties
↑ https://inspire.ec.europa.eu/
↑ https://inspire-geoportal.ec.europa.eu/ +
Inspire heeft verschillende data standaarden gedefinieerd voor verschillende thema's.
Een voorbeeld voor hydrography vind je hier: https://inspire.ec.europa.eu/id/document/tg/hy +
Dit is de initiatiefpagina City of Things INVEST – POM West-Vlaanderen.
Deze pagina beschrijft het initiatief volgens de definitie op de VLAIO website en linkt door naar relevante pagina's op de kennishub.
[1]
Overzicht City Of Things Initiatieven
Initiatiefnemer Gelinkte Initiatieven Domeinen City of Things 2020 VLAIO Data-gestuurde winkelgebieden – Mechelen De Sint-Niklase Stadsmunt – Sint-Niklaas Smart Retail Area – Antwerpen VLOED - Gent INVEST – POM West-Vlaanderen LocusFocus – POM Vlaams-Brabant Lokaal 3D Project – Provincie Oost-Vlaanderen Wij Leveren – Leuven
Interprovinciaal project dat wil inzetten op een efficiënt en effectief detailhandelsbeleid en een florerend en toekomstbestendig (duurzaam) detailhandelsapparaat in Vlaanderen. Ze willen dit beleid, dat kernversterking en lokaal kopen als uitgangspositie heeft, meer baseren op slimme data en tools om het zo meer onderbouwd, accurater en performanter te maken, alsook benchmarking mogelijk te maken. De gemeenten krijgen bijkomende data ter beschikking en zullen geholpen worden deze te vertalen naar hun detailhandelsbeleid in de ruime zin. Ook detailhandelaars zelf zullen gebruik kunnen maken van bepaalde data om zo hun verkoop beter te analyseren en performanter te maken of om betere keuzes te kunnen maken bij (her-)allocaties van nieuwe/bestaande winkels. Daarnaast wordt ook een interprovinciale promocampagne voorzien om het lokale kopen te stimuleren.
↑ https://www.vlaio.be/nl/vlaio-netwerk/city-things-slimme-steden-en-gemeenten/city-things +
IOK, de intercommunale ontwikkelingsmaatschappij voor de Kempen is een dienstverlenende vereniging. IOK heeft tot doel de 29 aangesloten gemeentebesturen te ondersteunen. Tot het uitgebreide takenpakket van IOK behoren activiteiten zoals industrieel grondbeleid, sociaal grondbeleid en een hele waaier van ondersteunende diensten in het kader van verlengd lokaal bestuur: intercommunale milieudienst, veiligheid en welzijn op het werk, juridisch advies, ruimtelijke planning, technische dienstverlening en nog veel meer.
Zetel: Antwerpseweg 1, 2440 Geel
www.iok.be +
Het ISA² programma werd officieel stopgezet in april 2021 . Het nieuwe initiatief Interoperable Europe , gesteund door het Digital Europe Programma, zal de doelstellingen van het ISA² programma verder realiseren.
Interoperability solutions for public administrations, businesses and citizens (ISA²) is een Europees Programma dat de ontwikkeling ondersteund van digitale tools gericht op de Europese publieke sector, bedrijven en burgers. De tools zijn voornamelijk gericht op grensoverschrijdende en sectoroverschrijdende publieke dienstverlening.
Programma's
ISA² ondersteunt onder meer de volgende programma's:
Uitwisseling van informatie tussen Europese instellingen en lidstaten voor de monitoring van de toepassing van Europese wetgeving
Herbruikbare tools voor publeke participatie in de EU
Vereenvoudiging van elektronische aankopen en facturatie
Delen van statistische diensenten en oplossingen
Verbeteren van semantische interoperabiliteit in Europese e-governement-systemen
Ontwikkeling van digitale netwerken van de de toekomst
Vastleggen van een gedeelde architectuur voor de 'Single Digital Gateway'
Ontwikkeling van frameworks voor interoperabiliteit op nationaal niveau
(zie [1] voor meer projecten en informatie)
Oplossingen
In het kader van deze programma's werden verschillende oplossing uitgewerkt, waaronder
EIRA and CarTool : European Interoperability Reference Architecture and Cartography tool
DCAT Application Profile for data portals in Europe: Specification describing public sector datasets
Core vocabularies: Simplified, reusable and extensible data models
Core Public Service Vocabulary Application Profile (CPSV-AP): A data model for describing public services and the associated life and business events
NIFO: The National Interoperability Framework Observatory
Re3gistry: exchange data cross-border and cross-sector using reference codes
Interoperability Quick Assessment Toolkit (IQAT)
(zie [2] voor de volledige lijst)
Referenties
↑ https://ec.europa.eu/isa2/actions_en
↑ https://ec.europa.eu/isa2/solutions_en
IT architectuur
Een specifieke IT architectuur wordt opgesteld voor de stad die het VLOCA traject initieert. Team VLOCA werkt daarbij nauw samen met het lokaal bestuur en haar gekozen IT partner. Tegelijkertijd zorgt team VLOCA ervoor dat een generieke architectuur wordt uitgewerkt, waarop andere steden en gemeenten hun project in een latere fase kunnen baseren. De specifieke context van het eerste project in onze regio zorgt op deze wijze voor een snelle start voor de volgende projecten, waarbij herbruikbaarheid en interoperabiliteit centraal staan.
Informatie architectuur
Gewenste informatie op dashboards, portaalsite, apps, …
Uitgewerkt in een mindmap
Data architectuur
Voorbereiding voor OSLO traject/ semantische standaard
Data governance
Applicatie architectuur
Rol van relevante toepassingen en hun interactie met informatie
Uitgewerkt met een use case diagram
Technologische architectuur
Hard, soft en hybride infrastructuur voor applicatie architectuur
Uitgewerkt met technische tekeningen +
FAIR checklist – Nieuwe dataset
Wanneer je als organisatie wil omgaan met data, dan is het belangrijk dat deze voldoet aan de FAIR Principes . Dit draaiboek beschrijft welke stappen je kan doorlopen om een nieuwe dataset conform de FAIR (F: Vindbaar, A:Toegankelijk, I:Interoperable en R:Herbruikbaar) principes in gebruik te nemen.
SMIT-VUB maakte een checklist op die kan worden doorgenomen om een nieuwe dataset te evalueren in functie van deze FAIR principes .
Stap 1: Identificeer de dataset
Op basis van de onderstaande eigenschappen kan je de cruciale informatie over een dataset identificeren/verzamelen. Verzeker dat de infofiche zorgvuldig wordt ingevuld voor elke dataset.
Eigenschap
Antwoord
Dataset naam
Dataset afkorting
Dataset aanbieder
Dataset eigenaar
Dataset domein
Dataset beschrijving
Dataset locatie
Frequentie van data
Kalibratie van data
Gebruikslicentie
DPO instructies
Stap 2: Bepaal de gebruiksgeschiktheid
Voldoet de dataset aan de doelen van de use case?
Indien ja, ga ook na of er blokkerende elementen zijn waardoor de data niet zou mogen gebruikt worden. Raadpleeg in functie van de geldende GDPR wetgeving de Data Protection Officer van jouw organisatie of de organisatie vanwaar de data afkomstig is.
Duid aan, bij de dataset identificatie, indien er aanbevelingen zijn op het vlak van privacy .
Stap 3: Evalueer de ruwe dataset
Vooraleer enig datagebruik of dataverwerking te gaan doen, is het belangrijk na te gaan of de ruwe dataset beantwoordt aan de FAIR principes . Voor de verschillende FAIR Principes werden vragen opgesteld die je als potentieel gebruiker van een dataset kan gaan beantwoorden. Deze vragen kunnen je helpen om te begrijpen of de ruwe dataset voldoet aan de FAIR Principes.
FAIR principe
Categorie
Vraag
Antwoord
Opmerking
Toegankelijk
Data Context
Werd de ruwe dataset samen met een dataschema geleverd?
Herbruikbaar
Data Context
Bevat de dataset extra data die de doelen kunnen aanvullen?
Toegankelijk
Data Context
Werd de ruwe dataset samen met een datavocabulaire geleverd?
Toegankelijk
Data Context
Is de dataset voldoende actueel in de context van de use case?
Toegankelijk
Data Context
Is de geschiedenis van de dataset beschikbaar? Kunnen we eerdere data van de huidige dataset controleren?
Privacy
Data Context
Weten we met welke reden de data werd verzameld?
Vindbaar
Data Kwaliteit
Weten we hoe de data is verzameld?
Toegankelijk
Data Kwaliteit
Is de data in een toegankelijk formaat ? (Een formaat dat snelle verwerking mogelijk maakt?)
Herbruikbaar
Data Kwaliteit
Is er een datastandaard toegepast?
Vindbaar
Data Kwaliteit
Weet ik hoe de gegevens zijn verwerkt door de gegevensverzamelaar?
Veiligheid
Data Kwaliteit
Zijn de gegevens beschermd tegen mogelijke risico’s?
Veiligheid
Data Kwaliteit
Kan ik alleen de delen van de dataset zien die ik mag zien?
Toegankelijk
Data Kwaliteit
Staat het protocol een authenticatie- en autorisatieprocedure toe waar nodig?
Herbruikbaar
Data Kwaliteit
Wordt de data vrijgegeven met een duidelijke en toegankelijke datagebruikslicentie ?
Toegankelijk
Data Traceerbaarheid
Is de metadata toegankelijk, ook als de data niet meer beschikbaar is?
Vindbaar
Data Traceerbaarheid
Ken ik de herkomst van de data?
Efficiency
Data Traceerbaarheid
Weet ik het doel van de uitgever van de data?
Vindbaar
Data Traceerbaarheid
Wordt de data beschreven met rijke metadata ?
Herbruikbaar
Data Traceerbaarheid
Is de databron onveranderlijk?
Vindbaar
Data Traceerbaarheid
Is de verzamellocatie van elk datapunt gekend? (Link naar geodata)
Toegankelijk
Data Kwaliteit
Is het protocol open, gratis en universeel toepasbaar?
Herbruikbaar
Data Kwaliteit
Is er een mogelijkheid om de data fundamenteel te herzien via samenwerking met de producent?
Uitwisselbaar
Data Kwaliteit
Heeft de data betrekking op een gemeenschappelijk gestandardiseerd glossarium?
Privacy
Data Kwaliteit
Bevat de data gevoelige informatie (persoonlijke, financiële, intellectuele eigendomsgegeven)?
Stap 4: Beslis of de kwaliteit voldoet
Na deze evaluatie moet er een beslissing worden genomen of de dataset voldoende bruikbaar is. Enkel indien je van oordeel bent, op basis van de bovenstaande evaluatiestappen dat jij (of je team, organisatie) akkoord bent/is ga je door naar de volgende stap.
Stap 5: Verwerk de data of laat de data verwerken
Op basis van de uitkomst van de voorgaande stap en de doelstellingen die jij of je organisatie heeft, kan je de dataset verwerken of laten verwerken tot een voor jou/jouw organisatie bruikbare dataset.
Stap 6: Evalueer de resulterende dataset
Eens de dataset verwerkt werd, kan je ook nog een FAIR Principes evaluatie maken van de dataset die resulteerd uit deze verwerking. De vragen hieronder, opgesteld voor de verschillende FAIR Principes kunnen hierbij helpen. Op basis van deze evaluatie kan je beslissen of er nog verdere actie nodig zijn of niet voor het gebruik van de data.
FAIR Principe
Categorie
Vraag
Antwoord
Opmerking
Uitwisselbaar
Data Context
Ondersteunt de dataset meerdere gebruiksscenario’s?
Toegankelijk
Data Context
Komt de dataset overeen met een gedeeld glossarium / gepubliceerde ontologie ?
Efficiëntie
Data Context
Ziet de data er geloofwaardig uit?
Efficiëntie
Data Context
Ondersteunt de dataset de organisatiedoelen en/of een gekozen toepassing ikv een use case.
Efficiëntie
Data Context
Ondersteunt de dataset de aannames/vereisten van het model?
Vindbaar
Data Context
Zijn de metadata toegelicht?
Vindbaar
Data Traceerbaarheid
Krijgen de gegevens een wereldwijd unieke en persistente ID toegewezen?
Vindbaar
Data Traceerbaarheid
Is de data technisch geïndexeerd en machinedoorzoekbaar?
Vindbaar
Data Traceerbaarheid
Wordt de data beschreven met rijke metadata?
Toegankelijk
Data Kwaliteit
Is de data voldoende volledig (ontbrekende waarden) voor het doel van het project?
Herbruikbaar
Data Kwaliteit
Is de data te koppelen aan andere gebruikte datasets?
Toegankelijk
Data Kwaliteit
Voldoet de data aan het formaat van het datalakehouse?
Herbruikbaar
Data Kwaliteit
Wordt de data vrijgegeven met een duidelijke en toegankelijke datagebruikslicentie?
Veiligheid
Data Kwaliteit
Is de data beschermd tegen risico?
Herbruikbaar
Data Kwaliteit
Kan de dataset worden gevalideerd met real-life metingen? Is de data reeds gevalideerd door de data eigenaar?
Uitwisselbaar
Data Kwaliteit
(Als het antwoord ja was in de ruwe lijst - stap 3): Komt de dataset overeen met de gemeenschapsnormen?
Privacy
Data Kwaliteit
(Als het antwoord ja was in de ruwe lijst - stap 3): Voldoet de dataset aan de AVG (Algemeen Verordening Gegevensbescherming)-normen?
Toegankelijk
Data Kwaliteit
(Als het antwoord ja was in de ruwe dataset lijst - stap 3): Is het voor het doel van dit project belangrijk om het protocol open, gratis en universeel aan te bieden?
Stap 7: Stel een periodieke herevaluatie van de dataset in functie van de gekozen toepassing.
Het is belangrijk om de datakwaliteit te blijven monitoren, en dus ook om bij te houden of de dataset nog steeds zal voldoen aan de FAIR Principes . Daarom is het aangeraden om een periodieke herevaluatie van de dataset te houden, in functie van de gekozen toepassing.
VLOCA aanbevelingen
Sensoring
Voor het kiezen van de geschikte sensor, de installatie ervan en de juiste datacommunicatie, kunnen volgende draaiboeken geconsulteerd worden:
Hoe kies ik een geschikte sensor
Hoeveel en waar sensoren plaatsen
Hoe kies ik de geschikte datatransmissie en logging device
Data dashboarding en visualisatie
Voor een aantal tips bij het opzetten van een online dashboard zie volgende pagina
VLOCA Projecten gerelateerd aan het draaiboek
VLOCA project
Organisatie(s)
Werfwater
Werfwater +
This is the image belonging to page Ik wil bemalingswaterdebieten in real time volgen +
Ik wil data van een watersensornetwerk gebruiken (data broker vraagzijde)
Opvragen
Data opvragen technisch gezien kan best verlopen via:
API op database
subscription op een data broker
Momenteel zijn er verschillende bronnen waar water gerelateerde data kan opgevraagd worden.
waterinfo
geopunt
Curiezeneuzen bodem(vocht) - in verwachting
Analyseren (machine learning, AI, data science, …)
Data pipeline concept
Bij het verwerken dan data in de brede zin (vanaf hier "data analyse" genoemd) is het belangrijk de data analyse als een pipeline te beschouwen. Data start als een ruw object, wordt code-matig bewerkt tot een meer verwerkt data object, en eindigt na verschillende stappen als een finaal product dat meerwaarde geeft tov het originele ruwe data object.
Codematig data behandelen
Het is belangrijk dat de data verwerking code matig gebeurd. Editeer geen excel files met de hand, programeer dit proces.
Ruwe data mag niet overschreven worden, sla deze apart op, en laat een script een nieuwe versie van dit bestand maken na bewerking ervan.
Project structuur
Eens data analyse code matig gebeurd, is er nog altijd het risico dat de transparantie van de code verloren gaat na een tijd, beschouw volgende gedachtegangen tijdens een data analyse project:
Was het nu make_figures.py, make_figures_working.py or new_make_figures01.py om de figuren te plotten?
Moet ik read_process.py eerst lopen of is clean_data2.py het eerste script om te laten lopen?
Indien de code niet gestructureerd bijgehouden wordt, gaan na verloop van tijd zulke vragen de transparantie van de analyse ondermijnen.
Hoe kan dit opgelost worden? Er zijn verschillende project management structuren om je code in te gieten. Eentje hiervan is Cookie Cutter . [1] Het volgen van deze structuur kan de pijn al enigszins verlichten.
Configuratie files
Eens er een goede structuur is, kan het lopen van verschillende analyses best ook gestructureerd worden obv een configuratie file. Een configuratie file kan je zien als een bestand dat allerlei verschillende processen bijhoudt, en de bijhorende parameters oplijst die gebruikt werden om een bepaald process te laten lopen. Zo'n configuratie file zou er als volgt kunnen uitzien:
Voorbeeld 1 configuratie file data analyse
Voorbeeld 2 configuratie file data analyse
Deze configuratie file kan gebruik worden om obv één naam (in deze 2 voorbeelden "first_sim" en "second_sim") een volledige keten van analyses te definiëren en te laten lopen.
Er zijn verschillende velden die de data bronnen specifieren. In deze 2 voorbeelden worden er 2 verschillende machine learning modellen gebruikt. Voorbeeld 1 gebruikt een suipport vector machine, voorbeeld 2 een neuraal netwerk.
Er wordt ook genoteerd welk script gebruikt wordt voor het plotten van figuren.
Uiteraard kan dit zo ver uitgebreid worden als wenselijk, maar dit geeft een idee hoe een data pipeline degelijk gedocumenteerd kan worden.
Data oplevering = data + metadata
Indien er data gedeeld of opgeleverd wordt, is het aan te raden om niet enkel de data maar ook methodes en parameters mee te geven.
In volgend draaiboek worden suggesties gedaan hoe dit best gebeurd: Hoe deel ik mijn data?
Online vs offline learning
Notebooks
Notebooks dienen in de eerste plaats voor data exploratie en communicatie. Vermijd het gebruik van notebooks als single point of truth's. Refereer in notebooks naar functies die in de source code van het project gedefinieerd zijn.
Environment + requirements file
Om data analyse reproduceerbaar te maken, wordt sterk aangeraden om de data analyse te laten beginnen vanuit een requirements file die specificeert welke packages (en versienummer) gebruikt werden.
Voor elk project wordt best een unieke omgeving (environment) aangemaakt, zodat er geen conflicten ontstaan tussen verschillende projecten.
Het is standaard om in python - data science projecten een requirements.txt file te voorzien in de root van de repository, die je via de command line kan opgeroepen via:
pip install -r requirements.txt indien pip gebruikt wordt
conda install --file requirements.txt indien conda gebruikt wordt
Meer info over conda hier .
Meer info over pip hier .
Version control
Het is sterk aangeraden om de code die de data analyse stuurt te opslaan en bijhouden in een repository met version control.
Dit laat toe om een gedocumenteerde geschiedenis van alle wijzigingen bij te houden, waarop later naar terug gegrepen kan worden.
Meer info over een populair version control system: git .
Visualiseren (dashboard, …)
Er zijn een groot aantal verschillende opties om water data te visualiseren en te communiceren.
Het belangrijkste voor VLOCA is dat de data eerst beschikbaar is en correct, de visualisatie ervan kan makkelijk volgen.
Enkele guidelines voor het visualiseren van data, en de keuze van de geschikte visualisatie (in python): https://www.python-graph-gallery.com/matplotlib/
Enkele opties voor het opzetten van dashboards in Python en R (open source):
https://plotly.com/dash/ (zie ook Dash GitHub - (R, Python, Julia, .NET)
https://rstudio.github.io/shiny/tutorial/
Dash is het meest gedownloadede Python framework om machine learning en data science apps/dashboards op het web te bouwen.
Deployment kan o.a. via Heroku
↑ https://drivendata.github.io/cookiecutter-data-science/#analysis-is-a-dag
Vlaanderen wil een slimme en data gedreven overheid die inzet op state of the art digitale dienstverlening. (bron: Vlaamse digitale strategie, Digitaal Vlaanderen) De Vlaamse overheid wil voor het einde van de regeerperiode aansluiting vinden bij Europese koplopers, de top 5 landen uit de Digital Economy and Society Index, of kortweg DESI, rangschikking. In 2020 werd in kader van het relanceplan “Vlaamse veerkracht” gestart met deze digitale transformatie en kan men de komende jaren de vruchten plukken van eerder gestarte initiatieven zoals het “Vlaanderen radicaal digitaal 2 programma”. Men beperkt zich niet tot enkel de Vlaamse overheid. In de evaluatie beschouwt men ook de provinciale en lokale niveaus. Des te meer data wordt verzameld en opengesteld, des te meer de beleidsmakers de effecten van beleid nauwgezet kunnen opvolgen. De data worden samengebracht in beleidsindicatoren. Via een dashboard krijgen beleidsmakers (real time) inzicht in de recente evolutie en scores voor bepaalde domeinen. Ze kunnen navigeren van enkele hoofddomeinen zoals “duurzaamheid” naar een meer detail niveau zoals “afvalstatistieken” of “reparatie activitieten”. Deze laatste indicator zou dan geënt zijn op de reparatie data aangeleverd via een VLOCA data architectuur en verzameld door het repair ecosysteem in de stad of gemeente. Dit repair ecosysteem omvat: commerciële hersteldiensten, vrijwillige herstel (bv op repair cafés) en herstel door burgers (met steun van digitale tool zoals RepairConnects waar ze het toestel registeren en advies krijgen).
Een voorbeeld werd opgesteld. Let op, dit is louter ter verduidelijking van het droombeeld. Hier worden geen echt data gebruikt.
Data driven scoreboard → online dashboard
Mapping inflow, outflows
Repair attempts
Soort problemen
Data gedreven beleid rond circulariteit Een data driven policy dashboard kan er bijvoorbeeld als volgt uitzien:
Ik wil de data van een watersensornetwerk beheren
Ik wil de data bewaren (keuze databank, backups, toegangscontrole,…)
Hoe houden we gestructureerd data bij? Voor aanbevelingen, zie volgend draaiboek.
Voor de keuze van een database, zie volgend draaiboek.
Ik wil de data ontsluiten voor anderen (data broker aanbodzijde)
Hoe deel ik mijn data? +
Voorbeeld aanvulling -- MaartenVanLoo ( overleg ) 16 jun 2021 15:41 (CEST) +