Showing 20 pages using this property.
I
Voor meer informatie over IGEMO verwijzen we door naar hun website .  +
Imec ontstaat in 1984 als onafhankelijk onderzoekscentrum voor micro- en later nano-elektronica. Het doel is om alle academische kennis rond chiptechnologie in Vlaanderen te bundelen. Want die technologie is de motor voor de derde industriële revolutie – en daarmee voor de blijvende welvaart van de regio. Sinds 2016 is ook iMinds (voorheen IBBT), het strategische onderzoekscentrum van Vlaanderen op het gebied van digitale innovatie, onderdeel van imec. Daardoor vind je bij imec vandaag zowel soft- als hardware onder één dak, en ligt de focus zowel op het internationale als Vlaamse terrein. Imec start vanuit het geloof in duurzame innovatie die kan mogelijk gemaakt worden door gebruik te maken van technologie. Meer informatie kan hier gevonden worden, alsook op de Wikipedia pagina .  +
https://overheid.vlaanderen.be/help/klip/imkl-formaat  +
INSPIRE: Infrastructure for Spatial Information in Europe [1] De INSPIRE-richtlijn heeft tot doel een infrastructuur voor ruimtelijke gegevens in de Europese Unie tot stand te brengen ten behoeve van het milieubeleid en het beleid of de activiteiten van de EU die gevolgen kunnen hebben voor het milieu. Deze Europese infrastructuur voor ruimtelijke gegevens zal de uitwisseling van ruimtelijke milieu-informatie tussen overheids[[::Category:Organisaties| Organisaties]] mogelijk maken, de toegang van het publiek tot ruimtelijke informatie in heel Europa vergemakkelijken en helpen bij de beleidsvorming over de grenzen heen. INSPIRE is gebaseerd op de infrastructuren voor ruimtelijke informatie die door de lidstaten van de Europese Unie zijn opgericht en worden beheerd. De richtlijn heeft betrekking op 34 thema's met betrekking tot ruimtelijke gegevens die nodig zijn voor milieutoepassingen. De richtlijn is op 15 mei 2007 in werking getreden en zal in verschillende fasen ten uitvoer worden gelegd, waarbij de volledige tenuitvoerlegging tegen 2021 vereist is. Geoportaal Het INSPIRE Geoportaal [2] is het centrale Europese toegangspunt tot de gegevens die door de EU-lidstaten en verschillende EVA-landen in het kader van de INSPIRE-richtlijn worden verstrekt. Het Geoportaal maakt het mogelijk: de beschikbaarheid van INSPIRE-gegevensreeksen te controleren; het ontdekken van geschikte gegevensreeksen op basis van hun beschrijvingen (metagegevens); toegang te krijgen tot de geselecteerde gegevensreeksen via hun raadpleeg- of downloaddiensten. Referenties ↑ https://inspire.ec.europa.eu/ ↑ https://inspire-geoportal.ec.europa.eu/  +
Inspire heeft verschillende data standaarden gedefinieerd voor verschillende thema's. Een voorbeeld voor hydrography vind je hier: https://inspire.ec.europa.eu/id/document/tg/hy  +
Dit is de initiatiefpagina City of Things INVEST – POM West-Vlaanderen. Deze pagina beschrijft het initiatief volgens de definitie op de VLAIO website en linkt door naar relevante pagina's op de kennishub. [1] Overzicht City Of Things Initiatieven   Initiatiefnemer Gelinkte Initiatieven Domeinen City of Things 2020 VLAIO Data-gestuurde winkelgebieden – Mechelen De Sint-Niklase Stadsmunt – Sint-Niklaas Smart Retail Area – Antwerpen VLOED - Gent INVEST – POM West-Vlaanderen LocusFocus – POM Vlaams-Brabant Lokaal 3D Project – Provincie Oost-Vlaanderen Wij Leveren – Leuven Interprovinciaal project dat wil inzetten op een efficiënt en effectief detailhandelsbeleid en een florerend en toekomstbestendig (duurzaam) detailhandelsapparaat in Vlaanderen. Ze willen dit beleid, dat kernversterking en lokaal kopen als uitgangspositie heeft, meer baseren op slimme data en tools om het zo meer onderbouwd, accurater en performanter te maken, alsook benchmarking mogelijk te maken. De gemeenten krijgen bijkomende data ter beschikking en zullen geholpen worden deze te vertalen naar hun detailhandelsbeleid in de ruime zin. Ook detailhandelaars zelf zullen gebruik kunnen maken van bepaalde data om zo hun verkoop beter te analyseren en performanter te maken of om betere keuzes te kunnen maken bij (her-)allocaties van nieuwe/bestaande winkels. Daarnaast wordt ook een interprovinciale promocampagne voorzien om het lokale kopen te stimuleren. ↑ https://www.vlaio.be/nl/vlaio-netwerk/city-things-slimme-steden-en-gemeenten/city-things  +
IOK, de intercommunale ontwikkelingsmaatschappij voor de Kempen is een dienstverlenende vereniging.  IOK heeft tot doel de 29 aangesloten gemeentebesturen te ondersteunen. Tot het uitgebreide takenpakket van IOK behoren activiteiten zoals industrieel grondbeleid, sociaal grondbeleid en een hele waaier van ondersteunende diensten in het kader van verlengd lokaal bestuur: intercommunale milieudienst, veiligheid en welzijn op het werk, juridisch advies, ruimtelijke planning, technische dienstverlening en nog veel meer. Zetel: Antwerpseweg 1, 2440 Geel www.iok.be  +
Het ISA² programma werd officieel stopgezet in april 2021 . Het nieuwe initiatief Interoperable Europe , gesteund door het Digital Europe Programma, zal de doelstellingen van het ISA² programma verder realiseren. Interoperability solutions for public administrations, businesses and citizens (ISA²) is een Europees Programma dat de ontwikkeling ondersteund van digitale tools gericht op de Europese publieke sector, bedrijven en burgers. De tools zijn voornamelijk gericht op grensoverschrijdende en sectoroverschrijdende publieke dienstverlening. Programma's ISA² ondersteunt onder meer de volgende programma's: Uitwisseling van informatie tussen Europese instellingen en lidstaten voor de monitoring van de toepassing van Europese wetgeving Herbruikbare tools voor publeke participatie in de EU Vereenvoudiging van elektronische aankopen en facturatie Delen van statistische diensenten en oplossingen Verbeteren van semantische interoperabiliteit in Europese e-governement-systemen Ontwikkeling van digitale netwerken van de de toekomst Vastleggen van een gedeelde architectuur voor de 'Single Digital Gateway' Ontwikkeling van frameworks voor interoperabiliteit op nationaal niveau (zie [1] voor meer projecten en informatie) Oplossingen In het kader van deze programma's werden verschillende oplossing uitgewerkt, waaronder EIRA and CarTool : European Interoperability Reference Architecture and Cartography tool DCAT Application Profile for data portals in Europe: Specification describing public sector datasets Core vocabularies: Simplified, reusable and extensible data models Core Public Service Vocabulary Application Profile (CPSV-AP): A data model for describing public services and the associated life and business events NIFO: The National Interoperability Framework Observatory Re3gistry: exchange data cross-border and cross-sector using reference codes Interoperability Quick Assessment Toolkit (IQAT) (zie [2] voor de volledige lijst) Referenties ↑ https://ec.europa.eu/isa2/actions_en ↑ https://ec.europa.eu/isa2/solutions_en  
IT architectuur Een specifieke IT architectuur wordt opgesteld voor de stad die het VLOCA traject initieert. Team VLOCA werkt daarbij nauw samen met het lokaal bestuur en haar gekozen IT partner. Tegelijkertijd zorgt team VLOCA ervoor dat een generieke architectuur wordt uitgewerkt, waarop andere steden en gemeenten hun project in een latere fase kunnen baseren. De specifieke context van het eerste project in onze regio zorgt op deze wijze voor een snelle start voor de volgende projecten, waarbij herbruikbaarheid en interoperabiliteit centraal staan. Informatie architectuur Gewenste informatie op dashboards, portaalsite, apps, … Uitgewerkt in een mindmap Data architectuur Voorbereiding voor OSLO traject/ semantische standaard Data governance Applicatie architectuur Rol van relevante toepassingen en hun interactie met informatie Uitgewerkt met een use case diagram Technologische architectuur Hard, soft en hybride infrastructuur voor applicatie architectuur Uitgewerkt met technische tekeningen  +
FAIR checklist – Nieuwe dataset Wanneer je als organisatie wil omgaan met data, dan is het belangrijk dat deze voldoet aan de FAIR Principes . Dit draaiboek beschrijft welke stappen je kan doorlopen om een nieuwe dataset conform de FAIR (F: Vindbaar, A:Toegankelijk, I:Interoperable en R:Herbruikbaar) principes in gebruik te nemen. SMIT-VUB maakte een checklist op die kan worden doorgenomen om een nieuwe dataset te evalueren in functie van deze FAIR principes . Stap 1: Identificeer de dataset Op basis van de onderstaande eigenschappen kan je de cruciale informatie over een dataset identificeren/verzamelen. Verzeker dat de infofiche zorgvuldig wordt ingevuld voor elke dataset. Eigenschap Antwoord Dataset naam Dataset afkorting Dataset aanbieder Dataset eigenaar Dataset domein Dataset beschrijving Dataset locatie Frequentie van data Kalibratie van data Gebruikslicentie DPO instructies Stap 2: Bepaal de gebruiksgeschiktheid Voldoet de dataset aan de doelen van de use case? Indien ja, ga ook na of er blokkerende elementen zijn waardoor de data niet zou mogen gebruikt worden. Raadpleeg in functie van de geldende GDPR wetgeving de Data Protection Officer van jouw organisatie of de organisatie vanwaar de data afkomstig is. Duid aan, bij de dataset identificatie, indien er aanbevelingen zijn op het vlak van privacy . Stap 3: Evalueer de ruwe dataset Vooraleer enig datagebruik of dataverwerking te gaan doen, is het belangrijk na te gaan of de ruwe dataset beantwoordt aan de FAIR principes . Voor de verschillende FAIR Principes werden vragen opgesteld die je als potentieel gebruiker van een dataset kan gaan beantwoorden. Deze vragen kunnen je helpen om te begrijpen of de ruwe dataset voldoet aan de FAIR Principes. FAIR principe Categorie Vraag Antwoord Opmerking Toegankelijk Data Context Werd de ruwe dataset samen met een dataschema geleverd? Herbruikbaar Data Context Bevat de dataset extra data die de doelen kunnen aanvullen? Toegankelijk Data Context Werd de ruwe dataset samen met een datavocabulaire geleverd? Toegankelijk Data Context Is de dataset voldoende actueel in de context van de use case? Toegankelijk Data Context Is de geschiedenis van de dataset beschikbaar? Kunnen we eerdere data van de huidige dataset controleren? Privacy Data Context Weten we met welke reden de data werd verzameld? Vindbaar Data Kwaliteit Weten we hoe de data is verzameld? Toegankelijk Data Kwaliteit Is de data in een toegankelijk formaat ? (Een formaat dat snelle verwerking mogelijk maakt?) Herbruikbaar Data Kwaliteit Is er een datastandaard toegepast? Vindbaar Data Kwaliteit Weet ik hoe de gegevens zijn verwerkt door de gegevensverzamelaar? Veiligheid Data Kwaliteit Zijn de gegevens beschermd tegen mogelijke risico’s? Veiligheid Data Kwaliteit Kan ik alleen de delen van de dataset zien die ik mag zien? Toegankelijk Data Kwaliteit Staat het protocol een authenticatie- en autorisatieprocedure toe waar nodig? Herbruikbaar Data Kwaliteit Wordt de data vrijgegeven met een duidelijke en toegankelijke datagebruikslicentie ? Toegankelijk Data Traceerbaarheid Is de metadata toegankelijk, ook als de data niet meer beschikbaar is? Vindbaar Data Traceerbaarheid Ken ik de herkomst van de data? Efficiency Data Traceerbaarheid Weet ik het doel van de uitgever van de data? Vindbaar Data Traceerbaarheid Wordt de data beschreven met rijke metadata ? Herbruikbaar Data Traceerbaarheid Is de databron onveranderlijk? Vindbaar Data Traceerbaarheid Is de verzamellocatie van elk datapunt gekend? (Link naar geodata) Toegankelijk Data Kwaliteit Is het protocol open, gratis en universeel toepasbaar? Herbruikbaar Data Kwaliteit Is er een mogelijkheid om de data fundamenteel te herzien via samenwerking met de producent? Uitwisselbaar Data Kwaliteit Heeft de data betrekking op een gemeenschappelijk gestandardiseerd glossarium? Privacy Data Kwaliteit Bevat de data gevoelige informatie (persoonlijke, financiële, intellectuele eigendomsgegeven)? Stap 4: Beslis of de kwaliteit voldoet Na deze evaluatie moet er een beslissing worden genomen of de dataset voldoende bruikbaar is.  Enkel indien je van oordeel bent, op basis van de bovenstaande evaluatiestappen dat jij (of je team, organisatie) akkoord bent/is ga je door naar de volgende stap. Stap 5: Verwerk de data of laat de data verwerken Op basis van de uitkomst van de voorgaande stap en de doelstellingen die jij of je organisatie heeft, kan je de dataset verwerken of laten verwerken tot een voor jou/jouw organisatie bruikbare dataset. Stap 6: Evalueer de resulterende dataset Eens de dataset verwerkt werd, kan je ook nog een FAIR Principes evaluatie maken van de dataset die resulteerd uit deze verwerking. De vragen hieronder, opgesteld voor de verschillende FAIR Principes kunnen hierbij helpen. Op basis van deze evaluatie kan je beslissen of er nog verdere actie nodig zijn of niet voor het gebruik van de data. FAIR Principe Categorie Vraag Antwoord Opmerking Uitwisselbaar Data Context Ondersteunt de dataset meerdere gebruiksscenario’s? Toegankelijk Data Context Komt de dataset overeen met een gedeeld glossarium / gepubliceerde ontologie ? Efficiëntie Data Context Ziet de data er geloofwaardig uit? Efficiëntie Data Context Ondersteunt de dataset de organisatiedoelen en/of een gekozen toepassing ikv een use case. Efficiëntie Data Context Ondersteunt de dataset de aannames/vereisten van het model? Vindbaar Data Context Zijn de metadata toegelicht? Vindbaar Data Traceerbaarheid Krijgen de gegevens een wereldwijd unieke en persistente ID toegewezen? Vindbaar Data Traceerbaarheid Is de data technisch geïndexeerd en machinedoorzoekbaar? Vindbaar Data Traceerbaarheid Wordt de data beschreven met rijke metadata? Toegankelijk Data Kwaliteit Is de data voldoende volledig (ontbrekende waarden) voor het doel van het project? Herbruikbaar Data Kwaliteit Is de data te koppelen aan andere gebruikte datasets? Toegankelijk Data Kwaliteit Voldoet de data aan het formaat van het datalakehouse? Herbruikbaar Data Kwaliteit Wordt de data vrijgegeven met een duidelijke en toegankelijke datagebruikslicentie? Veiligheid Data Kwaliteit Is de data beschermd tegen risico? Herbruikbaar Data Kwaliteit Kan de dataset worden gevalideerd met real-life metingen? Is de data reeds gevalideerd door de data eigenaar? Uitwisselbaar Data Kwaliteit (Als het antwoord ja was in de ruwe lijst - stap 3): Komt de dataset overeen met de gemeenschapsnormen? Privacy Data Kwaliteit (Als het antwoord ja was in de ruwe lijst - stap 3): Voldoet de dataset aan de AVG (Algemeen Verordening Gegevensbescherming)-normen? Toegankelijk Data Kwaliteit (Als het antwoord ja was in de ruwe dataset lijst - stap 3): Is het voor het doel van dit project belangrijk om het protocol open, gratis en universeel aan te bieden? Stap 7: Stel een periodieke herevaluatie van de dataset in functie van de gekozen toepassing. Het is belangrijk om de datakwaliteit te blijven monitoren, en dus ook om bij te houden of de dataset nog steeds zal voldoen aan de FAIR Principes . Daarom is het aangeraden om een periodieke herevaluatie van de dataset te houden, in functie van de gekozen toepassing.  
VLOCA aanbevelingen Sensoring Voor het kiezen van de geschikte sensor, de installatie ervan en de juiste datacommunicatie, kunnen volgende draaiboeken geconsulteerd worden: Hoe kies ik een geschikte sensor Hoeveel en waar sensoren plaatsen Hoe kies ik de geschikte datatransmissie en logging device Data dashboarding en visualisatie Voor een aantal tips bij het opzetten van een online dashboard zie volgende pagina VLOCA Projecten gerelateerd aan het draaiboek VLOCA project Organisatie(s) Werfwater Werfwater  +
This is the image belonging to page Ik wil bemalingswaterdebieten in real time volgen  +
Ik wil data van een watersensornetwerk gebruiken (data broker vraagzijde) Opvragen Data opvragen technisch gezien kan best verlopen via: API op database subscription op een data broker Momenteel zijn er verschillende bronnen waar water gerelateerde data kan opgevraagd worden. waterinfo geopunt Curiezeneuzen bodem(vocht) - in verwachting Analyseren (machine learning, AI, data science, …) Data pipeline concept Bij het verwerken dan data in de brede zin (vanaf hier "data analyse" genoemd) is het belangrijk de data analyse als een pipeline te beschouwen. Data start als een ruw object, wordt code-matig bewerkt tot een meer verwerkt data object, en eindigt na verschillende stappen als een finaal product dat meerwaarde geeft tov het originele ruwe data object. Codematig data behandelen Het is belangrijk dat de data verwerking code matig gebeurd. Editeer geen excel files met de hand, programeer dit proces. Ruwe data mag niet overschreven worden, sla deze apart op, en laat een script een nieuwe versie van dit bestand maken na bewerking ervan. Project structuur Eens data analyse code matig gebeurd, is er nog altijd het risico dat de transparantie van de code verloren gaat na een tijd, beschouw volgende gedachtegangen tijdens een data analyse project: Was het nu make_figures.py, make_figures_working.py or new_make_figures01.py om de figuren te plotten? Moet ik read_process.py eerst lopen of is clean_data2.py het eerste script om te laten lopen? Indien de code niet gestructureerd bijgehouden wordt, gaan na verloop van tijd zulke vragen de transparantie van de analyse ondermijnen. Hoe kan dit opgelost worden? Er zijn verschillende project management structuren om je code in te gieten. Eentje hiervan is Cookie Cutter . [1] Het volgen van deze structuur kan de pijn al enigszins verlichten. Configuratie files Eens er een goede structuur is, kan het lopen van verschillende analyses best ook gestructureerd worden obv een configuratie file. Een configuratie file kan je zien als een bestand dat allerlei verschillende processen bijhoudt, en de bijhorende parameters oplijst die gebruikt werden om een bepaald process te laten lopen. Zo'n configuratie file zou er als volgt kunnen uitzien: Voorbeeld 1 configuratie file data analyse Voorbeeld 2 configuratie file data analyse Deze configuratie file kan gebruik worden om obv één naam (in deze 2 voorbeelden "first_sim" en "second_sim") een volledige keten van analyses te definiëren en te laten lopen. Er zijn verschillende velden die de data bronnen specifieren. In deze 2 voorbeelden worden er 2 verschillende machine learning modellen gebruikt. Voorbeeld 1 gebruikt een suipport vector machine, voorbeeld 2 een neuraal netwerk. Er wordt ook genoteerd welk script gebruikt wordt voor het plotten van figuren. Uiteraard kan dit zo ver uitgebreid worden als wenselijk, maar dit geeft een idee hoe een data pipeline degelijk gedocumenteerd kan worden. Data oplevering = data + metadata Indien er data gedeeld of opgeleverd wordt, is het aan te raden om niet enkel de data maar ook methodes en parameters mee te geven. In volgend draaiboek worden suggesties gedaan hoe dit best gebeurd: Hoe deel ik mijn data? Online vs offline learning Notebooks Notebooks dienen in de eerste plaats voor data exploratie en communicatie. Vermijd het gebruik van notebooks als single point of truth's. Refereer in notebooks naar functies die in de source code van het project gedefinieerd zijn. Environment + requirements file Om data analyse reproduceerbaar te maken, wordt sterk aangeraden om de data analyse te laten beginnen vanuit een requirements file die specificeert welke packages (en versienummer) gebruikt werden. Voor elk project wordt best een unieke omgeving (environment) aangemaakt, zodat er geen conflicten ontstaan tussen verschillende projecten. Het is standaard om in python - data science projecten een requirements.txt file te voorzien in de root van de repository, die je via de command line kan opgeroepen via: pip install -r requirements.txt indien pip gebruikt wordt conda install --file requirements.txt indien conda gebruikt wordt Meer info over conda hier . Meer info over pip hier . Version control Het is sterk aangeraden om de code die de data analyse stuurt te opslaan en bijhouden in een repository met version control. Dit laat toe om een gedocumenteerde geschiedenis van alle wijzigingen bij te houden, waarop later naar terug gegrepen kan worden. Meer info over een populair version control system: git . Visualiseren (dashboard, …) Er zijn een groot aantal verschillende opties om water data te visualiseren en te communiceren. Het belangrijkste voor VLOCA is dat de data eerst beschikbaar is en correct, de visualisatie ervan kan makkelijk volgen. Enkele guidelines voor het visualiseren van data, en de keuze van de geschikte visualisatie (in python): https://www.python-graph-gallery.com/matplotlib/ Enkele opties voor het opzetten van dashboards in Python en R (open source): https://plotly.com/dash/ (zie ook Dash GitHub - (R, Python, Julia, .NET) https://rstudio.github.io/shiny/tutorial/ Dash is het meest gedownloadede Python framework om machine learning en data science apps/dashboards op het web te bouwen. Deployment kan o.a. via Heroku ↑ https://drivendata.github.io/cookiecutter-data-science/#analysis-is-a-dag  
Vlaanderen wil een slimme en data gedreven overheid die inzet op state of the art digitale dienstverlening. (bron: Vlaamse digitale strategie, Digitaal Vlaanderen) De Vlaamse overheid wil voor het einde van de regeerperiode aansluiting vinden bij Europese koplopers, de top 5 landen uit de Digital Economy and Society Index, of kortweg DESI, rangschikking. In 2020 werd in kader van het relanceplan “Vlaamse veerkracht” gestart met deze digitale transformatie en kan men de komende jaren de vruchten plukken van eerder gestarte initiatieven zoals het “Vlaanderen radicaal digitaal 2 programma”. Men beperkt zich niet tot enkel de Vlaamse overheid. In de evaluatie beschouwt men ook de provinciale en lokale niveaus. Des te meer data wordt verzameld en opengesteld, des te meer de beleidsmakers de effecten van beleid nauwgezet kunnen opvolgen. De data worden samengebracht in beleidsindicatoren. Via een dashboard krijgen beleidsmakers (real time) inzicht in de recente evolutie en scores voor bepaalde domeinen. Ze kunnen navigeren van enkele hoofddomeinen zoals “duurzaamheid” naar een meer detail niveau zoals “afvalstatistieken” of “reparatie activitieten”. Deze laatste indicator zou dan geënt zijn op de reparatie data aangeleverd via een VLOCA data architectuur en verzameld door het repair ecosysteem in de stad of gemeente. Dit repair ecosysteem omvat: commerciële hersteldiensten, vrijwillige herstel (bv op repair cafés) en herstel door burgers (met steun van digitale tool zoals RepairConnects waar ze het toestel registeren en advies krijgen). Een voorbeeld werd opgesteld. Let op, dit is louter ter verduidelijking van het droombeeld. Hier worden geen echt data gebruikt. Data driven scoreboard → online dashboard Mapping inflow, outflows Repair attempts Soort problemen Data gedreven beleid rond circulariteit Een data driven policy dashboard kan er bijvoorbeeld als volgt uitzien:  
Ik wil de data van een watersensornetwerk beheren Ik wil de data bewaren (keuze databank, backups, toegangscontrole,…) Hoe houden we gestructureerd data bij? Voor aanbevelingen, zie volgend draaiboek. Voor de keuze van een database, zie volgend draaiboek. Ik wil de data ontsluiten voor anderen (data broker aanbodzijde) Hoe deel ik mijn data?  +
Voorbeeld aanvulling -- MaartenVanLoo ( overleg ) 16 jun 2021 15:41 (CEST)  +