Data en informatie werkgroep: Machine Learning as a Service (MLaaS)

Tijdens de eerste thematische werkgroep worden de data en informatienoden van de reeds geïdentificeerde use cases in kaart gebracht. De Werkgroep Data en Informatie staat open voor deelname door de gehele quadruple helix. Vaste deelnemers zijn de leden van het VLOCA-trajectconsortium en stakeholders, die samen de data- en informatienoden in kaart brengen. De verzamelde inzichten worden vervolgens verwerkt om de IT-architectuur verder aan te vullen.

De eerste thematische werkgroep rond 'Groen' vond plaats op 14 maart 2024.

Context

Initiatief

De stad Roeselare beschikt reeds over verschillende machine learning algoritmes die data genereren op basis van fotomateriaal en is hiervoor in contact met verschillende partijen. Deze data wordt gebruikt in zowel operationele processen als bij het nemen van beleidsbeslissingen.

Naast het voeden van eerder traditionele databanken stellen ze die intern ook ter beschikking via GEO loketten, en dit op een automatische manier. Deze kennis en ervaring willen ze verder uitbouwen en de algoritmes en processen tegelijkertijd ter beschikking stellen voor ieder bestuur, gaande van het kleinste lokaal bestuur tot bovenlokale overheden als Vlaanderen. Het concept van “machine learning as a service” laat de gebruiker om gebruik te maken van de data en de algoritmes zonder kennis te moeten uitbouwen van de technische achtergrond. Het moet als het ware een “dummy proof” platform worden waarbij men op een éénvoudige manier kan kiezen uit een overzichtelijke catalogus en kunnen “inpluggen” voor de processen die men nuttig acht. Door deze ontzorging kunnen meer besturen stappen zetten richting een sterker data gestuurde beleidsvorming en –voering.

Met het streven naar het opschalen van bestaande machine learning processen, het uitrollen van nieuwe mogelijkheden en deze via een platform als een service ter beschikking te stellen van alle overheden willen ze niet alleen zorgen voor meer data op Vlaams niveau maar ook voor “massa productie” aan een betaalbare prijs.

Groen inventarisering is een van de toepassingen binnen het MLaaS-project. In het bestuursakkoord van Roeselare werd de doelstelling opgenomen om 100.000 extra bomen te planten tegen 2025. Hiervoor was het nodig om zicht te krijgen op het bestaande aantal bomen. Om dit zo efficiënt mogelijk aan te pakken, wenste men in te zetten op datacaptatie via beeldherkenning.

De eerste stap van de datacaptatie was het capteren van beelden en data.

Een aantal methoden werden gebruikt:

  • Luchtfoto’s 15cm/pixel (augustus 2020, EuroSense)
    • RGB beelden
    • InfraRood beelden
    • Digital Surface Model (DSM) o.b.v. stereobeelden
  • Digital Terrain Model (DTM) (LiDAR 40cm/pixel, 2014)
  • Gebouwen vectormodel (shapefile, GRB)


De tweede stap was de herkenning via machine learning.

Hiervoor werd een proefzone van 2x2km (40cm/pixel beelden Vlaanderen) bepaald waarbij er zowel een manuele (door jobstudenten) als een machine learning inventarisering gebeurde.

Tot slot werden de resultaten geanalyseerd:

  • Er werd gekeken naar attributen zoals locatie, diameter van de boomkruin en hoogte van de bomen
  • Verder werd de detectie van de bomen vergeleken
    • vrijstaande bomen werden zeer goed geïdentificeerd (resultaat: 98.000 vrijstaande bomen)
    • de identificatie van bosrijk gebied was moeilijk (oa door overlap van boomkruinen)
      • Er werden slechts 1.145 bomen geïdentificeerd in het Sterrenbos (27 ha) vs een stadnaard bomendichtheid: 13.500 à 54.000 bomen (500 à 2.000 bomen/ha)

De vervolgstappen bestaan uit de machine learning-data als basis te gebruiken voor een boominventaris binnen het kader van groenbeheer

  • dit kan dan verder verrijkt worden met extra attributen (bvb boomsoort, leeftijd, beheer, snoei etc.)

Hoe?

  • op het terrein door middel van ESRI-apps
  • door boomexperten StadLandSchap (provincie West-Vlaanderen)

VLOCA

VLOCA, de Vlaamse Open City Architectuur, is een initiatief van het Agentschap Binnenlands Bestuur van de Vlaamse Overheid. De hulp van VLOCA aan lokale besturen start bij het scherpstellen van duidelijke, verstaanbare use cases en loopt door tot de aanbestedingsfase van het project. VLOCA vormt op deze manier een duidelijke brug tussen de beleidsdoelstellingen van het lokale bestuur en de technische laag waarin de oplossingen beschreven en geïmplementeerd worden. We stellen de juiste vragen en verzamelen de noden en behoeften van alle stakeholders (lokale besturen, kenniscentra, bedrijven en burgerorganisaties). Door een gestructureerde aanpak en verwerking van deze informatie wordt de ontwikkeling van herbruikbare bouwblokken, standaarden en normen gestimuleerd die van Vlaanderen één grote interoperabele slimme regio kunnen maken. De opgedane kennis en ervaring wordt ontsloten via een kennishub waarop onder andere draaiboeken, architectuur componenten en modellen ter beschikking gesteld worden voor alle andere lokale besturen en stakeholders.

Brainstormsessie

Doel

Het doel van de brainstormsessie is het volgende:

  • Identificatie van de meerwaardecreatie
  • Inzicht in wat je nodig hebt om de meerwaardecreaties te realiseren
  • Beschrijven van mogelijkheden om de oplossing te verduurzamen
  • Opsommen van valkuilen en potentiële principes waaraan de oplossing moet voldoen

Oefening 1+2

Bij deze oefeningen stonden we stil bij de volgende vragen:

1) Waarom is groen inventarisering belangrijk? Laat ons uitgaan van ‘the worst case’: we doen het niet.. Wat zijn de gevolgen?

  • Voorbeeld: We kunnen geen rapportering doen naar Vlaamse overheid/EU (subsidies?)

2) Wat heb je nodig om de geïdentificeerde meerwaardecreaties uit oefening 1 te realiseren? Lijst de acties op

  • Voorbeeld:

-Doel: we willen kunnen rapporteren naar Vlaanderen. Wat heb je hiervoor precies nodig?

-Ik wil het aantal bomen in een bepaalde regio gedurende een bepaalde tijd visueel weergeven, deze vergelijken met een ijkpunt/objectief en een actieplan opmaken

Overzicht

Identificatie meerwaardecreatie Toegepast
Zicht op evolutie kruinprojectie (in tijd, privaat/publiek, per wijk) -> evaluatie beleid + te nemen acties Foto's identificatie van boomkruinen van 2 periodes met elkaar vergelijken (zorgen dat die idd vergelijkbaar zijn) en de 'delta' te capteren tov een objectief/target. En de verschillen te rapporteren op geografische voor actiebeleid (vanuit Europa mag het niet negatief evolueren)
implementeren en monitoring van 3-30-300 regel (= 30% kruinoppervlakte) = Natuurherstelwet (in oct 2023 goedgekeurd in EU) Infraroodbeelden (zomer beelden) en LIDAR data
geen objectief zicht op werkvolume / kostprijs voor onderhoud (eigen beheer / uitbesteed) foto's analyseren op basis van AI om type beplanting en oppervlaktes/ lopende meters automatisch te genereren
bestekken controleren voor onderhoud openbaar groen
Klimaat adaptatie gebeurt via bomen => daarom focus op bomentellingen
groenonderhoud ifv type bomen, struiken (snoeien ikv van kwetsbare zones broedseizoen vogels)
zicht op wijzigingen in het bomenbestand (uitval (extra bomen te planten), conditie (medisch ingrijpen..) - ifv beheer ) herkenning en signaliseren van wijzigingen in de detectie van bomenbestand
ineffici nt groenonderhoud (geen zicht op welke bomen waar staan)=> verkeerde plaatsen gestuurd (ook verkeerde prioritisatie)
De periodes waar onderhoud niet mag gebeuren (bvb wegens broedseizoen vogels) met waar heeft dit vooral impact op.
Beter inschatting van de kosten van groenonderhoud Verschillende types vegetatie ; health status, ... karteren en op basis hiervan cijfers berekenen m.b.t. - status groen;- welke fractie heeft onderhoud nodig en wanneer (meerjarenplan opmaken)
Burgerparticipatie: Waar staan bomen in mijn buurt, welke boom kan ik helpen verzorgen Welke bomen zijn kwetsbaar, waar staan ze
orthofoto's en infrarood van meerdere periodes.
Hoeveel groen is er in mijn gemeente/wijk om zo CO2 sequestratie in te schatten + rapportage eu
De gezondheid van het bomenbestand inkaart brengen (via orthofoto en infrarood) via vliegtuig of drone orthofoto's en infrarood van meerdere periodes van zomer tot zomer (winter beelden zijn hierbij niet echt relevant)
trends kunnen uithalen (uniformiseren van inventarisatie en analyses) In sommige gevallen ook Mobile mapping data nodig
de natuurherstelwet eist tegen 2030 geen achteruitgang van groen in de stad Infraroodbeelden (zomer beelden)
NDVI index = proxy voor gezondheid van de bomen
effici nte handhaving gerooide bomen zonder vergunning detectie wijziging bomenbestand op privaat domein, gekoppeld aan kapvergunningen
Correlaties detecteren (bijv impact op luchtkwaliteit) data standaardiseren om data te kunnen linken (obv locatie?) en vergelijken. Toegankelijk maken van de data
een boom/struik op een bepaalde locatie blijkt telkens opnieuw dood te gaan (ongeschikte locatie / soort boom) monitoring evolutie gezondheid (conditie) van bomen/struiken o.b.v. soort boom / locatie v/d boom via jaarlijkse foto analyses
Sociale discrepantie in een stad (sommigen hebben meer bomen/groen dan andere) => hoe kunnen we dit 'nivelleren'
Detectie van groene longen in verstedelijkt gebied en hun spreiding (tegen hittestress, verbetering leefkwaliteit) Lokaliseren van bomen en groen op luchtfoto's
Open data (voor burgers te informeren): waar zijn de groene zones in de stad, al dan niet met speeltoestellen, hoe is deze ingericht... uitzetten tov andere basiskaarten (vb GRB - gebouwen en wegen voor verharding)
uitzetten tov eigen interne databronnen (vb speelpleinen)
Correlatie van evolutie bomenbestand met andere omgevingsfactoren vaststellen (bebouwing, verharding, luchtvervuiling, wateroverlast, al dan niet vergunde kap=>handhaving) Detectie van bomen en volume/kruinen van de bomen met daarbij het opbouwen van tijdreeksen om evoluties in de tijd kunnen vaststellen + vergelijken met centrale of eigen databronnen
verrijken met andere databronnen, bebouwing, lunchtkwaliteit, wateroverlast,...
invasieve (woeker)planten verdringen bomen/struiken pro-actieve detectie van invasieve planten o.b.v. luchtbeelden
dronebeelden (=hyperspectrale camera's, want normale 3 kleuren camera's zijn niet voldoende om dit te kunnen capteren)
Geen zicht op de verhardingsgraad binnen een AOI (Area of Interest) Kost van graafwerken (in een verharde plaats is kostelijker dan berm bvb)
Land cover classificatie kan helpen om de verhardingsgraad te inventariseren + monitoren en de impact van acties te begroten
Kan eventueel gebruikt worden voor taxatie (=beloning bij ontharding)
ontharding ikv van vergunningsvoorwaarden analyseren -> handhaving 2 luchtfoto's analyseren voor en na
handhaving van voortuinen die 'verhard' werden in het verleden => binnen het jaar ook 'winter' foto's mogelijk (zijn zelfs gemakkelijker omdat de bomen niet in de weg staan) => GIM : Belmap/perceel's kenmerken/verharding vanuit winterfoto's gedaan
doorlaatbare beton vs niet doorlaatbare beton
kunstgras vs echt gras <= via IR foto's

Discussie

  • De evolutie van kruin projectie: as is situatie vergelijken met een objectief
    • Is de meest objectieve methode om het groen bestand in een stad te gaan monitoren
    • Indien je een trend wil analyseren is het belangrijk om in acht te nemen dat machine learning ook evolueert doorheen de tijd en dat deze sterker wordt in het herkennen van bomen. Wanneer je deze dan op een ouder luchtbeeld toepast, kan het zijn dat de resultaten verschillend zijn met een ouder machine learning versie.
  • Dankzij de nieuwe Europese wetgeving, nl de natuurherstelwet, is het verplicht om aan monitoring te doen en mag de evolutie uiteraard niet negatief zijn. Het bomenbestand of de kruinprojectie mag er met andere woorden niet op achteruit gaan. Het is belangrijk dat dit op zowel privaat als publiek domein gemonitord wordt. Daarnaast is er nood aan een trend te identificeren zodat er een aangepast beleid kan uitgestippeld worden.
    • Voor het toepassen van de natuurherstelwet heb je een uitstekend monitoringsysteem nodig
  • Groenonderhoud: gericht preventief onderhoud (al dan niet) gaan doen (ifv snoeiperiodes, broedseizoen, staat van groen etc)
  • Signaalfunctie: signalisatie wijzigingen en detectie boombestand
    • In een foto van 2023 wordt een boom geïdentificeerd die er niet meer is op een foto van 2024, dan wordt een signaal gegeven
    • Normaliter wordt bij de groendienst bijgehouden welke bomen vervangen (moeten) worden maar bij bvb stormschade is het niet altijd duidelijk welke bomen afgezaagd werden en waar
    • Dit zou een soort van fail safe kunnen zijn voor de groendienst om na te kijken of ze op alle locaties waar bomen verdwenen zijn, er ook effectief nieuwe bomen aangeplant worden in het volgende plantseizoen. Dit is vooral nuttig in het geval van conditiebepaling van een boom dat dit kan gesignaleerd worden zodat een boomverzorger op pad gestuurd kan worden pm een visual tree assessment uit te voeren.
  • Het is eenvoudiger om met machine learning een bomenbestand te gaan inventariseren dan een volledige groen inventarisatie omdat het groen zich net onder de kruinen bevindt en dus heel wat groen niet zichtbaar is door middel van luchtbeelden.
    • Is een valkuil voor het automatisch automatiseren van groen.
    • De bomen hebben daarnaast de grootste impact op de groene stedelijke infrastructuur wat ervoor zorgt dat je klimaatbestendiger wordt. Klimaat adaptatie gebeurt met andere woorden voornamelijk via bomen. Dit verklaart de focus.
  • Mobile mapping data = camera op auto gemonteerd waardoor je niet alleen informatie van bovenaf maar ook in 3-D kan opmeten
    • Soms kan de kruin van een boom gezond lijken maar is er schade aan de stam. Dit kan je niet zien op luchtfoto's.
  • Het beste signaal is een infrarood signaal dat pixels gaat tellen, of er minder blad is etc: dit is de holy grail van machine learning voor bomen.
    • De NDVI-index (=Landsat Normalized Difference Vegetation Index) geeft een inzicht in de gezondheidstoestand van een boom. Geeft chlorofyl gehalte in groen vegetatie aan.
    • Kan je enkel in de zomer doen wanneer vegetatie in bloei staat
    • Essentieel om trendanalyse te kunnen doen
    • Je hebt infrarood beelden nodig om vegetatie van niet-vegetatie te onderscheiden. Alles boven de 3m van vegetatie = een boom. Zo worden de algoritmes opgemaakt. In de zomer hebben de bomen geen bladeren waardoor identificatie moeilijker wordt.
    • Identificatie van invasieve planen: is dit gemakkelijker te detecteren in de winter dan?
      • GIM: De sensoren en resolutie die momenteel ter beschikking zijn, zijn momenteel onvoldoende om aan dergelijke identificatie te gaan doen bij GIM. Dit is eerder iets voor in de toekomst. Dit is puur een algoritme dat draait, hier komt geen AI aan te pas.
      • Benny: langs de front zijde zou het wel mogelijk zijn. Als je ervoor zorgt dat je je data op een goede manier ontvangt, dan kan je daarmee trendanalyse gaan doen zonder dat het het in een AI moet gaan gieten. Je kan machine learning gebruiken om je data op een gestructureerde manier binnen te halen en indien je dit regelmatig doet, volgens vaste afspraken met beeldmateriaal volgens vaste algoritmes, dan kan je deze nog verder optimaliseren.
      • GIM: Machine learning kan helpen om op voorhand in te schatten of een boom er al dan niet gezond uit ziet. Vervolgens kan je VI of andere berekeningen toepassen op je kanalen. Dit is de eerste stap. Vervolgens heb je een stap waarbij je een machine learning gaat toepassen. Tot slot heb je nog je BI en analytics waarmee je statistische of geografische verschillen mee kan identificeren. Dit is dan meer een data engineering vraagstuk.
      • Benny: het project heeft an sich geen AI. De focus ligt op machine learning. Dit is de technische scope. Terecht dat er aangegeven wordt dat het draait om een script maar het is wel een script met een detectie. Het is dus een machine learning die dat script gegenereerd heeft.
      • GIM: je kan automatische verwerkingsketen opzetten in 3 stappen: 1) je krijgt beelden binnen van een bapaald type waarvoor je indexen maakt 2) je kan een AI algoritme aanmaken (wat niet nodig is voor alle use cases) 3) je berekent de verschillen, regio's, statistieken. Op die manier heb je een volledige procesketen die je in je maintenance tool, rapportage tool voor Europa of management review kan inpluggen.
    • Mogelijkheid om drone aan te kopen om lage luchtfoto's te nemen om exoten in kaart te brengen in duinen en repen.
      • alles hangt af van de camera die in drone steekt: indien dit een hyperspectrale camera bevat (= weerkaatsing licht kan in groot aantal kanalen geregistreerd worden), dan kan die een gedetailleerde beschrijving maken van de objecten die hij inventariseert. Indien je echter een camera gebruikt die enkel in het groot groen en blauw informatie capteert, dan zal dit niet mogelijk zijn.
    • Indien je moet graven door een verhard oppervlak of in een verharde berm: verschillende kost
      • Kan mogelijk bijdragen aan betere inschatting kosten bij bvb Fiber roll-out
      • Linken taxatie/beloning aan ontharding
    • Handhaving: bomen die onrechtmatig gerooid worden zonder vergunning
      • voornamelijk in voortuinen problematiek verharding
      • vaak keuze van lokale besturen om niet meer te gaan handhaven
      • indien je kort op de bal kan spelen ne binnen het jaar kan handhaven dan kan dit de zaak veranderen
      • bvb kunstgras en al dan niet doorlaatbare beton: te detecteren met infrarood maar anders niet te onderscheiden => indien wijziging en signaalfunctie = controleren ter plaatse en handhaven

Oefening 3

Bij deze oefening keken we naar manieren om de voorgestelde oplossing duurzaam te implementeren:

Hoe kunnen we groen inventarisering duurzaam implementeren?

-Welke frequentie en accuraatheid zijn hiervoor nodig?

-Hoe kunnen AI en ML bijdragen tot het verduurzamen van de oplossing?

-Welke expertise hebben we nodig?

-Hoe kunnen we de kosten delen?

-Zijn er applicaties die noodzakelijk zijn om de oplossing draaiende te houden?

=> zorgen dat de groen inventaris up to date gehouden wordt?

Overzicht

Verduurzamen oplossing
Expertise: - Groenbeleid/groenbeheer Datascience 
GIS, ML/AI => Frequentie is afhankelijk van welke monitoring frequentie nodig heeft
Beter 1 type opname dat voor vele toepassingen kan worden gebruikt dan meerdere opnames/beelden (kiostprijs drukken)
Frequentie: max. 1 x jaar, min 1x per legislatuur (6 jaar)
Kosten : Drone >> vliegtuig >> satelliet beelden
Datascience expertise
pro-actief om bij 'crisis' situatie te kunnen handelen
Data engineering (ETL + GIS) expertise
Kosten: groepsaankoop organiseren. Bv 1 vlucht voor hele regio/provincie (bvb Leiedal, Limburg met drone excl. Voeren, 2euros per inwoner per jaar)
foto's gezamenlijk aankopen (volume kortingen)
foto's hergebruiken voor verschillende algoritmes --> centraal overzicht op een "marktplaats" met samples en kostprijs "hergebruik" licentie
aankopen met intercommunales
Niet elk soort beeld is bruikbaar voor alle use cases
Kost delen: foto's zoveel mogelijk hergebruiken intern, algorithme zoveel mogelijk extern delen
financiering - uniformiseren van modellen zodat Vlaanderen/ provincie een pakket kan aanbieden waar lokale besturen kunnen op intekenen
Private spelers zijn misschien ook geinteresseerd zoals infrabel ed meer
Kosten delen: aanbieden als een service (voor de runningcost) (pay for use)
ML-algoritmes delen (documentatie rond welke output het algoritme levert: inhoudelijk + nauwkeurigheid
(+ scores per algoritme x beeldmateriaal door afnemers)
AWV
Federaal niveau ?
zeer kritisch evalueren welk type foto's (resolutie / type camera's)  nodig zijn voor welk type analyse
Matrix usecase vs frequentie en accuraatheid
Exploitatie kosten:
- hosting;
- ML running cost;
- support of ML expert; 
- onderhoud algoritmes
Samenwerking tussen instanties voor dezelfde use case => build once apply frequently van de algoritmes
Samenwerking over verschillende use case zodat kan voortgebouwd worden op basis code ML algoritme
een algoritme voor resolutie / beeld x kan niet zonder meer toegepast worden op resolutie / beeld y
Data storage delen (local/cloud):
Storage as a Service => brondata (foto's, lidar etc van verschillende jaargangen), opgeleverde ruwe data  (bomenbestand, groeninventaris...), afgeleide data(?)
beelden ook interessant voor manuele analyses bij besturen indien voldoende hoge kwaliteit/resolutie
Kosten voor Desktop GIS of Cloud applicatie delen (open source alternativen)
Ondersteuning/support delen
voor Desktop GIS/Cloud applicaties

Discussie

  • De grootste bezorgdheid bij lokale besturen is de kostprijs van de vluchten voor luchtfoto's. Wanneer het al niet evident is voor een centrumstad als Kortrijk, dan zal dit zeker het geval is voor kleinere besturen. Er moet gekeken worden om zo kostenefficiënt mogelijk een groot aanbod te genereren. Het is belangrijk om beeldtypes en opnames te gaan identificeren die zo ruim mogelijk gebruikt kunnen worden. Ook de frequentie bepalen in functie van het beschikbare budget is primair. Een groepsaankoop organiseren zou ook interessant kunnen zijn waarbij voor bijvoorbeeld een hele regio een vlucht uitgevoerd wordt ipv op het niveau van een lokaal bestuur. In Limburg hebben ze de volledige provincie in beeld gebracht. Hiervoor was een prijsvoorstel op voorwaarde dat voldoende lokale besturen zouden deelnemen. Deze kost kwam op 2 euro per inwoner per jaar. Voor een stad als Hasselt met 80.000 inwoners kom je dan aan een bedrag van 1.160.000 euro per jaar. De kostprijs zal doorslaggevend zijn indien je geen groepsaankopen doet.
    • Zeer interessante beelden die heel gedetailleerd zijn: kroonvolume, stamomtrek etc. Enkel verschillende soorten waren niet haalbaar. Op luchtfoto's kan je tot op 5-7 cm. Dit geeft enorme meerwaarde. De verwerking is natuurlijk dan wel duurder
    • Een drone is interessant voor kleinere oppervlaktes maar eens je volledige steden in beeld wil brengen is dit niet meer kostenefficiënt.
    • Alternatief: in begin, midden en einde legislatuur gaan monitoren ifv natuurherstelwet. Hier kan je al heel wat informatie uit halen. Is beter dan niets. Het moet betaalbaar blijven. Dit is grote valkuil vandaag. De kostprijs zou kunnen dalen bij ontwikkeling van technologie en veranderingen op de markt. Dit kan de frequentie dan verhogen.
  • In functie van de vorige oefening voor elke use cases bekijken welke frequentie we nodig hebben voor welke data.
    • Sommige data zijn beschikbaar op jaarbasis. Bekijken wat haalbaar is.
    • Dronebeelden, luchtbeelden, satellietbeelden: hier zien wij potentieel in. Indien je in een groot volume kan aankopen voor een grotere regio, dan kan dat frequenter gebeuren.
    • Nederland heeft strategie ontwikkeld waarbij ze zich niet enkel baseren op foto's maar deze ook aanvullen met satellietbeelden. Dit hebben we momenteel nog niet in België of Vlaanderen. Kan interessant zijn.
    • Satellietbeelden en crisisomstandigheden: belangrijk om te anticiperen want soms is het te laat om nog een aanvraag te doen. Belangrijk om er bij de tasking rekening mee te houden.
  • Foto's kunnen op 'marktplaats' geplaatst worden waar je ze kan verhuren en waarmee je je kosten kan dekken? Kan je door middel van handhaving aan financiering doen?
    • Waarschijnlijk niet. De inkomsten uit handhaving zullen de kosten niet dekken. Misschien zijn er wel andere spelers buiten de lokale besturen geïnteresseerd in dergelijke foto's bvb Infrabel of nutsmaatschappijen. Indien er geen privacygevoelige zaken op staan of private domeinen te blurren, kan dit de kostprijs drukken.
    • Kost splitsen tussen aankopen of verzamelen van foto's en de operationele kosten

Oefening 4

Tot slot werden potentiële valkuilen geïdentificeerd en, op basis hiervan, formuleerden we principes waaraan de oplossing moet voldoen:

Voorbeeld:

•Self-service zonder goede training kan een risico vormen

•Afhankelijkheid van leverancier

•Interoperabiliteit van de oplossing

•Betrouwbaarheid, en dus ‘vertrouwen’ in de output en dashboard cijfers

•Stabiliteit, en dus ‘continuiteit’ van de metrieken in de rapporten en dashboards

Overzicht

Valkuilen Principes
Kostprijs via externe partij de analyse uitvoeren (ze moeten die zelf niet uitvoeren)
kleinere gemeentes hebben een beperkte kennis en weten ook niet altijd waar ze terecht kunnen (+hoge kostprijs)
Expectation Management : Scope van het MLaaS-platform deint uit richting BI/Analytics i.p.v. afleveren datasets, waardoor verwachtingen te hoog worden gesteld en er teveel debat gevoerd moet worden over hoe je de data wil inzetten en wat je ermee wil gaan doen.Inpsiratie via het platform kan wel, kant en klare analytics is heel at moeilijker gezien linken met andere (interne) bronnen.
Limieten van ML : niet alles kan, maar kan ook om bvb 'gaten' of 'anomalien'
Te breed gaan in functionaliteit
In eerste instantie enkel MUST HAVES uitwerken = 'noden' van lokale besturen (direct toepasbaar lokaal met budget, capaciteit, direct resultaat kunnen opleveren)
VB : Invasieve Exoten : sommige lokale besturen zijn daar nog niet mee bezig, dus ze gaan daar niet direct iets mee gaan doen.
BAK Bodem AfdekkingsKaart
(3/30/300 ?) = bomenbestand brengt niet in kaart, gewoon groen, bebouwd, => niet voldoende of we op vlak van groen gaan we vooruit of niet)
de marktplaats (community) valt stil - te weinig bekendheid / potentieel te laag = Marketing (via partner zoals Leiedal, ABB, bvb.)
kwaliteit van beelden (bijv bij bewolkt weer)
verwachtingen ML-algoritmes technisch tgo inhoudelijke experten niet op dezelfde lijn (bvb vertrouwen in de resultaten, documentatie en co-creatie) transparantie over kwaliteit van de resultaten, ML-algoritme otwikkelingsstatus..., ondersteuning (interne) data scientist of duidelijke documentatie), standaardisatie van beelden en algoritmes
Om correct vergelijk mogelijk te maken in de tijd:
- Zelfde type beelden
- Zelfde periode
- Zelfde Ai/ML toepassing
zelfs lentebeelden zijn niet vergelijkbaar met zomerbeelden (sommige bomen bloeien later of vroeger)
Standaardisatie van beeldmateriaal vanuit 'Vlaanderen' om vergelijking mogelijk te maken
Bij wie zit IP van ontwikkeld algorithme
Niet het juiste beeld met de juiste kwaliteit voor de use case
Security vereisten proces IT security standaarden / principes toepassen
ML/AI blijft een model benadering => Geen 100% correctheid / volledigheid
continu teit van leveranciers te garanderen (stopzetten deelactiviteiten zoals opname beelden, ontwikkeling algoritmes, support...) Transparantie, bedrijfsvoering (om bvb faillissementen of veranderende werkmethodes op tijd te capteren), gebruikte technieken, documentatie, kennisopbouw intern houden, centraliseren
Elk model is use case / beeld specifiek => verwachtingsbeheer
Ook input/validatie nodig om het model te trainen false negatives en false postiives)
Nauwkeurigheid voor handhaving => eerder een signaalfuncties om ter plaatse te controleren
Eerder een 'reactieve' bomenbeleid => is dat wel een direct toepasbaar use case ?
aantallen is moeilijker, eerder via oppervlakte van kruinen

Discussie

  • Het zou interessant kunnen zijn om voor de data-analyse te kunnen rekenen op een externe partij. Bijvoorbeeld, onlangs werd de stadsmonitor gelanceerd waarbij er data over kruinprojectie moest geanalyseerd worden. Voor kleinere gemeentes kan het interessant zijn om de analyse uit te besteden wanneer ze niet over de nodige expertise beschikken.
  • Benny: Het afleveren van machine learning datasets lijkt haalbaar maar je kan niet verwachten dat je een kant en klaar BI analytics zal hebben rond verschillende thema's. Oppassen voor verkeerde verwachtingen. De analyses voor de stadsmonitor zijn analyses tot op wijkniveau, niet meer. Voor een kleinere gemeente kan dit weliswaar voldoende zijn. In de diepte analyses gaan uitwerken is een ander verhaal. De scope is hier eerder beperkt tot het afleveren van datasets op basis van machine learning. Die kan je binnentrekken op je eigen platform of Power BI en zorgt ervoor dat deze zelfde kwaliteit en kenmerken hebben waardoor je er analyses op kan doen. Je hebt er zelf nog wel werk aan. Machine learning kan niet kant en klaar afgeleverd worden. De machine learning zien wij iets als ondersteunend in databeheer. Je hebt heel wat extra attributen nodig.
  • Het is belangrijk om te werken op de noden van de lokale besturen en een product afleveren dat direct toepasbaar is in de werking. Er zijn heel wat zaken al benoemd die nice to have/know zijn maar wat ga je daar dan mee doen en heb je capaciteit of budget om er iets mee te doen, dat is nog onduidelijk. Best focussen we eerst op de zaken die direct implementeerbaar zijn en die ook direct resultaat geven. Dit geeft ook de garantie dat het zal gebruikt worden en doorheen de tijd geüpdatet worden.
  • Het bestrijden van invasieve exoten: lijkt interessant om te weten waar deze haarden zich bevinden
    • bestrijding staat momenteel nog in zijn kinderschoenen. Er moet budget en capaciteit voorzien worden om hiermee aan de slag te gaan. Is enkel op lange termijn interessant.
  • Marktplaats leeft enkel als er veel vraag & aanbod is
    • Marketing van marktplaats zou kunnen opgenomen worden door partner die regionale context goed kent bvb regionale landschappen zoals in West-Vlaanderen gebeurt door Leiedal. Zij organiseren groepsaankopen voor opnames van luchtbeelden en hebben contacten binnen alle besturen in hun regio.
  • Duidelijk communiceren over potentiële output van machine learning
    • Documentatie wordt cruciaal: moet voor eindgebruiker en afnemer duidelijk zijn zonder dat je technisch profiel bent.
    • Ook mbt creatie: iedereen van in het begin erbij betrekken zodat de verwachtingen duidelijk zijn en ze kunnen input geven over de manier van berekenen etc.
  • Je kan AI of machine learning toepassen op beelden die in het verleden genomen worden en hierop analyses doen
    • belangrijk is om zoveel mogelijk parameters constant te houden om een correcte vergelijking te kunnen doen
    • Als je beelden neemt met een drone of met een sattelier en daarop AI of machine learning loslaat, dan zal je tot verschillende resultaten komen wat voor vergelijkingen maken moeilijk wordt. Er kan al een verschil zitten tussen beelden in verschillende seizoenen. De opnames van de beelden moeten zo gelijkaardig mogelijk zijn. Hierbij kan een draaiboek helpen. Standaardisatie is belangrijk, een soort OSLO voor beeldmateriaal.
  • Wanneer je met een externe leverancier werkt moet je ervoor zorgen dat er transparantie is over hoe dat bedrijf werkt om bvb bij een faillissement vast te zitten.
  • Nauwkeurigheid bij handhaving moet voldoende zijn
    • Eerder signaalfunctie die op terrein moet gecontroleerd worden. Enkel obv detectie van machine learning of AI kan geen handhaving gebeuren.
  • Trendanalyses zijn mogelijk op voorwaarde van dat je goede data hebt
    • Benny: doel van dit project is trendanalyse kunnen doen op hoge resolutie beelden
    • Tot op vandaag is er geen objectieve manier om op een grootschalig niveau bomen te gaan monitoren op vlak van gezondheid. Dit gebeurt momenteel op basis van visuele controles en ervaring maar er is geen systematische benadering.
    • Vele lokale besturen hebben momenteel nog een reactief bomenbeleid, met andere woorden, als er een boom omwaait dan zal men ter plaatse gaan om te remediëren dus de vraag is ook of deze use case direct toepasbaar zal zijn. Op termijn hopelijk wel. Aantal zaken zal de lokale besturen echter dwingen om actief data te gaan verzamelen:
      • Natuurherstelwet
      • Hemelwater verordering
      • Objectief weergeven van sociale ongelijkheid (rijke buurt = meer groen)
    • Wat is de visie omtrent het gebruik van de JaarBAK (Jaarlijkse bodemafdekkingskaart Vlaanderen) van Digitaal Vlaanderen versus de noden die we vandaag bespreken?
      • Bomen zijn het belangrijkste aspect voor inzichten in het groen in de stad omdat zij alle ecosystemen leveren die wij interessant vinden voor klimaatadaptatie van de stad: captatie van CO2, fijnstof afname, verfrissing, verluchting etc. Dit kan je berekenen op basis van het kruin volume en kruin projectie. De JaarBAK bevat een algemene laag groen maar het zegt niets over de waarde van het groen. Het brengt de locatie van de bomen van een stad niet in kaart maar geeft enkel algemeen zicht op de bodemafdekking. Ht gaat niet op detailniveau, wat wel nodig is om een trend te detecteren. Op basis van deze trend kunnen bijvoorbeeld stedelijke verordeningen/richtlijnen uitgevaardigd worden die bepalen dat waardevol groen maximaal moet behouden worden. Deze analyse willen we doen op stads-en wijkniveau, maar ook op private en publieke grond. Problemen kunnen worden geïdentificeerd en acties geformuleerd.
    • De kroonbedekking is een nieuwe GIS-laag die gebruikt wordt voor ecosysteemdiensten die berekeningen kunnen doen en monitoring. Vroeger had je manuele inventarisatie = asset management. Nu zijn het twee aparte werelden die idealiter bij elkaar komen door bijvoorbeeld monitoring via quickscan en terwijl zoeken in de GIS-punten file. Het algoritme zou automatisch de link moeten leggen tussen de twee datasets. Het probleem is dat tegen een inventaris klaar is (met manuele inventarisatie), deze al verouderd is. Ik geloof niet meer in dit systeem. Beter is een quickscan en dan gericht aan bomen met een problematiek werken.
    • Benny: ik zie het als een en-en verhaal. Een manuele inventarisering blijft nodig maar je kan hulpmiddelen inzetten om die zo goed mogelijk up to date te houden. Hierbij kan machine learning een ondersteunende rol spelen. Daarnaast kunnen, door middel van machine learning, trends gedetecteerd worden op een meer geaggregeerd niveau die je kan analyseren. Voor de detail analyse kan je een bijkomende visuele analyse doen. Er zal nooit een exacte technische link kunnen gelegd worden tussen machine learning detectie en een inventarisatie die rijker zou moeten zijn.
    • Machine learning algoritmes testen op accouraatheid op basis van manuele inventarisatie
      • Is gebeurd in Roeselare.
      • Veel velden zijn statisch bvb boomsoort, fruitbomen of niet etc. Enkel controles tijdens beheersingrepen.
      • Databeheer zo licht mogelijk houden: enkel wat echt mogelijk bijhouden - wijzigingen bvb

Opname en Miro bord

Miro bord

Het Miro bord kan je consulteren via deze link.

Opname

De opname van deze sessie is te bekijken via deze link.


Volgende stappen

Wat na deze werkgroep?

  1. Verwerking van de input van de brainstorm oefening.
  2. Verder onderzoek en voorbereiding van de volgende thematische werkgroep.
  3. Publicatie op de Kennishub

Feedback kan bezorgd worden aan laurien.renders@vlaanderen.be

Andere werkgroepen

WerkgroepType werkgroepDatumTijdLocatie
Thematische werkgroep 1Data en informatie werkgroep2024-03-149u-12uTeams
Thematische werkgroep 2Functionele werkgroep2024-04-169u-12uTeams
Thematische werkgroep 3Technologie werkgroep2024-05-1513u-16uTeams
Thematische werkgroep 4Technologie werkgroep2024-06-219u-12uTeams