Data Engineer 40u/w
Volgnummer: 96697
Publicatiedatum: 25-07-2025
Locatie: APELDOORN
Standplaats: APELDOORN
Duur: 25-08-2025 - 28-02-2026
Optie tot verlenging: Ja
Reageren voor: 04-08-2025
Organisatie:
Het Kadaster registreert en verstrekt gegevens over de ligging van vastgoed in Nederland en de daarmee samenhangende rechten, zoals eigendom en hypotheek. Als zelfstandig bestuursorgaan is dat onze wettelijke taak. Onze gegevens bieden houvast bij het onderzoeken van maatschappelijke vraagstukken, of het nu gaat om de beste route voor een nieuwe snelweg, actuele ontwikkelingen op de woningmarkt of het in beeld brengen van leegstand.
Opdracht
De organisatie is bezig met de ontwikkeling van een toekomstbestendig dataplatform binnen het DAMA-DMBOK raamwerk en zoekt ondersteuning in de vorm van een ervaren data engineer. De opdracht wordt uitgevoerd binnen een scrumteam, bestaande uit onder meer data engineers en een solution architect.
Het omvat het ontwerpen, bouwen en beheren van een schaalbaar, veilig en gebruiksvriendelijk dataplatform. Het platform moet stabiele toegang tot data bieden en aansluiten bij de behoeften van data-analisten, data scientists en andere gebruikers binnen de organisatie.
De werkzaamheden richten zich op het ontwikkelen van data pipelines en workflows in onder andere Azure Data Factory en Databricks. Daarnaast wordt verwacht dat je actief meedenkt over en bijdraagt aan schaalbare en onderhoudbare platformcomponenten, en bestaande oplossingen beheert en optimaliseert. Ook het adviseren over verbeteringen op het gebied van architectuur, beveiliging en datagebruik. Bij een toekomstbestendig platform hoort ook AI en machine learning toepassingen; hiervoor wordt ook een bijdrage gevraagd.
De opdracht vereist een mate van zelfstandigheid en eigenaarschap. Tegelijkertijd wordt verwacht dat je actief meedenkt over toekomstige toepassingen en verbeteringen binnen het platformlandschap.
Belangrijkste technieken, methoden en tools
• Microsoft Azure Cloud
• Databricks / Unity Catalog
• Azure Data Factory
• Kubernetes
• Python / PySpark
• SQL
• Git (Devops / Gitea)
• Terraform scripting
• Medaillon architecture
• ETL / ELT pipelines
• Microsoft Well Architected Framework
• Infrastructure as Code
• Private en public cloud data oplossingen
• Agile werken
• Projectmatig werken
Verantwoordelijkheden
Hier zijn enkele belangrijke verantwoordelijkheden:
• Opzetten, beheren en optimaliseren van het data platform zoals Databricks
• Data pipelines ontwikkelen en onderhouden
• Implementeren van kwaliteit, performance, security en governance standaarden
• Meedenken en integreren van verschillende data technologieën en/of processen
• Samenwerking met andere engineers, analisten, data scientisten en architecten
Taken
Ontwerp en bouwen aan de hand van Microsoft, Databricks en de Kadaster richtlijnen
• Beheren en optimaliseren van schaalbare en efficiënte data applicatie landschap zoals Databricks en Azure Data Factory
• Bouwen en adviseren over clusterconfiguratie, data pipelines, Delta Lake-strategieën, en ML/AI-workloads
• Opzetten van best practices voor performance, resourcegebruik, kostenoptimalisatie en beveiliging binnen het data platform
• Zorgen voor naadloze integratie met cloudomgevingen zoals Azure
• Koppelingen maken met databases, API’s, data lakes, ETL-pipelines en BI-tools
• Infrastructure as code schrijven zoals Terraform
• Bouwen van CI/CD-processen voor notebooks, jobs en pipelines
• Zorgen voor data governance en naleving van security policies
• Implementeren en evalueren van audit logging en monitoring
• Adviseren en samenwerken met data scientisten en engineers om code of processen efficiënter te maken
• Assisteren bij troubleshooting en probleemoplossing
• Documenteren van oplossingen en best practices
Functie-eisen:
Let op: motiveer (kort) in het CV per knock-outcriterium hoe u hieraan voldoet.
1. De inschrijver sluit een driepartijen detacheringsovereenkomst af, waarbij de inschrijver als werkgever van de inhuurkracht, de inhuurkracht als betrokkene en het Kadaster als inlener ondertekent. Let wel, de inschrijver en de inhuurkracht dienen hiervoor een (civielrechtelijke) arbeidsovereenkomst te hebben gesloten. Indien de inschrijver niet aan deze eis voldoet, wordt de inschrijving ter zijde gelegd;
Het CV dient in het Nederlands te zijn opgesteld en mag niet langer zijn dan maximaal 6 pagina’s A4;
De kandidaat beheerst de Nederlandse taal vloeiend, in woord en geschrift;
Door de kandidaat zélf geschreven CV en motivatiebrief;
Hbo- of wo-werk- en -denkniveau;
Minimaal 2 jaar ervaring in een vergelijkbare functie als Data Engineer;
Minimaal 1 jaar ervaring met Databricks;
Minimaal 1 jaar ervaring met Python en SQL;
Minimaal 2 jaar Azure ervaring.
Wensen:
3 of meer jaren ervaring als data engineer (20 punten);
2 of meer jaren ervaring met Databricks (20 punten);
3 of meer jaren ervaring in Azure (10 punten);
1 of meer jaren ervaring met Terraform (10 punten);
Minimaal 2 jaar ervaring met Azure Data Factory (ADF) (10 punten);
Minimaal 1 jaar ervaring met Kubernetes (10 punten);
Azure en/of Databricks certificeringen zijn een pluspunt. Geen onderscheid in hoeveel of welke certificaten. Voorkeur heeft Azure DP-203 en/of Databricks Data Engineer associate (10 punten);
Bekendheid met overheid compliance-normen zoals ISO 27001, GDPR, AVG en andere relevante voorschriften (10 punten). Solliciteer nu!
Duur: 25-08-2025 - 28-02-2026
Optie tot verlenging: Ja
Reageren voor: 04-08-2025
Organisatie:
Het Kadaster registreert en verstrekt gegevens over de ligging van vastgoed in Nederland en de daarmee samenhangende rechten, zoals eigendom en hypotheek. Als zelfstandig bestuursorgaan is dat onze wettelijke taak. Onze gegevens bieden houvast bij het onderzoeken van maatschappelijke vraagstukken, of het nu gaat om de beste route voor een nieuwe snelweg, actuele ontwikkelingen op de woningmarkt of het in beeld brengen van leegstand.
Opdracht
De organisatie is bezig met de ontwikkeling van een toekomstbestendig dataplatform binnen het DAMA-DMBOK raamwerk en zoekt ondersteuning in de vorm van een ervaren data engineer. De opdracht wordt uitgevoerd binnen een scrumteam, bestaande uit onder meer data engineers en een solution architect.
Het omvat het ontwerpen, bouwen en beheren van een schaalbaar, veilig en gebruiksvriendelijk dataplatform. Het platform moet stabiele toegang tot data bieden en aansluiten bij de behoeften van data-analisten, data scientists en andere gebruikers binnen de organisatie.
De werkzaamheden richten zich op het ontwikkelen van data pipelines en workflows in onder andere Azure Data Factory en Databricks. Daarnaast wordt verwacht dat je actief meedenkt over en bijdraagt aan schaalbare en onderhoudbare platformcomponenten, en bestaande oplossingen beheert en optimaliseert. Ook het adviseren over verbeteringen op het gebied van architectuur, beveiliging en datagebruik. Bij een toekomstbestendig platform hoort ook AI en machine learning toepassingen; hiervoor wordt ook een bijdrage gevraagd.
De opdracht vereist een mate van zelfstandigheid en eigenaarschap. Tegelijkertijd wordt verwacht dat je actief meedenkt over toekomstige toepassingen en verbeteringen binnen het platformlandschap.
Belangrijkste technieken, methoden en tools
• Microsoft Azure Cloud
• Databricks / Unity Catalog
• Azure Data Factory
• Kubernetes
• Python / PySpark
• SQL
• Git (Devops / Gitea)
• Terraform scripting
• Medaillon architecture
• ETL / ELT pipelines
• Microsoft Well Architected Framework
• Infrastructure as Code
• Private en public cloud data oplossingen
• Agile werken
• Projectmatig werken
Verantwoordelijkheden
Hier zijn enkele belangrijke verantwoordelijkheden:
• Opzetten, beheren en optimaliseren van het data platform zoals Databricks
• Data pipelines ontwikkelen en onderhouden
• Implementeren van kwaliteit, performance, security en governance standaarden
• Meedenken en integreren van verschillende data technologieën en/of processen
• Samenwerking met andere engineers, analisten, data scientisten en architecten
Taken
Ontwerp en bouwen aan de hand van Microsoft, Databricks en de Kadaster richtlijnen
• Beheren en optimaliseren van schaalbare en efficiënte data applicatie landschap zoals Databricks en Azure Data Factory
• Bouwen en adviseren over clusterconfiguratie, data pipelines, Delta Lake-strategieën, en ML/AI-workloads
• Opzetten van best practices voor performance, resourcegebruik, kostenoptimalisatie en beveiliging binnen het data platform
• Zorgen voor naadloze integratie met cloudomgevingen zoals Azure
• Koppelingen maken met databases, API’s, data lakes, ETL-pipelines en BI-tools
• Infrastructure as code schrijven zoals Terraform
• Bouwen van CI/CD-processen voor notebooks, jobs en pipelines
• Zorgen voor data governance en naleving van security policies
• Implementeren en evalueren van audit logging en monitoring
• Adviseren en samenwerken met data scientisten en engineers om code of processen efficiënter te maken
• Assisteren bij troubleshooting en probleemoplossing
• Documenteren van oplossingen en best practices
Functie-eisen:
Let op: motiveer (kort) in het CV per knock-outcriterium hoe u hieraan voldoet.
1. De inschrijver sluit een driepartijen detacheringsovereenkomst af, waarbij de inschrijver als werkgever van de inhuurkracht, de inhuurkracht als betrokkene en het Kadaster als inlener ondertekent. Let wel, de inschrijver en de inhuurkracht dienen hiervoor een (civielrechtelijke) arbeidsovereenkomst te hebben gesloten. Indien de inschrijver niet aan deze eis voldoet, wordt de inschrijving ter zijde gelegd;
Het CV dient in het Nederlands te zijn opgesteld en mag niet langer zijn dan maximaal 6 pagina’s A4;
De kandidaat beheerst de Nederlandse taal vloeiend, in woord en geschrift;
Door de kandidaat zélf geschreven CV en motivatiebrief;
Hbo- of wo-werk- en -denkniveau;
Minimaal 2 jaar ervaring in een vergelijkbare functie als Data Engineer;
Minimaal 1 jaar ervaring met Databricks;
Minimaal 1 jaar ervaring met Python en SQL;
Minimaal 2 jaar Azure ervaring.
Wensen:
3 of meer jaren ervaring als data engineer (20 punten);
2 of meer jaren ervaring met Databricks (20 punten);
3 of meer jaren ervaring in Azure (10 punten);
1 of meer jaren ervaring met Terraform (10 punten);
Minimaal 2 jaar ervaring met Azure Data Factory (ADF) (10 punten);
Minimaal 1 jaar ervaring met Kubernetes (10 punten);
Azure en/of Databricks certificeringen zijn een pluspunt. Geen onderscheid in hoeveel of welke certificaten. Voorkeur heeft Azure DP-203 en/of Databricks Data Engineer associate (10 punten);
Bekendheid met overheid compliance-normen zoals ISO 27001, GDPR, AVG en andere relevante voorschriften (10 punten). Solliciteer nu!