Senior Data Analist Kapitaalmarkten (detachering) 32u/w
Volgnummer: 115164
Publicatiedatum: 09-02-2026
Locatie: AMSTERDAM
Standplaats: AMSTERDAM
Duur: 02-03-2026 - 02-08-2026
Optie tot verlenging: Ja
Reageren voor: 11-02-2026
1. Situatieomschrijving
De AFM ontwikkelt zich tot een datagedreven toezichthouder en werkt daarbij aan structurele informatieproducten die risico’s binnen de financiële markten inzichtelijk maken. De afdeling Datagedreven Kapitaalmarkten (DAK) verwerkt dagelijks grote datasets en ondersteunt toezichtsteams met datagedreven toepassingen. Om bestaande datasets om te zetten in robuuste, structurele informatieproducten is behoefte aan een ervaren senior data-analist met diepgaande kennis van onder andere Azure Databricks, PySpark, datamart-design en Power BI.
2. Doel van de opdracht
De senior data-analist ontwikkelt structurele informatieproducten op basis van bestaande datasets voor de afdeling Kapitaalmarkten. De opdracht richt zich op het vertalen van informatiebehoeften naar duurzame dataproducten en het versterken van datagedreven toezicht. Daarnaast draagt de analist kennis over aan collega’s zodat processen blijvend kunnen worden geborgd.
3. Werkzaamheden
De werkzaamheden omvatten:
• Analyseren van informatiebehoeften en omzetten naar structurele informatieproducten (dashboards, rapportages, modellen).
• Ontwikkelen van datamarts en uitvoeren van datapreparatie in Azure Databricks (PySpark, parquet/delta).
• Valideren en documenteren van dataproducten en onderliggende datamodellen.
• Samenwerken in een multidisciplinair DevOps-team met toezichthouders, data-engineers en datamanagementspecialisten.
• Adviseren over datagedreven toezichtsvraagstukken en bijdragen aan procesverbetering.
• Overdragen van kennis over tooling, werkwijzen en informatieproducten aan collega’s binnen Kapitaalmarkten.
Gebruikte tools en technieken:
– Azure Databricks (PySpark, parquet/delta)
– Microsoft Power BI
– Microsoft SQL
– Azure DevOps
4. Gevraagd
Kandidaten voldoen aan de volgende eisen:
• Afgeronde universitaire opleiding (wo-niveau) in Data Science, Econometrie, Wiskunde, Technische Bedrijfskunde of een vergelijkbare bèta-studie met een sterke analytische of statistische component.
• Minimaal zeven jaar aantoonbare ervaring met het realiseren van structurele informatieproducten (businessanalyse, datapreparatie/datamart-design, visualisatie, validatie en beheer).
• 5 jaar programmeer ervaring
• Ervaring met ML via MLflow en Databricks
• Sterk conceptueel en analytisch vermogen; in staat nieuwe informatie snel eigen te maken en hoofd- en bijzaken te onderscheiden.
• Ervaring met het vertalen van probleemanalyses naar datagedreven informatieproducten en processen ter ondersteuning van toezichtstaken.
• Affiniteit met de kapitaalmarkten en de daarbij horende europese datastromen (NTRS, EMIR).
• Uitstekende mondelinge en schriftelijke communicatieve vaardigheden in zowel Nederlands als Engels
Let op: kandidaten dienen te beschikken over basiskennis van privacywetgeving (AVG), verantwoord gebruik van AI (zoals Copilot) en informatie- en databeveiliging, voor zover dit relevant is voor de rol.
Ko criteria:
- Afgeronde universitaire opleiding (wo-niveau) in Data Science, Econometrie, Wiskunde, Technische Bedrijfskunde of een vergelijkbare bèta-studie met een sterke analytische of statistische component.
- Minimaal zeven jaar aantoonbare ervaring met het realiseren van structurele informatieproducten (businessanalyse, datapreparatie/datamart-design, visualisatie, validatie en beheer).
- 5 jaar programmeer ervaring
Arbeidsvoorwaarden
Het betreft een opdracht met een beoogde startdatum per zsm voor de duur van zes maanden. De opdracht is voor 32 uur per week (maandag t/m donderdag). Er is een optie tot verlenging tot maximaal 6 maanden. Let op: de laatste 2 weken van het jaar mogen er geen uren worden geschreven. De zelfstandige moet zelf zorgen voor een laptop, telefoon en andere kantoorbenodigdheden. Er wordt verwacht dat je minimaal 2 dagen per week op kantoor aanwezig bent.
Functie-eisen:
Azure Databricks
Azure DevOps
Delta
Microsoft Power BI
Microsoft SQL
ML
Programmeertools (5 jaar)
PySpark Solliciteer nu!
Duur: 02-03-2026 - 02-08-2026
Optie tot verlenging: Ja
Reageren voor: 11-02-2026
1. Situatieomschrijving
De AFM ontwikkelt zich tot een datagedreven toezichthouder en werkt daarbij aan structurele informatieproducten die risico’s binnen de financiële markten inzichtelijk maken. De afdeling Datagedreven Kapitaalmarkten (DAK) verwerkt dagelijks grote datasets en ondersteunt toezichtsteams met datagedreven toepassingen. Om bestaande datasets om te zetten in robuuste, structurele informatieproducten is behoefte aan een ervaren senior data-analist met diepgaande kennis van onder andere Azure Databricks, PySpark, datamart-design en Power BI.
2. Doel van de opdracht
De senior data-analist ontwikkelt structurele informatieproducten op basis van bestaande datasets voor de afdeling Kapitaalmarkten. De opdracht richt zich op het vertalen van informatiebehoeften naar duurzame dataproducten en het versterken van datagedreven toezicht. Daarnaast draagt de analist kennis over aan collega’s zodat processen blijvend kunnen worden geborgd.
3. Werkzaamheden
De werkzaamheden omvatten:
• Analyseren van informatiebehoeften en omzetten naar structurele informatieproducten (dashboards, rapportages, modellen).
• Ontwikkelen van datamarts en uitvoeren van datapreparatie in Azure Databricks (PySpark, parquet/delta).
• Valideren en documenteren van dataproducten en onderliggende datamodellen.
• Samenwerken in een multidisciplinair DevOps-team met toezichthouders, data-engineers en datamanagementspecialisten.
• Adviseren over datagedreven toezichtsvraagstukken en bijdragen aan procesverbetering.
• Overdragen van kennis over tooling, werkwijzen en informatieproducten aan collega’s binnen Kapitaalmarkten.
Gebruikte tools en technieken:
– Azure Databricks (PySpark, parquet/delta)
– Microsoft Power BI
– Microsoft SQL
– Azure DevOps
4. Gevraagd
Kandidaten voldoen aan de volgende eisen:
• Afgeronde universitaire opleiding (wo-niveau) in Data Science, Econometrie, Wiskunde, Technische Bedrijfskunde of een vergelijkbare bèta-studie met een sterke analytische of statistische component.
• Minimaal zeven jaar aantoonbare ervaring met het realiseren van structurele informatieproducten (businessanalyse, datapreparatie/datamart-design, visualisatie, validatie en beheer).
• 5 jaar programmeer ervaring
• Ervaring met ML via MLflow en Databricks
• Sterk conceptueel en analytisch vermogen; in staat nieuwe informatie snel eigen te maken en hoofd- en bijzaken te onderscheiden.
• Ervaring met het vertalen van probleemanalyses naar datagedreven informatieproducten en processen ter ondersteuning van toezichtstaken.
• Affiniteit met de kapitaalmarkten en de daarbij horende europese datastromen (NTRS, EMIR).
• Uitstekende mondelinge en schriftelijke communicatieve vaardigheden in zowel Nederlands als Engels
Let op: kandidaten dienen te beschikken over basiskennis van privacywetgeving (AVG), verantwoord gebruik van AI (zoals Copilot) en informatie- en databeveiliging, voor zover dit relevant is voor de rol.
Ko criteria:
- Afgeronde universitaire opleiding (wo-niveau) in Data Science, Econometrie, Wiskunde, Technische Bedrijfskunde of een vergelijkbare bèta-studie met een sterke analytische of statistische component.
- Minimaal zeven jaar aantoonbare ervaring met het realiseren van structurele informatieproducten (businessanalyse, datapreparatie/datamart-design, visualisatie, validatie en beheer).
- 5 jaar programmeer ervaring
Arbeidsvoorwaarden
Het betreft een opdracht met een beoogde startdatum per zsm voor de duur van zes maanden. De opdracht is voor 32 uur per week (maandag t/m donderdag). Er is een optie tot verlenging tot maximaal 6 maanden. Let op: de laatste 2 weken van het jaar mogen er geen uren worden geschreven. De zelfstandige moet zelf zorgen voor een laptop, telefoon en andere kantoorbenodigdheden. Er wordt verwacht dat je minimaal 2 dagen per week op kantoor aanwezig bent.
Functie-eisen:
Azure Databricks
Azure DevOps
Delta
Microsoft Power BI
Microsoft SQL
ML
Programmeertools (5 jaar)
PySpark Solliciteer nu!