Genzo Vandervelden
Over mezelf
- Nationaliteit: Belg
- Woonplaats: 9180 Lokeren, België
- Moedertaal: Nederlands
- Andere talen: Engels
Achtergrond
Ik volgde een data-georiënteerde opleiding waar ik vertrouwd raakte met de datawereld. Mijn passie ligt bij big data. Hier maak ik zelf en in team de nodige analyses voor en werk ze uit in samenwerking met de stakeholders. Ik werk graag in team en bouw graag mee aan een hartelijke en authentieke sfeer.
Opleidingen
- 2014 - 2017 Informatie Management & Systemen @ Thomas More
Certificaten
- AWS Certified Solutions Architect - Associate
- Google Analytics Qualified Individual
- Google Adwords Qualified Individual
- Apache Spark 2 with Scala - Hands On with Big Data
Highlights tools en technologieën
- AWS
- Apache Spark
- Data integratie
- Data modelling
- Data warehousing
- DevOps
- DBT
- ELT
- Python
- Scala
- SQL
Ervaringen
Telenet (Freelance)
Mei 2022 - …
Telenet is een telecombedrijf in België dat innovatieve oplossingen biedt op het gebied van internet, televisie en telefonie voor zowel particuliere als zakelijke consumenten.
Ik ben bij Telenet gestart om mee te werken aan de migratie van een on-premise Cloudera-cluster naar AWS. Dit project had als doel de data-infrastructuur te moderniseren, schaalbaarheid te vergroten en kosten te optimaliseren. We maken gebruik van Apache Spark en DBT om data in te laden en te transformeren, en stellen deze beschikbaar in Snowflake. Door de overstap naar cloud-native oplossingen droeg ik bij aan een toekomstbestendige dataomgeving met meer ruimte voor innovatie.
Als Big Data Engineer ontwerp, ontwikkel en implementeer ik schaalbare data-oplossingen. Ik werk met moderne technologieën zoals Scala, Snowflake en AWS om grote hoeveelheden data te verwerken en te analyseren. Mijn werk omvat het bouwen van data pipelines, het optimaliseren van processen voor dataverwerking en het leveren van inzichten die bijdragen aan strategische beslissingen binnen het bedrijf.
Naast de zuiver technische zaken schrijf ik ook mee aan de analyses en documentatie van wat moet worden opgeleverd, of werk ik samen met andere teams om integraties tussen onze systemen te bespreken.
Agile
, AWS
, Apache Spark
, Athena
, CI/CD
, Data warehousing
, Data modelling
, DevOps
, Data quality
, DBT
, Docker
, ELT
, Git
, Snowflake
, SQL
, Scala
, Scrum
DPG Media
Jan 2020 - Mei 2022
DPG Media is een leidend mediabedrijf in België en Nederland, met sterke en bekende merken zoals VTM, Q-Music, Het Laatste Nieuws, Tweakers en vele anderen. Het bedrijf legt een sterke nadruk op technologie en digitalisering binnen de industrie.
Binnen DPG Media werkte ik als Data Engineer in de Data Area. Toen ik begon, kwam ik terecht in het B2B-team. Mijn taak was om samen met het team een oud on-premise data warehouse uit te faseren. We namen het datamodel grondig onder de loep en verfijnden het. Dit data warehouse bevatte gegevens over advertenties en de daarmee gepaard gaande omzet. Het werd gebruikt door salesverantwoordelijken en voor rapportering aan de directie. Dit systeem was echter door de jaren heen moeilijk onderhoudbaar geworden, bereikte zijn limieten door de steeds toenemende datavolumes en de kennis van het systeem ging verloren.
We faseerden dit systeem geleidelijk uit om plaats te maken voor een nieuw data warehouse dat draait op AWS S3, Apache Spark, Kubernetes en Snowflake. Tijdens de migratie van het data warehouse voerde ik continu analyses uit en werkte ik nauw samen met de stakeholders. We zorgden ervoor dat de nieuwe omgeving functioneel gelijkwaardig bleef, maar tegelijkertijd sneller, beter onderhoudbaar en schaalbaarder werd voor de toekomst. Ik gaf ook demo’s aan het businessteam over hoe ze onze data kunnen gebruiken in Tableau, zodat ze zelf aan de slag konden.
Op zoek naar nieuwe interne ervaringen, begon ik in het B2C-team. Daar voerde ik diverse taken uit, variërend van het verwerken van real-time events afkomstig van e-mailcampagnes tot het onderhouden van abonnementensystemen.
Agile
, AWS
, Apache Airflow
, Apache Spark
, Athena
, Data warehousing
, Data modelling
, Data quality
, DevOps
, CI/CD
, Docker
, ELT
, Git
, Linux
, Python
, Snowflake
, SQL
, Scala
, Scrum
Crunch Analytics
Sep 2019 - Jan 2020
Crunch Analytics is een data science-bedrijf en biedt op maat gemaakte oplossingen aan voor hun klanten.
Voorbeelden van projecten zijn: - Automatiseren van stockhernieuwing binnen retail - Intelligente promoties van producten
Als data engineer stond ik mee in voor de ontwikkeling en het onderhouden van het interne data processing framework, geschreven in Python. Het framework is een samenhang van verschillende componenten: Python scripts worden gepland uitgevoerd via Apache Airflow, die de Kubernetes cluster aanspreekt op Google Cloud. Ik stond ook in voor het operationaliseren van de machine learning-modellen en andere code die werd geschreven door de data scientists.
Apache Airflow
,Docker
,Google Cloud
,Jenkins
,Kubernetes
,Linux
,PostgreSQL
,Python
,SQL
IntoData
IntoData is een partner voor allerhande data engineering oplossingen. Er wordt steeds op maat van de klant een oplossing bedacht en uitgewerkt.
Bij IntoData heb ik voor verschillende klanten gewerkt.
Essent Belgium
Nov 2018 - Sep 2019
Essent was een elektriciteits- en gasleverancier actief in België, zowel op de B2B- als op de B2C-markt. Essent nam de strategische keuze om vanuit een data-centric approach hun klanten in kaart te brengen en te benaderen. Om dat te verwezenlijken gebruikten we big data tools zoals Apache Spark. Aan de hand van Apache Spark worden statistische modellen gemaakt en gebruikt om hun klanten te segmenteren, te scoren en slimme campagnes te voeren.
Bij Essent maakte ik deel uit van het analytics team. Ik schreef Scala-code in het Apache Spark framework aan de hand van reeds gemaakte analyses van de analisten. Om deze scheduling van deze jobs vlot te laten verlopen maakten we gebruik van Apache Airflow. Zo startten we automatisch een AWS EMR cluster en worden de gegevens op AWS S3 verwerkt. Het was mijn verantwoordelijkheid om ervoor te zorgen dat de gehele ketting succesvol werd doorlopen, van programmeren en testen tot automatisering.
AWS
,Apache Airflow
,Apache Spark
,CI/CD
,Jenkins
,Linux
,Machine learning
,PostgreSQL
,Python
,SQL
,Scala
Oranje
Mrt 2018 - Okt 2018
Oranje is een producent van verzorgingsproducten voor meubelen. Ze bieden via retailers certificaten aan die dienen als garantie voor de aankoop van een meubelstuk. Wanneer een klant beroep doet op deze service komt een medewerker van Oranje langs om reparaties of meubelzorg uit te voeren.
Oranje wilde hun oude systeem vervangen door een nieuw CRM-systeem. Ik voorzag de migratie van de data uit het oude legacy-systeem naar een nieuwe Salesforce-omgeving.
Hierbij werd ik geconfronteerd met volgende uitdagingen: - Tijdens het uitwerken van de migratie jobs in Talend was de Salesforce omgeving nog volop in ontwikkeling. Naarmate het project vorderde werden extra business logica en berekeningen toegevoegd. - De structuur tussen oud en nieuw was totaal verschillend. Bepaalde concepten bestonden niet in het oude systeem, maar waren wel een basisfundament in Salesforce. Hiervoor is complexe logica nodig geweest. - Datakwaliteitsproblemen oplossen zodat deze niet meer voorkomen in het nieuwe systeem.
AWS
,Data integratie
,Java
,PostgreSQL
,SQL
,SQL Server
,Salesforce
,Talend
R&D
Jul 2018 - Aug 2018
Binnen IntoData is een R&D-cel opgericht. Eén van de onderzoeksdomeinen is kijken naar de mogelijkheden rond machine learning, deep learning en artificiële intelligentie.
Binnen dit onderzoek is besloten om Python als ontwikkeltaal te nemen. Als eerste stap heb ik mij de concepten van machine learning eigen gemaakt. Deep learning heeft veel focus gekregen. Voor ik modellen kon bouwen moest de data voorbereid worden. Dat gebeurde in SQL en verscheidene Python libraries, waaronder Numpy, Pandas en Scikit-learn. Om de modellen te bouwen is gebruik gemaakt van Keras en Tensorflow.
Gedurende het traject heb ik steeds gewerkt in Jupyter Notebooks. Er zijn heel wat experimenten gebeurd. Het meest geslaagde is een eenvoudige sentiment analyse API met een web-interface, geschreven in HTML en JavaScript. De bedoeling van deze proefopstelling is het positief of negatief sentiment scoren van een gegeven bericht.
Het resultaat van dit onderzoek heb ik gepresenteerd aan de collega’s tijdens ons jaarlijks congres.
AWS
,JavaScript
,Linux
,Machine learning
,PostgreSQL
,Python
,SQL
Roompot
Mrt 2018 - Jun 2018
Roompot biedt verblijven aan in hun vele vakantieparken verspreid over België, Nederland, Frankrijk…
Bij Roompot stond ik in voor de integratie van data tussen hun oud backoffice systeem en hun nieuw CRM-systeem. De bestanden werden nachtelijks op hun FTP-server gezet. Deze integratie ontwikkelde ik in Talend. Deze Talend-jobs lezen deze bestanden uit, verwerken de data en laden ze op in Salesforce. Deze jobs werden uitgevoerd op AWS EC2 instances.
AWS
,Data integratie
,Java
,Linux
,Salesforce
,Talend
Compasity
Jan 2018 - Feb 2018
Compasity biedt in Nederland een service aan die het bedrijven eenvoudiger maakt ziekteverzuim van werknemers vast te leggen en te proberen voorkomen. Compasity verbindt met verschillende systemen. Ik stond ervoor in om één van die verbindingen te bouwen. Zo’n verbinding heeft als doel de twee systemen gesynchroniseerd te houden zodat Compasity steeds over de laatste nieuwe gegevens beschikt.
Data integratie
,Java
,Oracle
,SQL
,Talend
FCR Media
Sep 2017 - Dec 2017
FCR Media is het meest gekend om hun Gouden Gids. Daarnaast nemen ze verantwoordelijkheid over enkele technische aspecten van hun klanten: hun website, digitale marketing, SEO…
Ik vulde hun data team aan. Mijn taken waren heel divers. Ik heb onder andere meegewerkt aan de verrijking van hun databank, de synchronisatie van hun eigen database met het CRM-systeem en de opmaak van data quality rapporten.
Data integratie
,Java
,Oracle
,SQL
,Talend