Ga naar inhoud

Genzo Vandervelden

Over mezelf

Een portretfoto van Genzo Vandervelden

  • Nationaliteit: Belg
  • Woonplaats: 9180 Lokeren, België
  • Moedertaal: Nederlands
  • Andere talen: Engels

Achtergrond

Ik volgde een data-georiënteerde opleiding waar ik vertrouwd raakte met de datawereld. Mijn passie ligt bij big data. Hier maak ik zelf en in team de nodige analyses voor en werk ze uit in samenwerking met de stakeholders. Ik werk graag in team en bouw graag mee aan een hartelijke en authentieke sfeer.

Opleidingen

  • 2014 - 2017 Informatie Management & Systemen @ Thomas More

Certificaten

  • AWS Certified Solutions Architect - Associate
  • Google Analytics Qualified Individual
  • Google Adwords Qualified Individual
  • Apache Spark 2 with Scala - Hands On with Big Data

Highlights tools en technologieën

  • AWS
  • Apache Spark
  • Data integratie
  • Data modelling
  • Data warehousing
  • DevOps
  • DBT
  • ELT
  • Python
  • Scala
  • SQL

Ervaringen

Telenet (Freelance)

Mei 2022 - …

Telenet is een telecombedrijf in België dat innovatieve oplossingen biedt op het gebied van internet, televisie en telefonie voor zowel particuliere als zakelijke consumenten.

Ik ben bij Telenet gestart om mee te werken aan de migratie van een on-premise Cloudera-cluster naar AWS. Dit project had als doel de data-infrastructuur te moderniseren, schaalbaarheid te vergroten en kosten te optimaliseren. We maken gebruik van Apache Spark en DBT om data in te laden en te transformeren, en stellen deze beschikbaar in Snowflake. Door de overstap naar cloud-native oplossingen droeg ik bij aan een toekomstbestendige dataomgeving met meer ruimte voor innovatie.

Als Big Data Engineer ontwerp, ontwikkel en implementeer ik schaalbare data-oplossingen. Ik werk met moderne technologieën zoals Scala, Snowflake en AWS om grote hoeveelheden data te verwerken en te analyseren. Mijn werk omvat het bouwen van data pipelines, het optimaliseren van processen voor dataverwerking en het leveren van inzichten die bijdragen aan strategische beslissingen binnen het bedrijf.

Naast de zuiver technische zaken schrijf ik ook mee aan de analyses en documentatie van wat moet worden opgeleverd, of werk ik samen met andere teams om integraties tussen onze systemen te bespreken.

Agile, AWS, Apache Spark, Athena, CI/CD, Data warehousing, Data modelling, DevOps, Data quality, DBT, Docker, ELT, Git, Snowflake, SQL, Scala, Scrum


DPG Media

Jan 2020 - Mei 2022

DPG Media is een leidend mediabedrijf in België en Nederland, met sterke en bekende merken zoals VTM, Q-Music, Het Laatste Nieuws, Tweakers en vele anderen. Het bedrijf legt een sterke nadruk op technologie en digitalisering binnen de industrie.

Binnen DPG Media werkte ik als Data Engineer in de Data Area. Toen ik begon, kwam ik terecht in het B2B-team. Mijn taak was om samen met het team een oud on-premise data warehouse uit te faseren. We namen het datamodel grondig onder de loep en verfijnden het. Dit data warehouse bevatte gegevens over advertenties en de daarmee gepaard gaande omzet. Het werd gebruikt door salesverantwoordelijken en voor rapportering aan de directie. Dit systeem was echter door de jaren heen moeilijk onderhoudbaar geworden, bereikte zijn limieten door de steeds toenemende datavolumes en de kennis van het systeem ging verloren.

We faseerden dit systeem geleidelijk uit om plaats te maken voor een nieuw data warehouse dat draait op AWS S3, Apache Spark, Kubernetes en Snowflake. Tijdens de migratie van het data warehouse voerde ik continu analyses uit en werkte ik nauw samen met de stakeholders. We zorgden ervoor dat de nieuwe omgeving functioneel gelijkwaardig bleef, maar tegelijkertijd sneller, beter onderhoudbaar en schaalbaarder werd voor de toekomst. Ik gaf ook demo’s aan het businessteam over hoe ze onze data kunnen gebruiken in Tableau, zodat ze zelf aan de slag konden.

Op zoek naar nieuwe interne ervaringen, begon ik in het B2C-team. Daar voerde ik diverse taken uit, variërend van het verwerken van real-time events afkomstig van e-mailcampagnes tot het onderhouden van abonnementensystemen.

Agile, AWS, Apache Airflow, Apache Spark, Athena, Data warehousing, Data modelling, Data quality, DevOps, CI/CD, Docker, ELT, Git, Linux, Python, Snowflake, SQL, Scala, Scrum

Crunch Analytics

Sep 2019 - Jan 2020

Crunch Analytics is een data science-bedrijf en biedt op maat gemaakte oplossingen aan voor hun klanten.

Voorbeelden van projecten zijn: - Automatiseren van stockhernieuwing binnen retail - Intelligente promoties van producten

Als data engineer stond ik mee in voor de ontwikkeling en het onderhouden van het interne data processing framework, geschreven in Python. Het framework is een samenhang van verschillende componenten: Python scripts worden gepland uitgevoerd via Apache Airflow, die de Kubernetes cluster aanspreekt op Google Cloud. Ik stond ook in voor het operationaliseren van de machine learning-modellen en andere code die werd geschreven door de data scientists.

Apache Airflow, Docker, Google Cloud, Jenkins, Kubernetes, Linux, PostgreSQL, Python, SQL


IntoData

IntoData is een partner voor allerhande data engineering oplossingen. Er wordt steeds op maat van de klant een oplossing bedacht en uitgewerkt.

Bij IntoData heb ik voor verschillende klanten gewerkt.

Essent Belgium

Nov 2018 - Sep 2019

Essent was een elektriciteits- en gasleverancier actief in België, zowel op de B2B- als op de B2C-markt. Essent nam de strategische keuze om vanuit een data-centric approach hun klanten in kaart te brengen en te benaderen. Om dat te verwezenlijken gebruikten we big data tools zoals Apache Spark. Aan de hand van Apache Spark worden statistische modellen gemaakt en gebruikt om hun klanten te segmenteren, te scoren en slimme campagnes te voeren.

Bij Essent maakte ik deel uit van het analytics team. Ik schreef Scala-code in het Apache Spark framework aan de hand van reeds gemaakte analyses van de analisten. Om deze scheduling van deze jobs vlot te laten verlopen maakten we gebruik van Apache Airflow. Zo startten we automatisch een AWS EMR cluster en worden de gegevens op AWS S3 verwerkt. Het was mijn verantwoordelijkheid om ervoor te zorgen dat de gehele ketting succesvol werd doorlopen, van programmeren en testen tot automatisering.

AWS, Apache Airflow, Apache Spark, CI/CD, Jenkins, Linux, Machine learning, PostgreSQL, Python, SQL, Scala

Oranje

Mrt 2018 - Okt 2018

Oranje is een producent van verzorgingsproducten voor meubelen. Ze bieden via retailers certificaten aan die dienen als garantie voor de aankoop van een meubelstuk. Wanneer een klant beroep doet op deze service komt een medewerker van Oranje langs om reparaties of meubelzorg uit te voeren.

Oranje wilde hun oude systeem vervangen door een nieuw CRM-systeem. Ik voorzag de migratie van de data uit het oude legacy-systeem naar een nieuwe Salesforce-omgeving.

Hierbij werd ik geconfronteerd met volgende uitdagingen: - Tijdens het uitwerken van de migratie jobs in Talend was de Salesforce omgeving nog volop in ontwikkeling. Naarmate het project vorderde werden extra business logica en berekeningen toegevoegd. - De structuur tussen oud en nieuw was totaal verschillend. Bepaalde concepten bestonden niet in het oude systeem, maar waren wel een basisfundament in Salesforce. Hiervoor is complexe logica nodig geweest. - Datakwaliteitsproblemen oplossen zodat deze niet meer voorkomen in het nieuwe systeem.

AWS, Data integratie, Java, PostgreSQL, SQL, SQL Server, Salesforce, Talend

R&D

Jul 2018 - Aug 2018

Binnen IntoData is een R&D-cel opgericht. Eén van de onderzoeksdomeinen is kijken naar de mogelijkheden rond machine learning, deep learning en artificiële intelligentie.

Binnen dit onderzoek is besloten om Python als ontwikkeltaal te nemen. Als eerste stap heb ik mij de concepten van machine learning eigen gemaakt. Deep learning heeft veel focus gekregen. Voor ik modellen kon bouwen moest de data voorbereid worden. Dat gebeurde in SQL en verscheidene Python libraries, waaronder Numpy, Pandas en Scikit-learn. Om de modellen te bouwen is gebruik gemaakt van Keras en Tensorflow.

Gedurende het traject heb ik steeds gewerkt in Jupyter Notebooks. Er zijn heel wat experimenten gebeurd. Het meest geslaagde is een eenvoudige sentiment analyse API met een web-interface, geschreven in HTML en JavaScript. De bedoeling van deze proefopstelling is het positief of negatief sentiment scoren van een gegeven bericht.

Het resultaat van dit onderzoek heb ik gepresenteerd aan de collega’s tijdens ons jaarlijks congres.

AWS, JavaScript, Linux, Machine learning, PostgreSQL, Python, SQL

Roompot

Mrt 2018 - Jun 2018

Roompot biedt verblijven aan in hun vele vakantieparken verspreid over België, Nederland, Frankrijk…

Bij Roompot stond ik in voor de integratie van data tussen hun oud backoffice systeem en hun nieuw CRM-systeem. De bestanden werden nachtelijks op hun FTP-server gezet. Deze integratie ontwikkelde ik in Talend. Deze Talend-jobs lezen deze bestanden uit, verwerken de data en laden ze op in Salesforce. Deze jobs werden uitgevoerd op AWS EC2 instances.

AWS, Data integratie, Java, Linux, Salesforce, Talend

Compasity

Jan 2018 - Feb 2018

Compasity biedt in Nederland een service aan die het bedrijven eenvoudiger maakt ziekteverzuim van werknemers vast te leggen en te proberen voorkomen. Compasity verbindt met verschillende systemen. Ik stond ervoor in om één van die verbindingen te bouwen. Zo’n verbinding heeft als doel de twee systemen gesynchroniseerd te houden zodat Compasity steeds over de laatste nieuwe gegevens beschikt.

Data integratie, Java, Oracle, SQL, Talend

FCR Media

Sep 2017 - Dec 2017

FCR Media is het meest gekend om hun Gouden Gids. Daarnaast nemen ze verantwoordelijkheid over enkele technische aspecten van hun klanten: hun website, digitale marketing, SEO…

Ik vulde hun data team aan. Mijn taken waren heel divers. Ik heb onder andere meegewerkt aan de verrijking van hun databank, de synchronisatie van hun eigen database met het CRM-systeem en de opmaak van data quality rapporten.

Data integratie, Java, Oracle, SQL, Talend