Home

Over mezelf

Screenshot

  • Nationaliteit: Belg
  • Woonplaats: 9180 Moerbeke, België
  • Moedertaal: Nederlands
  • Andere talen
    • Engels
    • Frans

Achtergrond

Ik ben gebeten door data en in die context word ik gedreven door het uitproberen van en werken met nieuwe technologieën en concepten. Bij problemen probeer ik steeds pragmatische en onderbouwde oplossingen te vinden. Ik volgde een data-georiënteerde opleiding. Daar raakte ik vertrouwd met de traditionele dataverwerking, maar mijn echte passie ligt bij big data en oplossingen uitwerken voor de uitdagingen die daarmee gepaard gaan. Daarnaast werk ik graag in team en streef ik steeds naar een collegiale werksfeer.

Opleidingen

  • 2014 - 2017 Informatica Management & Systemen @ Thomas More

Certificaten

  • Google Analytics Qualified Individual
  • Google Adwords Qualified Individual
  • Apache Spark 2 with Scala - Hands On with Big Data

Tools en technologieën

  • Apache Spark
  • Data integratie
  • Data modeling
  • Java
  • PostgreSQL
  • Python
  • Scala
  • SQL

Ervaringen

DataStruck

Ik werk als freelancer onder DataStruck.

Telenet

Mei 2022 - …

Dit wordt nog aangevuld.

AWS, Apache Spark, Cloudera, Snowflake, SQL, Scala


DPG Media

Jan 2020 - Mei 2022

DPG Media is een leidinggevend mediabedrijf in België en Nederland met sterke en gekende merken als VTM, Q-Music, Het Laatste Nieuws, Tweakers en vele meer. Het bedrijf zet sterk in op technologie en digitalisatie binnen de industrie.

Binnen DPG Media werkte ik als Data Engineer binnen de Data Area.

Als eerste project kwam ik in het kleine B2B team terecht. Onze opdracht was om een oud on-premise data warehouse uit te faseren. Dit data warehouse omvatte data over advertenties en de omzet die daar tegenover staat. Deze werd gebruikt door salesverantwoordelijken en rapportering naar directie. Dit systeem is echter door de jaren moeilijk onderhoudbaar geraakt, kwam aan zijn limieten door de steeds toenemende datavolumes en de kennis van het systeem ging verloren.

We faseerden dit systeem gradueel uit om plaats te maken voor een nieuw data warehouse dat draait op AWS S3, Apache Spark, Kubernetes en Snowflake. Samen met business zorgden we ervoor dat de nieuwe omgeving functioneel evenwaardig blijft, maar tegelijk sneller, beter onderhoudbaar en schaalbaar is voor de toekomst.

Momenteel werk ik in het B2C team. Daar doe ik verscheidene taken, gaande van het verwerkten van real-time events afkomstig van e-mail campagnes, tot het mee onderhouden van abonnementensystemen.

AWS, Apache Airflow, Apache Spark, CI/CD, Docker, Linux, Python, Snowflake, SQL, Scala


Crunch Analytics

Sep 2019 - Jan 2020

Crunch Analytics is een data science-bedrijf en biedt op maat gemaakte oplossingen aan voor hun klanten.

Voorbeelden van projecten zijn: - Automatiseren van stockhernieuwing binnen retail - Intelligente promoties van producten

Als data engineer stond ik mee in voor de ontwikkeling en het onderhouden van het interne data processing framework, geschreven in Python. Het framework is een samenhang van verschillende componenten: Python scripts worden gescheduled op Apache Airflow, die de Kubernetes cluster aanspreekt op Google Cloud. Ik stond ook in voor het operationaliseren van de machine learning-modellen en andere code die werd geschreven door de data scientists.

Apache Airflow, Docker, Google Cloud, Jenkins, Kubernetes, Linux, PostgreSQL, Python, SQL


IntoData

IntoData is een partner voor allerhande data engineering oplossingen. Er wordt steeds op maat van de klant een oplossing bedacht en uitgewerkt.

Bij IntoData heb ik voor verschillende klanten gewerkt.

Essent Belgium

Nov 2018 - Sep 2019

Essent was een elektriciteits- en gasleverancier actief in België, zowel op de B2B- als op de B2C-markt. Essent nam de strategische keuze om vanuit een data-centric approach hun klanten in kaart te brengen en te benaderen. Om dat te verwezenlijken gebruikten we big data tools zoals Apache Spark. Aan de hand van Apache Spark worden statistische modellen gemaakt en gebruikt om hun klanten te segmenteren, te scoren en slimme campagnes te voeren.

Bij Essent maakte ik deel uit van het analytics team. Ik schreef Scala-code in het Apache Spark framework aan de hand van reeds gemaakte analyses van de analisten. Om deze scheduling van deze jobs vlot te laten verlopen maakten we gebruik van Apache Airflow. Zo startten we automatisch een AWS EMR cluster en worden de gegevens op AWS S3 verwerkt. Het was mijn verantwoordelijkheid om ervoor te zorgen dat de gehele ketting succesvol werd doorlopen, van programmeren en testen tot automatisering.

AWS, Apache Airflow, Apache Spark, CI/CD, Jenkins, Linux, Machine learning, PostgreSQL, Python, SQL, Scala

Oranje

Mrt 2018 - Okt 2018

Oranje is een producent van verzorgingsproducten voor meubelen. Ze bieden via retailers certificaten aan die dienen als garantie voor de aankoop van een meubelstuk. Wanneer een klant beroep doet op deze service komt een medewerker van Oranje langs om reparaties of meubelzorg uit te voeren.

Oranje wilde hun oude systeem vervangen door een nieuw CRM-systeem. Ik voorzag de migratie van de data uit het oude legacy-systeem naar een nieuwe Salesforce-omgeving.

Hierbij werd ik geconfronteerd met volgende uitdagingen: - Tijdens het uitwerken van de migratie jobs in Talend was de Salesforce omgeving nog volop in ontwikkeling. Naarmate het project vorderde werden extra business logica en berekeningen toegevoegd. - De structuur tussen oud en nieuw was totaal verschillend. Bepaalde concepten bestonden niet in het oude systeem, maar waren wel een basisfundament in Salesforce. Hiervoor is complexe logica nodig geweest. - Datakwaliteitsproblemen oplossen zodat deze niet meer voorkomen in het nieuwe systeem.

AWS, Data integratie, Java, PostgreSQL, SQL, SQL Server, Salesforce, Talend

R&D

Jul 2018 - Aug 2018

Binnen IntoData is een R&D-cel opgericht. Eén van de onderzoeksdomeinen is kijken naar de mogelijkheden rond machine learning, deep learning en artificiële intelligentie.

Binnen dit onderzoek is besloten om Python als ontwikkeltaal te nemen. Als eerste stap heb ik mij de concepten van machine learning eigen gemaakt. Deep learning heeft veel focus gekregen. Voor ik modellen kon bouwen moest de data voorbereid worden. Dat gebeurde in SQL en verscheidene Python libraries, waaronder Numpy, Pandas en Scikit-learn. Om de modellen te bouwen is gebruik gemaakt van Keras en Tensorflow.

Gedurende het traject heb ik steeds gewerkt in Jupyter Notebooks. Er zijn heel wat experimenten gebeurd. Het meest geslaagde is een eenvoudige sentiment analyse API met een web-interface, geschreven in HTML en JavaScript. De bedoeling van deze proefopstelling is het positief of negatief sentiment scoren van een gegeven bericht.

Het resultaat van dit onderzoek heb ik gepresenteerd aan de collega’s tijdens ons jaarlijks congres.

AWS, JavaScript, Linux, Machine learning, PostgreSQL, Python, SQL

Roompot

Mrt 2018 - Jun 2018

Roompot biedt verblijven aan in hun vele vakantieparken verspreid over België, Nederland, Frankrijk…

Bij Roompot stond ik in voor de integratie van data tussen hun oud backoffice systeem en hun nieuw CRM-systeem. De bestanden werden nachtelijks op hun FTP-server gezet. Deze integratie ontwikkelde ik in Talend. Deze Talend-jobs lezen deze bestanden uit, verwerken de data en laden ze op in Salesforce. Deze jobs werden uitgevoerd op AWS EC2 instances.

AWS, Data integratie, Java, Linux, Salesforce, Talend

Compasity

Jan 2018 - Feb 2018

Compasity biedt in Nederland een service aan die het bedrijven eenvoudiger maakt ziekteverzuim van werknemers vast te leggen en te proberen voorkomen. Compasity verbindt met verschillende systemen. Ik stond ervoor in om één van die verbindingen te bouwen. Zo’n verbinding heeft als doel de twee systemen gesynchroniseerd te houden zodat Compasity steeds over de laatste nieuwe gegevens beschikt.

Data integratie, Java, Oracle, SQL, Talend

FCR Media

Sep 2017 - Dec 2017

FCR Media is het meest gekend om hun Gouden Gids. Daarnaast nemen ze verantwoordelijkheid over enkele technische aspecten van hun klanten: hun website, digitale marketing, SEO…

Ik vulde hun data team aan. Mijn taken waren heel divers. Ik heb onder andere meegewerkt aan de verrijking van hun databank, de synchronisatie van hun eigen database met het CRM-systeem en de opmaak van data quality rapporten.

Data integratie, Java, Oracle, SQL, Talend