Beter targeten met gegevensverrijking in de farmaceutische industrie

Context en doelstellingen

De database van een groot farmaceutisch bedrijfvan mindere kwaliteit verhinderde een nauwkeurige segmentatie van huisartsen en andere specialisten in België.

Het verkrijgen van een nauwkeuriger inzicht in de klant was cruciaal voor het bedrijf om op effectieve wijze middelen voor acquisitie en retentie toe te wijzen. Daarom begonnen we met het verzamelen van openbaar beschikbare, open gegevens over potentiële klanten en het opbouwen van klantkennis.

Dit gegevensverrijkingsproject had als doel om in de toekomst betere commerciële targeting mogelijk te maken (d.w.z. het verbeteren van gepersonaliseerde berichten en communicatiekanalen).

Benadering

We werkten samen met de marketing- en operationele afdelingen om de relevantie van de resultaten te maximaliseren. Eerst beoordeelden we het scrapingpotentieel van de verschillende bronnen en selecteerden we de meest relevante. Vervolgens gebruikten we web scraping technieken en verzamelden we open data over artsen van verschillende openbare websites (bijv. INAMI, Google search, LinkedIn en afsprakenplatforms zoals Doctena). We gebruikten een Search Engine Results Page (SERP) API om gefilterde resultaten van een Google zoekopdracht te verkrijgen en PhantomBuster voor LinkedIn. 

We hebben het web scraping en de consolidatie gedaan met de programmeertaal Python. Het proces is repliceerbaar voor elke toekomstige interne ontwikkeling bij het farmaceutische bedrijf of gegevensverversing op elk moment.

Tot slot verwerkten we de verkregen gegevens in een Excel-bestand.

Resultaten

Aan het einde van het project leverden we een model en andere middelen waarmee de klant uiteindelijk de gegevens kon gebruiken om segmenten te maken die toekomstige marketingcampagnes konden ondersteunen, waaronder:

  • De geconsolideerde database, verrijkt met alle geschraapte gegevens

  • Een gegevenswoordenboek - met een gedetailleerde beschrijving van de kolommen in elke database, waardoor informatie wordt gegeven over elke functie.

  • De documentatie van de methodologie en code. We ontwikkelden scripts om de dataset op te bouwen.

  • We ontwikkelden de volledige code in Python voor toekomstige repliceerbaarheid en interne ontwikkeling.

  • Een rapport met details over de aanpak.

De database begon met 15.000 artsen en 13 kenmerken over deze artsen. Na het web scraping project en het gebruik van zeven bronnen in totaal, is dit aantal nu 40 nieuwe functies, waardoor een rijker beeld ontstaat van elk profiel.

En omdat we ervoor hebben gezorgd dat de code voor het schrapen van gegevens repliceerbaar is, kan de klant in de toekomst gegevens vernieuwen en interne ontwikkeling uitvoeren.

Dankzij de data-analyse heeft de klant zijn klanten beter leren kennen en kan hij slimmere beslissingen nemen over en het coördineren van commercialiseringsinspanningen. Na afronding van het project in 3 weken begreep de klant snel welke vervolgacties nodig waren om de klantretentie en het commerciële potentieel te vergroten.

Vorige
Vorige

Snellere marketingbeslissingen in de gokindustrie

Volgende
Volgende

Omzet veiligstellen met gerichte retentie-initiatieven in telecom