
Data Scientist
Seine technischen Fähigkeiten umfassen die Arbeit mit fortschrittlichen Data Science- und ML-Tools wie Snowflake, dbt, Airflow und MLflow. Ein Höhepunkt seiner Karriere war seine Rolle an der Universität Cambridge, wo er einen fortgeschrittenen Online-Datenwissenschaftskurs entwickelte und unterrichtete, was sowohl sein Fachwissen als auch seine Fähigkeit in der Vereinfachung komplexer Themen unter Beweis stellte. Darüber hinaus spielte er bei Outra eine Schlüsselrolle beim Sicherstellen eines Multi-Millionen-Dollar-Vertrags mit Zoopla.
Felipes einzigartige Kombination aus tiefgehender technischer Expertise und starken Kommunikationsfähigkeiten macht ihn zu einem herausragenden Fachmann im Bereich Data Science.

– Arbeitete bei Rylee, einer E-Commerce-Plattform, die den Kunden Produkterkenntnisse und Marktanalysen bietet, um die Strategien auf Bol.com und Amazon zu verbessern. – Erwarb die Databricks-Zertifizierung in Generative AI, die Expertise mit RAG- und Agentenmodellen demonstriert. – Entwickelte ein großangelegtes Verkaufsprognosemodell unter Verwendung interner Daten von Rylee und gescrapten Daten von Bol.com, um den Produktverkauf vorherzusagen und Bestseller zu identifizieren. – Baute eine API mit Flask und AWS Lambda, um Produktabfragen zu bearbeiten und Einblicke sowie Verkaufsprognosen bereitzustellen. – Entwarf und implementierte ETL-Pipelines unter Verwendung von dbt, Airflow und Spark, um die Merkmalsentwicklung zu automatisieren, einschließlich einer asynchronen Lösung für eine effiziente Datenabfrage über die Bol.com-API unter Berücksichtigung von Ratenlimits und der Parallelisierung in großem Maßstab; automatisierte auch die Datenabstimmung über mehrere Verkäufer. – Wandte PyTorch und Spark an, um leistungsfähige Maschinelles Lernen-Modelle zu optimieren.

– Arbeitete bei Homemove, einer umfassenden Plattform, die umzugsbezogene Dienstleistungen anbietet, einschließlich Umfragen, Umzüge und Hypotheken, die in einer einzigen App integriert sind. – Entwickelte ein LLM-gesteuertes Verhandlungstool, das es Benutzern ermöglichte, Angebote zu erhalten und Preise über einen KI-Chatbot zu verhandeln, automatisch Kunden zu einem CRM hinzuzufügen und das Vertriebsteam bei erfolgreicher Verhandlung zu benachrichtigen, unter Verwendung von OpenAI-Assistenten und GPT-Modellen. – Führte eine skalierbare Datenumwandlungsinitiative durch und nutzte Snowflake für Cloud-Datenlagerung sowie Sigma für BI und Visualisierung. – Entwarf und implementierte ETL-Pipelines von Grund auf mit Snowflake, Python, SQL, dbt und Airflow, um die Datenaufnahme und -umwandlung zu automatisieren. – Baute eine prädiktive Modellierungslösung, um die Marketingkosten zu senken und das Targeting zu verbessern, indem hochgradige Umzugsprognosen identifiziert wurden. – Wandte PyTorch und Snowpark für fortgeschrittenes maschinelles Lernen an, um leistungsstarke Modelle zu optimieren. – Lieferte ein prädiktives Modell, das während der Serie-A-Finanzierungsrunde von Homemove verwendet werden sollte.
– Arbeitete als Data Science-Spezialist bei FourthRev und entwickelte sowie unterrichtete einen fortgeschrittenen Online-Datenwissenschaftskurs für Studenten der Universität Cambridge. – Entwickelte und lieferte einen umfassenden Lehrplan, der neuronale Netze, NLP für KI, unüberwachtes Lernen und fortschrittliche Entscheidungsbaumalgorithmen, einschließlich XGBoost, abdeckte. – Wandte praktische Implementierungen für maschinelles Lernen an und setzte innovative Lehrmethoden ein, um die Studentenbindung und Lernresultate zu verbessern. – Demonstrierte fundierte technische Kenntnisse in der Datenwissenschaft und im maschinellen Lernen und erlangte Anerkennung von akademischen Kollegen für effektives Lehren und Lehrplangestaltung.

– Arbeitete bei Outra, einem datengestützten Immobilienanalyseunternehmen, das sich darauf spezialisiert hat, haushaltsbezogene Daten zur Optimierung der Kundendienste bereitzustellen. – Migrierte die Plattform von Dataiku zu einer benutzerdefinierten Intelligence Fabric und nutzte MLflow, Airflow, Snowflake, GitHub Actions, AWS und DBT für die Datenverarbeitung. – Entwickelte zwei wichtige prädiktive Modelle zur Prognose von Haushaltslisten und Verkaufs-/Vermietungszeiträumen, wodurch eine Multi-Millionen-Dollar-Partnerschaft mit Zoopla ermöglicht wurde. – Wandte LLMs für die Dokumentation von Code, Programmierunterstützung und interaktive Chatbots für Dashboards und kundenorientierte Daten an. – Baute ETL/ELT-Pipelines, um Rohdaten zu transformieren und für die Modellierung vorzubereiten. – Erstellte Visualisierungen und Karten mit KeplerGI, Seaborn und Dataiku, um es nicht-technischen Nutzern zu ermöglichen, komplexe Daten zu interpretieren.

– Arbeitete bei Belmont Green, einer spezialisierten Hypothekendarlehensfirma, die finanziellen und hypothekarischen Lösungen für von der Finanzkrise betroffene Kunden anbietet. – Entwickelte ein Umwandlungsmodell mithilfe von Überlebensanalysetechniken und leitete das Projekt vom Konzept bis zur Produktion. – Entwickelte maschinelles Lernalgorithmen und statistische Modelle für Zeitreihendaten mit Fokus auf Kundenbindung, Lebenszeitwert und erwartete Verlustmodelle. – Übernahm Projekte von Anfang bis Ende und stellte sicher, dass Machbarkeitsnachweise erfolgreich umgesetzt und in Produktion genommen wurden. – Implementierte maschinelle Lernalgorithmen für Cashflow, Frühablösung, Ausfall, Vorzahlung und Umwandlungsmodelle unter Verwendung von Python und R. – Wandte Cluster- und Segmentierungstechniken an, um die Produktnutzung und das Kundenverhalten für Marketing- und Strategieziele zu analysieren.
Boster.Ai is a company dedicated to create No-code bots for data retrieval, monitoring and automation. Originally, they started as an IT consultancy company, creating personalized solutions to small and mid-size companies to harvest the power of Machine Learning
Felipe worked performing data exploration, analysis, and building Machine Learning algorithms and statistical models for several start-ups/mid-size companies in the UK and USA.
He built and diagnostic Neural Networks models for forecasting key performance indicators using Python, TensorFlow, and Keras.
Worked in e-commerce businesses solving customer behaviour problems such as lifetime value, clustering of customers, etc.
Performed ethical web scraping using Python with scraPy, RoboBrowser, and BeautifulSoup to obtain data for various analyses.
Excellence en ingénierie
Felipe Gesamtleistung in einer 90-minütigen Live-Technikbewertung rangiert im top 25% der überprüften Data Scientist bei Proxify.
Issued Jan 2025 - Expires Jan 2027
Credential ID 129682840
Issued Jan 2025 - Expires Jan 2027
Credential ID 129682840



Sprechen Sie mit einem Experten und erhalten Sie innerhalb von nur 2 Tagen maßgeschneiderte Matches aus unserem Netzwerk.
Zugriff auf über 6.000+ Experten
Werden Sie im Durchschnitt in 2 Tagen mit einem Entwickler zusammengebracht
Schnell und einfach einstellen mit 94% Übereinstimmungserfolg