NEU
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Felipe A.
Data Scientist
Felipe ist ein hochqualifizierter Data Scientist mit über sieben Jahren Erfahrung in Fintech, Proptech, Edtech und Beratung. Er kombiniert starke technische Kenntnisse im Bereich maschinelles Lernen mit der Fähigkeit, komplexe Konzepte effektiv an Stakeholder zu kommunizieren.
Seine technischen Fähigkeiten umfassen die Arbeit mit fortschrittlichen Data Science- und ML-Tools wie Snowflake, dbt, Airflow und MLflow. Ein Höhepunkt seiner Karriere war seine Rolle an der Universität Cambridge, wo er einen fortgeschrittenen Online-Datenwissenschaftskurs entwickelte und unterrichtete, was sowohl sein Fachwissen als auch seine Fähigkeit in der Vereinfachung komplexer Themen unter Beweis stellte. Darüber hinaus spielte er bei Outra eine Schlüsselrolle beim Sicherstellen eines Multi-Millionen-Dollar-Vertrags mit Zoopla.
Felipes einzigartige Kombination aus tiefgehender technischer Expertise und starken Kommunikationsfähigkeiten macht ihn zu einem herausragenden Fachmann im Bereich Data Science.
Hauptkompetenz
- Pytest 2 Jahre

- AWS 3 Jahre
- Bash 4 Jahre

Andere Fähigkeiten
- Agile 4 Jahre

- PyTorch 2 Jahre
- Asana 1 Jahre

Ausgewählte Erfahrung
Beschäftigung
Data Scientist
Rylee - 1 jahr
– Arbeitete bei Rylee, einer E-Commerce-Plattform, die den Kunden Produkterkenntnisse und Marktanalysen bietet, um die Strategien auf Bol.com und Amazon zu verbessern. – Erwarb die Databricks-Zertifizierung in Generative AI, die Expertise mit RAG- und Agentenmodellen demonstriert. – Entwickelte ein großangelegtes Verkaufsprognosemodell unter Verwendung interner Daten von Rylee und gescrapten Daten von Bol.com, um den Produktverkauf vorherzusagen und Bestseller zu identifizieren. – Baute eine API mit Flask und AWS Lambda, um Produktabfragen zu bearbeiten und Einblicke sowie Verkaufsprognosen bereitzustellen. – Entwarf und implementierte ETL-Pipelines unter Verwendung von dbt, Airflow und Spark, um die Merkmalsentwicklung zu automatisieren, einschließlich einer asynchronen Lösung für eine effiziente Datenabfrage über die Bol.com-API unter Berücksichtigung von Ratenlimits und der Parallelisierung in großem Maßstab; automatisierte auch die Datenabstimmung über mehrere Verkäufer. – Wandte PyTorch und Spark an, um leistungsfähige Maschinelles Lernen-Modelle zu optimieren.
Technologien:
- Technologien:
MySQL
AWS
Databricks
Apache Spark
Django
Flask
Python
SQL
- Data Science
Digital Ocean
TensorFlow
NumPy
XGBoost
Pandas
- Data Engineering
Scrum
Git
Scikit-learn
- ELT
- Data Analytics
Random Forest
- Clustering
- SVM
- PCA
Convolutional neural network
- Transformer Network
- Data Modeling
ETL
- NLP
Machine Learning
FastAPI
OpenAI API
- Prompt Engineering
Large Language Models (LLM)
Hugging Face Transformers
- MLflow
- Pipeline optimization
Data Scientist
Homemove - 3 monate
– Arbeitete bei Homemove, einer umfassenden Plattform, die umzugsbezogene Dienstleistungen anbietet, einschließlich Umfragen, Umzüge und Hypotheken, die in einer einzigen App integriert sind. – Entwickelte ein LLM-gesteuertes Verhandlungstool, das es Benutzern ermöglichte, Angebote zu erhalten und Preise über einen KI-Chatbot zu verhandeln, automatisch Kunden zu einem CRM hinzuzufügen und das Vertriebsteam bei erfolgreicher Verhandlung zu benachrichtigen, unter Verwendung von OpenAI-Assistenten und GPT-Modellen. – Führte eine skalierbare Datenumwandlungsinitiative durch und nutzte Snowflake für Cloud-Datenlagerung sowie Sigma für BI und Visualisierung. – Entwarf und implementierte ETL-Pipelines von Grund auf mit Snowflake, Python, SQL, dbt und Airflow, um die Datenaufnahme und -umwandlung zu automatisieren. – Baute eine prädiktive Modellierungslösung, um die Marketingkosten zu senken und das Targeting zu verbessern, indem hochgradige Umzugsprognosen identifiziert wurden. – Wandte PyTorch und Snowpark für fortgeschrittenes maschinelles Lernen an, um leistungsstarke Modelle zu optimieren. – Lieferte ein prädiktives Modell, das während der Serie-A-Finanzierungsrunde von Homemove verwendet werden sollte.
Technologien:
- Technologien:
MySQL
AWS
ElasticSearch
Databricks
Apache Spark
Django
Flask
Python
SQL
AWS Lambda
AWS S3
- Data Science
- Regression testing
Digital Ocean
TensorFlow
NumPy
XGBoost
Keras
Pandas
- Data Engineering
PyTorch
PyCharm
Scrum
Git
SciPy
Scikit-learn
- ELT
Matplotlib
- Data Analytics
Random Forest
- Clustering
- SVM
- PCA
Convolutional neural network
- Recurrent neural network
- Transformer Network
Snowflake
- Data Modeling
ETL
- NLP
Machine Learning
FastAPI
SQLAlchemy
Streamlit
Pytest
Plotly
OpenAI API
- Prompt Engineering
Large Language Models (LLM)
Vertex AI
Pinecone
Hugging Face Transformers
- MLflow
- Pipeline optimization
Data Science Instructor and Course Developer
Cambridge University & FourthRev - 8 monate
– Arbeitete als Data Science-Spezialist bei FourthRev und entwickelte sowie unterrichtete einen fortgeschrittenen Online-Datenwissenschaftskurs für Studenten der Universität Cambridge. – Entwickelte und lieferte einen umfassenden Lehrplan, der neuronale Netze, NLP für KI, unüberwachtes Lernen und fortschrittliche Entscheidungsbaumalgorithmen, einschließlich XGBoost, abdeckte. – Wandte praktische Implementierungen für maschinelles Lernen an und setzte innovative Lehrmethoden ein, um die Studentenbindung und Lernresultate zu verbessern. – Demonstrierte fundierte technische Kenntnisse in der Datenwissenschaft und im maschinellen Lernen und erlangte Anerkennung von akademischen Kollegen für effektives Lehren und Lehrplangestaltung.
Technologien:
- Technologien:
- Data Science
NumPy
XGBoost
Pandas
Scikit-learn
Matplotlib
Machine Learning
Pytest
Plotly
- Neural Network
Senior Data Scientist
Outra - 2 jahre
– Arbeitete bei Outra, einem datengestützten Immobilienanalyseunternehmen, das sich darauf spezialisiert hat, haushaltsbezogene Daten zur Optimierung der Kundendienste bereitzustellen. – Migrierte die Plattform von Dataiku zu einer benutzerdefinierten Intelligence Fabric und nutzte MLflow, Airflow, Snowflake, GitHub Actions, AWS und DBT für die Datenverarbeitung. – Entwickelte zwei wichtige prädiktive Modelle zur Prognose von Haushaltslisten und Verkaufs-/Vermietungszeiträumen, wodurch eine Multi-Millionen-Dollar-Partnerschaft mit Zoopla ermöglicht wurde. – Wandte LLMs für die Dokumentation von Code, Programmierunterstützung und interaktive Chatbots für Dashboards und kundenorientierte Daten an. – Baute ETL/ELT-Pipelines, um Rohdaten zu transformieren und für die Modellierung vorzubereiten. – Erstellte Visualisierungen und Karten mit KeplerGI, Seaborn und Dataiku, um es nicht-technischen Nutzern zu ermöglichen, komplexe Daten zu interpretieren.
Technologien:
- Technologien:
AWS
Apache Spark
Django
Flask
Python
SQL
AWS Lambda
AWS S3
- Data Science
TensorFlow
NumPy
XGBoost
Keras
Pandas
- Data Engineering
PyTorch
Scrum
Git
Scikit-learn
- ELT
Apache Airflow
Matplotlib
- Data Analytics
Random Forest
- Clustering
- SVM
- PCA
Convolutional neural network
- Recurrent neural network
- Transformer Network
Snowflake
- Data Modeling
ETL
- NLP
Machine Learning
AWS EC2
FastAPI
SQLAlchemy
Streamlit
Pytest
Plotly
dbt
OpenAI API
- Prompt Engineering
- Neural Network
Large Language Models (LLM)
Vertex AI
Dataiku
Hugging Face Transformers
- MLflow
- Pipeline optimization
Data Scientist
Belmont Green - 2 jahre 6 monate
– Arbeitete bei Belmont Green, einer spezialisierten Hypothekendarlehensfirma, die finanziellen und hypothekarischen Lösungen für von der Finanzkrise betroffene Kunden anbietet. – Entwickelte ein Umwandlungsmodell mithilfe von Überlebensanalysetechniken und leitete das Projekt vom Konzept bis zur Produktion. – Entwickelte maschinelles Lernalgorithmen und statistische Modelle für Zeitreihendaten mit Fokus auf Kundenbindung, Lebenszeitwert und erwartete Verlustmodelle. – Übernahm Projekte von Anfang bis Ende und stellte sicher, dass Machbarkeitsnachweise erfolgreich umgesetzt und in Produktion genommen wurden. – Implementierte maschinelle Lernalgorithmen für Cashflow, Frühablösung, Ausfall, Vorzahlung und Umwandlungsmodelle unter Verwendung von Python und R. – Wandte Cluster- und Segmentierungstechniken an, um die Produktnutzung und das Kundenverhalten für Marketing- und Strategieziele zu analysieren.
Technologien:
- Technologien:
- Data Science
NumPy
XGBoost
Keras
Pandas
PyTorch
Scikit-learn
Matplotlib
Machine Learning
SQLAlchemy
Plotly
- Neural Network
Data Scientist
Boster.AI - 2 jahre
-
Boster.Ai is a company dedicated to create No-code bots for data retrieval, monitoring and automation. Originally, they started as an IT consultancy company, creating personalized solutions to small and mid-size companies to harvest the power of Machine Learning
-
Felipe worked performing data exploration, analysis, and building Machine Learning algorithms and statistical models for several start-ups/mid-size companies in the UK and USA.
-
He built and diagnostic Neural Networks models for forecasting key performance indicators using Python, TensorFlow, and Keras.
-
Worked in e-commerce businesses solving customer behaviour problems such as lifetime value, clustering of customers, etc.
-
Performed ethical web scraping using Python with scraPy, RoboBrowser, and BeautifulSoup to obtain data for various analyses.
Technologien:
- Technologien:
- Data Science
TensorFlow
NumPy
Keras
Pandas
Scikit-learn
Matplotlib
Machine Learning
Plotly
-
Ausbildung
FortbildungMachine Learning Specialization
Stanford University · 2023 - 2023
FortbildungMachine Learning
Massachusetts Institute of Technology · 2021 - 2022
BSc.Business Management with maths
Kingston University · 2013 - 2016
BSc.Civil Engineering
Adolfo Ibanez University · 2011 - 2013
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche
