
Deep Learning Research Engineer
Il se spécialise dans la construction de modèles avancés, y compris de grands modèles de langage (LLM), capables de refactoriser le code, de détecter les bugs et de continuer à apprendre. João travaille largement avec PyTorch et déploie des modèles sur des plates-formes cloud et des systèmes informatiques performants.
Avant de participer à l'ASML, il a dirigé des équipes de recherche au Laboratoire GAIPS, publié dans le cadre de conférences d'Amnesty International, et obtenu des subventions de la part des États-Unis. Force aérienne et FCT. Il a également enseigné des cours d’IA, obtenant un prix d’excellence en enseignement pour sa contribution à l’éducation.
Les principaux projets de João comprennent l’avancement des techniques d’apprentissage continuelles, permettant à l’IA d’acquérir de nouvelles connaissances sans oublier les tâches précédentes, et en appliquant l'apprentissage du renforcement pour former des modèles plus efficacement avec moins de données. Il est passionné de rendre les systèmes AI plus efficaces, plus pratiques et en constante amélioration.


Excellence en ingénierie
Les performances globales de João lors d'une évaluation technique en direct de 90 minutes se classent dans le top 5% des Deep Learning Research Engineer évalués chez Proxify.
1This project investigates two hypothesis regarding the use of deep reinforcement learning in multiple tasks. The first hypothesis is driven by the question of whether a deep reinforcement learning algorithm, trained on two similar tasks, is able to outperform two single-task, individually trained algorithms, by more efficiently learning a new, similar task, that none of the three algorithms has encountered before. The second hypothesis is driven by the question of whether the same multi-task deep RL algorithm, trained on two similar tasks and augmented with elastic weight consolidation (EWC), is able to retain similar performance on the new task, as a similar algorithm without EWC, whilst being able to overcome catastrophic forgetting in the two previous tasks. We show that a multi-task Asynchronous Advantage Actor-Critic (GA3C) algorithm, trained on Space Invaders and Demon Attack, is in fact able to outperform two single-tasks GA3C versions, trained individually for each single-task, when evaluated on a new, third task—namely, Phoenix.
We also show that, when training two trained multi-task GA3C algorithms on the third task, if one is augmented with EWC, it is not only able to achieve similar performance on the new task, but also capable of overcoming a substantial amount of catastrophic forgetting on the two previous tasks.






Parlez à un expert et obtenez des correspondances personnalisées de notre réseau en seulement 2 jours.
Accédez à plus de 6 000+ experts
Soyez jumelé avec un développeur en 2 jours en moyenne
Embauchez rapidement et facilement avec un taux de réussite de 94%