
Deep Learning Research Engineer
Hij is gespecialiseerd in het bouwen van geavanceerde modellen, waaronder large language models (LLM’s), die in staat zijn tot code-refactoring, bugdetectie en continual learning. João werkt intensief met PyTorch en implementeert modellen op cloudplatforms en high-performance computing-systemen.
Voor zijn tijd bij ASML leidde hij onderzoeksteams bij GAIPS Lab, publiceerde hij op toonaangevende AI-conferenties en verkreeg hij competitieve onderzoeksbeurzen van de U.S. Air Force en FCT. Daarnaast gaf hij AI-cursussen en ontving hij een Teaching Excellence Award voor zijn bijdragen aan het onderwijs.
João’s belangrijkste projecten omvatten het ontwikkelen van technieken voor continual learning, waarmee AI nieuwe kennis kan verwerven zonder eerdere taken te vergeten, en het toepassen van reinforcement learning om modellen efficiënter te trainen met minder data. Hij is gepassioneerd over het effectiever, praktischer en voortdurend verbeterend maken van AI-systemen.


Uitmuntendheid in techniek
João algemene prestaties in een 90-minuten durende technische beoordeling zijn in de top 5% van de gescreende Deep Learning Research Engineer bij Proxify.
1This project investigates two hypothesis regarding the use of deep reinforcement learning in multiple tasks. The first hypothesis is driven by the question of whether a deep reinforcement learning algorithm, trained on two similar tasks, is able to outperform two single-task, individually trained algorithms, by more efficiently learning a new, similar task, that none of the three algorithms has encountered before. The second hypothesis is driven by the question of whether the same multi-task deep RL algorithm, trained on two similar tasks and augmented with elastic weight consolidation (EWC), is able to retain similar performance on the new task, as a similar algorithm without EWC, whilst being able to overcome catastrophic forgetting in the two previous tasks. We show that a multi-task Asynchronous Advantage Actor-Critic (GA3C) algorithm, trained on Space Invaders and Demon Attack, is in fact able to outperform two single-tasks GA3C versions, trained individually for each single-task, when evaluated on a new, third task—namely, Phoenix.
We also show that, when training two trained multi-task GA3C algorithms on the third task, if one is augmented with EWC, it is not only able to achieve similar performance on the new task, but also capable of overcoming a substantial amount of catastrophic forgetting on the two previous tasks.






Praat met een expert en krijg binnen 2 dagen op maat gemaakte matches uit ons netwerk.
Toegang tot meer dan 6.000+ experts
Word binnen gemiddeld 2 dagen gekoppeld aan een ontwikkelaar
Huur snel en eenvoudig in met 94% matchingsucces