
Deep Learning Research Engineer
Han har specialiseret sig i at opbygge avancerede modeller, herunder store sprog modeller (LLMs), i stand til kode refactoring, bug detection, og kontinuerlig læring. João arbejder omfattende med PyTorch og implementerer modeller på cloud-platforme og højtydende computersystemer.
Forud for ASML, ledede han forskerhold hos GAIPS Lab, der blev offentliggjort i førende AI-konferencer og sikrede konkurrenceprægede tilskud fra USA. Luftvåben og FCT. Han har også undervist AI kurser, tjene en Teaching Excellence Award for hans bidrag til uddannelse.
João vigtigste projekter omfatter fremme løbende indlæringsteknikker, der gør det muligt for AI at erhverve ny viden uden at glemme tidligere opgaver, og anvende forstærkning læring til at uddanne modeller mere effektivt med færre data. Han brænder for at gøre AI-systemer mere effektive, praktiske, og løbende forbedre.


Ingeniørmæssig fremragendehed
João samlede præstation i en 90-minutters teknisk vurdering i realtid er blandt de top 5% bedst kontrollerede Deep Learning Research Engineer hos Proxify.
1This project investigates two hypothesis regarding the use of deep reinforcement learning in multiple tasks. The first hypothesis is driven by the question of whether a deep reinforcement learning algorithm, trained on two similar tasks, is able to outperform two single-task, individually trained algorithms, by more efficiently learning a new, similar task, that none of the three algorithms has encountered before. The second hypothesis is driven by the question of whether the same multi-task deep RL algorithm, trained on two similar tasks and augmented with elastic weight consolidation (EWC), is able to retain similar performance on the new task, as a similar algorithm without EWC, whilst being able to overcome catastrophic forgetting in the two previous tasks. We show that a multi-task Asynchronous Advantage Actor-Critic (GA3C) algorithm, trained on Space Invaders and Demon Attack, is in fact able to outperform two single-tasks GA3C versions, trained individually for each single-task, when evaluated on a new, third task—namely, Phoenix.
We also show that, when training two trained multi-task GA3C algorithms on the third task, if one is augmented with EWC, it is not only able to achieve similar performance on the new task, but also capable of overcoming a substantial amount of catastrophic forgetting on the two previous tasks.






Tal med en ekspert og få skræddersyede matches fra vores netværk på kun 2 dage.
Få adgang til over 6.000+ eksperter
Få matchet med en udvikler på gennemsnitligt 2 dage
Ansæt hurtigt og nemt med 94 % matchsuccess