
Deep Learning Research Engineer
Han har spesialisert seg på å bygge avanserte modeller, inkludert store språkmodeller (LLM-er), som kan utføre kode-refaktorering, feildeteksjon og kontinuerlig læring. João arbeidet omfattende med PyTorch og deployerte modeller på skyplattformer og høyytelses datasystemer.
Før ASML ledet han forskerteam ved GAIPS Lab, publiserte i ledende AI-konferanser, og sikret konkurransedyktige forskningsmidler fra den amerikanske flyvåpenet og FCT. Han underviste også i AI-kurs og mottok en Teaching Excellence Award for sitt bidrag til undervisning.
Joãos nøkkelprosjekter inkluderte utvikling av teknikker for kontinuerlig læring, som gjorde det mulig for AI å tilegne seg ny kunnskap uten å glemme tidligere oppgaver, og bruk av forsterkende læring for å trene modeller mer effektivt med mindre data. Han brenner for å gjøre AI-systemer mer effektive, praktiske og stadig bedre.


Ingenieurskunst der Spitzenklasse
João totale ytelse i en 90-minutters live teknisk vurdering rangerer i de top 5% av vurderte Deep Learning Research Engineer hos Proxify.
1This project investigates two hypothesis regarding the use of deep reinforcement learning in multiple tasks. The first hypothesis is driven by the question of whether a deep reinforcement learning algorithm, trained on two similar tasks, is able to outperform two single-task, individually trained algorithms, by more efficiently learning a new, similar task, that none of the three algorithms has encountered before. The second hypothesis is driven by the question of whether the same multi-task deep RL algorithm, trained on two similar tasks and augmented with elastic weight consolidation (EWC), is able to retain similar performance on the new task, as a similar algorithm without EWC, whilst being able to overcome catastrophic forgetting in the two previous tasks. We show that a multi-task Asynchronous Advantage Actor-Critic (GA3C) algorithm, trained on Space Invaders and Demon Attack, is in fact able to outperform two single-tasks GA3C versions, trained individually for each single-task, when evaluated on a new, third task—namely, Phoenix.
We also show that, when training two trained multi-task GA3C algorithms on the third task, if one is augmented with EWC, it is not only able to achieve similar performance on the new task, but also capable of overcoming a substantial amount of catastrophic forgetting on the two previous tasks.






Snakk med en ekspert og få skreddersydde matcher fra vårt nettverk på bare 2 dager.
Få tilgang til over 6 000+ eksperter
Få en utvikler tilpasset dine behov i løpet av gjennomsnittlig 2 dager
Ansett raskt og enkelt med 94% match suksess