
Deep Learning Research Engineer
Hän on erikoistunut rakentamaan kehittyneitä malleja, mukaan lukien suuria kielimalleja (LLM), jotka kykenevät koodinkorjaukseen, vikojen havaitsemiseen ja jatkuvaan oppimiseen. João toimii laajasti PyTorchin kanssa ja hyödyntää malleja pilvialustoilla ja korkean suorituskyvyn laskentajärjestelmissä.
Ennen ASML, hän johti tutkimusryhmien GAIPS Lab, joka on julkaistu johtava tekoälykonferensseja, ja turvattu kilpailukykyisiä avustuksia Yhdysvalloista. Ilmavoimat ja FCT. Hän opetti myös tekoälykursseja, ansaitsemalla opetus Excellence Award -palkinnon hänen panoksestaan koulutukseen.
João keskeisiä projekteja ovat jatkuvan oppimisen tekniikoiden kehittäminen, joka mahdollistaa uuden tiedon hankkimisen unohtamatta aikaisempia tehtäviä. ja tehostamalla oppimista kouluttamaan malleja entistä tehokkaammin vähemmillä tiedoilla. Hän on intohimoinen tehdessään tekoälyn järjestelmistä tehokkaampia, käytännöllisempiä ja jatkuvasti parempia.


Tekniikan huippuosaaminen
João yleinen suorituskyky 90 minuutin suorassa teknisessä arvioinnissa on top 5 % Proxifyn tarkastetuista Deep Learning Research Engineer.
1This project investigates two hypothesis regarding the use of deep reinforcement learning in multiple tasks. The first hypothesis is driven by the question of whether a deep reinforcement learning algorithm, trained on two similar tasks, is able to outperform two single-task, individually trained algorithms, by more efficiently learning a new, similar task, that none of the three algorithms has encountered before. The second hypothesis is driven by the question of whether the same multi-task deep RL algorithm, trained on two similar tasks and augmented with elastic weight consolidation (EWC), is able to retain similar performance on the new task, as a similar algorithm without EWC, whilst being able to overcome catastrophic forgetting in the two previous tasks. We show that a multi-task Asynchronous Advantage Actor-Critic (GA3C) algorithm, trained on Space Invaders and Demon Attack, is in fact able to outperform two single-tasks GA3C versions, trained individually for each single-task, when evaluated on a new, third task—namely, Phoenix.
We also show that, when training two trained multi-task GA3C algorithms on the third task, if one is augmented with EWC, it is not only able to achieve similar performance on the new task, but also capable of overcoming a substantial amount of catastrophic forgetting on the two previous tasks.






Keskustele asiantuntijan kanssa ja saat räätälöityjä ehdotuksia verkostostamme vain 2 päivässä.
Pääsy yli 6 000+ asiantuntijaa
Löydä kehittäjä keskimäärin 2 päivässä
Palkkaa nopeasti ja helposti 94% onnistuneella osumalla