
Deep Learning Research Engineer
Er ist spezialisiert auf die Entwicklung fortschrittlicher Modelle, einschließlich großer Sprachmodelle (LLMs), die in der Lage sind, Code Refactoring, Fehlererkennung und kontinuierliches Lernen zu erstellen. João arbeitet umfassend mit PyTorch zusammen und stellt Modelle auf Cloud-Plattformen und Hochleistungsrechnersystemen zur Verfügung.
Vor ASML leitete er Forschungsteams bei GAIPS Lab, publizierte auf führenden KI-Konferenzen und sicherte sich Wettbewerbszuwendungen aus den USA. Luftwaffe und FCT. Er unterrichtete auch KI-Kurse und erhielt für seine Beiträge zur Bildung einen "Teaching Excellence Award".
Zu den wichtigsten Projekten von João gehören die Weiterentwicklung kontinuierlicher Lerntechniken, die es der KI ermöglichen, neues Wissen zu erwerben, ohne vorherige Aufgaben zu vergessen, und die Anwendung des Verstärkungslernens, um Modelle effizienter mit weniger Daten zu trainieren. Er ist leidenschaftlich darum bemüht, die KI-Systeme effektiver, praktischer und ständig zu verbessern.


Excellence en ingénierie
João Gesamtleistung in einer 90-minütigen Live-Technikbewertung rangiert im top 5% der überprüften Deep Learning Research Engineer bei Proxify.
1This project investigates two hypothesis regarding the use of deep reinforcement learning in multiple tasks. The first hypothesis is driven by the question of whether a deep reinforcement learning algorithm, trained on two similar tasks, is able to outperform two single-task, individually trained algorithms, by more efficiently learning a new, similar task, that none of the three algorithms has encountered before. The second hypothesis is driven by the question of whether the same multi-task deep RL algorithm, trained on two similar tasks and augmented with elastic weight consolidation (EWC), is able to retain similar performance on the new task, as a similar algorithm without EWC, whilst being able to overcome catastrophic forgetting in the two previous tasks. We show that a multi-task Asynchronous Advantage Actor-Critic (GA3C) algorithm, trained on Space Invaders and Demon Attack, is in fact able to outperform two single-tasks GA3C versions, trained individually for each single-task, when evaluated on a new, third task—namely, Phoenix.
We also show that, when training two trained multi-task GA3C algorithms on the third task, if one is augmented with EWC, it is not only able to achieve similar performance on the new task, but also capable of overcoming a substantial amount of catastrophic forgetting on the two previous tasks.






Sprechen Sie mit einem Experten und erhalten Sie innerhalb von nur 2 Tagen maßgeschneiderte Matches aus unserem Netzwerk.
Zugriff auf über 6.000+ Experten
Werden Sie im Durchschnitt in 2 Tagen mit einem Entwickler zusammengebracht
Schnell und einfach einstellen mit 94% Übereinstimmungserfolg