<div dir="ltr"><div class="gmail_quote gmail_quote_container"><div dir="ltr"><div><div><div><div><h1>Postdoc Position: Gesture Generation in Face-to-Face Dialogue</h1></div><p></p><p><span lang="EN-US" dir="ltr">We are
 looking for a postdoctoral researcher with experience in generative AI,
 multimodal representation learning, and modelling face-to-face 
dialogues for our NWO-funded project “Grounded Gesture Generation in 
Context: Object- and Interaction-Aware Generative AI Models of Language 
Use”. Preferred start date is 1 February 2026 but is negotiable.</span></p></div>
      </div>
</div>
<div>
    <div>
          <div>
  <div>
    <div>
      
<div>
      
  <h2><span lang="EN-US" dir="ltr"><b>Job description</b></span></h2>
<p><span lang="EN-US" dir="ltr">Face-to-face conversation is the primary
 setting for human language, where meaning and coordination arise from 
interplay between speech, prosody, gesture, facial expression, and gaze.
 Virtual humans are now prevalent in social media, education, and 
healthcare. However, their non-verbal behaviour, especially gestures, 
still lags behind state-of-the-art. This project tackles that gap by 
building generative AI models that produce context-aware, grounded 
gestures: responsive to objects and to interlocutors, aligning speech 
and visual signals for richer, more natural interaction. In this 
project, you will carry out research as described in the project 
proposal, which includes: </span></p>
<ul><li><span lang="EN-US" dir="ltr">Developing generative models that 
produce gestures grounded in context, e.g., reacting to a partner’s 
gesture, resembling an object they refer to in the environment.</span></li><li><span lang="EN-US" dir="ltr">Exploring how these models can enhance human-computer interaction and improve our understanding of multimodal communication.</span></li></ul>
<p><br><span lang="EN-US" dir="ltr">To do so, you will have full access 
to motion-capture and virtual-reality labs, 3D animation tools, and 
GPU-based high-performance computing at MPI. You will also be embedded 
in a rich theoretical and computational environment supported by the 
Multimodal Language Department.</span></p>
<h2><br><span lang="EN-US" dir="ltr"><b>Requirements</b></span><br> </h2>
<h3><span lang="EN-US" dir="ltr"><b>Essentials</b></span></h3>
<ul><li><span lang="EN-US" dir="ltr">PhD (completed or near completion) in 
Computer Science, Computer Vision, NLP, Machine Learning, Computer 
Graphics/Animation, HCI, or a related field.</span></li><li><span lang="EN-US" dir="ltr">Strong background in deep generative 
modelling (diffusion/transformers), multimodal representation learning, 
and experience in computer graphics/animation.</span></li><li><span lang="EN-US" dir="ltr">Strong programming skills, especially in Python. Ideally, you have experience with PyTorch.</span></li><li><span lang="EN-US" dir="ltr">Track record of publishing in top 
Vision/Graphics/Animation and Human-Computer Interaction 
conferences/journals such as CVPR, ICCV, ICMI, SIGGRAPH, or similar 
conferences/journals.</span></li><li><span lang="EN-US" dir="ltr">Strong communicative skills in English, both in writing and speech.</span></li></ul>
<h3><br><span lang="EN-US" dir="ltr"><b>Desirable</b></span></h3>
<ul><li><span lang="EN-US" dir="ltr">Comfortable with prototyping 
experiments using motion capture and virtual reality devices, 3D 
animation software, and relevant programming languages (e.g., Unreal 
Engine, Maya, Motion Builder) and with human participants.</span></li><li><span lang="EN-US" dir="ltr">A strong interest in conducting 
research in the area of multimodal language production and visual 
communicative behaviours of 3D virtual humans (i.e., gesture, eye gaze, 
face).</span></li><li><span lang="EN-US" dir="ltr">Good critical thinking and collaboration skills.</span></li></ul>
<h2><br><span lang="EN-US" dir="ltr"><b>What we offer you</b></span></h2>
<p><span lang="EN-US" dir="ltr">A challenging position in a 
scientifically engaged organisation. At the MPI, you contribute to 
fundamental research. In return for your efforts, we offer you:</span></p>
<ul><li><span lang="EN-US" dir="ltr">A position for 0.8 FTE. Your employment
 contract will initially last 1 year. Extension might be possible 
depending on new funding or candidate performance. A higher FTE 
employment is possible, but it shortens the time of employment. Access 
to cutting-edge computing and animation facilities and a supportive, 
interdisciplinary team.</span></li><li><span lang="EN-US" dir="ltr">Structured support for your next career
 steps, whether in academia or industry. For example, the successful 
candidate will receive help and support for securing follow-up funding 
(e.g., Veni/NWO XS grants, etc.) or for moving to the next career stage.</span></li><li><span lang="EN-US" dir="ltr">Flexible working conditions: hybrid work, collaborative culture.</span></li><li><span lang="EN-US" dir="ltr">Salary is in accordance with the German
 collective labour agreement TVöD (Tarifvertrag für den öffentlichen 
Dienst) and is classified in salary group E13.</span></li><li><span lang="EN-US" dir="ltr">Pension scheme.</span></li><li><span lang="EN-US" dir="ltr">Thirty days of leave per year (full-time employment).</span></li></ul>
<h2><br><span lang="EN-US" dir="ltr"><b>Application Procedure</b></span></h2>
<p><span lang="EN-US" dir="ltr">Do you recognise yourself in the job 
profile? Then we look forward to receiving your application. The 
deadline to submit your application is Friday, 31 October 2025, 23:59 
(Amsterdam time).  You can apply online <b>VIA THIS </b></span><a href="https://recruitingapp-5569.de.umantis.com/Vacancies/463/Application/CheckLogin/2?lang=eng" rel="noreferrer" target="_blank"></a></p></div></div></div></div></div></div><p><a href="https://recruitingapp-5569.de.umantis.com/Vacancies/463/Application/CheckLogin/2?lang=eng" rel="noreferrer" target="_blank"><span lang="EN-US" dir="ltr"><b>LINK</b></span></a><span lang="EN-US" dir="ltr">. Applications should include the following information:</span></p>
<ul><li><span lang="EN-US" dir="ltr">A one-page motivation letter, 
explaining why you are a good fit for this position and including a link
 to a publication that is relevant to the current project.</span></li><li><span lang="EN-US" dir="ltr">A CV, including a list of publications, and a link to your PhD thesis.</span></li><li><span lang="EN-US" dir="ltr">Contact details of two people who could be asked for recommendation letters.</span></li></ul>
<h2><br><span lang="EN-US" dir="ltr"><b>About the project</b></span></h2>
<p><span lang="EN-US" dir="ltr">This project will be advised by </span><a href="https://esamghaleb.github.io/" rel="noreferrer" target="_blank"></a></p><p><a href="https://esamghaleb.github.io/" rel="noreferrer" target="_blank"><span lang="EN-US" dir="ltr">Dr. Esam Ghaleb</span></a><span lang="EN-US" dir="ltr">,
 who is a research scientist in the Multimodal Language Department in 
the area of computer vision, machine learning, and behaviour & 
dialogue modelling. If you have questions about the position you wish to
 discuss before applying, please contact Esam Ghaleb: </span><a href="mailto:esam.ghaleb@mpi.nl" target="_blank"><span lang="EN-US" dir="ltr">esam.ghaleb@mpi.nl</span></a><span lang="EN-US" dir="ltr">.</span></p>
<h2><br><span lang="EN-US" dir="ltr"><b>The Employer</b></span></h2>
<h3><br><span lang="EN-US" dir="ltr"><b>About our institute</b></span></h3>
<p><span lang="EN-US" dir="ltr">The </span><a href="https://www.mpi.nl/" target="_blank"><span lang="EN-US" dir="ltr">Max Planck Institute (MPI) for Psycholinguistics</span></a><span lang="EN-US" dir="ltr"> is
 a world-leading research institute devoted to interdisciplinary studies
 of the science of language and communication, including departments on 
genetics, psychology, development, neurobiology, and multimodality of 
these fundamental human abilities.</span><br><br><span lang="EN-US" dir="ltr">We
 investigate how children and adults acquire their language(s), how 
speaking and listening happen in real-time, how the brain processes 
language, how the human genome contributes to building a language-ready 
brain, how multiple modalities (as in speech, gesture, and sign) shape 
language and its use in diverse languages and how language is related to
 cognition and culture, and shaped by evolution.</span></p>
<p><span lang="EN-US" dir="ltr">We are part of the </span><a href="https://www.mpg.de/en" rel="noreferrer" target="_blank"></a></p><p><a href="https://www.mpg.de/en" rel="noreferrer" target="_blank"><span lang="EN-US" dir="ltr">Max Planck Society</span></a><span lang="EN-US" dir="ltr">,
 an independent non-governmental association of German-funded research 
institutes dedicated to fundamental research in the natural sciences, 
life sciences, social sciences, and the humanities.</span></p>
<p><span lang="EN-US" dir="ltr">The Max Planck Society is an </span><a href="https://www.mpi.nl/page/equal-opportunities" target="_blank"><span lang="EN-US" dir="ltr">equal opportunities employer</span></a><span lang="EN-US" dir="ltr">.
 We recognize the positive value of diversity and inclusion, promote 
equity, and challenge discrimination. We aim to provide a working 
environment with room for differences, where everyone feels a sense of 
belonging. Therefore, we welcome applications from all suitably 
qualified candidates.</span></p>
<p><span lang="EN-US" dir="ltr">Our institute is situated on the campus of the Radboud University and has close collaborative links with the </span><a href="https://www.ru.nl/donders/" rel="noreferrer" target="_blank"></a></p><a href="https://www.ru.nl/donders/" rel="noreferrer" target="_blank"><span lang="EN-US" dir="ltr">Donders Institute for Brain, Cognition and Behavior</span></a><span lang="EN-US" dir="ltr"> and the </span><a href="https://www.ru.nl/cls/" rel="noreferrer" target="_blank"></a><a href="https://www.ru.nl/cls/" rel="noreferrer" target="_blank"><span lang="EN-US" dir="ltr">Centre for Language Studies</span></a><span lang="EN-US" dir="ltr"> at the Radboud University. We also work closely with other child development researchers as part of the </span><a href="https://www.babyandchild.nl/en" rel="noreferrer" target="_blank"></a><p><a href="https://www.babyandchild.nl/en" rel="noreferrer" target="_blank"><span lang="EN-US" dir="ltr">Baby & Child Research Center</span></a><span lang="EN-US" dir="ltr">.</span><br><br><span lang="EN-US" dir="ltr">Staff and students at the MPI have access to state-of-the-art </span><a href="https://www.mpi.nl/research-facilities" target="_blank"><span lang="EN-US" dir="ltr">research and training facilities</span></a><span lang="EN-US" dir="ltr">.</span></p>
<h3><span lang="EN-US" dir="ltr"> </span><br><span lang="EN-US" dir="ltr"><b>About the Multimodal Language Department</b></span></h3>
<p><span lang="EN-US" dir="ltr">The </span><a href="https://www.mpi.nl/department/multimodal-language-department/23" target="_blank"><span lang="EN-US" dir="ltr">Multimodal Language Department</span></a><span lang="EN-US" dir="ltr"> in
 particular aims to understand the cognitive and social foundations of 
the human ability for language and its evolution by focusing on its 
multimodal aspect and crosslinguistic diversity. The research at the 
department combines multiple methods including corpus and computational 
linguistics, psycho- and neuro-linguistics, machine learning, AI and 
virtual reality, and is concerned with various populations ranging from 
speakers of signed and spoken languages, young and older subjects from 
typical and atypical populations. The department provides opportunities 
for training in a range of linguistic, and conversational state of the 
art multimodal language analysis (such as motion capture and automatic 
speech recognition), as well as neuropsychological, psychological 
methods related to multimodal language and frequent research and public 
engagement meetings, and support from an excellent team of researchers 
in linguistics and psycholinguistics.</span></p></div></div><div><br></div><div><span lang="nl"><font face="Calibri,Helvetica,sans-serif" size="3" color="black" style="font-family:Calibri,Helvetica,sans-serif,serif,"EmojiFont""><span style="font-size:12pt" dir="ltr" id="gmail-divtagdefaultwrapper"><font face="Calibri,Helvetica,sans-serif,EmojiFont,Apple Color Emoji,Segoe UI Emoji,NotoColorEmoji,Segoe UI Symbol,Android Emoji,EmojiSymbols" size="3" color="black"><span style="font-size:12pt" id="gmail-divtagdefaultwrapper"><div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" lang="en-US">Kind regards,</span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" lang="en-US"><b><br>

</b></span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" lang="en-US"><b>Esam Ghaleb, PhD</b></span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" lang="en-US"> </span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" lang="en-US">Research Staff at the Multimodal Language Department</span></font><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US"><br>

Max Planck Institute for Psycholinguistics</span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US"><br>

</span></font></div>
<div style="margin:0px"><a href="https://esamghaleb.github.io/" target="_blank" rel="noopener noreferrer" id="gmail-LPNoLP"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" id="gmail-LPNoLP" lang="en-US">https://esamghaleb.github.io/</span></font></a></div>
<div style="margin:0px"><a href="https://esamghaleb.github.io/" target="_blank" rel="noopener noreferrer" id="gmail-LPNoLP"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" id="gmail-LPNoLP" lang="en-US"></span></font></a><a href="https://www.mpi.nl/people/ghaleb-esam" target="_blank" rel="noopener noreferrer" id="gmail-LPNoLP"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2"><span style="font-size:10pt" id="gmail-LPNoLP" lang="en-US">https://www.mpi.nl/people/ghaleb-esam</span></font></a><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US"><br>

</span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US"><br>

</span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US">Room 309 | Wundtlaan 1 | 6525 XD Nijmegen | NL</span></font></div>
<div style="margin:0px"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US">P.O. Box 302 | 6500 AH Nijmegen | NL</span></font></div>
<div style="margin:0px 0px 8pt"><font face="Calibri,sans-serif,serif,EmojiFont" size="2"><span style="font-size:11pt" lang="en-US">I: </span></font><a href="http://www.mpi.nl/" target="_blank" rel="noopener noreferrer" id="gmail-LPNoLP"><font face="Calibri,sans-serif,serif,EmojiFont" size="2"><span style="font-size:11pt" id="gmail-LPNoLP"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="blue"><span style="font-size:10pt" lang="en-US">www.mpi.nl</span></font></span></font></a><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="black"><span style="font-size:10pt" lang="en-US"> |
Twitter: </span></font><a href="https://twitter.com/MPI_NL" target="_blank" rel="noopener noreferrer" id="gmail-LPNoLP"><font face="Calibri,sans-serif,serif,EmojiFont" size="2"><span style="font-size:11pt" id="gmail-LPNoLP"><font face="Tahoma,sans-serif,serif,EmojiFont" size="2" color="blue"><span style="font-size:10pt" lang="en-US">@MPI_NL</span></font></span></font></a></div></span></font></span></font></span><br></div><div><br></div></div>