<div dir="ltr"><div>Apologies for multiple copies</div><div>************************************************************</div><div>CALL FOR PAPERS</div><div><br></div><div>1st International Workshop on Adaptive Shot Learning for Gesture Understanding and Production</div><div>ASL4GUP 2017</div><div>In conjunction with IEEE FG 2017</div><div>May 30, 2017, Washington DC, USA</div><div><a href="https://engineering.purdue.edu/ASL4GUP">https://engineering.purdue.edu/ASL4GUP</a></div><div><br></div><div>Contact: <a href="mailto:jpwachs@purdue.edu">jpwachs@purdue.edu</a></div><div>________________</div><div>IMPORTANT DATES</div><div>________________</div><div><br></div><div><br></div><div>Submission Deadline: Feb 1, 2017</div><div>Notification of Acceptance: March 1, 2017</div><div>Camera Ready: March 8, 2017</div><div>Workshop: May 30, 2017</div><div><br></div><div>________________</div><div>SCOPE</div><div>________________</div><div><br></div><div>In the aim of natural interaction with machines, a framework must be developed to include the adaptability humans portray to understand gestures from context, from a single observation or from multiple observations. This is also referred as adaptive shot learning Ð the ability to adapt the mechanism of recognition to a barely seen gesture, well-known or entirely unknown. Of particular interest to the community are zero-shot and one-shot learning, given that most work has been done in the N-shot learning scenario. The workshop aims to encourage works that focus on the way in which humans produce gestures Ð the kinematic and biomechanical characteristics, and the cognitive process involved when perceiving, remembering and replicating them. We invite submission of papers presenting original research in the aforementioned theme.</div><div><br></div><div>________________</div><div>TOPICS</div><div>________________</div><div><br></div><div><br></div><div>Topics of interest (but not limited to):</div><div>* One and zero shot recognition;</div><div>* Gesture production from context or single observation;</div><div>* EEG based gesture recognition</div><div>* Context modeling from gesture languages;</div><div>* Holistic approaches to gesture modeling and recognition;</div><div>* Human-like gesture production and recognition;</div><div>* Gesture based robotic control and interfaces</div><div><br></div><div>________________</div><div>SUBMISSIONS</div><div>________________</div><div><br></div><div><br></div><div>Submissions may be up to 8 pages, in accordance with the IEEE FG conference format. Papers longer than six pages will be subject to a page fee (100 USD per page) for the extra pages (two max). We welcome regular, position and applications papers.  Submission through:</div><div><a href="https://easychair.org/conferences/?conf=asl4gup2017">https://easychair.org/conferences/?conf=asl4gup2017</a></div><div><br></div><div>Accepted papers will be included in the Proceedings of IEEE FG 2017 & Workshops and will be sent for inclusion into the IEEE Xplore digital library. Selected papers will be also invited for a full submission to a special issue in a leading journal in the field of machine learning and cognition.</div><div><br></div><div>________________</div><div>ORGANIZERS</div><div>________________</div><div><br></div><div>Juan P Wachs (Purdue University, USA); <a href="mailto:jpwachs@purdue.edu">jpwachs@purdue.edu</a></div><div>Richard Voyles (Purdue University, USA); <a href="mailto:rvoyles@purdue.edu">rvoyles@purdue.edu</a></div><div>Susan Fussell (Cornell University, USA); <a href="mailto:sfussell@cornell.edu">sfussell@cornell.edu</a></div><div>Isabelle Guyon (UniversitŽ Paris-Saclay, France); <a href="mailto:guyon@clopinet.com">guyon@clopinet.com</a></div><div>Sergio Escalera (Computer Vision Center and University of Barcelona, Spain); <a href="mailto:sergio.escalera.guerrero@gmail.com">sergio.escalera.guerrero@gmail.com</a></div><div><br></div><div>________________</div><div>Program Committee</div><div>________________</div><div><br></div><div>1. Nadia Bianchi-Berthouze, University College London, UK (confirmed)</div><div>2. Albert Ali Salah, Bogazici University, Turkey  (confirmed)</div><div>3. Adar Pelah, University of York, UK   (confirmed)</div><div>4. Hugo Jair Escalante, INAOE, Mexico   (confirmed)</div><div>5. Jun Wan, Insitute of Automation, Chinese Academy of Sciences, China (confirmed)</div><div>6. Miriam Zacksenhouse, Technion, Israel (confirmed)</div><div>7. Marta Mejail, Universidad de Buenos Aires (UBA), Argentina (confirmed)</div><div>8. Tamar Flash, The Weizmann Institute of Science, Israel (confirmed)</div><div>9. Luigi Gallo, Institutes of the National Research Council, Italy (confirmed)</div><div>10. Mathew Turk, University of California, Santa Barbara, USA (confirmed)</div><div>11. Daniel Gill, University of Winchester (UK) (confirmed)</div><div>12. Ray Perez, Office of Naval Research (ONR) – USA (confirmed)</div><div>13. Daniel Foti (Purdue) – USA (confirmed)</div><div>14. Yael Edan (Ben-Gurion University of the Negev) – Israel (confirmed).</div><div><br></div></div>