<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none"><!--P{margin-top:0;margin-bottom:0;} --></style>
</head>
<body dir="ltr" style="font-size:12pt;color:#000000;background-color:#FFFFFF;font-family:Calibri,Arial,Helvetica,sans-serif;">
<p>This year at VSS (<em>Thursday, May 17, 10:00 am – 3:00 pm, Jasmine/Palm), </em>
the <a href="http://www.cis.rit.edu/performlab/projects">Perform Lab from the Rochester Institute of Technology</a> (of which I, Gabriel Diaz, am the director) will be<em>
</em>offering a free interactive symposium on eye tracking in virtual reality. The aim of this symposium is to assist the interested researcher to incorporate eye tracking technology into a laboratory, and into his or her next funding proposal. The workshop
 is 6 hours long, and will include periods of lecture interspersed with periods of goal-directed programming assignments in Python or Matlab. This symposium is sponsored by the OSA Vision technical group.  Food may be provided, however, we are working out the
 details.</p>
<p><br>
</p>
<p>We would appreciate if you would send RSVP’s to <a href="mailto:gabriel.diaz@rit.edu">
<span style="text-decoration: underline;">gabriel.diaz@rit.edu</span></a></p>
<p> </p>
<p><span style="text-decoration: underline;">Anticipated lecture topics include:</span><br>
- An overview of the hardware, resolution, etc.</p>
<p>- A quick overview of some related research.<br>
- An overview of the software (e.g. game engines, SDK), and what it can / cannot do for you.</p>
<p>- Methods for assessing and reducing spatial and temporal inaccuracies.<br>
- Algorithms for identifying what someone is looking at.<br>
- Algorithms for identifying where someone is looking relative to a fixed point in space.<br>
- Algorithms for the classification of gaze events (e.g. fixation, head tracking, VOR, etc.).<br>
- Relevant metrics to include in your next publication involving eye tracking in VR.<br>
- What type of students should I hire, and what skills should they develop?<br>
- Issues that may be raised by shrewd reviewers of your related funding proposal, and how to address them.</p>
<p> </p>
<p>The lecture portion of the symposium will be delivered by myself, as well as graduate students Kamran Binaee, Rakshit Kothari, and Catherine Fromm.</p>
<p><br>
</p>
<p><span style="text-decoration: underline;">Anticipated programming assignments include:</span></p>
<ul>
<li>Data representation</li><li>Filtering</li><li>The measurement of spatial accuracy and temporal latency</li><li>The transformation matrix, nested coordinate systems, and the gaze-in-world vector</li><li>Event detection (e.g. saccade identification)<br>
<br>
<br>
Python users: Because example data and code will be provided in the form of Jupyter notebooks running Python3, attendees are encouraged to arrive with a copy of Continuum’s Anaconda installed on their machine (<a href="https://www.continuum.io/downloads)"><span style="text-decoration: underline;">https://www.continuum.io/downloads)</span></a>,
 with pre-installed modules including numpy, pandas, and plotly.<br>
<br>
This symposium is intended to educate and facilitate adoption of an emerging technology. If a topic you are interested is not listed, or if you are a researcher or manufacturer that feels you can contribute knowledge to one or more of these topics (in the form
 of literature), you are encouraged to contact the organizer at <a href="mailto:gabriel.diaz@rit.edu">
<span style="text-decoration: underline;">gabriel.diaz@rit.edu</span></a>. </li></ul>
<p> </p>
<p><br>
</p>
</body>
</html>