<div dir="ltr"><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px"><b>*The deadline for the Vis X Vision Workshop on Novel Directions in Vision Science and Visualization Research has been extended to July 20. *</b></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px"><font color="#192930">Following the last three years of interdisciplinary events at both VSS and the visualization conference IEEE VIS, we are holding the first official event for vision scientist and visualization researcher collaboration, interaction, and peer reviewed research-sharing at IEEE VIS 2019 in Vancouver. The specific goal of this workshop is to provide a forum where vision science and visualization researchers can share cutting-edge research at this interdisciplinary intersection, in preparation for publishing and presenting it at both IEEE VIS, as well as in the upcoming </font><font color="#000000"><a href="https://visxvision.com/journal-of-vision/" target="_blank" style="box-sizing:inherit;background-color:transparent;text-decoration-line:none">Journal of Vision Special Issue</a> on Vision and Vi</font><span style="color:rgb(25,41,48)">sualization.</span></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px">The workshop will feature <span style="box-sizing:inherit">short paper and abstract talks</span> (~10 minutes each) as well as <span style="box-sizing:inherit">poster presentations with accompanying lightning talks</span> (1 minute each).</span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px">Finally, we are excited to announce invited talks by <a href="http://search.bwh.harvard.edu/new/index.html" rel="noopener" target="_blank" style="color:rgb(215,178,33);box-sizing:inherit;background-color:transparent;text-decoration-line:none">Jeremy Wolfe</a> (Harvard), <a href="https://bradylab.ucsd.edu/" rel="noopener" target="_blank" style="color:rgb(215,178,33);box-sizing:inherit;background-color:transparent;text-decoration-line:none">Timothy Brady</a> (UCSD), and <a href="http://cogdev.psych.ubc.ca/" rel="noopener" target="_blank" style="color:rgb(215,178,33);box-sizing:inherit;background-color:transparent;text-decoration-line:none">Darko Odic</a> (UBC):</span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px"><b><span style="box-sizing:inherit">Visual Search</span>–Jeremy Wolfe</b></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><span style="box-sizing:inherit;font-size:12px"><font face="Helvetica"><i>If you want people to find “it”, what should “it” look like? </i></font></span></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px">Decades of research on visual search have given us quite a good understanding of how people look for targets in scenes containing distracting items. Knowing how people search is not the same as knowing how to design searchable visual stimuli, especially if we want users to be able to search those stimuli for a variety of different targets. Still, the topics of search and searchability must be related so we will explore what the rules governing the deployment of visual attention might suggest to the creators of new visualizations.</span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px"><b><span style="box-sizing:inherit">Working memory</span>– Timothy Brady</b></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><span style="box-sizing:inherit;font-size:12px"><font face="Helvetica"><i>How much visual information we can hold in mind at once: The role of visual ensembles & semantic knowledge.</i></font></span></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px">When processing complex visual displays, people often need to hold information actively in mind to facilitate comparison or integration. Decades of research have shown that our ability to hold information actively in mind is incredibly limited (e.g., we can miss large changes to scenes if we happen to not be holding in mind the right information), and simple rules like people can remember 3-4 things are popular ways to conceive of these limits. In this talk, I discuss what aspects of visual information people can easily hold in mind; what things are extremely difficult to hold in mind; and how these limits relate to visualization design.</span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px"><b><span style="box-sizing:inherit">Visual magnitudes</span>– Darko Odic</b></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><span style="box-sizing:inherit;font-size:12px"><font face="Helvetica"><i>How perception perceives number, time, and space.</i></font></span></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px">The perception of visual magnitudes – length, area, time, number, etc. – has been one of the foundational questions since the dawn of empirical psychology, stretching back from Weber and Helmholtz to today. In this talk, I will share a number of insights, new and old, about how we perceive number, time, and space representations throughout our entire lifespan, focusing especially on issues that might be relevant for data visualization. I will first discuss findings about how our perceptual system deals with competing magnitude dimensions: situations in which, e.g., both number and length are competing for attention. Next, I will share several findings demonstrating that surface area perception is susceptible to various surprising inconsistencies and illusions, whereby we perceive collections of objects to be cumulatively smaller than they really are. Finally, I will share findings on how perceptual magnitude representations allow us to easily find the maximal and minimal element in a set.</span></font></p><hr style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:content-box;height:1px;background-color:rgb(238,236,232);border:0px;margin-bottom:1.5em;color:rgb(25,41,48)"><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><span style="box-sizing:inherit"><font face="Helvetica"><b>Call for Papers</b></font></span></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><span style="font-size:12px;font-family:Helvetica">Authors may submit either short research papers, short position papers, or abstracts for lightning talks and poster presentations. The paper length should match its contribution to the field and be between 2 to 4 pages (plus 1 page of references).</span></p><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><p style="box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px">All submissions should be formatted in the <span style="box-sizing:inherit">VGTC conference paper style</span>. Suitable templates, in LaTeX and Word, can be downloaded from <span style="box-sizing:inherit"><a href="http://junctionpublishing.org/vgtc/Tasks/camera.html" target="_blank">http://junctionpublishing.org/vgtc/Tasks/camera.html</a><a href="http://junctionpublishing.org/vgtc/Tasks/camera.html" target="_blank" style="color:rgb(215,178,33);box-sizing:inherit;background-color:transparent;text-decoration-line:none">.</a></span> The submission, however, must be made in PDF format. Authors can decide whether they want to reveal their names on the submission (single-blind) or submit it anonymously (double-blind).</span></font></p></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><p style="box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px">Suggested topics of interest include:</span></font></p><ul style="box-sizing:inherit;margin:0px 0px 1.6em 1.6em;padding-left:0px;list-style:square"><li style="margin-left:15px;box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px">applications of perceptual theory to visualization research</span></font></li><li style="margin-left:15px;box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px">novel evaluation techniques founded in vision science</span></font></li><li style="margin-left:15px;box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px">vision science projects that have the potential to be applied towards visualization</span></font></li><li style="margin-left:15px;box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px">visualization designs and tasks that pose interesting questions for perception research</span></font></li><li style="margin-left:15px;box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px">novel operationalizations of visual or cognitive phenomena that can be studied in perception experiments</span></font></li></ul></div><div class="gmail-m_7723197247866687685m_-582785136765842381column" style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><span style="box-sizing:inherit"><span style="box-sizing:inherit;font-size:12px"><font face="Helvetica"><b>Timeline for submissions</b></font></span></span></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"></div><div class="gmail-m_7723197247866687685m_-582785136765842381column" style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px"><i>Submission</i></span><span style="font-size:12px">: <span style="box-sizing:inherit">July 20</span></span></font></div><div class="gmail-m_7723197247866687685m_-582785136765842381column" style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px"><i>Notification</i></span><span style="font-size:12px">: <span style="box-sizing:inherit">August 5</span></span></font></div><div class="gmail-m_7723197247866687685m_-582785136765842381column" style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px"><i>Camera Ready</i></span><span style="font-size:12px">: <span style="box-sizing:inherit">August 24</span></span></font></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><font face="Helvetica"><span style="font-size:12px">Submit to the Workshop on VisXVision at <a href="https://new.precisionconference.com/submissions/vis19v" rel="noopener" target="_blank" style="color:rgb(215,178,33);box-sizing:inherit;background-color:transparent;text-decoration-line:none">https://new.precisionconference.com/submissions/vis19v</a>!</span></font></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><hr style="box-sizing:content-box;height:1px;background-color:rgb(238,236,232);border:0px;margin-bottom:1.5em"></div><div class="gmail-m_7723197247866687685m_-582785136765842381layoutArea" style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><div style="box-sizing:inherit"></div><div class="gmail-m_7723197247866687685m_-582785136765842381column" style="box-sizing:inherit"><span style="box-sizing:inherit"><font face="Helvetica"><b>Submission Types</b></font></span></div></div><div style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"></div><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px">The workshop calls for contributions from all areas of visualization and vision science. We accept 3 types of submissions—research, position, and abstracts:</span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px"><span style="box-sizing:inherit"><b>Short Research Papers</b></span><br style="box-sizing:inherit"><span style="box-sizing:inherit">These should comprise of empirical studies grounded in theories from perceptual or cognitive science. These might include the use of a novel evaluation technique, or a perception or visual cognition study that has direct implications for visualization research or design. These studies should aim to make progress towards the greater goal of collaboration and academic reciprocity between vision scientists and visualization researchers. Research papers must present new work, meaning that the results must not be published in an existing peer reviewed venue. They should be four page max + 2 page references. Accepted short research papers will be presented as a 10-minute talk. </span></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px"><span style="box-sizing:inherit"><b>Short Position Papers</b></span><br style="box-sizing:inherit"><span style="box-sizing:inherit">These are problem discussions or statements describing the author’s relevant experience and ideas in regards to topics such as: applications of perceptual theory towards vision science, novel operationalizations of visual or cognitive phenomena that can be studied in perception experiments, visualization designs that have the potential to pose interesting questions for vision research, the role of vision in visualization, methods pertaining to collaborative efforts from these fields, etc. Position papers are often framed in the context of a brief review of literature, or are written as a review supporting a proposal for future work. They should be four page max + 2 page references. Accepted short position papers will be presented as a 10-minute talk. </span></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px"><span style="box-sizing:inherit"><b>Abstracts</b></span><br style="box-sizing:inherit"><span style="box-sizing:inherit">These may cover any of the aforementioned topics, or other related areas. Abstracts should highlight research-in-progress, reviews, or experiments in preparation for journal submission, and must be 300 words or less. Abstract submissions will be considered for both research talks as well as poster presentations. Authors should specify which presentation format they prefer in their submission by writing “talk preferred”, “poster preferred”, or “no preference” under the title.</span></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit;margin:0px 0px 1.8em"><font face="Helvetica"><span style="font-size:12px"><span style="box-sizing:inherit"><span style="box-sizing:inherit"><i>Benefits of submitting a short paper: </i></span></span>Short papers can be a useful way for researchers to present early data, meta analyses, preliminary positions, or smaller chunks of a project. For instance, a short paper may contain just set of experiments that clearly demonstrates a specific effect or phenomenon, but may not investigate its underlying mechanisms or explanations. Short papers may be submitted to showcase a follow up or extension of a known method or phenomena in either vision science or visualization research. Short papers’ reviews follow the same scientifically rigorous expectations as journal articles, but give researchers an opportunity to get feedback on more focused aspects of their research.</span></font></p><div class="gmail-m_7723197247866687685m_-582785136765842381layoutArea" style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;color:rgb(25,41,48);box-sizing:inherit"><hr style="box-sizing:content-box;height:1px;background-color:rgb(238,236,232);border:0px;margin-bottom:1.5em"><p class="gmail-m_7723197247866687685m_-582785136765842381column" style="box-sizing:inherit;margin:0px 0px 1.8em"><span style="box-sizing:inherit"><font face="Helvetica"><b>Publication</b></font></span></p></div><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><font face="Helvetica"><span style="font-size:12px"><span style="box-sizing:inherit;color:rgb(0,0,255)"><span style="box-sizing:inherit"><span style="color:rgb(25,41,48)">Accepted papers will be published in the IEEE Digital Library, including the assignment of DOIs to individual papers. Per IEEE Xplore rules, VisXVision papers will be considered archival and can be referenced. The content of these papers may be sufficiently extended and modified for publication at other venues. Reuse of the content in a follow-up publication for ACM and IEEE venues is allowed provided that the paper is extended by at least 30%. </span></span></span><span style="color:rgb(0,0,0)">Policies around shared material with a workshop paper at other venues will likely vary from journal to journal. </span><span style="color:rgb(0,0,0)">We encourage you to reach out to contacts at any venues of concern. </span></span></font></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em;color:rgb(25,41,48)"><span style="color:rgb(0,0,0);font-size:12px"><font face="Helvetica">While the policies at various venues are beyond our control, we’ve updated our publication process in the following ways to try to reduce barriers to participation:</font></span></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em"><span style="box-sizing:inherit"><span style="box-sizing:inherit;font-size:12px"><font color="#000000" face="Helvetica">1.     <span style="box-sizing:inherit">Archive Optional:</span> <span style="box-sizing:inherit">As part of the camera-ready revisions, you may elect to have either your workshop paper formally archived or have only the abstract archived. The full text of papers with abstract-only archived will be made available to workshop participants through a password-protected site. Note that this would not change the submission process nor the kind of presentation your work will be considered for.</span></font></span></span></p><p style="font-family:-apple-system,BlinkMacSystemFont,sans-serif;font-size:14px;box-sizing:inherit;margin:0px 0px 1.8em"><span style="box-sizing:inherit"><span style="box-sizing:inherit;font-size:12px"><font color="#000000" face="Helvetica">2.    <span style="box-sizing:inherit">Supplementary Materials:</span> <span style="box-sizing:inherit">If you wish to provide additional materials, you may include them either through an OSF repository or as a direct email to <a class="gmail-m_7723197247866687685c-link" href="mailto:visxvision@gmail.com" rel="noopener" target="_blank" style="box-sizing:inherit;background-color:transparent;text-decoration-line:none">visxvision@gmail.com</a>.</span></font></span></span></p></div>