<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Arial, Helvetica, sans-serif; font-size: 10pt; color: rgb(0, 0, 0);">
There's an app for that (and a hardware wristband as well). It's the "Immunotouch wristband"</div>
<div style="font-family: Arial, Helvetica, sans-serif; font-size: 10pt; color: rgb(0, 0, 0);">
<br>
</div>
<div style="font-family: Arial, Helvetica, sans-serif; font-size: 10pt; color: rgb(0, 0, 0);">
<a href="https://techcrunch.com/2020/03/09/dont-immutouch/" id="LPlnk956090">https://techcrunch.com/2020/03/09/dont-immutouch/</a><br>
</div>
<div id="LPBorder_GTaHR0cHM6Ly90ZWNoY3J1bmNoLmNvbS8yMDIwLzAzLzA5L2RvbnQtaW1tdXRvdWNoLw.." class="LPBorder193791" contenteditable="false" style="width: 100%; margin-top: 16px; margin-bottom: 16px; position: relative; max-width: 800px; min-width: 424px;">
<table id="LPContainer193791" role="presentation" style="padding: 12px 36px 12px 12px; width: 100%; border-width: 1px; border-style: solid; border-color: rgb(200, 200, 200); border-radius: 2px;">
<tbody>
<tr valign="top" style="border-spacing: 0px;">
<td>
<div id="LPImageContainer193791" style="position: relative; margin-right: 12px; height: 129.405px; overflow: hidden; width: 240px;">
<a target="_blank" id="LPImageAnchor193791" href="https://techcrunch.com/2020/03/09/dont-immutouch/"><img id="LPThumbnailImageId193791" alt="" height="129" style="display: block;" width="240" src="https://techcrunch.com/wp-content/uploads/2020/03/Immutouch-Coronavirus-Wristband.png?w=740"></a></div>
</td>
<td style="width: 100%;">
<div id="LPTitle193791" style="font-size: 21px; font-weight: 300; margin-right: 8px; font-family: wf_segoe-ui_light, "Segoe UI Light", "Segoe WP Light", "Segoe UI", "Segoe WP", Tahoma, Arial, sans-serif; margin-bottom: 12px;">
<a target="_blank" id="LPUrlAnchor193791" href="https://techcrunch.com/2020/03/09/dont-immutouch/" style="text-decoration: none; color: var(--themePrimary);">Immutouch wristband buzzes to stop you touching your face – TechCrunch</a></div>
<div id="LPDescription193791" style="font-size: 14px; max-height: 100px; color: rgb(102, 102, 102); font-family: wf_segoe-ui_normal, "Segoe UI", "Segoe WP", Tahoma, Arial, sans-serif; margin-bottom: 12px; margin-right: 8px; overflow: hidden;">
In the age of coronavirus, we all have to resist the urge to touch our faces. It’s how the virus can travel from doorknobs or other objects to your mucus membranes and get you sick. Luckily, a ...</div>
<div id="LPMetadata193791" style="font-size: 14px; font-weight: 400; color: rgb(166, 166, 166); font-family: wf_segoe-ui_normal, "Segoe UI", "Segoe WP", Tahoma, Arial, sans-serif;">
techcrunch.com</div>
</td>
</tr>
</tbody>
</table>
</div>
<br>
<div>
<div style="font-family: Arial, Helvetica, sans-serif; font-size: 10pt; color: rgb(0, 0, 0);">
<br>
</div>
<div id="Signature">
<div></div>
<div id="divtagdefaultwrapper" dir="ltr" style="font-size:10pt; color:#000000; font-family:Arial,Helvetica,sans-serif">
<div name="divtagdefaultwrapper" style="font-family:Calibri,Arial,Helvetica,sans-serif; font-size:; margin:0">
<div style="font-family:Tahoma; font-size:13px">
<div>___________________________</div>
John G. Neuhoff
<div>Professor, Department of Psychology</div>
<div>The College of Wooster</div>
<div>Chair, Auditory Perception & Cognition Society</div>
<div>http://jneuhoff.com</div>
</div>
</div>
</div>
<div>
<div id="appendonsend"></div>
<div style="font-family:Arial,Helvetica,sans-serif; font-size:10pt; color:rgb(0,0,0)">
<br>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" color="#000000" style="font-size:11pt"><b>From:</b> visionlist <visionlist-bounces@visionscience.com> on behalf of visionlist-request@visionscience.com <visionlist-request@visionscience.com><br>
<b>Sent:</b> Saturday, March 21, 2020 2:15 PM<br>
<b>To:</b> visionlist@visionscience.com <visionlist@visionscience.com><br>
<b>Subject:</b> visionlist Digest, Vol 39, Issue 18</font>
<div> </div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt">
<div class="PlainText">Send visionlist mailing list submissions to<br>
        visionlist@visionscience.com<br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://visionscience.com/mailman/listinfo/visionlist_visionscience.com">
http://visionscience.com/mailman/listinfo/visionlist_visionscience.com</a><br>
<br>
or, via email, send a message with subject or body 'help' to<br>
        visionlist-request@visionscience.com<br>
<br>
You can reach the person managing the list at<br>
        visionlist-owner@visionscience.com<br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of visionlist digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. COVID-19 and software for automatic detection of face<br>
      touching (James Pomerantz)<br>
   2. Trying to demonstrate stereoscopic vision remotely<br>
      (Lester Loschky)<br>
   3. Re: [cvnet] Trying to demonstrate stereoscopic vision<br>
      remotely (Maarten Wijntjes - IO)<br>
   4. Re: [cvnet] Trying to demonstrate stereoscopic vision<br>
      remotely (Lester Loschky)<br>
   5. IMRF 2020 postponed to 16.-19. Oct. 2020 (Marc Ernst)<br>
   6. Re: [cvnet] Trying to demonstrate stereoscopic vision<br>
      remotely (Ben Backus)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Fri, 20 Mar 2020 17:20:10 -0500<br>
From: James Pomerantz <pomeran@rice.edu><br>
To: visionlist@visionscience.com<br>
Subject: [visionlist] COVID-19 and software for automatic detection of<br>
        face touching<br>
Message-ID: <5372163b-fd5e-62eb-5aae-2887212a49a6@rice.edu><br>
Content-Type: text/plain; charset="utf-8"; Format="flowed"<br>
<br>
Dear Colleagues,<br>
<br>
Can someone put me in contact with any researchers who might know about <br>
smartphone software capable of detecting hands touching the face? That <br>
is certainly a primary pathway for the spread of COVID-19. I?m working <br>
with behavioral scientists who hope to extinguish face touching through <br>
established techniques such as operant conditioning. Software that <br>
automated detection could speed up their work considerably. Please <br>
forward contact information for anyone you think might help. This is <br>
obviously a matter of urgency if we are to slow the pandemic <br>
transmission rate and flatten the curve.<br>
<br>
Thanks, Jim Pomerantz, pomeran@rice.edu.<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200320/632bfc19/attachment-0001.html">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200320/632bfc19/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Fri, 20 Mar 2020 21:45:14 -0500<br>
From: Lester Loschky <loschky@ksu.edu><br>
To: visionlist@visionscience.com, cvnet <cvnet@mail.ewind.com><br>
Subject: [visionlist] Trying to demonstrate stereoscopic vision<br>
        remotely<br>
Message-ID:<br>
        <CAF+FnwvKpQz2GvcLSLS1GqMK5TxutG1-bYcDrrF4rLA88dQBfA@mail.gmail.com><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Hi Everybody,<br>
<br>
If you teach Sensation and Perception, and are currently preparing to teach<br>
it remotely, you may have the same question I have: how can you demonstrate<br>
stereovision remotely?<br>
<br>
As preface, the following are methods I have used in in-person classes to<br>
demonstrate stereo vision:<br>
<br>
   1. an actual stereoscope and example stereoimages to share with students<br>
   (including the classic Julesz square tile random-dot-stereogram image)<br>
   2. example stereoscopic lenticular lens images to share with students<br>
   3. red/green anaglyph images with sets of cardboard & plastic red/green<br>
   anaglyph glasses<br>
   4. Google Cardboard plus cell phone to share with students<br>
   5. random dot autosterographic images<br>
   6. touching two pen tips together using two eyes versus one eye<br>
   7. learning about crossed vs. uncrossed disparity using two fingers at<br>
   different distances<br>
<br>
Unfortunately, my students don't uniformly have access to the apparatuses<br>
required for 1-4 above.<br>
<br>
Re. # 3 (red/green anaglyph images), I've thought of having students order<br>
a single pair of red/green anaglyph glasses online.  However, it appears<br>
that the cardboard and plastic ones can only be purchased in bulk. (I guess<br>
they're too cheap to sell individually.)  They also might not arrive in<br>
time, but students could still enjoy them once they get them.<br>
<br>
Re. #4 (Google Cardboard), I recall getting a free Google Cardboard from<br>
the NYTimes several years ago.  However, they are now no cheaper than $5<br>
(Irisu, of India), and likely wouldn't arrive in time.<br>
<br>
Regarding option #5 (random-dot autostereograms), I have found that since<br>
seeing random dot autostereographic images in depth requires perceptual<br>
learning, a large proportion of students don't manage to learn (within the<br>
short time period given in a single class period).  (Of course, many<br>
students may have a lot of time on their hands now, so they might keep at<br>
it long enough to learn to perceive them.  But there will definitely be a<br>
good proportion of students who don't try long enough to learn, and so<br>
don't get it.)<br>
<br>
#6 (touching two pen tips together) is definitely something that can be<br>
done remotely.  However, it doesn't have the "Wow!" factor of other<br>
demonstrations.  It is more of an "oh, really..." experience to realize how<br>
much worse you are with one eye than two.<br>
<br>
#7 (using two fingers at different distances to teach crossed vs. uncrossed<br>
disparity) can definitely be done remotely.  It is very educational, but<br>
again does not have the "Wow" factor.<br>
<br>
There is also the finger "hot dog" illusion, which can be done remotely.<br>
It is interesting, but quite different from all of the others in that<br>
stereoscopic depth perception is not involved.<br>
<br>
For the related phenomenon of motion parallax, "wiggle vision" is a very<br>
nice demonstration:<br>
<a href="http://www.well.com/user/jimg/stereo/stereo_gate.html">http://www.well.com/user/jimg/stereo/stereo_gate.html</a><br>
<a href="https://www.3dwiggle.com/2016/06/28/5-wigglegrams-you-need-to-see-before-you-die/">https://www.3dwiggle.com/2016/06/28/5-wigglegrams-you-need-to-see-before-you-die/</a><br>
<br>
Of course, depth perception from motion parallax is importantly<br>
theoretically related to stereoscopic vision (both involve two different<br>
images from two different views, one seen over time (and only needing one<br>
eye)--motion parallax--and the other seen simultaneously (and requiring two<br>
eyes)--stereovision).  But it is not the same as stereoscopic vision, so is<br>
a separate but related issue.<br>
<br>
For the related phenomenon of binocular disparity, there is the famous<br>
"hole in your hand" illusion using a cardboard paper towel roll.  If<br>
students have a spare cardboard paper towel roll, they can do this<br>
remotely.  But, again, it is a theoretically related but separate issue.<br>
<br>
Any other suggestions would be appreciated.<br>
<br>
Best wishes,<br>
<br>
Les<br>
-- <br>
Lester Loschky<br>
Professor<br>
Associate Director, Cognitive and Neurobiological Approaches to Plasticity<br>
Center<br>
Department of Psychological Sciences<br>
471 Bluemont Hall<br>
1114 Mid-Campus Dr North<br>
Kansas State University<br>
Manhattan, KS  66506-5302<br>
email: loschky@ksu.edu<br>
research page: <a href="https://www.k-state.edu/psych/research/loschkylester.html">
https://www.k-state.edu/psych/research/loschkylester.html</a><br>
lab page: <a href="http://www.k-state.edu/psych/vcl/index.html">http://www.k-state.edu/psych/vcl/index.html</a><br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200320/0d350711/attachment-0001.html">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200320/0d350711/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Sat, 21 Mar 2020 08:21:10 +0000<br>
From: Maarten Wijntjes - IO <M.W.A.Wijntjes@tudelft.nl><br>
To: Christopher Tyler <cwtyler2020@gmail.com><br>
Cc: Lester Loschky <loschky@ksu.edu>, "visionlist@visionscience.com"<br>
        <visionlist@visionscience.com>, cvnet <cvnet@mail.ewind.com><br>
Subject: Re: [visionlist] [cvnet] Trying to demonstrate stereoscopic<br>
        vision remotely<br>
Message-ID: <D068C7CD-6A99-4E2D-A2C4-C33968287944@tudelft.nl><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
In addition it could be the right moment to discuss monocular stereopsis. Check Ames? publication about this, he offers various solutions, not all easily achievable at home but looking through an aperture should work. Off course a synopter (not mentioned by
 Ames) would have been great, so after the pandemic you should order some with me ;). What is cool and doable is looking through a make-up mirror to a picture on your smart phone (or a postcard, if available). It gives the effect of a snapscope and is related
 to the zograscope and graphoscope (which you can also simulate by looking through a big loupe).<br>
<br>
Off course the Pulfrich effect is easily demonstrated if  students have sunglasses ate hand.<br>
<br>
About the 3D Wiggle: I remember I once saw a museum website where visitors could help converting the 3D photo collection into GIFs that show the wiggle effect. It is quite essential to get the alignment right otherwise you get headache GIFs. But I could not
 find the website? would be a nice pastime now.<br>
<br>
Good luck!<br>
Maarten<br>
<br>
References<br>
Ames, A. (1925). The illusion of depth from single pictures. JOSA, 10(2), 137-148.<br>
<br>
Vishwanath, D., & Hibbard, P. B. (2013). Seeing in 3-D with just one eye: Stereopsis without binocular vision. Psychological science, 24(9), 1673-1685.<br>
<br>
Koenderink, J.J., Wijntjes, M.W.A., & van Doorn, A.J. (2013). Zograscopic viewing. i-Perception, 4(3), 192-206.<br>
<br>
<br>
On 21 Mar 2020, at 05:50, Christopher Tyler via cvnet <cvnet@lawton.ewind.com<mailto:cvnet@lawton.ewind.com>> wrote:<br>
<br>
You could try autostereograms, such as the examples on my Scholarpedia page<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.scholarpedia.org_article_Autostereogram&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=vhRKNtTW7PCWLmi9NbPxhzHa8gHdOhrtuzHzu1q1ulo&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__www.scholarpedia.org_article_Autostereogram&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=vhRKNtTW7PCWLmi9NbPxhzHa8gHdOhrtuzHzu1q1ulo&e=</a>>. 
 Not everyone can get them, but they're pretty effective for those who can.<br>
<br>
All the best,<br>
Christopher<br>
<br>
On Fri, Mar 20, 2020 at 9:35 PM Lester Loschky <loschky@ksu.edu<mailto:loschky@ksu.edu>> wrote:<br>
Hi Everybody,<br>
<br>
If you teach Sensation and Perception, and are currently preparing to teach it remotely, you may have the same question I have: how can you demonstrate stereovision remotely?<br>
<br>
As preface, the following are methods I have used in in-person classes to demonstrate stereo vision:<br>
<br>
  1.  an actual stereoscope and example stereoimages to share with students (including the classic Julesz square tile random-dot-stereogram image)<br>
  2.  example stereoscopic lenticular lens images to share with students<br>
  3.  red/green anaglyph images with sets of cardboard & plastic red/green anaglyph glasses<br>
  4.  Google Cardboard plus cell phone to share with students<br>
  5.  random dot autosterographic images<br>
  6.  touching two pen tips together using two eyes versus one eye<br>
  7.  learning about crossed vs. uncrossed disparity using two fingers at different distances<br>
<br>
Unfortunately, my students don't uniformly have access to the apparatuses required for 1-4 above.<br>
<br>
Re. # 3 (red/green anaglyph images), I've thought of having students order a single pair of red/green anaglyph glasses online.  However, it appears that the cardboard and plastic ones can only be purchased in bulk. (I guess they're too cheap to sell individually.) 
 They also might not arrive in time, but students could still enjoy them once they get them.<br>
<br>
Re. #4 (Google Cardboard), I recall getting a free Google Cardboard from the NYTimes several years ago.  However, they are now no cheaper than $5 (Irisu, of India), and likely wouldn't arrive in time.<br>
<br>
Regarding option #5 (random-dot autostereograms), I have found that since seeing random dot autostereographic images in depth requires perceptual learning, a large proportion of students don't manage to learn (within the short time period given in a single
 class period).  (Of course, many students may have a lot of time on their hands now, so they might keep at it long enough to learn to perceive them.  But there will definitely be a good proportion of students who don't try long enough to learn, and so don't
 get it.)<br>
<br>
#6 (touching two pen tips together) is definitely something that can be done remotely.  However, it doesn't have the "Wow!" factor of other demonstrations.  It is more of an "oh, really..." experience to realize how much worse you are with one eye than two.<br>
<br>
#7 (using two fingers at different distances to teach crossed vs. uncrossed disparity) can definitely be done remotely.  It is very educational, but again does not have the "Wow" factor.<br>
<br>
There is also the finger "hot dog" illusion, which can be done remotely.  It is interesting, but quite different from all of the others in that stereoscopic depth perception is not involved.<br>
<br>
For the related phenomenon of motion parallax, "wiggle vision" is a very nice demonstration:<br>
<a href="http://www.well.com/user/jimg/stereo/stereo_gate.html<https://urldefense.proofpoint.com/v2/url?u=http-3A__www.well.com_user_jimg_stereo_stereo-5Fgate.html&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=HPwhVQhqtG4Yp0wJsSQQ9jptwIKGmGCMdFA2BuzlVjc&e=">http://www.well.com/user/jimg/stereo/stereo_gate.html<https://urldefense.proofpoint.com/v2/url?u=http-3A__www.well.com_user_jimg_stereo_stereo-5Fgate.html&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=HPwhVQhqtG4Yp0wJsSQQ9jptwIKGmGCMdFA2BuzlVjc&e=</a>><br>
<a href="https://www.3dwiggle.com/2016/06/28/5-wigglegrams-you-need-to-see-before-you-die/<https://urldefense.proofpoint.com/v2/url?u=https-3A__www.3dwiggle.com_2016_06_28_5-2Dwigglegrams-2Dyou-2Dneed-2Dto-2Dsee-2Dbefore-2Dyou-2Ddie_&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=R5_kk7lER-Zb8bPIW9Hc-1e1ZY99D-l6y-2A80jkSiQ&e=">https://www.3dwiggle.com/2016/06/28/5-wigglegrams-you-need-to-see-before-you-die/<https://urldefense.proofpoint.com/v2/url?u=https-3A__www.3dwiggle.com_2016_06_28_5-2Dwigglegrams-2Dyou-2Dneed-2Dto-2Dsee-2Dbefore-2Dyou-2Ddie_&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=R5_kk7lER-Zb8bPIW9Hc-1e1ZY99D-l6y-2A80jkSiQ&e=</a>><br>
<br>
Of course, depth perception from motion parallax is importantly theoretically related to stereoscopic vision (both involve two different images from two different views, one seen over time (and only needing one eye)--motion parallax--and the other seen simultaneously
 (and requiring two eyes)--stereovision).  But it is not the same as stereoscopic vision, so is a separate but related issue.<br>
<br>
For the related phenomenon of binocular disparity, there is the famous "hole in your hand" illusion using a cardboard paper towel roll.  If students have a spare cardboard paper towel roll, they can do this remotely.  But, again, it is a theoretically related
 but separate issue.<br>
<br>
Any other suggestions would be appreciated.<br>
<br>
Best wishes,<br>
<br>
Les<br>
--<br>
Lester Loschky<br>
Professor<br>
Associate Director, Cognitive and Neurobiological Approaches to Plasticity Center<br>
Department of Psychological Sciences<br>
471 Bluemont Hall<br>
1114 Mid-Campus Dr North<br>
Kansas State University<br>
Manhattan, KS  66506-5302<br>
email: loschky@ksu.edu<<a href="mailto:loschky@ksu.edu">mailto:loschky@ksu.edu</a>><br>
research page: <a href="https://www.k-state.edu/psych/research/loschkylester.html<https://urldefense.proofpoint.com/v2/url?u=https-3A__www.k-2Dstate.edu_psych_research_loschkylester.html&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=JGHw_GKKB1Ph3fNYWUtFSsHL1uXmuntPqdkzyeJj_mE&e=">
https://www.k-state.edu/psych/research/loschkylester.html<https://urldefense.proofpoint.com/v2/url?u=https-3A__www.k-2Dstate.edu_psych_research_loschkylester.html&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=JGHw_GKKB1Ph3fNYWUtFSsHL1uXmuntPqdkzyeJj_mE&e=</a>><br>
lab page: <a href="http://www.k-state.edu/psych/vcl/index.html<https://urldefense.proofpoint.com/v2/url?u=http-3A__www.k-2Dstate.edu_psych_vcl_index.html&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=OkMzh7Z8mw-EU_qOkon63NKVE2SZbyeu5l0wAwoMSGs&e=">
http://www.k-state.edu/psych/vcl/index.html<https://urldefense.proofpoint.com/v2/url?u=http-3A__www.k-2Dstate.edu_psych_vcl_index.html&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=OkMzh7Z8mw-EU_qOkon63NKVE2SZbyeu5l0wAwoMSGs&e=</a>><br>
<br>
_______________________________________________<br>
cvnet mailing list<br>
cvnet@lawton.ewind.com<mailto:cvnet@lawton.ewind.com><br>
<a href="https://lawton.ewind.com/mailman/listinfo/cvnet<https://urldefense.proofpoint.com/v2/url?u=https-3A__lawton.ewind.com_mailman_listinfo_cvnet&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=j85CcFthbuaLJRJiJm4mmQDbyRBsl7X1MqUY06iIg9w&e=">https://lawton.ewind.com/mailman/listinfo/cvnet<https://urldefense.proofpoint.com/v2/url?u=https-3A__lawton.ewind.com_mailman_listinfo_cvnet&d=DwMFaQ&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=j85CcFthbuaLJRJiJm4mmQDbyRBsl7X1MqUY06iIg9w&e=</a>><br>
<br>
_______________________________________________<br>
cvnet mailing list<br>
cvnet@lawton.ewind.com<mailto:cvnet@lawton.ewind.com><br>
<a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__lawton.ewind.com_mailman_listinfo_cvnet&d=DwICAg&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=j85CcFthbuaLJRJiJm4mmQDbyRBsl7X1MqUY06iIg9w&e=">https://urldefense.proofpoint.com/v2/url?u=https-3A__lawton.ewind.com_mailman_listinfo_cvnet&d=DwICAg&c=XYzUhXBD2cD-CornpT4QE19xOJBbRy-TBPLK0X9U2o8&r=fQ0XK5AoJ5yykeTTnr8PjdayWWrISW6iZef_0J7eSMc&m=A7nkuIaBYQrSpjCwOyL_vQcGXVWxKn9KtWM-SXsJ8I8&s=j85CcFthbuaLJRJiJm4mmQDbyRBsl7X1MqUY06iIg9w&e=</a><br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/1c611e08/attachment-0001.html">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/1c611e08/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Sat, 21 Mar 2020 01:06:15 -0500<br>
From: Lester Loschky <loschky@ksu.edu><br>
To: Christopher Tyler <cwtyler2020@gmail.com><br>
Cc: visionlist@visionscience.com, cvnet <cvnet@mail.ewind.com><br>
Subject: Re: [visionlist] [cvnet] Trying to demonstrate stereoscopic<br>
        vision remotely<br>
Message-ID:<br>
        <CAF+FnwuUYGDF9dUDhsTYaEBqCwodeAscFxqCaeEb-MkioZWoZA@mail.gmail.com><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Thanks, Christopher!  I had listed random dot autosterograms as one option,<br>
and noted, as you did, that many people unfortunately have great difficulty<br>
learning to under-converge or over-converge.  However, your Scholarpedia<br>
page is extremely informative.  I learned a lot from it.  I<br>
(embarrassingly) hadn't realize the seminal role you played in the<br>
development of the algorithms for them.  I'll probably give some<br>
autostereograms to the students.  The students who manage to learn to<br>
perceive them will enjoy them.<br>
<br>
BTW, from an artistic point of view, some of my favorites are by Shiro<br>
Nakayama, from the Super Stereogram books you mentioned.<br>
<br>
Best wishes,<br>
<br>
Les<br>
<br>
On Fri, Mar 20, 2020 at 11:51 PM Christopher Tyler <cwtyler2020@gmail.com><br>
wrote:<br>
<br>
> You could try autostereograms, such as the examples on my Scholarpedia<br>
> page <<a href="http://www.scholarpedia.org/article/Autostereogram">http://www.scholarpedia.org/article/Autostereogram</a>>.  Not everyone<br>
> can get them, but they're pretty effective for those who can.<br>
><br>
> All the best,<br>
> Christopher<br>
><br>
> On Fri, Mar 20, 2020 at 9:35 PM Lester Loschky <loschky@ksu.edu> wrote:<br>
><br>
>> Hi Everybody,<br>
>><br>
>> If you teach Sensation and Perception, and are currently preparing to<br>
>> teach it remotely, you may have the same question I have: how can you<br>
>> demonstrate stereovision remotely?<br>
>><br>
>> As preface, the following are methods I have used in in-person classes to<br>
>> demonstrate stereo vision:<br>
>><br>
>>    1. an actual stereoscope and example stereoimages to share with<br>
>>    students (including the classic Julesz square tile random-dot-stereogram<br>
>>    image)<br>
>>    2. example stereoscopic lenticular lens images to share with students<br>
>>    3. red/green anaglyph images with sets of cardboard & plastic<br>
>>    red/green anaglyph glasses<br>
>>    4. Google Cardboard plus cell phone to share with students<br>
>>    5. random dot autosterographic images<br>
>>    6. touching two pen tips together using two eyes versus one eye<br>
>>    7. learning about crossed vs. uncrossed disparity using two fingers<br>
>>    at different distances<br>
>><br>
>> Unfortunately, my students don't uniformly have access to the apparatuses<br>
>> required for 1-4 above.<br>
>><br>
>> Re. # 3 (red/green anaglyph images), I've thought of having students<br>
>> order a single pair of red/green anaglyph glasses online.  However, it<br>
>> appears that the cardboard and plastic ones can only be purchased in bulk.<br>
>> (I guess they're too cheap to sell individually.)  They also might not<br>
>> arrive in time, but students could still enjoy them once they get them.<br>
>><br>
>> Re. #4 (Google Cardboard), I recall getting a free Google Cardboard from<br>
>> the NYTimes several years ago.  However, they are now no cheaper than $5<br>
>> (Irisu, of India), and likely wouldn't arrive in time.<br>
>><br>
>> Regarding option #5 (random-dot autostereograms), I have found that since<br>
>> seeing random dot autostereographic images in depth requires perceptual<br>
>> learning, a large proportion of students don't manage to learn (within the<br>
>> short time period given in a single class period).  (Of course, many<br>
>> students may have a lot of time on their hands now, so they might keep at<br>
>> it long enough to learn to perceive them.  But there will definitely be a<br>
>> good proportion of students who don't try long enough to learn, and so<br>
>> don't get it.)<br>
>><br>
>> #6 (touching two pen tips together) is definitely something that can be<br>
>> done remotely.  However, it doesn't have the "Wow!" factor of other<br>
>> demonstrations.  It is more of an "oh, really..." experience to realize how<br>
>> much worse you are with one eye than two.<br>
>><br>
>> #7 (using two fingers at different distances to teach crossed vs.<br>
>> uncrossed disparity) can definitely be done remotely.  It is very<br>
>> educational, but again does not have the "Wow" factor.<br>
>><br>
>> There is also the finger "hot dog" illusion, which can be done remotely.<br>
>> It is interesting, but quite different from all of the others in that<br>
>> stereoscopic depth perception is not involved.<br>
>><br>
>> For the related phenomenon of motion parallax, "wiggle vision" is a very<br>
>> nice demonstration:<br>
>> <a href="http://www.well.com/user/jimg/stereo/stereo_gate.html">http://www.well.com/user/jimg/stereo/stereo_gate.html</a><br>
>><br>
>> <a href="https://www.3dwiggle.com/2016/06/28/5-wigglegrams-you-need-to-see-before-you-die/">
https://www.3dwiggle.com/2016/06/28/5-wigglegrams-you-need-to-see-before-you-die/</a><br>
>><br>
>> Of course, depth perception from motion parallax is importantly<br>
>> theoretically related to stereoscopic vision (both involve two different<br>
>> images from two different views, one seen over time (and only needing one<br>
>> eye)--motion parallax--and the other seen simultaneously (and requiring two<br>
>> eyes)--stereovision).  But it is not the same as stereoscopic vision, so is<br>
>> a separate but related issue.<br>
>><br>
>> For the related phenomenon of binocular disparity, there is the famous<br>
>> "hole in your hand" illusion using a cardboard paper towel roll.  If<br>
>> students have a spare cardboard paper towel roll, they can do this<br>
>> remotely.  But, again, it is a theoretically related but separate issue.<br>
>><br>
>> Any other suggestions would be appreciated.<br>
>><br>
>> Best wishes,<br>
>><br>
>> Les<br>
>> --<br>
>> Lester Loschky<br>
>> Professor<br>
>> Associate Director, Cognitive and Neurobiological Approaches to<br>
>> Plasticity Center<br>
>> Department of Psychological Sciences<br>
>> 471 Bluemont Hall<br>
>> 1114 Mid-Campus Dr North<br>
>> Kansas State University<br>
>> Manhattan, KS  66506-5302<br>
>> email: loschky@ksu.edu<br>
>> research page: <a href="https://www.k-state.edu/psych/research/loschkylester.html">
https://www.k-state.edu/psych/research/loschkylester.html</a><br>
>> lab page: <a href="http://www.k-state.edu/psych/vcl/index.html">http://www.k-state.edu/psych/vcl/index.html</a><br>
>><br>
>> _______________________________________________<br>
>> cvnet mailing list<br>
>> cvnet@lawton.ewind.com<br>
>> <a href="https://lawton.ewind.com/mailman/listinfo/cvnet">https://lawton.ewind.com/mailman/listinfo/cvnet</a><br>
>><br>
><br>
<br>
-- <br>
Lester Loschky<br>
Professor<br>
Associate Director, Cognitive and Neurobiological Approaches to Plasticity<br>
Center<br>
Department of Psychological Sciences<br>
471 Bluemont Hall<br>
1114 Mid-Campus Dr North<br>
Kansas State University<br>
Manhattan, KS  66506-5302<br>
email: loschky@ksu.edu<br>
research page: <a href="https://www.k-state.edu/psych/research/loschkylester.html">
https://www.k-state.edu/psych/research/loschkylester.html</a><br>
lab page: <a href="http://www.k-state.edu/psych/vcl/index.html">http://www.k-state.edu/psych/vcl/index.html</a><br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/8d01d409/attachment-0001.html">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/8d01d409/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 5<br>
Date: Sat, 21 Mar 2020 17:21:45 +0100<br>
From: Marc Ernst <marc.ernst@uni-ulm.de><br>
To: visionlist@visionscience.com<br>
Subject: [visionlist] IMRF 2020 postponed to 16.-19. Oct. 2020<br>
Message-ID: <AC44E377-B1B4-49F6-8026-4A24D86F8C9E@uni-ulm.de><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
******   IMRF 2020 postponed to 16.-19. Oct. 2020   *******<br>
<br>
<br>
Unfortunately the COVID-19 situation is getting worse quickly these days and it is unlikely that the situation will have fully recovered by June so that it is safe for our colleagues to travel around the world. We therefore decided to postpone the International
 Multisensory Research Forum - IMRF 2020 - from June to October 16-19, 2020 and we truly hope things will be back to normal by then.
<br>
<br>
We are of course aware that this can potentially pose problems for some who may already have different plans for October. Also your research may develop in the coming months despite the presently tense situation. We therefore open the abstract submission portal
 again, so you can adapt your abstracts or you may also submit new abstracts. If you cannot make it for the October date, you can of course also withdraw your abstract or make one of your coauthors the presenter of the research.<br>
<br>
The new abstract submission deadline is August 14, 2020. <br>
You can submit or alter your abstracts at any moment until this date. Reviewing of all abstracts, including the ones already submitted, will follow this date.
<br>
<br>
The same date applies for adapting the symposium proposals. <br>
<br>
Registration will stay open and the dates for early registration will be moved to September 10, 2020.
<br>
<br>
Payed registrations will remain valid. Of course we will reimburse you in case you payed already but you cannot make it for the October dates. Please let us know by April 20 if this is the case. If you have not payed your registration yet, you can do so at
 any moment from now on: Early registration until registration Sept. 10, late registration until Oct. 10 or on-site registration. 
<br>
<br>
I hope to see you in Ulm in October. Be safe and stay healthy!!!! <br>
<br>
<br>
Best, <br>
Marc Ernst on behalf of the IMRF organizing team. <br>
<br>
<br>
---------------------------------------------------------<br>
Prof. Dr. Marc Ernst<br>
<br>
Appl. Cognitive Psychology <br>
Faculty for Computer Science, Engineering, and Psychology <br>
Ulm University <br>
Albert-Einstein-Allee 43<br>
89081 Ulm<br>
<br>
room:    43.3.103<br>
phone:           +49-731-50 320 50  <br>
sekr:    +49-731-50 320 51<br>
fax:             +49-731-50 320 59<br>
mobile:  +49-152-22 543 156<br>
marc.ernst@uni-ulm.de <<a href="mailto:marc.ernst@uni-ulm.de">mailto:marc.ernst@uni-ulm.de</a>><br>
<br>
<br>
<br>
<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/22ab525d/attachment-0001.html">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/22ab525d/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 6<br>
Date: Sat, 21 Mar 2020 13:49:13 -0700<br>
From: Ben Backus <ben.backus@gmail.com><br>
To: Lester Loschky <loschky@ksu.edu><br>
Cc: Christopher Tyler <cwtyler2020@gmail.com>, cvnet<br>
        <cvnet@mail.ewind.com>,  visionlist@visionscience.com<br>
Subject: Re: [visionlist] [cvnet] Trying to demonstrate stereoscopic<br>
        vision remotely<br>
Message-ID:<br>
        <CAGnM2QTyb0V1q12ONqaMaovYP5YOoUOh69mz-JhVG-N8v8GkHg@mail.gmail.com><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Les et al,<br>
How about something like this?<br>
Please use the attached powerpoint file any way you like.<br>
<br>
<br>
[image: image.png]<br>
<br>
<br>
On Sat, Mar 21, 2020 at 9:21 AM Lester Loschky <loschky@ksu.edu> wrote:<br>
<br>
> Thanks, Christopher!  I had listed random dot autosterograms as one<br>
> option, and noted, as you did, that many people unfortunately have great<br>
> difficulty learning to under-converge or over-converge.  However, your<br>
><br>
 ...<br>
On Fri, Mar 20, 2020 at 11:51 PM Christopher Tyler <cwtyler2020@gmail.com><br>
wrote:<br>
<br>
> You could try autostereograms, such as the examples on my Scholarpedia<br>
>> page <<a href="http://www.scholarpedia.org/article/Autostereogram">http://www.scholarpedia.org/article/Autostereogram</a>>.  Not everyone<br>
>> can get them, but they're pretty effective for those who can.<br>
>><br>
>> On Fri, Mar 20, 2020 at 9:35 PM Lester Loschky <loschky@ksu.edu> wrote:<br>
>><br>
>>> Hi Everybody,<br>
>>><br>
>>> If you teach Sensation and Perception, and are currently preparing to<br>
>>> teach it remotely, you may have the same question I have: how can you<br>
>>> demonstrate stereovision remotely?<br>
>>><br>
>> ...<br>
<br>
-- <br>
Ben Backus<br>
CSO, Vivid Vision Inc (ben@seevividly.com)<br>
Assoc. Prof. Emeritus, SUNY College of Optometry (bbackus@sunyopt.edu)<br>
<<a href="http://poseidon.sunyopt.edu/Backuslab/">http://poseidon.sunyopt.edu/Backuslab/</a>><br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/072133e8/attachment.html">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/072133e8/attachment.html</a>><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: image.png<br>
Type: image/png<br>
Size: 22528 bytes<br>
Desc: not available<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/072133e8/attachment.png">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/072133e8/attachment.png</a>><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: Stereo Demo Backus Vivid Vision.pptx<br>
Type: application/octet-stream<br>
Size: 40330 bytes<br>
Desc: not available<br>
URL: <<a href="http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/072133e8/attachment.obj">http://visionscience.com/pipermail/visionlist_visionscience.com/attachments/20200321/072133e8/attachment.obj</a>><br>
<br>
------------------------------<br>
<br>
Subject: Digest Footer<br>
<br>
_______________________________________________<br>
visionlist mailing list<br>
visionlist@visionscience.com<br>
<a href="http://visionscience.com/mailman/listinfo/visionlist_visionscience.com">http://visionscience.com/mailman/listinfo/visionlist_visionscience.com</a><br>
<br>
<br>
------------------------------<br>
<br>
End of visionlist Digest, Vol 39, Issue 18<br>
******************************************<br>
</div>
</span></font></div>
</div>
</div>
</div>
</body>
</html>