<div dir="ltr">I think that was what Todd was trying to say, but with a good dose of irony added. </div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Nov 17, 2017 at 7:57 AM, Roland Fleming <span dir="ltr"><<a href="mailto:Roland.W.Fleming@psychol.uni-giessen.de" target="_blank">Roland.W.Fleming@psychol.uni-giessen.de</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
Hi Todd,<br>
<br>
I’m pretty sure that’s why they are advocating Bayesian approaches that (supposedly) do allow you to evaluate the evidence for the null hypothesis, as in:<br>
<br>
Rouder, J. N., Speckman, P. L., Sun, D., Morey, R. D., & Iverson, G. (2009). Bayesian t tests for accepting and rejecting the null hypothesis. Psychonomic bulletin & review, 16(2), 225-237.<br>
<br>
— R<br>
<div><div class="h5"><br>
<br>
> On 16 Nov 2017, at 21:45, Horowitz, Todd (NIH/NCI) [E] <<a href="mailto:todd.horowitz@nih.gov">todd.horowitz@nih.gov</a>> wrote:<br>
><br>
> Oops!<br>
><br>
> What I meant to say was that a p-value tells you how likely your data are given the null hypothesis, it doesn’t really say anything about the probability of the null hypothesis. So a SMALL p-value means that my data are unlikely given the null hypothesis, and a LARGE p-value means my data are likely given the null-hypothesis... but they could be even more compatible with some other hypothesis!<br>
><br>
> thanks<br>
> Todd<br>
><br>
> From: Horowitz, Todd (NIH/NCI) [E] [mailto:<a href="mailto:todd.horowitz@nih.gov">todd.horowitz@nih.gov</a>]<br>
> Sent: Thursday, November 16, 2017 2:00 PM<br>
> To: Pam Pallett <<a href="mailto:ppallett@gmail.com">ppallett@gmail.com</a>>; <a href="mailto:visionlist@visionscience.com">visionlist@visionscience.com</a><br>
> Subject: Re: [visionlist] Statistical Criticism is Easy; I Need to Remember That Real People are Involved<br>
><br>
> I thought that a a large p-value simply meant that my data were unlikely given the null-hypothesis, a statement which yields no evidence about either the null- or alternative hypotheses.<br>
><br>
> From: Pam Pallett [mailto:<a href="mailto:ppallett@gmail.com">ppallett@gmail.com</a>]<br>
> Sent: Thursday, November 16, 2017 10:29 AM<br>
> To: <a href="mailto:visionlist@visionscience.com">visionlist@visionscience.com</a><br>
> Subject: [visionlist] Statistical Criticism is Easy; I Need to Remember That Real People are Involved<br>
><br>
> Hi All,<br>
><br>
> I came across a blog today by Frank Harrell, Professor of Biostatistics and Founding Chair at Vanderbilt.  His most recent post is the title of this email.  But as I'm reading through his blog, I'm hearing a lot that has been discussed and experienced by professors and postdocs subscribed to this list.  We are often very separated from our neighboring departments, and I actually found some comfort in the fact that these problems seem spread across the board (misery loves company). Even if we have been echoing these problems for over a decade with little effective change.<br>
><br>
> In his most recent post he says, "There are several ways to improve the system that I believe would foster clinical research and make peer review more objective and productive." I'm curious about what the people in the vision community think of these suggestions and whether they are realistic to implement in our field.  His list is at the bottom of the entry.  <a href="http://www.fharrell.com/2017/11/" rel="noreferrer" target="_blank">http://www.fharrell.com/2017/<wbr>11/</a><br>
><br>
> For those experiencing TL;DR, here is the shortlist:<br>
> ·         Have journals conduct reviews of background and methods without knowledge of results.<br>
> ·         Abandon journals and use researcher-led online systems that invite open post-"publication" peer review and give researchers the opportunities to improve their "paper" in an ongoing fashion.<br>
> ·         If not publishing the entire paper online, deposit the background and methods sections for open pre-journal submission review.<br>
> ·         Abandon null hypothesis testing and p-values. Before that, always keep in mind that a large p-value means nothing more than "we don't yet have evidence against the null hypothesis", and emphasize confidence limits.<br>
> ·         Embrace Bayesian methods that provide safer and more actionable evidence, including measures that quantify clinical significance. And if one is trying to amass evidence that the effects of two treatments are similar, compute the direct probability of similarity using a Bayesian model.<br>
> ·         Improve statistical education of researchers, referees, and journal editors, and strengthen statistical review for journals.<br>
> ·         Until everyone understands the most important statistical concepts, better educate researchers and peer reviewers on statistical problems to avoid.<br>
><br>
> Best,<br>
> Pam Pallett<br>
</div></div>> ______________________________<wbr>_________________<br>
> visionlist mailing list<br>
> <a href="mailto:visionlist@visionscience.com">visionlist@visionscience.com</a><br>
> <a href="http://visionscience.com/mailman/listinfo/visionlist_visionscience.com" rel="noreferrer" target="_blank">http://visionscience.com/<wbr>mailman/listinfo/visionlist_<wbr>visionscience.com</a><br>
<br>
<br>
______________________________<wbr>_________________<br>
visionlist mailing list<br>
<a href="mailto:visionlist@visionscience.com">visionlist@visionscience.com</a><br>
<a href="http://visionscience.com/mailman/listinfo/visionlist_visionscience.com" rel="noreferrer" target="_blank">http://visionscience.com/<wbr>mailman/listinfo/visionlist_<wbr>visionscience.com</a><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Lester Loschky</div><div>Professor</div><div>Associate Director, Cognitive and Neurobiological Approaches to Plasticity Center<br>Department of Psychological Sciences<br>471 Bluemont Hall</div><div><div>1114 Mid-Campus Dr North</div>Kansas State University<br>Manhattan, KS 66056-5302<br>Phone: 785-532-6882<br>E-mail: <a href="mailto:loschky@ksu.edu" target="_blank">loschky@ksu.edu</a><br>research page: <a href="http://www.k-state.edu/psych/research/loschkylester.html" target="_blank">http://www.k-state.edu/psych/research/loschkylester.html</a><br>Lab page: <a href="http://www.k-state.edu/psych/vcl/index.html" target="_blank">www.k-state.edu/psych/vcl/</a></div></div></div></div></div></div></div>
</div>