<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=us-ascii"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:#954F72;
        text-decoration:underline;}
p.MsoPlainText, li.MsoPlainText, div.MsoPlainText
        {mso-style-priority:99;
        mso-style-link:"Texto sin formato Car";
        margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
span.EstiloCorreo17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
span.TextosinformatoCar
        {mso-style-name:"Texto sin formato Car";
        mso-style-priority:99;
        mso-style-link:"Texto sin formato";
        font-family:"Calibri",sans-serif;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:70.85pt 3.0cm 70.85pt 3.0cm;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=ES link="#0563C1" vlink="#954F72"><div class=WordSection1><p class=MsoPlainText>[Apologies for multiple copies due to cross-posting. Please forward to colleagues who might be interested]<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoPlainText>Dear Colleague,<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoNormal>We would like to cordially invite you to submit a paper to the Special Issue Brain-Inspired Intelligent Systems for Daily Assistance of the Computational Intelligence and Neuroscience Journal<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Call for Papers<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Ambient intelligence refers to a framework designed to augment the level of interaction between individuals and their environment. Typically sensors are positioned within an environment providing the acquisition of continuous real-time data. The data are typically consumed by an agent, which responds to the sensor input(s) according to some prescribed rule base. The ultimate goal is to provide a person/agent with information that enhances the ability of the person/agent to interact more effectively within a prescribed environment. Typical applications include remote healthcare monitoring, robot monitoring and interaction at home, complex decision making about emotions, and behaviour in humans and animals.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>The confluence of the ambient intelligence, ubiquitous computing, and related domains on the one hand and various cognitive computing, neural-inspired algorithms (e.g., deep ANNs, deep RL), and brain-intelligent systems on the other hand will assist us in redefining person-interface cooperativity. More generally, we are interested in discovering how these frameworks, when imbued within a social neuroscience perspective, could enhance the quality of life either at home or in a clinical environment for all individuals. For example, in robotic assistance, better and faster algorithms for learning, self-organization, and decision making can shorten the critical time from detection to cognitive manipulation of the environment, while dependent people are at risk. These can be people with acquired brain injuries. In addition, accurate emotion recognition systems of distressed individuals either adults or children who cannot self-report information due to physical deformation, shyness, or anxiety could result in more reliable diagnostics in a clinical environment.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>This special issue is expected to present original work on algorithms and neural-inspired systems that flexibly adapt to new learning tasks, learn from the environment using multimodal signals (e.g., neural, physiological, and kinematic), and produce autonomous adaptive agencies, which utilize cognitive and affective data, within a social neuroscientific framework. These agencies should be capable of acquiring data from a variety of inputs/sensors, generating models, which become mutually interactive and assistive to all members of a social construct (such as a classroom, hospital ward, encounter group, and a family at home).<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Potential topics include but are not limited to the following:<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>    New biological neural network models and training algorithms<o:p></o:p></p><p class=MsoNormal>    Innovative deep learning algorithms and architectures<o:p></o:p></p><p class=MsoNormal>    Progressive learning algorithms<o:p></o:p></p><p class=MsoNormal>    Complex environments<o:p></o:p></p><p class=MsoNormal>    Neural networks social robotics<o:p></o:p></p><p class=MsoNormal>    Self-organization, unsupervised, and semisupervised learning<o:p></o:p></p><p class=MsoNormal>    Brain-computer interfaces and assistive technologies<o:p></o:p></p><p class=MsoNormal>    Ambient assistive living (AAL)<o:p></o:p></p><p class=MsoNormal>    Innovative brain-neural computer interfaces<o:p></o:p></p><p class=MsoNormal>    Emotion recognition models and systems<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Authors can submit their manuscripts through the Manuscript Tracking System at <a href="https://mts.hindawi.com/submit/journals/cin/eql/">https://mts.hindawi.com/submit/journals/cin/eql/</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Submission Deadline      Friday, 12 October 2018<o:p></o:p></p><p class=MsoNormal>Publication Date              March 2019<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Papers are published upon acceptance, regardless of the Special Issue publication date.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Lead Guest Editor<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>    Anastassia Angelopoulou, University of Westminster, London, UK<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Guest Editors<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>    Jose Garcia-Rodriguez, University of Alicante, Alicante, Spain<o:p></o:p></p><p class=MsoNormal>    Epameinondas Kapetanios, University of Westminster, London, UK<o:p></o:p></p><p class=MsoNormal>    Peter Roth, TU Graz University of Technology, Graz, Austria<o:p></o:p></p><p class=MsoNormal>    Kenneth Revett, HCL Infosystems Ltd., Boston, USA<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><b>Best regards.<o:p></o:p></b></p><p class=MsoNormal><b><o:p> </o:p></b></p><p class=MsoNormal><b>Jose<o:p></o:p></b></p><p class=MsoNormal><b><o:p> </o:p></b></p><p class=MsoNormal><b>Jose Garcia-Rodriguez, Phd<o:p></o:p></b></p><p class=MsoNormal><b>Associate Professor<o:p></o:p></b></p><p class=MsoNormal><b>Editor in Chief International Journal of Computer vision and Image Processing <o:p></o:p></b></p><p class=MsoNormal><b>Vice-Dean International Relations Polytechnic University College <o:p></o:p></b></p><p class=MsoNormal><b>Director Phd Program in Computer Science <o:p></o:p></b></p><p class=MsoNormal><b>Director of NVIDIA  GPU Research Center  & GPU Education Center <o:p></o:p></b></p><p class=MsoNormal><b>Dpt. Computer Technology , University of Alicante. PO Box. 99. 03080  Alicante (Spain)<o:p></o:p></b></p><p class=MsoNormal><b>tel: +34 965903400 ext. 2616 mobile: +34 610488989 fax: +34 965909643<o:p></o:p></b></p><p class=MsoNormal><b>email: <a href="mailto:jgarcia@dtic.ua.es"><span style='color:#0563C1'>jgarcia@dtic.ua.es</span></a>  skype: jose.garcia.alicante   website: <a href="http://www.dtic.ua.es/~jgarcia/"><span style='color:#0563C1'>http://www.dtic.ua.es/~jgarcia/</span></a><o:p></o:p></b></p><p class=MsoNormal><o:p> </o:p></p></div></body></html>