<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
p.MsoListParagraph, li.MsoListParagraph, div.MsoListParagraph
        {mso-style-priority:34;
        margin-top:0in;
        margin-right:0in;
        margin-bottom:0in;
        margin-left:.5in;
        mso-add-space:auto;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
p.MsoListParagraphCxSpFirst, li.MsoListParagraphCxSpFirst, div.MsoListParagraphCxSpFirst
        {mso-style-priority:34;
        mso-style-type:export-only;
        margin-top:0in;
        margin-right:0in;
        margin-bottom:0in;
        margin-left:.5in;
        mso-add-space:auto;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
p.MsoListParagraphCxSpMiddle, li.MsoListParagraphCxSpMiddle, div.MsoListParagraphCxSpMiddle
        {mso-style-priority:34;
        mso-style-type:export-only;
        margin-top:0in;
        margin-right:0in;
        margin-bottom:0in;
        margin-left:.5in;
        mso-add-space:auto;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
p.MsoListParagraphCxSpLast, li.MsoListParagraphCxSpLast, div.MsoListParagraphCxSpLast
        {mso-style-priority:34;
        mso-style-type:export-only;
        margin-top:0in;
        margin-right:0in;
        margin-bottom:0in;
        margin-left:.5in;
        mso-add-space:auto;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:70.85pt 70.85pt 70.85pt 70.85pt;}
div.WordSection1
        {page:WordSection1;}
/* List Definitions */
@list l0
        {mso-list-id:1230462600;
        mso-list-template-ids:-1772606056;}
@list l1
        {mso-list-id:1902515408;
        mso-list-template-ids:588578272;}
@list l1:level1
        {mso-level-tab-stop:.5in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level2
        {mso-level-tab-stop:1.0in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level3
        {mso-level-tab-stop:1.5in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level4
        {mso-level-tab-stop:2.0in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level5
        {mso-level-tab-stop:2.5in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level6
        {mso-level-tab-stop:3.0in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level7
        {mso-level-tab-stop:3.5in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level8
        {mso-level-tab-stop:4.0in;
        mso-level-number-position:left;
        text-indent:-.25in;}
@list l1:level9
        {mso-level-tab-stop:4.5in;
        mso-level-number-position:left;
        text-indent:-.25in;}
ol
        {margin-bottom:0in;}
ul
        {margin-bottom:0in;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EL link="#0563C1" vlink="#954F72" style='word-wrap:break-word'><div class=WordSection1><div><p class=MsoNormal style='text-align:justify'><span lang=EN-US>The </span><span lang=EN-GB><a href="http://cbmi2023.org/"><span lang=EN-US>20th International Conference on Content-based Multimedia Indexing</span></a></span><span lang=EN-US> #CBMI2023 will take place in Orleans, France from September 20<sup>th</sup> to 23<sup>rd</sup>, 2023. </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US>Sponsored by the AI4Media project, CBMI2023 aims at bringing together the various communities involved in all aspects of content-based multimedia indexing for retrieval, browsing, management, visualization and analytics.</span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><b><span lang=EN-US>Call for special session proposals</span></b><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US>CBMI’2023 is calling for high quality Special Sessions addressing innovative research related to Artificial Intelligence for analysis and indexing of multimedia and multimodal information. The main scope of the conference is in analysis and understanding of multimedia contents including:</span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><ol style='margin-top:0in' start=1 type=1><li class=MsoListParagraphCxSpFirst style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Multimedia information retrieval (image, audio, video, text)</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Mobile media retrieval</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Event-based media retrieval</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Affective / emotional interaction or interfaces for multimedia retrieval</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Multimedia data mining and analytics</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Multimedia retrieval for multi-modal analytics and visualization</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Multimedia recommendation</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Multimedia verification (e.g., multi-modal fact-checking, deep fake analysis)</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Summarization, browsing, and organization of multimedia content</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpMiddle style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Evaluation and benchmarking of multimedia retrieval systems Explanations</span><span lang=EN-GB><o:p></o:p></span></li><li class=MsoListParagraphCxSpLast style='margin-left:0in;mso-add-space:auto;mso-list:l1 level1 lfo3'><span lang=EN-US>Application domains: health, sustainable cities, ecology,… </span><span lang=EN-GB><o:p></o:p></span></li></ol><p class=MsoNormal><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>More information HERE > </span><span lang=EN-GB><a href="http://cbmi2023.org/call-for-special-session/"><span lang=EN-US>http://cbmi2023.org/call-for-special-session/</span></a> <o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><b><span lang=EN-US>Call for regular papers</span></b><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US>Authors are encouraged to submit previously unpublished research papers in the broad field of content-based multimedia indexing and applications. The organisers highlight contributions addressing the main problem of search and retrieval. </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US>This call also includes artificial intelligence in multimedia analysis, user interaction, social media indexing and retrieval. In addition, special sessions on specific technical aspects or application domains are planned, such as Multimedia for Healthcare, Explainability of AI tools in Multimedia, Physical models in Multimedia mining…</span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US>The CBMI proceedings are traditionally indexed and distributed by ACM DL. Best papers will be invited to submit extended versions of their contributions to a special issue of a leading journal in the field.</span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal style='text-align:justify'><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>More information HERE > </span><span lang=EN-GB><a href="http://cbmi2023.org/call-for-regular-papers/"><span lang=EN-US>http://cbmi2023.org/call-for-regular-papers/</span></a> <o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US> </span><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><b><span lang=EN-GB>Important Dates</span></b><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><b><span lang=EN-GB> </span></b><span lang=EN-GB><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-GB>Deadline call for special session: 23 January 2023<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-GB>Deadline call for regular papers: 12 April 2023<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-GB> <o:p></o:p></span></p><p class=MsoNormal><span lang=EN-GB>More information about the event at <a href="http://cbmi2023.org/">http://cbmi2023.org/</a> <o:p></o:p></span></p><p class=MsoNormal><span lang=EN-GB style='mso-fareast-language:EN-GB'><o:p> </o:p></span></p></div></div></body></html>