<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none"><!--P{margin-top:0;margin-bottom:0;} --></style>
</head>
<body dir="ltr" style="font-size:12pt;color:#000000;background-color:#FFFFFF;font-family:Calibri,Arial,Helvetica,sans-serif;">
<p>Second Call for Papers/Participation: SKELNETON Challenge<br>
Deep Learning for Geometric Shape Understanding Workshop in conjunction with CVPR 2019<br>
June 17, 2019 Long Beach, CA</p>
<p><br>
http://ubee.enseeiht.fr/skelneton/<br>
<br>
Computer vision approaches have made tremendous efforts toward understanding shape from various data formats, especially since entering the deep learning era. Although accurate results have been obtained in detection, recognition, and segmentation, there is
 less attention and research on extracting topological and geometric information from shapes. These geometric representations provide compact and intuitive abstractions for modeling, synthesis, compression, matching, and analysis. Extracting such representations
 is significantly different from segmentation and recognition tasks, as they contain both local and global information about the shape.<br>
<br>
<br>
This workshop aims to bring together researchers from computer vision, computer graphics, and mathematics to advance the state of the art in topological and geometric shape analysis using deep learning.<br>
<br>
*** Competition: The SkelNetOn Challenge is structured around shape understanding in three domains. We provide shape datasets and some complementary resources (e.g, pre/post-processing, sampling, and data augmentation scripts) and the testing platform. The
 winner of each track will receive a Titan RTX GPU, sponsored by NVIDIA.<br>
<br>
Submissions to the challenge will perform one of the following tasks:<br>
- Shape pixels to skeleton pixels: Extract skeleton pixels from a binary shape image. This is a binary classification problem where image pixels are labeled as on or off the skeleton.<br>
- Shape points to skeleton points: Extract skeleton points from a shape point cloud. This may be treated as a binary classification problem where points are labeled as on or off the skeleton, though other formulations (e.g., transformer networks) are also acceptable.<br>
- Shape pixels to parametric curves: Extract a parametric representation of a network of curves in the skeleton and their radii, modeled as a degree-5 Bézier curve in three dimensions (two spatial coordinates and the radius). This may be thought of as a regression
 problem.<br>
</p>
<p><br>
</p>
<p>*** Call for papers: We will have an open submission format where i) participants in the competition will be required to submit a paper, or ii) researchers can share their novel unpublished research in deep learning for geometric shape understanding. The
 top submissions in each category will be invited to give presentations during the workshop and will be published in the workshop proceedings.<br>
<br>
Although we encourage all submissions to benchmark their results on the evaluation platform, there are other relevant research areas that our datasets do not address. For those areas, the scope of the submissions may include but is not limited to the following
 general topics:  <br>
- Boundary extraction from 2D/3D shapes<br>
- Geometric deep learning on 3D and higher dimensions <br>
- Generative methods for parametric representations <br>
- Novel shape descriptors and embeddings for geometric deep learning <br>
- Deep learning on non-Euclidean geometries <br>
- Transformation invariant shape abstractions <br>
- Shape abstraction in different domains <br>
- Synthetic data generation for data augmentation in geometric deep learning <br>
- Comparison of shape representations for efficient deep learning <br>
- Applications of geometric deep learning in different domains<br>
<br>
<br>
The CMT site for paper submissions is https://cmt3.research.microsoft.com/SKELNETON2019/. Each submitted paper must be no longer than 4 pages excluding references. Please refer to the CVPR author submission guidelines for instructions at http://cvpr2019.thecvf.com/submission/main_conference/author_guidelines.
 The review process will be double blind but the papers will be linked to any associated challenge submissions. Selected papers will be published in IEEE CVPRW proceedings, visible in IEEE Xplore and on the CVF Website.<br>
<br>
*** Important Dates:<br>
Feb 15: Call for Challenge/Call for Papers<br>
Apr 3: Submissions close<br>
Apr 14: Notification to authors<br>
Apr 19: Camera-ready paper<br>
Jun 17: Workshop<br>
 <br>
*** Organizing Committee and Contact:<br>
Ilke Demir, DeepScale, idemir@purdue.edu<br>
Kathryn Leonard, Occidental College, kleonardci@gmail.com<br>
Géraldine Morin, Univ. of Toulouse, morin@n7.fr<br>
Camila Hahn, Bergische Universitat Wuppertal, chahn@uni-wuppertal.de</p>
</body>
</html>